24小时联系电话:185 8888 888

要闻
您现在的位置: 首页 > 要闻 > 国防创新委员会公布了五角大楼的AI伦理原则
  • 零食新鲜化,来伊份的产品溯源里藏着这些秘密···

    零食新鲜化,来伊份的产品溯源里藏着这些秘密···

    发布时间:2023/07/03

    在“新鲜零食”的战略引领下,“主板零食第一股”来伊份迈入了企业发展的第23个年头,其传统的线下溯源活动“寻鲜之旅”也已经发展至第九届,本次再度启程将探索芒果之乡——百色,继续为用户展现以“青山绿水”铸“新鲜零食...

  • 雷科智途联合太平洋财产保险共同举办商用车AEBS防碰撞演示活动

    雷科智途联合太平洋财产保险共同举办商用车AEBS防碰撞演示活动

    发布时间:2022/01/04

    2021年12月16日,“安全出行·科技护航”-商用车自动紧急制动系统(AdvancedEmergencyBrakingSystem,简称“AEBS”)防碰撞演示在山东省青岛莱西市隆重举行。出席本次活动的领导和嘉宾有:莱西市应急管理局副局长李凌云...

  • 剑南春再传喜报,两年蝉联四次冠军

    剑南春再传喜报,两年蝉联四次冠军

    发布时间:2021/12/14

    2021年“双12”天猫年终购物节战报出炉,剑南春天猫平台官方旗舰店以超高人气和火爆的销量,勇夺天猫“双12”白酒品牌旗舰店交易指数第一名。 剑南春领跑榜单,两年蝉联四次冠军 剑南春在线上购物狂欢节上一直有着不...

  • 百年变局新机遇 第九届岭南论坛在广州举行

    百年变局新机遇 第九届岭南论坛在广州举行

    发布时间:2021/11/22

    11月21日,第九届岭南论坛在广州成功举办。本次论坛围绕“百年变局新机遇”主题,原中国银行业监督管理委员会主席刘明康,中山大学岭南学院教授、博导、广东省人民政府参事陆军,斯坦福大学教授、2001年诺贝尔经济...

  • 破记录的2万亿美元刺激计划中有什么?

    破记录的2万亿美元刺激计划中有什么?

    发布时间:2020/03/27

    经过几天的谈判,美国参议院今晚对第三项反对冠状病毒危机的法案进行投票。前两个法案着重于为医学研究提供资金并向病毒受害者提供经济支持,而“第三阶段”刺激法案则是对整个美国经济的大规模救助方案。这将花费...

  • 世界在煤炭支持上花费了半万亿美元

    世界在煤炭支持上花费了半万亿美元

    发布时间:2020/03/17

    全世界的国家有可能继续支持煤炭行业,而不是投资于成本更低,对环境更友好的风能和太阳能项目,从而浪费6400亿美元。 金融智囊团Carbon Tracker在周四发布的一份报告中说,全球60%的燃煤发电厂以比可再生能源替...

  • 您还不知道怎么毫无危险的投资?

    您还不知道怎么毫无危险的投资?

    发布时间:2020/03/13

    查看了许多财务平台,阅读有关加密货币、证券交易所的信息并没找到了答案? 我也处于过类似情况。我现在写出这篇文章,以帮助您与AlysDax公司一起开始工作! 前几天,我的朋友建议我AlysDax平台,哪个专为机构投...

  • MK FOREX提醒您:黄金:迈向短期阻力的路上

    MK FOREX提醒您:黄金:迈向短期阻力的路上

    发布时间:2020/03/02

    金价延续自1625美元/盎司开始的反弹 正常的RSI情况表明反弹将持续 关键的斐波纳奇回撤位,附近的上升趋势线限制了短线下跌 截至周四早间,金价在每盎司1,650美元附近。金价周三走出了U型走势。 黄金价格最近从162...

国防创新委员会公布了五角大楼的AI伦理原则

发布时间:2019/11/02 要闻 浏览次数:696

 
由五角大楼提供建议的16名知名技术专家组成的小组国防创新委员会今天投票批准了国防部的AI伦理原则。该报告包括12条建议,说明美军未来如何在战斗和非战斗AI系统中应用道德规范。这些原则分为五个主要原则:负责任,公平,可追溯,可靠和可支配。
原则指出,人类应继续对“发展,部署,使用和成果”负责,军方使用的人工智能系统应避免可能导致意外伤害的偏见。国防部部署的AI还应该可靠,可管理,并使用“透明且可审核的方法,数据源以及设计过程和文档。”
“您可能会在[AI伦理原则文档]中看到公平一词的共鸣。我会告诫您,在许多情况下,国防部不应该公平。” DIB董事会成员和卡内基·梅隆大学研究副总裁Michael McQuade今天说。 “这应该是一个坚定的原则,即我们的系统中不应有意外的偏见。”
应用发明联合创始人和计算机理论家丹尼·希利斯(Danny Hillis)及其董事会成员同意对文件草案进行修订,称可支配原则应包括“避免意外伤害和破坏,以及避免人为脱离已部署系统。”希利斯说,该报告应明确明确。军方使用的AI系统应配备一个关闭开关,以防万一情况出错时人为按下。
“我认为这是关于它们的最具问题性的方面,因为它们能够展现和发展出设计者很难预测的行为形式,有时这些行为形式实际上是一种自我保存的行为形式,可以他与设计者的意图和目标有些脱节,所以我认为这是关于他们的最危险的潜在方面之一。”
国防创新委员会由谷歌前首席执行官埃里克·施密特(Eric Sc​​hmidt)主持,成员包括麻省理工学院CSAIL主任丹妮拉·罗斯,海登天文馆主任尼尔·德格拉斯·泰森,LinkedIn联合创始人里德·霍夫曼,美国法规主任詹妮弗·帕尔卡和阿斯彭研究所主任沃尔特·艾萨克森。
国防部发言人对VentureBeat表示,题为“人工智能原则:国防部关于人工智能在伦理上的使用的建议”的文件和随附的白皮书将在国防创新委员会的网站上共享。现在,这两者都将与国防部领导共享,以供他们决定是否采纳任何原则。
展望未来,董事会希望负责国防部内负责领先AI计划的联合AI中心与国防部长Mark Esper合作,制定沟通和政策命令,以确保原则能够成功,在可重复性,加强研究等方面进行研究投资AI测试和评估技术,并创建年度AI安全和保障会议。
道德原则通过两个红色团队练习进行了研究,以考虑它们如何影响作战决策并认识到AI的潜在意外后果。它还承认指导国防部道德规范的现有文件,例如美国宪法,2015年《国防部战争法》手册和1949年日内瓦公约。
道德原则文件强调了中国和俄罗斯不断增长的AI投资。
在国家安全的高风险领域中,必须指出的是,美国与威权主义国家进行技术竞争,威权主义国家在追求AI应用的方式与民主国家所期望的法律,道德和道德规范相抵触。报告的目的是,我们的目标是建立在国防部长期的道德框架中提供的原则。该框架在过去的几十年中经受了新兴军事专用或双重用途技术的出现和部署,并反映了我们的民主规范和价值观。”
今天发布的原则是一个为期15个月的过程的产物,该过程将收集来自公共论坛和AI社区领导人(例如Facebook首席AI科学家Yann Le Cun,前MIT媒体实验室主任,Joi Ito,OpenAI研究总监Dario Amodei博士)的评论和见解,斯坦福大学前首席AI科学家李飞飞博士。也欢迎公众发表意见。
在今年春季在硅谷VentureBeat参加的一次公开会议上,人工智能专家和反对致命自动机器人的人们就五角大楼和美国服务人员可能面临的潜在道德挑战发表了意见,例如改进目标检测或武器瞄准系统。当时,微软道德与社会事务总监米拉·莱恩(Mira Lane)和其他人认识到美国对手可能缺乏道德上的困扰,但美军在确定未来如何以及如何不使用AI方面可以发挥重要作用。 AI伦理中军事领导的概念今天再次出现。
麦克奎德说:“这是一个领导全球对话的机会,这种对话建立在我们是谁,我们作为一个国家和部门如何运作以及我们从何而来的基础上。”
施密特在今年早些时候由李的斯坦福大学人类中心人工智能研究所举行的一次会议上说,人工智能伦理报告的目的和计划于下周提交国会的国家安全委员会关于人工智能报告的目的是帮助联合国。各国建立了类似于世界上30多个其他国家制定的国家AI政策的国家。
DIB在今天在乔治敦大学举行的DIB会议上还讨论了:国防部和联合AI中心如何招募和保留AI-ML人才;讨论军队如何缺乏数字创新;以及增加采用精益设计,技术技能,对服务成员进行AI教育以及针对AI就绪的军队的运动的建议。

姓 名:
邮箱
留 言: