(原标题:In Project Maven's Wake, the Pentagon Seeks AI Tech Talent) 1月14日消息,据连线杂志报道,美国军方正竭力在人工智能(AI)领域取得进展。美国国防部的高级官员相信,AI将是确保美国在未来战争中取得胜利的关键
(原标题:In Project Maven's Wake, the Pentagon Seeks AI Tech Talent)
1月14日消息,据连线杂志报道,美国军方正竭力在人工智能(AI)领域取得进展。美国国防部的高级官员相信,AI将是确保美国在未来战争中取得胜利的关键。但国防部的内部文件和对高级官员的采访都表明,国防部因为被一家科技巨头抛弃而陷入步履蹒跚的窘境。为摆脱这种困境,美国国防部开始了一场争夺AI人才的大战。
2018年6月份,谷歌宣布退出美国国防部备受争议的Project Maven项目,Project Maven是美国军方首次探索在战争中大规模使用AI的项目。该项目使用谷歌AI软件提高视频分析效率,帮助情报分析师从视频片段中识别出军事目标。10月份,数千名谷歌员工签署了一份请愿书,呼吁公司终止在该项目上与美国军方的合作。
据五名熟悉有关Project Maven内部讨论的消息人士透露,谷歌的撤出让美国国防部内部感到挫败和沮丧,甚至是愤怒。
6月28日,分发给大约50名美国国防部官员的内部备忘录称:“我们无意中卷入了一场关于战略叙述的争论。”这份备忘录指出,美国国防部因谷歌的撤出措手不及,该机构目前正面临AI专家日益疏远它们的窘境,而这些人对军方AI发展计划至关重要。备忘录中警告称:“如果我们不能赢得关键人物的支持,我们就无法有效地与对手竞争。”
Project Maven项目2017年的成本只有7000万美元左右,这是美国国防部当年6000亿美元海量预算中非常少的部分。但谷歌的声明表明,该部门仍在努力应对更大的公共关系和科学挑战。到目前为止,谷歌的回应是试图为其AI研发工作塑造全新的公众形象,并寻求组建由科技公司高管组成的顾问团对国防部的AI政策进行审查。
美国国防部感到焦虑的原因是显而易见的:它希望未来能把AI集成到武器中,这一愿望已经得到了数十亿美元承诺的支持,以及数十亿美元的技术研发资金支持。
AI最终会在战争中扮演什么样的角色还不清楚。许多AI武器将不涉及机器算法的决策,但它们正在朝这方面努力。美国国防部去年8月的一份战略文件提到:“支撑无人系统的技术将使开发和部署自主系统成为可能,这些系统可以独立选择目标,并以致命武力发动攻击。”
美国国防部的官员们表示,开发AI不同于开发其他军事技术。尽管军方很容易就能从大型国防承包商那里获得最前沿的战斗机和炸弹,但AI和机器学习创新的核心却属于硅谷的非国防科技巨头。官员们担心,如果没有他们的帮助,美国军方可能会输掉一场不断升级的全球军备竞赛。在这场竞赛中,AI将扮演越来越重要的角色。
现任美国国防部下属的国防数字服务(DDS)负责人克里斯・林奇(Chris Lynch)在采访中说:“如果决定不参与Project Maven,实际上也未参与讨论AI或机器学习是否将被用于军事行动。”他说,AI正在走向战争,所以问题在于,哪些美国技术专家会去设计它?
林奇表示,AI技术太重要了,即使需要依靠不那么专业的专家,该机构也会继续推进这方面的工作。但林奇补充说:“如果没有行业内最优秀人才的帮助,我们就会雇佣那些能力不算最强的人,首先开发能力或许远不如我们预期的产品。”
谷歌不太可能很快转变态度。在宣布该公司将不再寻求续签Project Maven合同不到一个星期之后,谷歌发布了新的AI指导原则,特别说明该公司不会使用AI“用于帮助开发武器或其他用于直接伤害人类的产品”。自那以来,许多美国国防官员一直抱怨谷歌不爱国,并指责该公司仍在寻求与中国政府合作。中国是美国在AI技术领域的最大竞争对手。
据知情人士透露,Project Maven旨在简化情报分析师的工作,方法是在无人机和其他平台的视频片段中标注目标类型,帮助分析师收集信息,并缩小对潜在目标的关注范围。但这些算法并没有选择目标,也没有下达攻击指令。长期以来,那些担心先进计算技术与新形式致命暴力相结合的人,对这种算法总是有种胆战心惊的感觉。
谷歌的许多人还是以令人担忧的眼光看待这个项目。一位熟悉内部讨论的前谷歌员工表示:“他们立即想到了无人机,然后他们又想到了机器学习和自动目标识别,我认为这个项目开发的AI很快就会升级,让它们能够进行有针对性地杀戮,发动有针对性的战争。”
谷歌只是美国国防部寻求招募的科技巨头之一,其目的是将AI注入现代战争中。其他目标还包括微软和亚马逊。据现任和前任美国国防部官员说,在谷歌2018年6月份宣布退出的消息后,十几家大型防务公司接洽了国防部官员,提出愿意接手这一工作。但硅谷活动人士也表示,军方不能轻易忽视科技工作者的道德疑虑。
上述那位前谷歌员工表示:“那些对股东负责的人、那些希望获得国防部价值数百万美元合同的人,与那些不得不研发这些东西、但又觉得自己在道德上与这些东西格格不入的普通员工之间,存在一种分歧。”为了弥合这一鸿沟,缓和AI工程师的尖锐反对情绪,美国国防部迄今采取了两项举措。
第一项措施于6月底正式启动,目的是建立一个联合AI中心,旨在监督和管理军方的所有AI工作。这个中心将由陆军中将杰克・沙纳汉(Jack Shanahan)负责,他的最后一项主要任务是执行Project Maven。这是个政治上非常精明的决定,它的第一个重大举措是找出一种利用AI帮助军队在自然灾害中组织搜索和救援的方法。
美国国防部AI战略的首席设计师之一布伦丹・迈考德(Brendan McCord)表示:“我们的目标是拯救生命,我们军队的根本作用和使命是维持和平。这是为了阻止战争和保护我们的国家。这是为了提高全球稳定,也是为了最终保护启蒙运动产生的一系列价值观。”
第二项举措是要求由一个由技术专家组成的咨询小组――国防创新委员会,对AI道德进行新的审查。该委员会成员包括前谷歌首席执行官埃里克・施密特(Eric Schmidt)和职业社交网站LinkedIn联合创始人里德・霍夫曼(Reid Hoffman)。
这个委员会旨在为军方使用AI制定指导原则,目前由约书亚・马尔库塞(Joshua Marcuse)管理。马尔库塞曾担任美国国防部长创新问题顾问,现在他是该委员会的执行董事。该顾问团将与AI专家举行公开会议,为期约9个月,同时美国国防部内部的一个小组也在讨论类似问题。然后,防创新委员会将向国防部长詹姆斯・马蒂斯(James Mattis)提出关于AI是否应该被植入武器计划的建议。马尔库塞在采访中说:“这必须是真正意义上的审查,愿意对我们将要做的和不愿做的事情施加些限制,明确界限所在。”
为了确保这场辩论的公正性,马尔库塞表示,国防创新委员会正在寻找对军方在AI领域中所扮演角色持批评态度的人士。他说:“他们有各种各样的担忧,包括有效性、合法性等问题,以及国防部将如何应用这些技术,因为在某些情况下,我们有合法权力侵犯人们的隐私,我们有法律权威实施暴力,我们有合法权力发动战争。”
美国国防部的官员们表示,解决这些担忧至关重要,因为美国在管理AI人才方面与其他国家存在差异。马尔库塞说:“这些人必须选择与我们合作,所以我们需要向他们提供有意义的、可核实的承诺,那就是他们有真正的机会与我们共同工作,让他们能够相信自己是好人,AI技术被用于好的方面。”
尽管马尔库塞愿意讨论未来对AI采用的潜在限制,但他认为国防创新委员会不会试图改变美国国防部依赖AI自动武器的政策。奥巴马政府于2012年制定了这一政策。特朗普政府在2017年5月对其进行了小幅度技术修改,但并未阻止军方在任何武器系统中使用AI。
美国国防部多位官员表示,该机构的政策要求指挥官对任何植入AI的武器系统拥有“适当程度的人类判断控制”,不过这一说法尚未得到进一步解释。然而,这项政策确实要求,在计算机被编程启动致命行动之前,包含它的武器系统必须经过美国国防部三位高级官员的特别审查。到目前为止,还没有进行过这类特别审查。
据一位熟悉细节的前国防部官员透露,2016年底,即奥巴马政府任期即将结束之际,美国国防部重新审视了2012年的政策,并在一份机密报告中决定,不需要进行重大改革。这位前官员说:“没有任何东西被阻止,没有人想要更新指令。”
尽管如此,特朗普政府在内部讨论过,让军方的武器工程师更清楚地知道,该政策并不禁止在武器系统中加入自主权。特朗普政府担心军方的武器工程师不愿将AI应用到他们的设计中。硅谷对Project Maven的争论至少暂时阻止了这种讨论,促使美国国防部领导人首先努力赢得国防创新委员会的支持。
但无论如何,美国国防部打算将更多的AI集成到其武器中。马尔库塞说:“我们不会对一项可能彻底改变战争模式的新技术视而不见,这对美国民众、对我们派往战场的军人以及依赖我们的盟友来说都不公平。”(小小)
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!