《美国军事智库:人工智能可能在2040年发动核战争》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2018-05-02
  • 美国知名军事智库兰德公司(RAND Corporation)日前发布报告称,人工智能(AI)可能会在2040年发动核战争。

    兰德公司在报告中警告称,人工智能可能打破地缘政治稳定性,突破当前核武器仅作为威慑手段的地位。

    兰德公司在发布这份报告前,咨询了大量专家。报告称,将来人工智能可能会鼓励人类做出灾难性的决定。例如,传感技术的提升可能会导致一些报复性力量被摧毁,如潜艇和可移动导弹。

    此外,人工智能也可能引诱某个国家对另一个国家发动“先发制人”的打击,以获得讨价还价的能力,即使该国本来无意发动攻击。

    这份报告的联合作者安德鲁·洛恩(Andrew Lohn)称:“一些专家担忧,人类越来越依靠人工智能可能会导致一系列新的灾难性错误。在技术成熟之前,使用人工智能技术存在极大风险,很可能遭到背叛。因此,在未来数十年,维持战略稳定可能很困难。所有核大国都应重视该问题,以限制这种核风险。”

    这份报告主要强调了使用人工智能技术可能对军事决策带来的风险,而不是关注自动驾驶飞机等其他威胁。

    这份报告还提到了1983年前苏联发生的一次虚假核警报事件。当时,前苏联一座核导弹预警中心的电脑发出遇袭警报,后来证实是一次虚假警报。

    报告另一位联合作者爱德华·盖斯特(Edward Geist)称:“核战争和人工智能之间的关联并不是新话题。在历史上,两者之间有过交集。事实上,许多人工智能的早期研究,都是为了支持军事,或者是有军事目的。”

    在此之前,已经有许多业界领袖和专家对人工智能在军事领域的应用发出警告。例如,包括特斯拉CEO埃隆·马斯克(Elon Musk)在内的100多名业内人士曾向联合国呼吁,阻止开发杀伤性自动化武器。

    此外,马斯克本月初还曾表示,人类可能在不知不觉中就创造了“一个不朽的独裁者”,并将永远无法摆脱它们的统治。他说,人工智能的独裁统治期限将远超出任何一个政权,从而实现对人类的无限期压迫。

相关报告
  • 《特朗普欲将AI用于军事关键任务,兰德公司警告2040年前或导致核战争》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:姜山
    • 发布时间:2018-05-02
    • 美国国防部副部长透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣,五角大楼已经准备在未来6个月内建成一个整合多个AI项目的新中心。于此同时,美兰德公司发布报告,警告说AI在军事任务中的应用可能增加核战争的风险。 据美国非盈利新闻调查组织CPI的报道,美国国防部的第二把手上周二透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣。 美国国防部副部长、前波音公司高管Patrick Shanahan表示,人工智能(使用计算机系统执行通常需要人类智能的任务)可以帮助国防部更好地利用其收集的大量情报数据。 他还表示,AI可以用于加强军事后勤能力,在正确的时间为士兵和维修人员提供适当的零件和装备。AI也可以促进更明智的决策,为军方人员提供医疗服务,从而节省成本。 Patrick Shanahan以及其他高级国防官员说,五角大楼已经准备在未来6个月内建成一个“卓越中心”(Center for Excellence),将多个现有的与AI应用相关的军事计划整合在一起,为这项工作带来更多连贯性和动力。 在Shanahan向防务作家团体(Defense Writers Group)发表上述讲话的同一天,兰德公司(Rand Corporation)发布了一分公开报告,警告说AI在军事任务中的应用可能导致令人担忧的负面影响,包括:AI可能通过巧妙地破坏核威慑的一个关键根基,从而增加核战争的风险。兰德公司是美国的一个智库,主要为美国军方提供调研和情报分析服务。 兰德报告:人工智能可能在2040年前增加核战争的风险 这份新报告题为《人工智能可能如何影响核战争的风险》(How might Artificial Intelligence Affect the Risk of Nuclear War),报告指出,AI具有破坏核安全基础的“巨大潜力”。这个严峻的结论是兰德组织的一系列研讨会得出的,参与该研讨会的人员包括AI、核安全、政府和军方的专家。这是兰德公司Security 2040项目的一部分,旨在评估AI以及其他现金计算在未来20年里对核安全的影响。针对这一报告的结论,兰德正在呼吁国际社会就此进行对话。 这一讨论的核心是核威慑的概念,即保证“相互保证毁灭”(MAD)或“保证报复”(assured retaliation),防止一方对有同等武装的对手发射其核武器。这是一种冷酷、计算式的逻辑,至少在我们经历过的历史阶段,它至少阻止了一场全面的核战争,让理性的、自我保护的大国选择了对抗冷战。只要没有一个核力量维持有重大的先发制人的能力,MAD的概念就仍占据主导地位;如果一个武器系统能够在第一次攻击中幸存下来,并以同等的力量回击,那么“保证报复”就仍然有效。但是如果一方失去了反击的能力,或者即使它开始认为它有失去这种能力的风险,这样的体系就可能削弱并变得不稳定。 这个方程式鼓励国家行为者避免采取可能破坏当前地缘政治平衡的行为,但是,正如我们在过去几十年里一再看到的那样,核大国仍欲图“先发制人”。例如,隐形轰炸机、核潜艇的发展,以及最近俄罗斯总统弗拉基米尔·普京(Vladimir Putin)展示的“无敌”弹道导弹。 值得庆幸的是,这些发展都没有真正地结束超级大国在第一次打击后的反击能力,但正如兰德的新报告指出的那样,先进的人工智能技术与无人机、卫星以及其他强大的传感器等监视技术相结合,可以削弱这种促使微妙的冷战平衡得以保持的技术平衡。该报告称,人工智能将通过对敌方安全基础设施实行大规模监控,发现人眼看不到的模式,揭示其破坏性的漏洞,从而实现这一目的。 报告作者之一,兰德公司的一名工程师Andrew Lohn说:“这可不仅是电影里的场景,如果我们不加以小心,很简单的事情就可能引发紧张局势,将我们带到危险的局面。” 一个暴露着的敌人突然意识到它很容易遭受“先发制人”,或者意识到它可能很快就会失去反击的能力,将陷入一个非常不利的位置。这种情况可能会迫使处境不利的国家寻找能够恢复平衡的方法,它的行动可能会变得像被逼到角落里的金刚狼一般。先进的人工智能可能导致一个充满不信任、竞争的新时代,孤注一掷的核大国会愿意承担灾难性的、甚至毁灭性的风险。 令人不安的是,即将失去“保证毁灭”可能会导致所谓的预防性战争,即一场以阻止敌方获取攻击能力为目的的战争。例如,在第一次世界大战前的几年中,德国严重担忧作为其竞争对手的俄罗斯开始成为重要的地区强国。德国专家预测,俄罗斯将能够在20年内在武装冲突中击败德国,这引发了一场预防性战争。而在二战结束后不久,美国的一些思想家,包括哲学家伯特兰·罗素和数学家约翰·冯诺伊曼,呼吁在苏联发展自己的核弹之前,对苏联实施先发制人的核打击。 正如这些例子所显示的那样,事态的发展如果要破坏军事优势或平衡状态(即MAD),这一时期可能是非常危险的,会引发各种疯狂的想法。正如兰德公司的报告指出的那样,我们可能正在进入另一个这样的转型期。作者在报告中写道,人工智能“有可能在2040年前加剧核战略稳定面临的挑战,即使技术进步的速度不大”。 兰德公司的助理政策研究员,该报告的合作作者Edward Geist说,自主系统不需要通过杀人来破坏稳定性,更有可能的是造成灾难性的战争。他在一份声明中说:“新的人工智能能力可能会让人们认为,如果他们犹豫不决的话,他们就会失败。”这可能会导致他们扣扳机的手指更加跃跃试试。到那时,尽管人类仍处于“控制”状态,AI将使战争更有可能发生。 最后,作者警告说,未来可能会出现严峻的形势,但作者也同意AI也可能迎来前所未有的稳定时代。 他们写道: 一些专家担心,对AI的日益依赖可能导致新的灾难性错误。在技术成熟之前,使用AI可能会有压力;它可能易受对抗性的破坏;或者敌方可能认为AI比它实际上的能力更强大,导致他们犯下灾难性的错误。另一方面,如果核大国设法建立一种与AI可能提供的新能力相适应的战略稳定形式,就可以减少不信任并缓解国际紧张局势,从而降低核战争的风险。 作者们表示,无法预测这两种情景哪一种会发生,但国际社会必须立即采取行动,以减轻潜在的风险。在解决方案而言,作者提出了国际讨论,建立新的全球机构和协议,发展创新技术、外交和军事保障等。 这是技术的双刃剑。AI既可以导致我们的厄运,也可以像在《巨人:福宾计划》(Colossus:The Forbin Project;1970)和《战争游戏》(War Games,1983)等电影中那样,保护我们免于由于自己的错误而毁灭。那么,最好记住这句古老的格言:抱最好的希望,做最坏的打算。
  • 《美军人工智能发展决策的智库评估》

    • 来源专题:装备制造监测服务
    • 编译者:zhangmin
    • 发布时间:2020-11-11
    • 在美军人工智能发展决策过程中,智库作为专业政策研究机构,充分利用其专业优势、专业力量,对人工智能战略、政策以及所形成的发展态势进行评估,为战略与政策的优化提供建议,进而也扩大自身的影响。   01   智库评估的关注点   美国智库通过研究报告、会议论坛、政策评论、听证咨询等形式,对美军人工智能发展进行多角度评估,在技术影响、发展态势、管理政策三个方面较为突出。   技术影响评估主要关注国家安全和军事应用两个方面,对产生的问题进行分析评估,为后续的战略政策制定进行铺垫和造势,属于比较典型的事前评估。面对竞争对手在新兴技术领域,特别是人工智能方面的快速发展,美国高层强烈感受到国家安全面临的威胁和挑战,为化解危机、提出对策,新美国安全中心、兰德公司等知名智库多次发布研究报告,分析评估人工智能的深远影响以及美国面临的挑战,并提出政策建议。近几年来,仅以人工智能与国家安全为主题的研究报告就有五份之多,有的机构还先后提出两份。在军事应用方面,众多知名智库围绕情报分析、规划决策、自主系统、人机编队、作战概念、伦理风险等方面,从历史与现实、理论与实践、对手与美军等方面进行了多维度评估,为美军人工智能发展与应用建言献策。   发展态势评估主要是对美军在人工智能组织、人才、机制、应用等方面的评估,属于比较典型的事中评估。要评估态势,需要与国防部和军种相关机构进行多次沟通,充分掌握大量一手信息和数据,尽管美国有信息公开法律保障,但对于军事领域,必须与军方建立较为密切的关系。作为联邦资助的研究与发展中心,兰德公司具有得天独厚的条件,根据国防部的委托,兰德公司对国防部人工智能态势进行了长时间评估,经过对国防部和其他政府机构的中小型企业和利益相关方,以及学术界和私营企业的专家进行访谈并开展案例研究,于2019年底发布《国防部人工智能态势:评估与建议》报告,从组织、进展、应用、创新、数据、人才等六个维度,对美国国防部人工智能态势进行了综合分析与评估。国防创新委员会作为国防部的智囊,2016年成立以来,多次对美军人工智能发展情况进行评估,通过考察对比国防部和商业领域在人工智能领域的发展现状,借鉴商业领域的有效做法,提出设立机构加强统一管理、创新软件采办程序、加强国防部与学术界和私营部门联系等建议。   管理政策评估主要是对涉及美军人工智能发展的相关法律、指令、指示、备忘录等政策进行评估,属于比较典型的事后评估。人工智能在军事上的应用,其中一个重要影响就是增强了武器系统的自主性,但随着系统的自主性越来越高,系统能够自主决策进行杀伤行为,如何提升系统的识别能力、防止对平民的误击等问题随之而来,人在系统中的作用和价值成为涉及武器设计、战争伦理、国际条约的重要问题。2012年,美国国防部就发布3000.09指令《武器系统的自主性》,对自主和半自主武器系统的设计、开发、获取、测试、部署和使用等活动进行规范,要求自主和半自主武器系统的设计应允许指挥官和操作人员对使用武力进行适当程度的人类判断。对于这一问题,海军分析中心专门成立“自主性与人工智能中心”,并发布《人工智能、机器人和集群——问题、疑问和研究建议》《第三次抵消战略的思考:应对自主性与人工智能在军事中的挑战》等报告,对美军自主性发展进行评估并提出系列建议。新美国安全中心专门成立了一个伦理自治项目,主要研究未来武器系统中不断增加的法律、伦理、政策和战略稳定性方面的问题,发表了《自主武器与作战风险》《武器系统中的自主性》等系列报告,对自主武器的风险性进行分析评估。   02   智库评估的影响   智库在对人工智能发展评估的基础上,就投资、人才、标准、数据、机构等方面提出一系列建议,促进了人工智能发展战略与政策的调整和修订。2016年,美国白宫依托科学技术委员会发布人工智能研发战略,经过几年的推行实践,在智库、企业等机构的评估促进下,2019年,又发布了战略文件修订版。新版文件对原版文件确定的七大战略方向进行了坚持与继承,同时又根据需要进行了优化和创新,并增加了“拓展公私伙伴关系以加快人工智能发展”作为第八战略方向。   智库对人工智能发展的评估,也对相关立法产生了重要影响。智库通过开展咨询研究、参加立法听证、参与立法起草等方式,向国会有关委员会、小组委员会以及议员不断输送评估研究成果,提出立法内容建议,推动有关举措进入法律条文。通过分析《2019财年国防授权法》和《2020财年国防授权法》,智库的评估建议都得到不同程度的体现,显示了智库在人工智能立法方面的影响力。《2019财年国防授权法》专门列出关于人工智能主题研究的内容,提出要设立高层次咨询专家组织,在国家层面全面审查人工智能、机器学习和相关技术领域的进步情况,以及国防部在人工智能、机器学习和此类技术方面的竞争力。《2020财年国防授权法》专门设立关于联合人工智能中心方面的内容,要求每半年至2023年年底,国防部长应向国会提交关于联合人工智能中心的报告。   新的机构和部门的设立也是智库评估所促成的重要结果。国防创新委员会的成员大都由知名企业高管担任,在考察和评估国防部人工智能发展情况后,委员会认为,人工智能和机器学习可媲美第一次“抵消战略”的核武器及第二次“抵消战略”的精确制导武器和隐形技术,国防部应沿袭过去为确保核武器技术优势设立专门机构的传统,创建针对人工智能和机器学习的内部中心,以维持国防部在这两个领域的技术优势。在此基础上,要加强国防部、学术界及私营部门之间的交流沟通,采用更加灵活的采办机制,实现创新项目及后续成果在军种的快速部署。2017年10月,时任国防部长卡特正式采纳创建人工智能和机器学习中心的建议,2018年6月,国防部联合人工智能中心成立。