《布鲁金斯学会:暂停人工智能训练是不可取的》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-09
  • 2023年4月11日,布鲁金斯学会(Brookings Institution)发布其客座高级研究员约翰·维拉塞纳(John Villasenor)撰写的评论文章《暂停训练大型人工智能系统会产生的问题(The problems with a moratorium on training large AI systems)》。文章针对生命未来研究所(Future of Life Institute)在今年三月底发布的公开信提出异议,该公开信呼吁“所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少六个月,并且这种暂停应该是公开的、可核查的,并包括所有关键行为者。如果不能迅速颁布这种暂停令,政府应介入并实行暂停”。该公开信还指出,“只有在我们确信强大的人工智能系统的效果是积极的、其风险是可控的时候,才应该开发这些系统。”该公开信最初有包括许多知名的技术领袖在内的一千多人签名,后又有数千人加入签名。

    文章认为,个别公司和大学应有权决定是否进行人工智能的研发工作,以及以何种速度进行人工智能的研发工作,并且,美国政府出面暂停训练强大的人工智能系统可能会引起以下六点担忧。首先,禁令将推迟人工智能能带来的好处。目前,人工智能已助力于药物开发、医疗诊断、气候建模、天气预报、教育等许多领域,而大型人工智能系统更将产生我们无法提前预见的好处。如果推迟某些应用,如用来改善教育和扩大法律服务的使用范围的大型语言模型,也将产生严重的后果。因此,如果政府在全国范围内强行停止一种关键类别的人工智能的研发工作,将不可避免地推迟获得该技术的好处。其次,禁令本身在法律上存疑。美国联邦政府或州政府实体都没有明确的法律权力来发布暂停训练大型人工智能系统的禁令。例如,联邦贸易委员会(Federal Trade Commission, FTC)的使命是“保护公众免受欺骗性或不公平的商业行为和不公平的竞争方法的影响”。但FTC的暂停令将阻碍开发更好的人工智能系统的公平企业竞争,反而促使它们步调一致地停止然后再重新开始训练大型人工智能模型的工作,尽管国会在商业条款下有广泛的立法权,但这种权力也受到限制。同时,这一禁令也会对《第一修正案(the First Amendment)》产生影响,该修正案保护信息接收,如通过互联网获得的数字信息。当然,正如最近对制造人工智能图像生成器的公司提起的几起诉讼所强调的,当人工智能模型使用第三方数据进行训练时,存在复杂且未解决的版权法问题。但是,如果一家公司能够以避免违反版权法或合同的方式建立一个大型数据集,就有充分的理由(尽管未经测试)认为《第一修正案》赋予了使用这些数据来训练大型人工智能模型的权利。简而言之,无论是来自政府机构还是国会的暂停令都会立即在法院上受到质疑。第三,禁令难以有效执行。美国政府显然不会对涉嫌进行未经授权的人工智能训练的公司进行突击检查,政府也没有人力或技术资源来明确地核实暂停令在全国范围内的遵守情况。相反,暂停令可能会通过自我报告的方式实施,要求公司和大学证明他们没有从事被禁止的人工智能工作,但要获得需要被约束的公司和大学名单也并非易事。执法的另一个问题是,除非有举报人站出来,否则违反暂停令的行为几乎不可能被发现。不同于核武器开发这样的项目,其相关的材料和技术,如铀和核离心机,都很难得到,难以操作,且用途非常有限,而人工智能系统所需的关键数据和计算能力都很容易获得,而且基本上有无限的不违反禁令的用途清单。第四,禁令存在界定问题。哪些与人工智能有关的工作是应该被禁止的?受暂停令约束的人工智能系统的规模阈值是多少?什么指标或一组指标将被认为足以描述人工智能系统的规模,又由谁来测量?能否在不产生漏洞的情况下写出暂停特定规模的人工智能系统的监管语言,并避免被轻易规避?暂停令是只适用于大型人工智能系统的实际训练,还是也适用于相关技术的发展?如其中一些技术可能可以做到用更小的系统或比以前更少的训练建立强大的人工智能。第五,禁令之后依然难达共识。6个月的暂停期后人们对下一步该做什么依然缺乏共识。部分人提议将暂停令再延长六个月或更长时间,其他人则认为应该完全取消,还有人主张建立一个全新的框架。这种不确定性将使公司在招聘、研发投资和人工智能相关产品规划方面的决策非常困难。第六,禁令将使美国处于地缘政治不利地位。在美国暂停训练最大的人工智能模型的禁令在国际上不会产生任何效力。因此,其他国家的政府和公司将继续投资建设大型人工智能系统,而这项工作所带来的进步、知识和创造的就业机会将使美国在人工智能技术方面处于不利地位。

    最后,作者总结,人工智能拥有非凡的前景的同时,也产生了一系列新的风险,无论美国采取什么政策,大型人工智能系统的技术都将继续在全球范围内发展。因此,对于美国来说,保持在人工智能的最前沿来推动技术发展,并利用这些知识更好地识别和减轻风险,将比美国政府试图在全国范围内对大型人工智能系统的训练工作施加一个法律上可疑的、无法执行的、容易规避的禁令要好得多。

相关报告
  • 《各国人工智能计划的关注重点有何规律》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 2023年4月25日,布鲁金斯学会(Brookings Institution)发布其技术创新中心客座高级研究员Kevin C. Desouza,加拿大皇家军事学院(Royal Military College of Canada)管理系教授James S. Denford以及美国亚利桑那州立大学凯瑞商学院(W. P. Carey School of Business) 助理教授Gregory S Dawson共同撰写的评论文章《WEIRD AI:了解各国在其人工智能计划中包含的内容(WEIRD AI: Understanding what nations include in their artificial intelligence plans)》。本文从34个已制定公共人工智能政策的国家的基本国家特征的角度出发,分析了这些国家的战略要素及其战略动力,以及在文化取向上相似的国家是否对人工智能政策采取了相同的方法。   首先,作者分析了各个国家的人工智能计划中的数据管理、算法管理等六个关键要素,以从中了解各个国家如何进行人工智能部署,并按照“WEIRD框架”将国家分组,来研究其文化相似性。六要素中的数据管理是指国家设想如何获取和使用从人工智能获得的数据;算法管理涉及到国家对算法问题的认识;人工智能治理指的是人工智能的包容性、透明度和公众信任,以及适当监督的必要性;研发能力发展的重点是政府对私营部门投资人工智能的激励计划;教育能力发展的重点是人们在中学、高等教育和职业阶段对人工智能的学习,公共服务改革能力发展的重点是将人工智能应用于面向公民或支持公民的服务。“WEIRD框架”是基于西方的、受教育程度、工业化程度、富裕程度和民主程度(Western,Educated, Industrialized, Rich, and Democratic)进行国家类型分类,以确定它们在通过共同的国家假设和偏见形成的类似决策过程的基础上对各种问题的处理是否有共同之处。文章中的“西方”使用《世界人口评论》对拉丁文西方的定义,即是否属于以西欧及其后殖民时代的足迹为中心,拥有共同语言和文化背景的国家。“受教育程度”是基于联合国人类发展指数中的平均受教育年限,其中12年(高中毕业)被认为是高教育和低教育之间的分界点。“工业化”采用世界银行的国内生产总值工业增加值,按照人均增加值的中位数3500美元将高工业化和低工业化分开。“富裕”采用瑞士信贷全球财富数据库中衡量每个成年人的平均财富,其中12.5万美元的财富是各国的中值。“民主”采用经济学人智库的民主指数,该指数区分了民主和专制政权的不同程度,其中混合政权的中点(5.0分)是民主和非民主的分界点。图1描绘了研究样本中的34个国家,具体如下。结果来自于纯粹的WEIRD国家,包括许多西欧国家和一些密切的贸易伙伴和盟国,如美国、加拿大、澳大利亚和新西兰。所有34个国家根据它们具有的西方、受教育、工业化和民主等属性的排列组合和分类。   其次,作者通过定性配置分析(Qualitative Configuration Analysis,QCA)比较每个国家分组与六个要素的存在与否,阐释了各国“WEIRD框架”分类和人工智能战略之间的相关性和每个国家如何单独看待人工智能以及在其特定分组中的情况。首先,在数据管理方面,拥有高度发达计划的国家有三种不同的配置。对于第一种配置为WeIRD国家(如法国、意大利、葡萄牙和西班牙)来说,“属于西方国家”是预测其是否将数据管理纳入人工智能计划的最佳因素,没有受过教育也是核心因素,因为这很可能会使这些国家意识到他们需要在数据管理方面迎头赶上。对于第二种配置的WEIrD国家(捷克、爱沙尼亚、立陶宛和波兰等)来说,民主是核心,也是预测其如何制定人工智能计划的最重要的因素,这表明这些国家已经有效地制定了数据管理计划,并将联合其民主盟友来达成目的。对于第三种配置的weirD国家(墨西哥、塞尔维亚、乌拉圭和印度等)来说,唯一重要的因素是民主程度,这些国家能够在低财富、低教育和低工业化的背景下做到这一点,表明了投资人工智能数据管理作为低成本建立人工智能政策的重要性。综合来看,这些国家有许多共同点,但一个国家属于西方国家和/或民主国家是预测一个国家如何在其计划中制定数据治理战略的最佳因素。文章还研究了哪些原因导致一些国家缺乏高度发展的数据管理计划。例如,既不富裕也不民主是wEIrd国家(俄罗斯、阿联酋)的核心原因,不属于西方国家,但受过高等教育是wEIRD国家(日本和韩国)中的核心原因。这两个组合的共同点都是工业化国家,但不是西方国家。其次,在算法管理方面,除了WeriD国家(墨西哥、塞尔维亚和乌拉圭)外,没有明显的模式显示某一类国家承认算法管理的价值。算法管理的低结果有两种配置,第一种wEIRD(日本和韩国)以及weIRD(新加坡)的核心条件是富裕和民主,第二种wEIrd(俄罗斯和阿联酋)的核心条件是不富裕和不民主,这两种配置的共同点是不属于西方国家,但属于工业化。第三,在人工智能治理方面,除了WeirD国家(墨西哥、塞尔维亚和乌拉圭)以外没有明显的人工智能治理高结果模式。而人工智能治理的低结果对应有三种不同的配置,第一种wEIRD以及weIRD,其核心原因是不属于西方国家,但属于富裕和民主国家,第二种wEIrd的核心要素是受教育,第三种weirD的核心要素是民主。六个国家的三种配置的共同点是不属于西方的分类。这三点都表明西方国家普遍比非西方国家更关心数据管理、算法管理和人工只能治理的问题。   最后,作者分析了其余三个关键要素,并从东、西方国家发展的不同出发,给出切实建议。在研发能力发展方面,东、西方国家一样,无论民主与否,同样注重能力发展和研发投资。高研发能力有四种配置,第一种配置是WEIRD国家和WEIrD国家,对于后者来说,他们虽然不是较富裕的国家,但他们仍然设法在研发方面进行大量投资。第二种配置的WeirD国家的加入是由于其普遍的民主性质,但教育、工业化和财富水平较低。第三种配置包括非西方、非民主的国家,如welRd国家(卡塔尔),对这些国家来说能力发展相较于其他要素是最重要的,其投资于人工智能的应用比其治理要重要得多。第四种配置包括非西方但民主的国家,如wEIRD国家(日本、韩国)和weIRD国家(新加坡)。在高教育能力发展方面,有WEIrD和WeirD两种配置,共七个国家,其都具有属于西方、民主但不富裕的核心条件,并且这些国家似乎正专注于创造教育机会,以便在人工智能领域追赶其他国家。三种低教育能力发展的配置则包括,第一种wEIRD国家(日本和韩国)以及weIRD国家(新加坡),第二种weIRd国家(卡塔尔),而第三种wEIrd国家(俄罗斯和阿联酋)以及weirD国家(印度),这些国家的共同因素是非西方国家。这表明改善人工智能结果而进行的教育投资主要是西方现象,与其他计划要素无关。作者就公共服务改革能力发展指出,目前没有发现任何一致的高公共服务改革能力发展的配置,但有三种对此类计划的低投资配置。第一种是wEIRD国家(日本和韩国),第二种是weIRd国家(卡塔尔),第三种是weirD国家(印度),其共同核心因素是它们都不是西方国家。作者表示其期望各国在包括某些要素方面有更多的共同点,但研究结果的零散性可能反映了各国仍处于人工智能应用的早期阶段,仍在不断摸索,但随着时间的推移,WEIRD国家将开始在什么是重要的方面趋于一致,并在他们的国家计划中得到反映。同时,东、西方在其计划中对人工智能发展采取了非常不同的方法:东方几乎只专注于建立其研发能力,在很大程度上忽视了技术管理的传统“护栏”(例如,数据治理、数据管理、教育、公共服务改革),而西方国家几乎只专注于确保这些“护栏”是否到位,在建设对人工智能发展至关重要的研发能力方面花费的精力相对较少。许多西方技术领袖呼吁暂停人工智能发展六个月,以让合适的”护栏”到位,但面对中国的领先地位,唯一审慎的策略是在继续从事人工智能发展的同时建立“护栏”,否则即使西方开发出一套伟大的“护栏”,也没有有价值的东西可以守护。
  • 《英国发布人工智能监管白皮书 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。      风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。 白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。 受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。      AI治理的五个原则      “人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。 在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。      具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。      “透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。      白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。 在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。 不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。 据了解,在接下来的12个月里,英国监管机构将向人工智能公司发布实用指南,以及其他工具和资源,如风险评估模板,以阐明如何在其行业中实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管机构始终如一地考虑这些原则。      失控和刹车?       耐人寻味的是,白皮书推出的时间点,正值ChatGPT等高级AI技术遭受质疑的风口浪尖。 就在白皮书发布前不久,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的系统至少六个月,理由是这种系统对社会和人类构成潜在风险;同时,要求在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。      图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。甚至OpenAI CEO Sam Altman的名字一度也出现在公开信上,尽管不久之后便无端消失。 这封信在产业界掀起了轩然大波。 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,这封联名信及其呼吁反映了科技从业者、技术社群、社会公众以及监管机构对于人工智能的技术信任焦虑。“在技术展现其强大力量和极高发展速度的情况下,规则缺位带来的人工智能技术的种种不确定性将会影响人们对这一技术的信任。”      此次英国发布的人工智能产业监管白皮书所搭建的监管体系,能否有效让存在“失控”风险的AI“悬崖勒马”,在一定程度上提振行业的发展信心? 吴沈括表示,英国对新兴产业,如数字经济等的监管展现出实用主义色彩。其监管主要目的是增强英国市场的吸引力和活力,推动本国产业的发展,因此也更具产业友好性。 “此次产业白皮书的发布,将进一步提升监管框架的确定性、明确性,有利于增强该国甚至外国投资者的信心。”他说。      据媒体报道,英国在近日宣布将投资9亿英镑(约合人民币 75.06亿元)来打造百亿亿级(exascale)超级计算机。这样的超级计算机将被用于创建类似于ChatGPT的语言模型,并暂时命名为“BritGPT”。英国政府认为“BritGPT”将为英国在人工智能领域发展带来新的机遇。      可信AI、监管沙盒等举措助力我国产业发展      虽然人工智能并非近几年才出现的新概念,但该市场目前正处在起步发展阶段,而我国、乃至全世界对应的规则、监管机构还在逐步建构和明确。英国此次公布的监管举措及整体框架对我国未来的人工智能治理有一定的借鉴意义。 人工智能技术是否值得信任,是横亘在技术的理论和实际应用间的重要问题。英国政府在白皮书中宣布将提供相关技术和技术标准保障可信人工智能的落地,具体举措包括提供保证技术工具箱衡量研发流程中的可信度,计划分类分层拟定技术标准等。      “未来,可信人工智能仍然是各国在人工智能监管工作中的重点。”张欣指出,只有技术被确保可信,人工智能技术的研发和产业应用才能放心迈开脚步。 近年来,人工智能领域内可信人工智能的研究与应用步伐都在加快。中国信通院数据显示,截至2022年 4月,全球可信人工智能领域相关论文数量论文共计 7059 篇。美国、中国、英国是可信人工智能领域论文发表的主要国家,三国发表的论文总数占全球论文总数 53%以上。 此外,在具体举措上,英国政府还表示,将资助2万英镑建立一个监管沙盒,为人工智能企业提供测试环境。企业可以测试如何将监管应用于人工智能产品和服务,以支持创新者将新想法推向市场。而不会受监管规则的约束。      “监管沙盒与人工智能产业迭代速度快的特点相适应,对我国对人工智能产业治理亦有参考价值。”在张欣看来监管沙盒模式一方面,则能够在“沙盒”模拟中预判可能出现的风险,帮助监管方早日知晓和防范;另一方面,能够帮助激发技术创新活力,拓展产业发展的空间。 去年9月发布的《上海市促进人工智能产业发展条例》就提出,政府应当顺应人工智能快速迭代的特点,探索分级治理和沙盒监管。 吴沈括认为,从整体的监管框架上看,英国重视现行法律法规的思路对我国具有一定参考意义。针对人工智能带来的新挑战和新问题,应该充分挖掘和发挥现有的制度资源和监管资源,然后再“查漏补缺”适当引入必要的治理规范。      此外,重视产业发展的价值也值得深入思考。“本次白皮书研究并发布了一个结论——繁重、不适宜的监管可能会为中小企业的创新带来负担。”张欣指出,白皮书中体现出的监管互操作性、一致性及监管比例性,对我国未来促进中小企业科技创新就有借鉴意义。  “人工智能的治理不应当以牺牲产业发展为代价。”吴沈括表示,应当充分兼顾各方利益和诉求,在保护、保障、保卫核心价值的基础之上,兼容技术发展和产业发展的需求,最大限度推动人工智能发展的一个良性生态。