《英国皇家国际事务研究所:我们需要重新审视对人工智能的假设》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-09
  • 2023年4月12日,英国皇家国际事务研究所(The Royal Institute of International Affairs)/查塔姆学会(Chatham House)发表卡内基国际事务伦理委员会高级研究员阿瑟·霍兰德·米歇尔(Arthur Holland Michel)撰写的研究文章《对人工智能的假设进行重新校准(Recalibrating assumptions on AI)》。文章逐一分析了目前主导的关于人工智能的四个假设:人工智能是“智能的”、“更多的数据”是更好的人工智能的必要条件、人工智能的发展是国家之间的“竞赛”,以及人工智能本身可以是“道德的”。并通过说明以证据为基础的、具有包容性的讨论如何产生更好的政策。且主张建立一个结构上更加多样、智力上更加包容的政策创新生态系统。

      首先,作者针对“人工智能是智能的”这一说法指出,目前被称为“人工智能”的技术在复制人类智能方面的能力是有限的,它们甚至在未来仍然无法实现某些应用。由于目前的自然限制,人工智能在数字环境中的突破并不能作为其将在真实的物理世界中取得成功的证明,人工智能在一系列广泛的领域表现出的持续失败,在某种程度上都是因为这些系统还未能复制真正的人类智能。例如,在交通领域,尽管投资了数千亿美元,但自动驾驶汽车仍未大规模部署;在医学领域,与新冠肺炎疫情有关的人工智能实验则基本上没有达到预期效果。由于人工智能的进展是沿着一系列基本上不可预测的“人工智能的春天”和“人工智能的冬天”进行,我们也无法预料人工智能会在何时取得这些突破。此外,在人工智能政策中,有一种趋势是给予该技术的预期利益与其已知的缺点和风险同等的权重,但是将风险视为可以权衡利益的工具是有误导性的,如在实践层面上,它可能会破坏国家机制用来区分是否应该发展或监管某种人工智能工具的能力。在缺乏这种鉴别力的情况下,由于人工智能的局限性经常表现为反映偏见的方式,在技术上不适合的任务中或在缺乏足够的监管护栏的情况下使用人工智能,对弱势群体造成伤害的风险将会升高。此外,人工智能也无法模仿人类智能的道德推理,因而很难用现有的监管框架对人类和可预测的系统(如机械部件)使用相同的衡量标准和工具来评价和说明人工智能的可靠性,提高人工智能系统的的自主性和开放性以期提高其可靠性的努力甚至最终可能加剧伦理挑战。同时,目前的人工智能政策也可能会阻碍限制人工智能的使用或能力的措施。例如,一些国家的人工智能战略明确指出,他们的目的并不是要探索人工智能的可能性和局限性,而是“支持人工智能在整个经济中的普及”。这种心态不仅存在道德危险,还存在经济风险。随着目前的人工智能繁荣周期进入第二个十年,其没有达到曾经预期的系统采用规模,值得疑问的是其中存在的金融风险是否实际上可能比预期更大。为了在语言上避免对“人工智能”的“智能”产生惯性思维和模糊印象,一些机构已经在寻求新的具体的术语来替代“人工智能”这一说法。例如,乔治城大学法学院的隐私和技术中心(Center on Privacy and Technology at Georgetown Law)已宣布将在其工作中停止使用“人工智能”和 "机器学习",而将使用具体的术语。

      其次,作者针对“更多的数据是更好的人工智能的必要条件”这一说法指出,为人工智能发展服务的数据化有可疑的好处和具体的风险。首先,数据对人工智能的价值因应用而异。例如,如果一个用于医疗分流或诊断的机器学习系统必须在经过审查的历史病人数据上进行训练,这些数据的统计属性与它将用于的病人群体的数据相同,但随着人工智能所要完成的任务越来越复杂,生产和维护干净的、有代表性的真实数据的挑战也成倍增加。其次,任何数据的收集和分发活动都有严重的泄露风险,这些风险和漏洞来自不同行为者,因而不一定能通过隐私控制和安全措施来解决,甚至在某些情况下,这些风险会超过数据可能为人工智能发展带来的预期收益。但目前很多国家的政策强调人工智能的数据可用性,这可能会阻碍严格的隐私保护,并会滋生一种“任何社会挑战都可以通过训练机器学习模型而得到科学上的精确解决”的错误心态。因此,我们依然要关注并优先采取那些不涉及数据收集也能取得相同效益的解决方法。最后,大规模的数据化自然会给拥有处理数据能力和计算资源的社区和部门带来特权,比如科技部门和金融等高收入行业。

      第三,作者认为“人工智能的发展是国家之间的竞赛”这一说法可能会阻碍强有力且公平的政策实施。虽然数据、投资、庞大的人工智能劳动力和宽松的法规可能使一个国家比其同行拥有更多的人工智能,但鉴于人工智能在关键功能方面的持续限制,这并不能保证净战略优势,对人工智能优势的竞争性追求也可能会导致人工智能政策与负责任的技术治理的核心原则之间出现潜在的严重错位,这种竞争性的心态还可能会导致将监管和创新框定为对立的利益,例如,豁免特定的风险,以牺牲安全和公平为代价来承担监管风险。此外,恶性的竞争也会破坏人工智能治理的多边努力,就像《特定常规武器公约(Convention on Certain Conventional Weapons)》未能为自主武器制定有约束力的规则,就是由于一些国家担心其会阻碍国家技术能力的发展。此外,“人工智能竞赛”的概念本身就与真正的包容性讨论过程相抵触,其忽视了其他可能更准确地表明一个国家以真正服务于公共利益的方式采用人工智能的能力指标,如机构的开放性和透明度、公民社会和新闻自由、法治和经济平等。另外,目前主流的“人工智能指数”并不能完美衡量各国在人工智能方面的相对进展,只能通过不一致的、不同的替代指标来衡量。这些指数中常用的一些个别指标也可能不适合用于国家间任何形式的同类比较,例如,人工智能项目数量指标并不总能区分人工智能的类型;排名中使用的一些关键指标似乎也来自不可靠或不公开的数据;并且在指数数据和建构中还存在潜在的区域和人口偏见等。

     第四,作者针对“人工智能本身可以是道德的”这一说法指出,要实现道德的人工智能不仅要解决技术问题,还要解决开发、管理和使用技术的人的问题。在技术上,有道德的人工智能首先应是可解释的,但创造可解释的高性能人工智能,特别是深度学习模型,仍是一个公开的研究挑战,甚至可能在数学上是无法实现的,鉴于每个用户独一无二的理解能力,也很难为系统的可理解性制定广泛的标准。另外,在使用数据集和模型消除偏见时会发现,如果人工智能系统中数据和模型代表性不足,就只能减少偏见,可靠性和可预测性等伦理原则也无法得到技术上的保证,又因为人工智能系统只能捕捉历史趋势、模式、现象和统计分布,我们无法在有限测试里穷尽所有情况。此外,人工智能系统实现其目标的数学定义过程,与人类处理灰色地带案例、考虑不确定性和有效处理决策中的模糊性的能力之间存在着巨大差异,机器充其量只能提供一种对道德决策的计算模仿,其在第一次接触到意料外状况时就可能会失败。而在技术之外,人工智能中的偏见还必须在整个开发和实施过程中加以解决。系统的稳健性需要通过改善用户在决定是否应该首先部署系统时的判断力来解决,许多利益相关者还需要努力提高透明度、责任感和公平性来部署一个避免造成伤害的人工智能系统,这也需要政策制定者和监管者努力保障基本人权、赋予所有公民平等权利、为所有利益相关者平等地预防和减轻伤害。

     最后,作者强调,政策假设本身对人工智能政策的讨论仍有意义,但最具变革性和最公平的人工智能政策是那些积极与所有反面观点和所有代表性不足的观点接触的政策。为了抵消未经质疑的人工智能假设的潜在有害影响,利益相关者应该:认识到缺乏确凿、明确证据的假设正在被用作政策的基础,并提供一个用来考虑该假设的后果和反驳观点的框架;确定这些假设的服务对象,并考虑这些团体或个人是否代表所有利益相关者;探索替代性或额外的决策假设;让人工智能应用和组织接受事前审计,对最不利的潜在结果进行评估,并在必要时包括对冲这些结果的措施;衡量国家以真正服务于共同利益的方式采用人工智能的能力。

相关报告
  • 《英国人工智能安全研究所(AI Safety Institute)将在旧金山设立办事处,以应对人工智能风险》

    • 编译者:李晓萌
    • 发布时间:2024-07-06
    • 近日,英国技术大臣Michelle Donelan宣布,英国政府开创性的人工智能安全研究所(AI Safety Institute)将于今年夏天在旧金山开设第一个海外办事处,以拓宽其国际视野。 此次扩张标志着英国迈出了关键一步,这将使英国能够利用湾区丰富的科技人才,与总部位于伦敦和旧金山的世界最大人工智能实验室合作,并巩固与美国的关系,为公众利益推进人工智能安全。 该办公室预计将于今年夏天开业,招聘由研究总监领导的第一批技术人员。 它将是该研究所伦敦总部的一个补充分支,该总部不断壮大,已经拥有一支由30多名技术人员组成的团队。伦敦办事处将继续扩大规模并获得必要的专业知识,以评估前沿人工智能系统的风险。 通过扩大在美国的立足点,该研究所将与美国建立密切合作,进一步推进该国在人工智能安全方面的战略伙伴关系和方法,同时共享研究并对人工智能模型进行联合评估,为全球人工智能安全政策提供信息。 科技国务秘书Michelle Donelan表示: 这一扩展代表了英国在人工智能领域的领导地位。这是英国从全球角度研究人工智能风险和潜力的关键时刻,加强了我们与美国的伙伴关系,并为其他国家利用我们的专业知识铺平了道路,因为我们将继续在人工智能安全方面引领世界。 自首相和我创立人工智能安全研究所以来,该研究所不断壮大,在短短一年多的时间里,我们在伦敦建立了世界领先的政府人工智能研究团队,吸引了来自英国及其他国家的顶尖人才。 向海外敞开大门,建立与美国的联盟,是我制定新的人工智能安全国际标准计划的核心,我们将在本周的首尔峰会上讨论这一计划。 英国人工智能安全研究所(UK AI Safety Institute)发布了五种公开的先进人工智能模型的最新安全测试结果:这是世界上第一个公布评估结果的政府支持的组织。 虽然这只是该研究所更广泛方法的一小部分,但研究结果表明,自11月的人工智能安全峰会以来,该研究所在建立最先进的安全测试能力方面取得了重大进展。 该研究所针对四个关键风险领域评估了人工智能模型,包括开发者实际安装的保障措施在实践中的有效性。作为研究结果的一部分,该研究所的测试发现: 一些模型完成了网络安全挑战,同时努力完成更高级的挑战。 几个模型展示了与博士水平相似的化学和生物学知识。 所有经过测试的模型仍然非常容易受到基本“越狱”的影响,有些模型即使没有专门的规避保障措施的尝试,也会产生有害的输出。 经过测试的模型无法在没有人监督的情况下完成更复杂、耗时的任务。 人工智能安全研究所主席Ian Hogarth表示: 这些测试的结果标志着我们首次能够与公众分享我们模型评估工作的一些细节。我们的评估将有助于对模型能力和现有保障措施缺乏稳健性的实证评估。 人工智能安全仍然是一个非常年轻和新兴的领域。这些结果仅代表AISI正在开发的评估方法的一小部分。我们的目标是通过发展最先进的评估,继续推动这一领域的前沿发展,重点关注国家安全相关风险。 人工智能安全仍然是英国的一个关键优先事项,因为它继续推动关于该技术安全发展的全球对话。 这一努力是由11月在布莱切利公园举行的人工智能安全峰会启动的,随着英国和大韩民国准备在本周共同主办人工智能首尔峰会,这一势头继续增长。 在全世界准备本周齐聚首尔之际,英国承诺与加拿大合作,包括通过各自的人工智能安全研究所,以推进其建立一个日益壮大的国家支持的组织网络的雄心,该网络专注于人工智能安全和治理。英国技术部长Michelle Donelan和加拿大科学与创新部长Fran?ois Philippe Champagne证实,这一伙伴关系将有助于加深两国之间的现有联系,并激励在系统安全研究方面的合作。 作为该协议的一部分,两国将致力于分享其专业知识,以支持现有的测试和评估工作。该伙伴关系还将使两国之间能够进行借调,并共同确定研究合作领域。
  • 《英国人工智能安全研究所推出人工智能安全评估和测试平台Inspect,以加强和加快全球人工智能安全评估》

    • 编译者:李晓萌
    • 发布时间:2024-06-12
    • 近日,随着英国人工智能安全研究所的评估平台向全球人工智能社区开放,全球人工智能安全评估将得到加强,为人工智能模型的安全创新铺平道路。 在建立了世界上第一个由国家支持的人工智能安全研究所后,英国正在继续推动在人工智能安全评估方面加强全球合作,并发布了人工智能安全学院自主研发的Inspect评估平台。通过向全球社区提供Inspect,该研究所正在帮助加快全球范围内进行的人工智能安全评估工作,从而实现更好的安全测试和开发更安全的模型。这将允许在世界各地对人工智能安全评估采取一致的方法。 Inspect是一个软件库,使测试人员——从初创企业、学术界和人工智能开发人员到国际政府——能够评估单个模型的具体能力,然后根据其结果得出分数。Inspect可用于评估一系列领域的模型,包括其核心知识、推理能力和自主能力。通过开源许可证发布,这意味着Inspect现在可以免费供人工智能社区使用。 该平台从今天开始提供,这是由国家支持的机构牵头的人工智能安全测试平台首次发布供更广泛使用。 在英国一些领先的人工智能头脑的推动下,它的发布正值人工智能发展的关键时刻,因为更强大的模型预计将在2024年上市,这使得推动安全和负责任的人工智能发展比以往任何时候都更加紧迫。 科学、创新和技术国务秘书Michelle Donelan表示: 作为英国领导层在人工智能安全方面不断发出的鼓点的一部分,我已经批准人工智能安全研究所的测试平台Inspect是开源的。这使英国的独创性成为全球人工智能安全努力的核心,并巩固了我们在这一领域的世界领导者地位。 我之所以如此热衷于此,以及我之所以拥有开源Inspect,是因为如果我们控制住人工智能的风险,我们可以获得非凡的回报。从我们的NHS到我们的交通网络,安全的人工智能将切实改善生活-这正是我从政的初衷。 人工智能安全研究所主席Ian Hogarth表示: 作为人工智能安全研究所的主席,我为我们开放Inspect平台而感到骄傲。 在人工智能安全测试方面的成功合作意味着拥有一种共享、可访问的评估方法,我们希望Inspect可以成为人工智能安全研究所、研究组织和学术界的基石。 我们受到了一些领先的开源人工智能开发人员的启发,最著名的项目是GPT NeoX、OLMo或Pythia,它们都有公开的训练数据和OSI许可的训练和评估代码、模型权重以及部分训练的检查点。这是我们为回馈社会所做的努力。 我们希望看到全球人工智能社区使用Inspect不仅进行自己的模型安全测试,而且帮助适应和建立开源平台,以便我们能够全面进行高质量的评估。 在推出Inspect的同时,人工智能安全研究所、人工智能孵化器(i.AI)和10号将汇集来自一系列领域的领先人工智能人才,快速测试和开发新的开源人工智能安全工具。开发人员更容易将开源工具集成到模型中,从而更好地了解它们的工作方式以及如何使它们尽可能安全。更多细节将在适当时候公布。