2023年4月12日,英国皇家国际事务研究所(The Royal Institute of International Affairs)/查塔姆学会(Chatham House)发表卡内基国际事务伦理委员会高级研究员阿瑟·霍兰德·米歇尔(Arthur Holland Michel)撰写的研究文章《对人工智能的假设进行重新校准(Recalibrating assumptions on AI)》。文章逐一分析了目前主导的关于人工智能的四个假设:人工智能是“智能的”、“更多的数据”是更好的人工智能的必要条件、人工智能的发展是国家之间的“竞赛”,以及人工智能本身可以是“道德的”。并通过说明以证据为基础的、具有包容性的讨论如何产生更好的政策。且主张建立一个结构上更加多样、智力上更加包容的政策创新生态系统。
首先,作者针对“人工智能是智能的”这一说法指出,目前被称为“人工智能”的技术在复制人类智能方面的能力是有限的,它们甚至在未来仍然无法实现某些应用。由于目前的自然限制,人工智能在数字环境中的突破并不能作为其将在真实的物理世界中取得成功的证明,人工智能在一系列广泛的领域表现出的持续失败,在某种程度上都是因为这些系统还未能复制真正的人类智能。例如,在交通领域,尽管投资了数千亿美元,但自动驾驶汽车仍未大规模部署;在医学领域,与新冠肺炎疫情有关的人工智能实验则基本上没有达到预期效果。由于人工智能的进展是沿着一系列基本上不可预测的“人工智能的春天”和“人工智能的冬天”进行,我们也无法预料人工智能会在何时取得这些突破。此外,在人工智能政策中,有一种趋势是给予该技术的预期利益与其已知的缺点和风险同等的权重,但是将风险视为可以权衡利益的工具是有误导性的,如在实践层面上,它可能会破坏国家机制用来区分是否应该发展或监管某种人工智能工具的能力。在缺乏这种鉴别力的情况下,由于人工智能的局限性经常表现为反映偏见的方式,在技术上不适合的任务中或在缺乏足够的监管护栏的情况下使用人工智能,对弱势群体造成伤害的风险将会升高。此外,人工智能也无法模仿人类智能的道德推理,因而很难用现有的监管框架对人类和可预测的系统(如机械部件)使用相同的衡量标准和工具来评价和说明人工智能的可靠性,提高人工智能系统的的自主性和开放性以期提高其可靠性的努力甚至最终可能加剧伦理挑战。同时,目前的人工智能政策也可能会阻碍限制人工智能的使用或能力的措施。例如,一些国家的人工智能战略明确指出,他们的目的并不是要探索人工智能的可能性和局限性,而是“支持人工智能在整个经济中的普及”。这种心态不仅存在道德危险,还存在经济风险。随着目前的人工智能繁荣周期进入第二个十年,其没有达到曾经预期的系统采用规模,值得疑问的是其中存在的金融风险是否实际上可能比预期更大。为了在语言上避免对“人工智能”的“智能”产生惯性思维和模糊印象,一些机构已经在寻求新的具体的术语来替代“人工智能”这一说法。例如,乔治城大学法学院的隐私和技术中心(Center on Privacy and Technology at Georgetown Law)已宣布将在其工作中停止使用“人工智能”和 "机器学习",而将使用具体的术语。
其次,作者针对“更多的数据是更好的人工智能的必要条件”这一说法指出,为人工智能发展服务的数据化有可疑的好处和具体的风险。首先,数据对人工智能的价值因应用而异。例如,如果一个用于医疗分流或诊断的机器学习系统必须在经过审查的历史病人数据上进行训练,这些数据的统计属性与它将用于的病人群体的数据相同,但随着人工智能所要完成的任务越来越复杂,生产和维护干净的、有代表性的真实数据的挑战也成倍增加。其次,任何数据的收集和分发活动都有严重的泄露风险,这些风险和漏洞来自不同行为者,因而不一定能通过隐私控制和安全措施来解决,甚至在某些情况下,这些风险会超过数据可能为人工智能发展带来的预期收益。但目前很多国家的政策强调人工智能的数据可用性,这可能会阻碍严格的隐私保护,并会滋生一种“任何社会挑战都可以通过训练机器学习模型而得到科学上的精确解决”的错误心态。因此,我们依然要关注并优先采取那些不涉及数据收集也能取得相同效益的解决方法。最后,大规模的数据化自然会给拥有处理数据能力和计算资源的社区和部门带来特权,比如科技部门和金融等高收入行业。
第三,作者认为“人工智能的发展是国家之间的竞赛”这一说法可能会阻碍强有力且公平的政策实施。虽然数据、投资、庞大的人工智能劳动力和宽松的法规可能使一个国家比其同行拥有更多的人工智能,但鉴于人工智能在关键功能方面的持续限制,这并不能保证净战略优势,对人工智能优势的竞争性追求也可能会导致人工智能政策与负责任的技术治理的核心原则之间出现潜在的严重错位,这种竞争性的心态还可能会导致将监管和创新框定为对立的利益,例如,豁免特定的风险,以牺牲安全和公平为代价来承担监管风险。此外,恶性的竞争也会破坏人工智能治理的多边努力,就像《特定常规武器公约(Convention on Certain Conventional Weapons)》未能为自主武器制定有约束力的规则,就是由于一些国家担心其会阻碍国家技术能力的发展。此外,“人工智能竞赛”的概念本身就与真正的包容性讨论过程相抵触,其忽视了其他可能更准确地表明一个国家以真正服务于公共利益的方式采用人工智能的能力指标,如机构的开放性和透明度、公民社会和新闻自由、法治和经济平等。另外,目前主流的“人工智能指数”并不能完美衡量各国在人工智能方面的相对进展,只能通过不一致的、不同的替代指标来衡量。这些指数中常用的一些个别指标也可能不适合用于国家间任何形式的同类比较,例如,人工智能项目数量指标并不总能区分人工智能的类型;排名中使用的一些关键指标似乎也来自不可靠或不公开的数据;并且在指数数据和建构中还存在潜在的区域和人口偏见等。
第四,作者针对“人工智能本身可以是道德的”这一说法指出,要实现道德的人工智能不仅要解决技术问题,还要解决开发、管理和使用技术的人的问题。在技术上,有道德的人工智能首先应是可解释的,但创造可解释的高性能人工智能,特别是深度学习模型,仍是一个公开的研究挑战,甚至可能在数学上是无法实现的,鉴于每个用户独一无二的理解能力,也很难为系统的可理解性制定广泛的标准。另外,在使用数据集和模型消除偏见时会发现,如果人工智能系统中数据和模型代表性不足,就只能减少偏见,可靠性和可预测性等伦理原则也无法得到技术上的保证,又因为人工智能系统只能捕捉历史趋势、模式、现象和统计分布,我们无法在有限测试里穷尽所有情况。此外,人工智能系统实现其目标的数学定义过程,与人类处理灰色地带案例、考虑不确定性和有效处理决策中的模糊性的能力之间存在着巨大差异,机器充其量只能提供一种对道德决策的计算模仿,其在第一次接触到意料外状况时就可能会失败。而在技术之外,人工智能中的偏见还必须在整个开发和实施过程中加以解决。系统的稳健性需要通过改善用户在决定是否应该首先部署系统时的判断力来解决,许多利益相关者还需要努力提高透明度、责任感和公平性来部署一个避免造成伤害的人工智能系统,这也需要政策制定者和监管者努力保障基本人权、赋予所有公民平等权利、为所有利益相关者平等地预防和减轻伤害。
最后,作者强调,政策假设本身对人工智能政策的讨论仍有意义,但最具变革性和最公平的人工智能政策是那些积极与所有反面观点和所有代表性不足的观点接触的政策。为了抵消未经质疑的人工智能假设的潜在有害影响,利益相关者应该:认识到缺乏确凿、明确证据的假设正在被用作政策的基础,并提供一个用来考虑该假设的后果和反驳观点的框架;确定这些假设的服务对象,并考虑这些团体或个人是否代表所有利益相关者;探索替代性或额外的决策假设;让人工智能应用和组织接受事前审计,对最不利的潜在结果进行评估,并在必要时包括对冲这些结果的措施;衡量国家以真正服务于共同利益的方式采用人工智能的能力。