《美国智库发布《不危害AI创新的十大监管原则》报告》

  • 来源专题:集成电路
  • 编译者: 李衍
  • 发布时间:2023-03-15
  • 2023年2月8日,美国信息技术与创新基金会发布《不危害AI创新的十大监管原则》报告。报告指出,人工智能(AI)具有创造重大经济和社会效益的巨大潜力,然而对这项技术的担忧促使决策者提出了各种法律和法规,以创建“负责任的人工智能”。不幸的是,许多提案可能会损害人工智能创新,因为很少有人考虑到“负责任人工智能监管”的含义。本报告提供了十项原则,以指导决策者制定和评估不损害创新的人工智能监管建议。

    十项监管原则具体包括:

    1. 避免人类偏见。政策制定者不应歧视AI,AI系统应该与人类遵循同样的标准,即:允许AI系统做对人类合法的事情,也禁止非法的事情。制定高于人类标准的AI系统标准,会抑制AI技术的使用。

    2. 规范性能而非过程。为了解决对AI安全性、有效性和偏见的担忧,监管机构应该监管AI系统的性能,而不是针对企业的开发过程和操作方法制定规范性规则。基于性能建立审查和评估指标的法规允许灵活地实现目标,并且不会对AI系统施加可能代价高昂且不必要的规则。

    3. 监管应用领域而非技术。由于政策制定者无法预测人工智能未来的所有用途,一些人建议监管技术本身,而不是具体用途。但人工智能是一种通用技术,有许多潜在的应用。政策制定者应该为特定领域的特定人工智能应用(如医疗和交通)制定限定性的规则,而不是为人工智能技术制定广泛的规则。AI的应用场景很重要,驾驶车辆的AI系统与自动股票交易或诊断疾病的AI系统是不同的,即使它们的基础技术类似。

    4. 避免AI短视行为。许多引发AI监管呼声的担忧实际上与AI无关,如招聘和信用评分方面的偏见、在不利结果发生时缺乏追索权以及消费者隐私不足等问题。然而,这些问题都不是AI独有的。监管机构应该专注于解决更广泛的问题,而不仅仅是涉及AI的部分问题。比如,监管机构的目标永远不应只是解决涉及AI偏见的招聘行为,而应解决所有有偏见的招聘行为。只关注部分AI问题往往会分散解决更大问题的注意力。

    5. 精确定义AI。政策制定者应该仔细定义AI,以避免在不经意间将其他软件和系统纳入新法规的监管范围。AI涵盖了广泛的技术,并集成到许多硬件和软件产品中。如果决策者只打算监管不可解释的机器学习或深度学习系统,就不应该使用AI的广义定义。

    6. 执行现有规则。让AI遵守现有所有法规。许多法律已经解决了人们对AI的普遍担忧,例如与工人安全、产品责任、歧视等有关的问题。在这种情况下,通常不需要对AI制定新法规。为了回应人们对AI的担忧,监管机构应该解释如何在使用新兴AI产品和服务时执行现有法规,为采用这些AI工具的人员提供指导,并在任何存在潜在担忧的领域寻求公众反馈。

    7. 确保收益大于成本。在考虑成本时,政策制定者不仅要考虑直接的合规成本,还要考虑间接的生产力、创新和竞争力成本,比如利用新兴技术获得社会和经济效益时减少的机会,以及将这些技术推向市场时减少的国内企业投资。但是,这些间接成本的技术监管可能是巨大的,甚至超过了直接合规成本。

    8. 优化法规。即使监管产生净积极影响,决策者仍应努力实现利益最大化和成本最小化。通常有多种方法可以实现相同结果,因此决策者的目标应该是找到最有效的方法来实现监管目标。

    9. 平等对待公司。政策制定者应该对所有公司一视同仁,不论其规模大小或注册地。豁免小型公司或本国公司的某些监管会造成不公平的竞争环境,并使消费者面临风险。

    10. 寻求专业知识。政策制定者需要用技术和行业专业知识增强监管专业知识,从而制定有效的法规。技术专家可以帮助监管机构了解监管选项的影响。让专家参与的一种方法是监管沙盒,它旨在为不符合现有监管框架的企业提供将产品推向市场的机会。监管机构还应确保其团队拥有AI和数据素养技能,以理解新技术。



  • 原文来源:https://itif.org/publications/2023/02/08/ten-principles-for-regulation-that-does-not-harm-ai-innovation/
相关报告
  • 《加州AI安全法引发争议 州级监管被指阻碍美国创新统一性》

    • 来源专题:新一代信息技术
    • 编译者:刘飞
    • 发布时间:2025-10-11
    • 加州近日通过的全美首部综合性AI安全法引发激烈讨论。该法虽在事故报告、举报人保护等制度设计上获认可,但因其采用州级立法模式,被批评将导致市场割裂、阻碍两党达成联邦共识,最终可能削弱美国在AI治理领域的全球领导力。 支持者认为该法案有三大优点:保护创新的同时促进安全,填补国会不作为留下的监管空白,以及将美国定位为全球AI安全的领导者。然而,该法案在州一级的实施可能弊大于利。 该法案对年收入超过5亿美元的公司提出了严格的要求,包括发布和更新安全框架、进行灾难性风险评估并向加州紧急服务办公室提交总结、实施强大的网络安全措施以保护未发布的模型权重等。此外,这些公司还必须保持匿名举报渠道,并每月更新,季度向高级领导提供总结,并确保举报人免受报复。违反规定的公司将面临最高100万美元的罚款。  尽管该法案旨在提高AI安全性,但它存在一些严重缺陷。首先,它基于公司的收入设立阈值,而不是风险特征,这可能会惩罚那些虽然规模较小但仍然具备开发高风险AI模型能力的公司。其次,该法案主要关注计算能力超过102? FLOPS(浮点运算次数)的公司,忽略了那些较小但仍具威胁的模型。 尽管如此,该法案仍有值得肯定之处。特别是事件报告机制,对于部署后的安全保障至关重要。总的来说,该法案在推动AI安全方面具有积极意义,但在具体实施中也存在不少问题,可能对国家层面的创新和协调产生负面影响。
  • 《美国智库发布了重构美国创新议程的步骤》

    • 来源专题:科技政策与战略动态监测服务
    • 编译者:金瑛
    • 发布时间:2021-03-21
    • 2021年2月1日,美国信息技术与创新基金会发布了《重构美国创新议程的五大步骤》报告,提出美国创新议程的五大步骤,主要包括重申创新的积极作用、召集利益相关方管理、制定国家战略、形成可扩展和广泛使用的创新战略以及优化人力、智力和金融资本。