2023年2月8日,美国信息技术与创新基金会发布《不危害AI创新的十大监管原则》报告。报告指出,人工智能(AI)具有创造重大经济和社会效益的巨大潜力,然而对这项技术的担忧促使决策者提出了各种法律和法规,以创建“负责任的人工智能”。不幸的是,许多提案可能会损害人工智能创新,因为很少有人考虑到“负责任人工智能监管”的含义。本报告提供了十项原则,以指导决策者制定和评估不损害创新的人工智能监管建议。
十项监管原则具体包括:
1. 避免人类偏见。政策制定者不应歧视AI,AI系统应该与人类遵循同样的标准,即:允许AI系统做对人类合法的事情,也禁止非法的事情。制定高于人类标准的AI系统标准,会抑制AI技术的使用。
2. 规范性能而非过程。为了解决对AI安全性、有效性和偏见的担忧,监管机构应该监管AI系统的性能,而不是针对企业的开发过程和操作方法制定规范性规则。基于性能建立审查和评估指标的法规允许灵活地实现目标,并且不会对AI系统施加可能代价高昂且不必要的规则。
3. 监管应用领域而非技术。由于政策制定者无法预测人工智能未来的所有用途,一些人建议监管技术本身,而不是具体用途。但人工智能是一种通用技术,有许多潜在的应用。政策制定者应该为特定领域的特定人工智能应用(如医疗和交通)制定限定性的规则,而不是为人工智能技术制定广泛的规则。AI的应用场景很重要,驾驶车辆的AI系统与自动股票交易或诊断疾病的AI系统是不同的,即使它们的基础技术类似。
4. 避免AI短视行为。许多引发AI监管呼声的担忧实际上与AI无关,如招聘和信用评分方面的偏见、在不利结果发生时缺乏追索权以及消费者隐私不足等问题。然而,这些问题都不是AI独有的。监管机构应该专注于解决更广泛的问题,而不仅仅是涉及AI的部分问题。比如,监管机构的目标永远不应只是解决涉及AI偏见的招聘行为,而应解决所有有偏见的招聘行为。只关注部分AI问题往往会分散解决更大问题的注意力。
5. 精确定义AI。政策制定者应该仔细定义AI,以避免在不经意间将其他软件和系统纳入新法规的监管范围。AI涵盖了广泛的技术,并集成到许多硬件和软件产品中。如果决策者只打算监管不可解释的机器学习或深度学习系统,就不应该使用AI的广义定义。
6. 执行现有规则。让AI遵守现有所有法规。许多法律已经解决了人们对AI的普遍担忧,例如与工人安全、产品责任、歧视等有关的问题。在这种情况下,通常不需要对AI制定新法规。为了回应人们对AI的担忧,监管机构应该解释如何在使用新兴AI产品和服务时执行现有法规,为采用这些AI工具的人员提供指导,并在任何存在潜在担忧的领域寻求公众反馈。
7. 确保收益大于成本。在考虑成本时,政策制定者不仅要考虑直接的合规成本,还要考虑间接的生产力、创新和竞争力成本,比如利用新兴技术获得社会和经济效益时减少的机会,以及将这些技术推向市场时减少的国内企业投资。但是,这些间接成本的技术监管可能是巨大的,甚至超过了直接合规成本。
8. 优化法规。即使监管产生净积极影响,决策者仍应努力实现利益最大化和成本最小化。通常有多种方法可以实现相同结果,因此决策者的目标应该是找到最有效的方法来实现监管目标。
9. 平等对待公司。政策制定者应该对所有公司一视同仁,不论其规模大小或注册地。豁免小型公司或本国公司的某些监管会造成不公平的竞争环境,并使消费者面临风险。
10. 寻求专业知识。政策制定者需要用技术和行业专业知识增强监管专业知识,从而制定有效的法规。技术专家可以帮助监管机构了解监管选项的影响。让专家参与的一种方法是监管沙盒,它旨在为不符合现有监管框架的企业提供将产品推向市场的机会。监管机构还应确保其团队拥有AI和数据素养技能,以理解新技术。