近日,欧洲议会批准了《人工智能法案》(EU AI Act),该法案确保安全和遵守基本权利,同时促进创新。
该条例于2023年12月在与成员国的谈判中达成一致,获得欧洲议会议员523票赞成、46票反对和49票弃权的支持。
它旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该条例根据人工智能的潜在风险和影响程度为其规定了义务。
被禁止的应用程序
新规定禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对一个人的剖析或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。
执法豁免
原则上禁止执法部门使用生物识别系统,除非在详尽列出和狭义定义的情况下。只有在满足严格的保障措施的情况下,才能部署“实时”RBI,例如其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。例如,这种用途可能包括有针对性地搜寻失踪人员或防止恐怖袭击。事后使用此类系统(“远程RBI后”)被视为高风险使用案例,需要与刑事犯罪相关的司法授权。
高风险系统的义务
其他高风险人工智能系统也有明确的义务(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中的某些系统(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明准确,并确保人为监督。公民将有权提交关于人工智能系统的投诉,并获得关于基于影响其权利的高风险人工智能系统决策的解释。
透明度要求
通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能构成系统性风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统性风险以及报告事件。
此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。
支持创新和中小企业的措施
必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以在创新人工智能投放市场之前开发和培训创新人工智能。
引述
在周二的全体辩论中,内部市场委员会联合报告员Brando Benifei(意大利S&D)表示:“我们终于有了世界上第一部具有约束力的人工智能法律,以降低风险、创造机会、打击歧视并提高透明度。多亏了议会,欧洲将禁止不可接受的人工智能做法,工人和公民的权利将得到保护。现在将成立人工智能办公室,支持公司在规则生效前开始遵守这些规则。我们确保人类和欧洲价值观处于人工智能发展的核心”。
公民自由委员会联合报告员德拉戈斯·图多拉切(更新,罗马尼亚)说:“欧盟已经实现了这一目标。我们已经将人工智能的概念与构成我们社会基础的基本价值观联系起来。然而,除了《人工智能法案》本身,还有很多工作要做。人工智能将推动我们重新思考民主国家核心的社会契约、我们的教育模式、劳动力市场和我们进行战争的方式。《人工智能法》是一个新的起点围绕技术构建的治理模式。我们现在必须集中精力将这项法律付诸实践”。
下一步安排
该条例仍需接受律师和语言学家的最终检查,预计将在立法机构结束前(通过所谓的更正程序)最终通过。该法律还需要得到安理会的正式认可。
它将在《官方公报》上发表后20天生效,并在其生效后24个月完全适用,但以下情况除外:禁止被禁止的做法,将在生效之日后6个月适用;行为守则(生效后九个月);通用人工智能规则,包括治理(生效后12个月);以及高风险系统的义务(36个月)。
背景
《人工智能法》直接回应了欧洲未来会议(COFE)公民的建议,最具体的是关于增强欧盟在战略部门竞争力的建议12(10)、关于建立一个安全可信的社会(包括打击虚假信息和确保人类最终掌握控制权)的建议33(5)、,(3)在确保人工监督的同时,(8)可信和负责任地使用人工智能,制定保障措施并确保透明度,以及关于使用人工智能和数字工具改善公民(包括残疾人)获取信息的建议37(3)。