《欧盟达成《人工智能法》协议,为生成式AI设立版权规则》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-07
  •     当地时间4月27日,经过几个月的紧张谈判,欧洲议会成员已经弥合分歧,就《人工智能法(The AI Act)》提案达成临时政治协议,要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。该协议为可能是世界上第一部综合性人工智能法律的《人工智能法》出台铺平道路。在定于5月11日进行的关键委员会投票前,提案文本可能仍需在技术层面上进行细微调整,6月中旬预计将进行全体投票。

    最后一刻的变化:生成式人工智能监管

        《人工智能法》预计将成为欧盟一项具有里程碑意义的立法,已经酝酿了两年多。立法者提议根据他们认为的风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府机构和企业将根据风险级别承担不同的义务。该法案范围广泛,将管辖所有人工智能产品或服务的提供方,涵盖可以生成内容、预测、建议或影响环境的决策的系统。除了企业对人工智能的使用外,法案还将研究公共部门和执法部门使用的人工智能,并与《通用数据保护条例 (GDPR)》等法律协同工作。与人类互动、用于监视目的或生成“深度伪造”内容的人工智能系统的使用者将面临严格的透明度义务。直到最后一刻,欧盟立法者还在对提案中一些最具争议的部分进行讨论。

        “通用目的人工智能系统(General Purpose AI System)”是立法者提出的一个类别,用于解释具有多个应用程序的人工智能工具,例如ChatGPT这样的生成式人工智能模型。如何处理 “通用目的人工智能系统”一直是讨论中争论激烈的话题。欧洲议会确认了之前的提案,即对“通用目的人工智能系统”的一个子类别——基础模型施加更严格的要求

    。根据要求,开发ChatGPT等生成式人工智能工具的公司必须披露他们是否在系统中使用了受版权保护的材料。协议达成前夕唯一重要的变化就是关于生成式人工智能模型,“这些模型的设计和开发必须符合欧盟法律和基本权利,包括表达自由。”

        《人工智能法》还禁止“有目的的”操纵。“有目的的”这个词有争议,因为可能难以证明故意性,但仍被保留下来。另外,在执法、边境管理、工作场所和教育领域,法案要求禁止使用AI驱动的情绪识别软件。欧盟立法者对预测性警务(predictive policing)的禁令从刑事犯罪扩展到了行政犯罪,其依据是荷兰儿童福利丑闻,该丑闻中成千上万的家庭因有缺陷的算法而被误判为欺诈。

    高风险分类变化

        许多人工智能工具可能被认为是高风险的,例如用于关键基础设施、执法或教育的工具。它们比“不可接受”低一级,因此不会被完全禁止,但需要在操作中保持高度透明。高风险人工智能的使用者可能需要完成严格的风险评估,记录他们的活动,并向当局提供数据以供审查。这可能会增加公司的合规成本。最初的提案将某些关键领域和用例的人工智能解决方案自动归类为高风险,这意味着供应商必须遵守更严格的制度,包括对风险管理、透明度和数据治理的要求。欧洲议会引入了一个额外的层次,使这些类别的人工智能模型只有在对健康、安全或基本权利构成重大风险的情况下才会被视为高风险。重大风险被定义为“由于其严重性、强度、发生的概率和影响的持续时间而具有重大意义的风险,并且能够影响一个人、多个人或一个特定群体”。

        根据绿党的要求,用于管理能源网或水系统等关键基础设施的人工智能,如果带来严重的环境风险,也将被归类为高风险。此外,中左翼立法者还争取到了一个规定:根据《数字服务法》(DSA)的定义,超大型在线平台的推荐系统将被视为高风险。欧洲议会议员为高风险人工智能模型的提供者处理敏感数据(如性取向或宗教信仰)以检测负面偏见的过程,纳入了额外的保障措施。此外,评估必须发生在受控环境中。敏感数据不能被传输给其他方,并且必须在偏见评估后被删除。提供者还必须记录数据处理发生的原因。

        《国家法律评论》4月26日报道称:“《人工智能法》将产生全球性的影响,因为它将适用于在欧盟提供或使用人工智能系统的组织;以及位于第三国(包括英国和美国)的人工智能系统的提供者或使用者,如果这些人工智能系统产生的输出在欧盟使用。”

相关报告
  • 《欧盟《人工智能法案》正式生效》

    • 编译者:李晓萌
    • 发布时间:2024-08-20
    • 近日,世界上第一部关于人工智能的全面法规欧盟《人工智能法案》(AI法案)生效。《人工智能法案》旨在确保欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。该法规旨在在欧盟建立一个统一的人工智能内部市场,鼓励采用这项技术,并为创新和投资创造一个支持性的环境。 《人工智能法案》基于欧盟的产品安全和基于风险的方法,引入了人工智能的前瞻性定义。风险分为四类,风险等级越高,管控越严格: ·最小风险:大多数人工智能系统,如支持人工智能的推荐系统和垃圾邮件过滤器,都属于这一类。由于对公民权利和安全的风险很小,这些系统在《人工智能法》下没有义务。公司可以自愿采用额外的行为准则。 ·特定的透明度风险:像聊天机器人这样的人工智能系统必须向用户明确披露他们正在与机器交互。某些人工智能生成的内容,包括深度伪造的内容,必须这样标记,当使用生物特征分类或情感识别系统时,需要通知用户。此外,提供商必须以一种方式设计系统,即合成音频、视频、文本和图像内容以机器可读格式标记,并可检测为人工生成或操纵。 ·高风险:被确定为高风险的人工智能系统将需要遵守严格的要求,包括风险缓解系统、高质量的数据集、活动记录、详细的文档、清晰的用户信息、人工监督以及高水平的稳健性、准确性和网络安全性。监管沙盒将促进负责任的创新和合规人工智能系统的开发。这种高风险的人工智能系统包括用于招聘、评估某人是否有权获得贷款或运行自主机器人的人工智能。 ·不可接受的风险:被认为对人们的基本权利构成明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用程序,例如使用语音辅助鼓励未成年人危险行为的玩具,允许政府或公司进行“社会评分”的系统,以及预测性警务的某些应用程序。此外,生物识别系统的一些用途将被禁止,例如在工作场所使用的情绪识别系统,以及在公共场所为执法目的对人员进行分类或实时远程生物识别的一些系统(少数例外)。 为了补充这一系统,《人工智能法案》还引入了所谓的通用人工智能模型的规则,这些模型是功能强大的人工智能模型,旨在执行各种任务,如生成类人文本。通用人工智能模型越来越多地被用作人工智能应用程序的组件。《人工智能法案》将确保价值链的透明度,并解决最有能力的模型可能存在的系统性风险。
  • 《欧洲议会通过《人工智能法案》》

    • 来源专题:计量基标准与精密测量
    • 编译者:李晓萌
    • 发布时间:2024-04-18
    • 近日,欧洲议会批准了《人工智能法案》(EU AI Act),该法案确保安全和遵守基本权利,同时促进创新。 该条例于2023年12月在与成员国的谈判中达成一致,获得欧洲议会议员523票赞成、46票反对和49票弃权的支持。 它旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该条例根据人工智能的潜在风险和影响程度为其规定了义务。 被禁止的应用程序 新规定禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对一个人的剖析或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。 执法豁免 原则上禁止执法部门使用生物识别系统,除非在详尽列出和狭义定义的情况下。只有在满足严格的保障措施的情况下,才能部署“实时”RBI,例如其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。例如,这种用途可能包括有针对性地搜寻失踪人员或防止恐怖袭击。事后使用此类系统(“远程RBI后”)被视为高风险使用案例,需要与刑事犯罪相关的司法授权。 高风险系统的义务 其他高风险人工智能系统也有明确的义务(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中的某些系统(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明准确,并确保人为监督。公民将有权提交关于人工智能系统的投诉,并获得关于基于影响其权利的高风险人工智能系统决策的解释。 透明度要求 通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能构成系统性风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统性风险以及报告事件。 此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。 支持创新和中小企业的措施 必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以在创新人工智能投放市场之前开发和培训创新人工智能。 引述 在周二的全体辩论中,内部市场委员会联合报告员Brando Benifei(意大利S&D)表示:“我们终于有了世界上第一部具有约束力的人工智能法律,以降低风险、创造机会、打击歧视并提高透明度。多亏了议会,欧洲将禁止不可接受的人工智能做法,工人和公民的权利将得到保护。现在将成立人工智能办公室,支持公司在规则生效前开始遵守这些规则。我们确保人类和欧洲价值观处于人工智能发展的核心”。 公民自由委员会联合报告员德拉戈斯·图多拉切(更新,罗马尼亚)说:“欧盟已经实现了这一目标。我们已经将人工智能的概念与构成我们社会基础的基本价值观联系起来。然而,除了《人工智能法案》本身,还有很多工作要做。人工智能将推动我们重新思考民主国家核心的社会契约、我们的教育模式、劳动力市场和我们进行战争的方式。《人工智能法》是一个新的起点围绕技术构建的治理模式。我们现在必须集中精力将这项法律付诸实践”。 下一步安排 该条例仍需接受律师和语言学家的最终检查,预计将在立法机构结束前(通过所谓的更正程序)最终通过。该法律还需要得到安理会的正式认可。 它将在《官方公报》上发表后20天生效,并在其生效后24个月完全适用,但以下情况除外:禁止被禁止的做法,将在生效之日后6个月适用;行为守则(生效后九个月);通用人工智能规则,包括治理(生效后12个月);以及高风险系统的义务(36个月)。 背景 《人工智能法》直接回应了欧洲未来会议(COFE)公民的建议,最具体的是关于增强欧盟在战略部门竞争力的建议12(10)、关于建立一个安全可信的社会(包括打击虚假信息和确保人类最终掌握控制权)的建议33(5)、,(3)在确保人工监督的同时,(8)可信和负责任地使用人工智能,制定保障措施并确保透明度,以及关于使用人工智能和数字工具改善公民(包括残疾人)获取信息的建议37(3)。