《欧盟发布《欧盟生成式人工智能与基础模型》报告》

  • 编译者: 程冰
  • 发布时间:2025-07-23
  • 2025年3月,欧盟经济与社会委员会(European Economic and Social Committee)发布《生成式人工智能与基础模型--采用、机遇、挑战及前进道路》的报告。本报告研究了新兴的生成式人工智能(GenAI)和基础模型在欧盟范围内的行业格局,并分析其影响、技术进步以及监管影响,详细介绍了GenAI价值链,确定了主要参与者和投资趋势,揭示了美国在该领域的主导地位。报告还探讨了 GenAI 在各个领域的应用,重点介绍了汽车、可再生能源和教育等行业的挑战和机会,SWOT分析评估了欧盟作为GenAI 生产商和用户所处的地位。报告最后提出了政策建议,旨在培育一个具有竞争力、合乎道德且包容性的欧洲人工智能生态系统,包括确定增加投资、加强技能发展和扩大监管透明度,以及加强与民间社会组织合作。
相关报告
  • 《欧盟达成《人工智能法》协议,为生成式AI设立版权规则》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-07
    •     当地时间4月27日,经过几个月的紧张谈判,欧洲议会成员已经弥合分歧,就《人工智能法(The AI Act)》提案达成临时政治协议,要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。该协议为可能是世界上第一部综合性人工智能法律的《人工智能法》出台铺平道路。在定于5月11日进行的关键委员会投票前,提案文本可能仍需在技术层面上进行细微调整,6月中旬预计将进行全体投票。 最后一刻的变化:生成式人工智能监管     《人工智能法》预计将成为欧盟一项具有里程碑意义的立法,已经酝酿了两年多。立法者提议根据他们认为的风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府机构和企业将根据风险级别承担不同的义务。该法案范围广泛,将管辖所有人工智能产品或服务的提供方,涵盖可以生成内容、预测、建议或影响环境的决策的系统。除了企业对人工智能的使用外,法案还将研究公共部门和执法部门使用的人工智能,并与《通用数据保护条例 (GDPR)》等法律协同工作。与人类互动、用于监视目的或生成“深度伪造”内容的人工智能系统的使用者将面临严格的透明度义务。直到最后一刻,欧盟立法者还在对提案中一些最具争议的部分进行讨论。     “通用目的人工智能系统(General Purpose AI System)”是立法者提出的一个类别,用于解释具有多个应用程序的人工智能工具,例如ChatGPT这样的生成式人工智能模型。如何处理 “通用目的人工智能系统”一直是讨论中争论激烈的话题。欧洲议会确认了之前的提案,即对“通用目的人工智能系统”的一个子类别——基础模型施加更严格的要求 。根据要求,开发ChatGPT等生成式人工智能工具的公司必须披露他们是否在系统中使用了受版权保护的材料。协议达成前夕唯一重要的变化就是关于生成式人工智能模型,“这些模型的设计和开发必须符合欧盟法律和基本权利,包括表达自由。”     《人工智能法》还禁止“有目的的”操纵。“有目的的”这个词有争议,因为可能难以证明故意性,但仍被保留下来。另外,在执法、边境管理、工作场所和教育领域,法案要求禁止使用AI驱动的情绪识别软件。欧盟立法者对预测性警务(predictive policing)的禁令从刑事犯罪扩展到了行政犯罪,其依据是荷兰儿童福利丑闻,该丑闻中成千上万的家庭因有缺陷的算法而被误判为欺诈。 高风险分类变化     许多人工智能工具可能被认为是高风险的,例如用于关键基础设施、执法或教育的工具。它们比“不可接受”低一级,因此不会被完全禁止,但需要在操作中保持高度透明。高风险人工智能的使用者可能需要完成严格的风险评估,记录他们的活动,并向当局提供数据以供审查。这可能会增加公司的合规成本。最初的提案将某些关键领域和用例的人工智能解决方案自动归类为高风险,这意味着供应商必须遵守更严格的制度,包括对风险管理、透明度和数据治理的要求。欧洲议会引入了一个额外的层次,使这些类别的人工智能模型只有在对健康、安全或基本权利构成重大风险的情况下才会被视为高风险。重大风险被定义为“由于其严重性、强度、发生的概率和影响的持续时间而具有重大意义的风险,并且能够影响一个人、多个人或一个特定群体”。     根据绿党的要求,用于管理能源网或水系统等关键基础设施的人工智能,如果带来严重的环境风险,也将被归类为高风险。此外,中左翼立法者还争取到了一个规定:根据《数字服务法》(DSA)的定义,超大型在线平台的推荐系统将被视为高风险。欧洲议会议员为高风险人工智能模型的提供者处理敏感数据(如性取向或宗教信仰)以检测负面偏见的过程,纳入了额外的保障措施。此外,评估必须发生在受控环境中。敏感数据不能被传输给其他方,并且必须在偏见评估后被删除。提供者还必须记录数据处理发生的原因。     《国家法律评论》4月26日报道称:“《人工智能法》将产生全球性的影响,因为它将适用于在欧盟提供或使用人工智能系统的组织;以及位于第三国(包括英国和美国)的人工智能系统的提供者或使用者,如果这些人工智能系统产生的输出在欧盟使用。”
  • 《欧盟将向人工智能投资200亿欧元》

    • 来源专题:航材院监测服务
    • 编译者:万勇
    • 发布时间:2018-06-11
    • 欧盟计划投资200亿欧元进行人工智能研究,希望各国政府和私营公司加大对人工智能的研究和创新支出。随着美国和中国在人工智能研究方面的支出增加,欧洲在中美人工智能竞赛中落后的风险不断增大。美国科技公司一直以六位数的薪水吸引英国顶尖博士研究人员。为了阻止人才外流,一些顶尖科学家已经为一个大型的跨国欧洲人工智能研究所制定了计划。欧洲学习和智能系统实验室(European Lab for Learning and Intelligent Systems)将在包括英国在内的许多国家设立中心。2017年发布的《欧洲人工智能公司生态报告》显示,英国成为欧洲人工智能的核心中枢,第二位是德国,拥有51家初创公司,法国排在第三位有39家,但是这些都不足以和中美相提并论。2016年,欧盟的企业投资额高达40亿美元,而亚洲的投资额为120亿美元,美国为230亿美元。 法国总统4月宣布2022年投入15亿欧元的人工智能公共资金,将法国转变为“创业国”。法国将重点结合医疗、汽车、能源、金融、航天等法国较有优势的行业来研发人工智能技术。法国国家工业委员会将制定具体路线图,以推动这些行业人工智能技术的研发。 为了达到200亿欧元的目标,欧盟承诺“地平线2020”计划下将2018至2020年的支出增加15亿欧元,还希望通过公私合作伙伴关系额外支出25亿欧元。英国5月宣布签署了一份声明,承诺采用欧洲的人工智能方法。人工智能可以解决关键的社会挑战,从可持续医疗到气候变化,从网络安全到可持续移民。