《七国集团一致同意:给AI套上紧箍咒,推出人工智能监管法案》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-09
  • 4月30日,为期两天的七国集团(G7)数字和技术部长会议在日本结束, G7同意推出基于风险的人工智能监管法案,这是人工智能监管领域的重要里程碑。这项法案将有望规范人工智能技术的发展和应用,确保人工智能技术的长期可持续发展。
         人工智能技术已经成为全球科技领域最为热门的话题之一,同时也是政治、法律、道德等多个领域的挑战。人工智能技术的发展已经带来了巨大的社会和经济价值,但也带来了许多风险和挑战。因此,各国政府都在积极探索如何监管人工智能技术的发展和应用,以确保人工智能技术的健康和可持续发展。
         此次G7数字和技术部长的会议达成的协议,强调了监管应该为人工智能技术“保持一个开放有利的环境”,并以所谓的民主价值观为基础。这为各国政府提供了一个新的思路和方向,即在确保人工智能技术的发展和应用的同时,也需要考虑人类的长期利益。
         在人工智能技术的应用领域,ChatGPT等生成式人工智能工具引起了各国政府的关注。为了解决版权和教育风险,欧盟提出了要求ChatGPT等人工智能工具的开发商透露他们在构建AI系统时使用的版权材料的新的立法草案。这是人工智能监管领域的又一重要举措,可能为制定全球首个全面监管AI技术的法规铺平道路。
         此外,G7计划在未来召开关于生成式人工智能的讨论,包括治理、如何保障知识产权、促进透明度、解决虚假信息以及外国势力的信息操纵等主题。这些讨论将为各国政府提供更多的思路和方向,以确保人工智能技术的健康和可持续发展。 在这个全球化的时代,人工智能技术已经成为各国政府探索科技发展的重要领域之一。各国政府应该加强合作,共同探讨人工智能技术的监管机制,确保人工智能技术的健康发展,更好地造福人类。
相关报告
  • 《英国人工智能安全研究所推出人工智能安全评估和测试平台Inspect,以加强和加快全球人工智能安全评估》

    • 编译者:李晓萌
    • 发布时间:2024-06-12
    • 近日,随着英国人工智能安全研究所的评估平台向全球人工智能社区开放,全球人工智能安全评估将得到加强,为人工智能模型的安全创新铺平道路。 在建立了世界上第一个由国家支持的人工智能安全研究所后,英国正在继续推动在人工智能安全评估方面加强全球合作,并发布了人工智能安全学院自主研发的Inspect评估平台。通过向全球社区提供Inspect,该研究所正在帮助加快全球范围内进行的人工智能安全评估工作,从而实现更好的安全测试和开发更安全的模型。这将允许在世界各地对人工智能安全评估采取一致的方法。 Inspect是一个软件库,使测试人员——从初创企业、学术界和人工智能开发人员到国际政府——能够评估单个模型的具体能力,然后根据其结果得出分数。Inspect可用于评估一系列领域的模型,包括其核心知识、推理能力和自主能力。通过开源许可证发布,这意味着Inspect现在可以免费供人工智能社区使用。 该平台从今天开始提供,这是由国家支持的机构牵头的人工智能安全测试平台首次发布供更广泛使用。 在英国一些领先的人工智能头脑的推动下,它的发布正值人工智能发展的关键时刻,因为更强大的模型预计将在2024年上市,这使得推动安全和负责任的人工智能发展比以往任何时候都更加紧迫。 科学、创新和技术国务秘书Michelle Donelan表示: 作为英国领导层在人工智能安全方面不断发出的鼓点的一部分,我已经批准人工智能安全研究所的测试平台Inspect是开源的。这使英国的独创性成为全球人工智能安全努力的核心,并巩固了我们在这一领域的世界领导者地位。 我之所以如此热衷于此,以及我之所以拥有开源Inspect,是因为如果我们控制住人工智能的风险,我们可以获得非凡的回报。从我们的NHS到我们的交通网络,安全的人工智能将切实改善生活-这正是我从政的初衷。 人工智能安全研究所主席Ian Hogarth表示: 作为人工智能安全研究所的主席,我为我们开放Inspect平台而感到骄傲。 在人工智能安全测试方面的成功合作意味着拥有一种共享、可访问的评估方法,我们希望Inspect可以成为人工智能安全研究所、研究组织和学术界的基石。 我们受到了一些领先的开源人工智能开发人员的启发,最著名的项目是GPT NeoX、OLMo或Pythia,它们都有公开的训练数据和OSI许可的训练和评估代码、模型权重以及部分训练的检查点。这是我们为回馈社会所做的努力。 我们希望看到全球人工智能社区使用Inspect不仅进行自己的模型安全测试,而且帮助适应和建立开源平台,以便我们能够全面进行高质量的评估。 在推出Inspect的同时,人工智能安全研究所、人工智能孵化器(i.AI)和10号将汇集来自一系列领域的领先人工智能人才,快速测试和开发新的开源人工智能安全工具。开发人员更容易将开源工具集成到模型中,从而更好地了解它们的工作方式以及如何使它们尽可能安全。更多细节将在适当时候公布。
  • 《欧洲议会通过《人工智能法案》》

    • 来源专题:计量基标准与精密测量
    • 编译者:李晓萌
    • 发布时间:2024-04-18
    • 近日,欧洲议会批准了《人工智能法案》(EU AI Act),该法案确保安全和遵守基本权利,同时促进创新。 该条例于2023年12月在与成员国的谈判中达成一致,获得欧洲议会议员523票赞成、46票反对和49票弃权的支持。 它旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该条例根据人工智能的潜在风险和影响程度为其规定了义务。 被禁止的应用程序 新规定禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对一个人的剖析或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。 执法豁免 原则上禁止执法部门使用生物识别系统,除非在详尽列出和狭义定义的情况下。只有在满足严格的保障措施的情况下,才能部署“实时”RBI,例如其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。例如,这种用途可能包括有针对性地搜寻失踪人员或防止恐怖袭击。事后使用此类系统(“远程RBI后”)被视为高风险使用案例,需要与刑事犯罪相关的司法授权。 高风险系统的义务 其他高风险人工智能系统也有明确的义务(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中的某些系统(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明准确,并确保人为监督。公民将有权提交关于人工智能系统的投诉,并获得关于基于影响其权利的高风险人工智能系统决策的解释。 透明度要求 通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能构成系统性风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统性风险以及报告事件。 此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。 支持创新和中小企业的措施 必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以在创新人工智能投放市场之前开发和培训创新人工智能。 引述 在周二的全体辩论中,内部市场委员会联合报告员Brando Benifei(意大利S&D)表示:“我们终于有了世界上第一部具有约束力的人工智能法律,以降低风险、创造机会、打击歧视并提高透明度。多亏了议会,欧洲将禁止不可接受的人工智能做法,工人和公民的权利将得到保护。现在将成立人工智能办公室,支持公司在规则生效前开始遵守这些规则。我们确保人类和欧洲价值观处于人工智能发展的核心”。 公民自由委员会联合报告员德拉戈斯·图多拉切(更新,罗马尼亚)说:“欧盟已经实现了这一目标。我们已经将人工智能的概念与构成我们社会基础的基本价值观联系起来。然而,除了《人工智能法案》本身,还有很多工作要做。人工智能将推动我们重新思考民主国家核心的社会契约、我们的教育模式、劳动力市场和我们进行战争的方式。《人工智能法》是一个新的起点围绕技术构建的治理模式。我们现在必须集中精力将这项法律付诸实践”。 下一步安排 该条例仍需接受律师和语言学家的最终检查,预计将在立法机构结束前(通过所谓的更正程序)最终通过。该法律还需要得到安理会的正式认可。 它将在《官方公报》上发表后20天生效,并在其生效后24个月完全适用,但以下情况除外:禁止被禁止的做法,将在生效之日后6个月适用;行为守则(生效后九个月);通用人工智能规则,包括治理(生效后12个月);以及高风险系统的义务(36个月)。 背景 《人工智能法》直接回应了欧洲未来会议(COFE)公民的建议,最具体的是关于增强欧盟在战略部门竞争力的建议12(10)、关于建立一个安全可信的社会(包括打击虚假信息和确保人类最终掌握控制权)的建议33(5)、,(3)在确保人工监督的同时,(8)可信和负责任地使用人工智能,制定保障措施并确保透明度,以及关于使用人工智能和数字工具改善公民(包括残疾人)获取信息的建议37(3)。