《欧盟:欧盟技术法规信息系统如何运作》

  • 来源专题:食物与营养
  • 编译者: 李晓妍
  • 发布时间:2020-11-30
  • 本报告解释了欧盟技术法规信息系统(TRIS)的作用和程序。这一体系允许欧盟成员国和欧洲委员会解决潜在的欧盟内部技术性贸易壁垒,这些壁垒是由一个成员国提议的关于商品和服务的国家立法造成的。在通过TRIS通知的所有国家立法草案中,大约四分之一的通知是关于拟议的国家粮食、渔业和农业法律的。

相关报告
  • 《欧盟《人工智能法案》正式生效》

    • 来源专题:计量基标准与精密测量
    • 编译者:李晓萌
    • 发布时间:2024-08-08
    • 近日,世界上第一部关于人工智能的全面法规欧盟《人工智能法案》(AI法案)生效。《人工智能法案》旨在确保欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。该法规旨在在欧盟建立一个统一的人工智能内部市场,鼓励采用这项技术,并为创新和投资创造一个支持性的环境。 《人工智能法案》基于欧盟的产品安全和基于风险的方法,引入了人工智能的前瞻性定义。风险分为四类,风险等级越高,管控越严格: ·最小风险:大多数人工智能系统,如支持人工智能的推荐系统和垃圾邮件过滤器,都属于这一类。由于对公民权利和安全的风险很小,这些系统在《人工智能法》下没有义务。公司可以自愿采用额外的行为准则。 ·特定的透明度风险:像聊天机器人这样的人工智能系统必须向用户明确披露他们正在与机器交互。某些人工智能生成的内容,包括深度伪造的内容,必须这样标记,当使用生物特征分类或情感识别系统时,需要通知用户。此外,提供商必须以一种方式设计系统,即合成音频、视频、文本和图像内容以机器可读格式标记,并可检测为人工生成或操纵。 ·高风险:被确定为高风险的人工智能系统将需要遵守严格的要求,包括风险缓解系统、高质量的数据集、活动记录、详细的文档、清晰的用户信息、人工监督以及高水平的稳健性、准确性和网络安全性。监管沙盒将促进负责任的创新和合规人工智能系统的开发。这种高风险的人工智能系统包括用于招聘、评估某人是否有权获得贷款或运行自主机器人的人工智能。 ·不可接受的风险:被认为对人们的基本权利构成明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用程序,例如使用语音辅助鼓励未成年人危险行为的玩具,允许政府或公司进行“社会评分”的系统,以及预测性警务的某些应用程序。此外,生物识别系统的一些用途将被禁止,例如在工作场所使用的情绪识别系统,以及在公共场所为执法目的对人员进行分类或实时远程生物识别的一些系统(少数例外)。 为了补充这一系统,《人工智能法案》还引入了所谓的通用人工智能模型的规则,这些模型是功能强大的人工智能模型,旨在执行各种任务,如生成类人文本。通用人工智能模型越来越多地被用作人工智能应用程序的组件。《人工智能法案》将确保价值链的透明度,并解决最有能力的模型可能存在的系统性风险。
  • 《欧盟人工智能立法引发数据透明度争议》

    • 来源专题:人工智能
    • 编译者:袁晨
    • 发布时间:2024-06-18
    • 欧盟最近推出了《人工智能法案》,这是一个新的治理框架,迫使组织提高其人工智能系统训练数据的透明度。 如果这项立法生效,它可能会突破硅谷许多人为防止对人工智能开发和部署过程进行如此详细的审查而建立的防御。 自从OpenAI的ChatGPT在18个月前由微软支持公开发布以来,对生成式人工智能技术的兴趣和投资显著增长。这些能够以创纪录的速度编写文本、创建图像和生成音频内容的应用程序引起了相当大的关注。然而,伴随着这些变化的人工智能活动的增加引发了一个有趣的问题:人工智能开发人员实际上是如何获取训练模型所需的数据的?是否通过使用未经授权的版权材料? 实施人工智能法案 欧盟的人工智能法案旨在解决这些问题,计划在未来两年内逐步实施。新法律的实施需要时间,而逐步实施可以让监管机构有必要的时间来适应新法律,也可以让企业适应自己的新义务。然而,一些规则的实施仍存在疑问。 该法案中争议较大的部分之一规定,部署通用人工智能模型(如ChatGPT)的组织必须提供用于培训它们的内容的“详细摘要”。新成立的人工智能办公室宣布,在与利益相关者协商后,计划在2025年初发布一个供组织遵循的模板。 人工智能公司对披露其培训数据表示强烈抵制,称这些信息是商业机密,如果公开,将为竞争对手提供不公平的优势。这些透明度报告所要求的细节水平将对规模较小的人工智能初创公司和谷歌和Meta等大型科技公司产生重大影响,这些公司将人工智能技术定位为未来运营的核心。 在过去的一年里,几家顶级科技公司——谷歌、OpenAI和稳定人工智能——都面临着来自创作者的诉讼,他们声称自己的内容在未经许可的情况下被用于训练人工智能模型。然而,在日益严格的审查下,一些科技公司在过去两年中已经揭开了自己的公司面纱,与个别媒体和网站谈判内容许可协议。一些创作者和立法者仍然担心这些措施是不够的。 欧洲立法者的分歧 在欧洲,立法者之间的分歧非常明显。在欧洲议会牵头起草《人工智能法案》(AI Act)的Dragos Tudorache认为,应该要求人工智能公司开放其数据集的源代码。Tudorache强调透明度的重要性,这样创作者就可以确定他们的作品是否被用于训练人工智能算法。 相反,在埃马纽埃尔·马克龙(Emmanuel Macron)总统的领导下,法国政府私下反对引入可能阻碍欧洲人工智能初创企业竞争力的规定。法国财政部长布鲁诺·勒梅尔(Bruno Le Maire)强调,欧洲需要成为人工智能领域的世界领导者,而不仅仅是美国和中国产品的消费者。 人工智能法案承认有必要在保护商业秘密与促进包括版权所有者在内的合法利益方的权利之间取得平衡。然而,实现这一平衡仍然是一项重大挑战。 不同的行业在这个问题上有不同的看法。人工智能图像编辑公司Photoroom的首席执行官马修·里乌夫(Matthieu Riouf)将这种情况比作烹饪实践,声称最好的厨师都不会分享食谱的秘密部分。他只是这类犯罪可能猖獗的众多场景中的一个例子。然而,世界顶级人工智能初创公司之一hug Face的联合创始人托马斯·沃尔夫(Thomas Wolf)认为,尽管人们总是对透明度有需求,但这并不意味着整个行业都会采取透明度第一的方式。 最近的一系列争议清楚地表明,这一切是多么复杂。OpenAI在一次公开会议上展示了最新版本的ChatGPT,该公司因使用与女演员斯嘉丽·约翰逊(Scarlett Johansson)几乎一模一样的合成声音而受到严厉批评。这些例子表明,人工智能技术有可能侵犯个人和专有权利。 在这些法规的制定过程中,人们一直在激烈讨论它们对人工智能领域未来创新和竞争力的潜在影响。特别是,法国政府敦促创新,而不是监管,应该成为起点,因为监管尚未完全理解的方面存在危险。 欧盟监管人工智能透明度的方式可能会对科技公司、数字创作者和整体数字格局产生重大影响。因此,政策制定者面临的挑战是,在推动充满活力的人工智能行业创新的同时,引导其做出安全、合乎道德的决策,并防止知识产权侵权。 总而言之,如果通过,欧盟人工智能法案将是朝着提高人工智能开发透明度迈出的重要一步。然而,这些规定的实际执行及其行业效果可能还很遥远。展望未来,特别是在这种新的监管范式出现之初,创新、道德人工智能发展和知识产权保护之间的平衡仍将是各方利益相关者需要努力解决的一个核心和有争议的问题。