《美国提出关于人工智能透明度的《COPIED ACT》》

  • 来源专题:科技出版市场动态监测
  • 编译者: 崔颖
  • 发布时间:2024-10-11
  •     《内容来源保护和防止编辑及深度伪造媒体完整性法案》(Content Origin Protection and Integrity from Edited and Deepfaked Media Act,简称COPIED ACT)是一项由美国参议员Maria Cantwell、Marsha Blackburn和Martin Heinrich提出的法案,旨在对抗有害的深度伪造(deepfakes)现象。

        该法案的主要内容包括:

        ·创建透明度标准:要求美国国家标准与技术研究院(NIST)制定有关内容来源信息、水印和合成内容检测的指南和标准,以提高内容是否由人工智能生成或操纵的透明度,并提供人工智能内容来源的信息。法案还要求NIST制定网络安全措施,防止AI内容的来源和水印被篡改。

        ·让创作者掌控自己的内容:要求AI工具提供商允许内容所有者附加信息源,并禁止删除这些信息。法案禁止未经授权使用带有信息源的内容来训练AI模型或生成AI内容,使内容所有者能够保护他们的作品并设定使用条款,包括报酬。

        ·赋予个人起诉违法者的权利:授权联邦贸易委员会(FTC)和州检察长执行法案要求,并赋予内容所有者对未经许可使用其内容的平台或其他人提起诉讼的权利。

        ·禁止篡改或禁用AI来源信息:法案禁止任何人,包括互联网平台、搜索引擎和社交媒体公司,删除、禁用或篡改AI生成内容的来源信息。

        《COPIED ACT》的提出是对人工智能技术在内容创作领域应用的法律回应,尤其是在保护知识产权和个人肖像权方面。通过这些措施,法案旨在提供必要的透明度和控制,以确保AI技术的发展不会损害创作者的权益。这一法案的出台也反映了全球范围内对AI立法和监管的日益关注,以及在保护创新和激励公平竞争之间寻找平衡的持续努力。

  • 原文来源:https://www.commerce.senate.gov/2024/7/cantwell-blackburn-heinrich-introduce-legislation-to-combat-ai-deepfakes-put-journalists-artists-songwriters-back-in-control-of-their-content
相关报告
  • 《欧盟人工智能立法引发数据透明度争议》

    • 来源专题:人工智能
    • 编译者:袁晨
    • 发布时间:2024-06-18
    • 欧盟最近推出了《人工智能法案》,这是一个新的治理框架,迫使组织提高其人工智能系统训练数据的透明度。 如果这项立法生效,它可能会突破硅谷许多人为防止对人工智能开发和部署过程进行如此详细的审查而建立的防御。 自从OpenAI的ChatGPT在18个月前由微软支持公开发布以来,对生成式人工智能技术的兴趣和投资显著增长。这些能够以创纪录的速度编写文本、创建图像和生成音频内容的应用程序引起了相当大的关注。然而,伴随着这些变化的人工智能活动的增加引发了一个有趣的问题:人工智能开发人员实际上是如何获取训练模型所需的数据的?是否通过使用未经授权的版权材料? 实施人工智能法案 欧盟的人工智能法案旨在解决这些问题,计划在未来两年内逐步实施。新法律的实施需要时间,而逐步实施可以让监管机构有必要的时间来适应新法律,也可以让企业适应自己的新义务。然而,一些规则的实施仍存在疑问。 该法案中争议较大的部分之一规定,部署通用人工智能模型(如ChatGPT)的组织必须提供用于培训它们的内容的“详细摘要”。新成立的人工智能办公室宣布,在与利益相关者协商后,计划在2025年初发布一个供组织遵循的模板。 人工智能公司对披露其培训数据表示强烈抵制,称这些信息是商业机密,如果公开,将为竞争对手提供不公平的优势。这些透明度报告所要求的细节水平将对规模较小的人工智能初创公司和谷歌和Meta等大型科技公司产生重大影响,这些公司将人工智能技术定位为未来运营的核心。 在过去的一年里,几家顶级科技公司——谷歌、OpenAI和稳定人工智能——都面临着来自创作者的诉讼,他们声称自己的内容在未经许可的情况下被用于训练人工智能模型。然而,在日益严格的审查下,一些科技公司在过去两年中已经揭开了自己的公司面纱,与个别媒体和网站谈判内容许可协议。一些创作者和立法者仍然担心这些措施是不够的。 欧洲立法者的分歧 在欧洲,立法者之间的分歧非常明显。在欧洲议会牵头起草《人工智能法案》(AI Act)的Dragos Tudorache认为,应该要求人工智能公司开放其数据集的源代码。Tudorache强调透明度的重要性,这样创作者就可以确定他们的作品是否被用于训练人工智能算法。 相反,在埃马纽埃尔·马克龙(Emmanuel Macron)总统的领导下,法国政府私下反对引入可能阻碍欧洲人工智能初创企业竞争力的规定。法国财政部长布鲁诺·勒梅尔(Bruno Le Maire)强调,欧洲需要成为人工智能领域的世界领导者,而不仅仅是美国和中国产品的消费者。 人工智能法案承认有必要在保护商业秘密与促进包括版权所有者在内的合法利益方的权利之间取得平衡。然而,实现这一平衡仍然是一项重大挑战。 不同的行业在这个问题上有不同的看法。人工智能图像编辑公司Photoroom的首席执行官马修·里乌夫(Matthieu Riouf)将这种情况比作烹饪实践,声称最好的厨师都不会分享食谱的秘密部分。他只是这类犯罪可能猖獗的众多场景中的一个例子。然而,世界顶级人工智能初创公司之一hug Face的联合创始人托马斯·沃尔夫(Thomas Wolf)认为,尽管人们总是对透明度有需求,但这并不意味着整个行业都会采取透明度第一的方式。 最近的一系列争议清楚地表明,这一切是多么复杂。OpenAI在一次公开会议上展示了最新版本的ChatGPT,该公司因使用与女演员斯嘉丽·约翰逊(Scarlett Johansson)几乎一模一样的合成声音而受到严厉批评。这些例子表明,人工智能技术有可能侵犯个人和专有权利。 在这些法规的制定过程中,人们一直在激烈讨论它们对人工智能领域未来创新和竞争力的潜在影响。特别是,法国政府敦促创新,而不是监管,应该成为起点,因为监管尚未完全理解的方面存在危险。 欧盟监管人工智能透明度的方式可能会对科技公司、数字创作者和整体数字格局产生重大影响。因此,政策制定者面临的挑战是,在推动充满活力的人工智能行业创新的同时,引导其做出安全、合乎道德的决策,并防止知识产权侵权。 总而言之,如果通过,欧盟人工智能法案将是朝着提高人工智能开发透明度迈出的重要一步。然而,这些规定的实际执行及其行业效果可能还很遥远。展望未来,特别是在这种新的监管范式出现之初,创新、道德人工智能发展和知识产权保护之间的平衡仍将是各方利益相关者需要努力解决的一个核心和有争议的问题。
  • 《布鲁金斯《人工智能改变世界》》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:姜山
    • 发布时间:2018-05-02
    • 2018年4月24日,布鲁金斯学会发布报告《人工智能改变世界》,旨在向决策者、意见领袖和民众解释人工智能,并展示AI如何改变世界,并会给社会,经济和治理带来什么问题。版权所限现摘译如下。 目录 一、人工智能的特点 二、应用领域 三、政策,监管和道德 四、建议 五、结论 大多数人对人工智能(AI)不很熟悉。2017年一次对美国有1500名高级商业领袖关于人工智能的访谈显示,只有17%的人表示他们熟悉人工智能。他们中的一些人不确定它是什么,或者它会如何影响他们的公司。他们知道改变业务流程有相当大的潜力,但不清楚在自己的组织内如何应用人工智能。 尽管人们普遍缺乏认知,但人工智能技术正在改变人们。它是一个用途很广泛的工具,使人们能够重新思考我们如何整合信息,分析数据并使用它改进决策。我们希望通过本文,向决策者、意见领袖和民众解释人工智能,并展示AI如何改变世界,并会给社会,经济和治理带来什么问题。 本文将讨论人工智能在金融,国家安全,医疗保健,刑事司法,交通和智慧城市等领域的应用,并探讨了诸如数据访问问题,算法偏差,AI道德和透明度以及AI决策的法律责任等问题。我们对比了美国和欧盟的监管方式,并提出了一些关于如何充分利用人工智能,同时保护重要人类价值的建议。为了最大限度地提高人工智能的收益,我们给出了9点建议: 1.鼓励研究人员在不影响用户个人隐私的前提下获得更多的数据访问权限。 2.将更多的政府资金投入非机密的人工智能研究中。 3.推进数字化教育和人工智能劳动力转型。 4.建立联邦人工智能咨询委员会。 5.与政府官员接触,以便制定有效的政策。 6.规范广泛的AI原则而不是限制特定的算法。 7.严肃对待偏见。 8.保持人类监督和控制的机制。 9.惩罚恶意AI行为并促进网络安全。 人工智能的特点 人工智能通常是指“机器能够做出与人类一样的反应,像人类那样思考,判断和意图的能力。” 这些软件系统“做出通常需要人类专业水平的决策”,并帮助人们预测问题或处理问题。就是说,它们是在自主、智能和自适应的方式工作。 自主 人工智能算法被设计用来做出决定,这通常需要使用实时数据。它们不像被动式机器那样进行机械或预先设置的响应。人工智能通过使用传感器,数据或远程输入,并结合来自各种不同来源的信息,实时做出分析,并根据其得出的见解进行操作。这个分析和决策的过程随着存储系统、处理速度和分析技术的大幅改进,其复杂性也大大增加。 智能 人工智能通常与机器学习和数据分析相伴而行。机器学习需要数据并找出其中的潜在趋势,如果它发现与实际问题相关的问题,就可以利用这些知识来分析具体问题。这需要足够强大的数据,以便相关算法可以识别有用的模式。“数据”包括数字信息,卫星图像,视觉信息,文本或非结构化数据等等形式。 自适应 AI系统有能力在他们做出决策时学习和适应。如在交通领域,自动驾驶车辆具有让驾驶员和车辆知道即将到来的拥堵,坑洼,公路建设或其他可能的交通障碍的能力。车辆可以利用路上其他车辆的经验,而无需人类参与,并且他们实现的“体验”马上可以完全转移到其他类似配置的车辆。它们先进的算法,传感器和摄像头融合了当前操作的经验,并使用仪表板和视觉显示屏实时信息,以便人类驾驶员能够了解当前的交通状况和车辆状况。 人工智能并不是一个未来愿景,今天已经融入并应用到各个领域。包括金融,国家安全,医疗保健,刑事司法,交通和智慧城市等领域。有很多例子能够表明,人工智能已经在对世界产生影响,并在很大程度上增强了人类的能力。 人工智能发挥越来越大的作用,原因之一是它提供了巨大的经济发展机会。一项研究显示,人工智能技术可以使全球GDP增加15.7万亿美元,到2030年将增长14%。其中包括中国7万亿美元,北美3.7万亿美元,北美1.8万亿美元欧洲,非洲和大洋洲为1.2万亿美元,其他亚洲国家为0.9万亿美元,南欧为0.7万亿美元,拉丁美洲为0.5万亿美元。 中国正在迅速取得进展,并设定了一个国家目标,即在人工智能方面投资1500亿美元,并在2030年前成为该领域的全球领导者。麦肯锡全球研究院对中国的研究发现,“人工智能主导的自动化可以为中国经济注入生产力,每年增加0.8到1.4个百分点的GDP增长。”尽管中国目前在人工智能应用方面落后于美国和英国,但由于其规模庞大的人工智能市场,中国在人工智能未来发展上具有巨大的机遇。 应用领域 金融 2013年至2014年间,美国在人工智能金融的投资增长了两倍,达到了122亿美元。“目前正在通过软件决定是否贷款,这些软件可以考虑各种关于借款人的精细解析数据,而不仅仅是信用评分和背景调查。” 此外还有所谓的机器人顾问“创建个性化的投资组合,可以不再需要股票经纪人和财务顾问”。这些技术进步旨在消除投资中的情绪化反应,并在几分钟内就可以基于科学分析做出决定。 这方面的一个特例是证券交易所,通过机器进行高频交易已经取代了很多人的决策。人们提交买单和卖单,并且计算机在没有人为干预的情况下瞬间即可匹配。机器可以在很小的范围内发现交易低效率或市场差异,并根据投资者的指示执行交易赚钱。这些工具在某些地方通过高级计算提供支持,因为它们的重点不在于零或一,而是在可以在每个位置存储多个值的“量子位”上,因此这些工具具有更大的信息存储容量。这大大缩短了处理时间。 欺诈检测代表了人工智能在金融系统中的另一种应用。人类很难辨别大型组织中的欺诈活动,但人工智能可以识别异常情况以进行深入核查。这有助于管理人员在问题萌芽阶段就发现问题,不至于任其发展到危险的水平。 国家安全 人工智能在国防领域扮演着重要的角色。美国军方正在进行的Maven项目,通过人工智能“筛选通过监视捕获的大量数据和视频,然后提醒人类分析师存在异常或可疑活动。” 国防部表示这一领域的技术目标是“满足我们的作战人员的需求,并提高技术开发和采购的速度和灵活性。” “极速战”(hyperwar) 虽然关于美国正在激烈争论人工智能的自主致命武器的战争伦理和法律问题,但中国和俄罗斯并未受限于这场辩论,我们应该预见到需要抵御此类以“超级速度”运行的系统。西方面临的挑战,是如何在这种战争场景中确定“人在环路”模式能够让西方在这种新型冲突中具有竞争力。 与人工智能相关的大数据分析将深刻影响情报分析,因为大量数据几乎实时筛选出来,从而为指挥官提供迄今未曾见过的情报分析和生产力水平。随着人类指挥官在特定情况下委托人工智能平台的关键决策,决策和准备行动的时间被大大缩短,指挥和控制也同样受到影响。 战争是一个与时间赛跑的过程,决策最快和执行最快的一方通常会占上风。人工智能辅助指挥和控制系统,可以将决策支持和决策制定的速度大大超越传统的战争手段。再加上能够自主决定发射致命武器的人工智能自动武器系统,这个过程将会如此之快,以至于必须使用一个新术语,专门用来描述这种战争的速度:极速战(hyperwar)。 正如人工智能会深刻影响战争的速度一样,零日(或零秒)的网络威胁以及恶意软件的扩散,也将挑战最复杂网络防护。这迫使现有的网络防御显著强化。越来越多的脆弱系统正在被淘汰,并且需要通过基于云的认知智能平台转变为网络安全的分层方法。这种方法将社区推向“思维”防御能力,通过不断对已知威胁进行培训来保护网络。此功能包括对迄今为止未知代码的DNA级分析,以及通过识别文件的字符串组件来识别和阻止入站恶意代码的可能性。 为“极速战”做准备,保护关键网络设施是重中之重。中国,俄罗斯,朝鲜和其他国家正在为人工智能投入大量资源。中国2017年发布了一项计划,到2030年将“建设一个价值近1500亿美元的国内工业”。中国搜索公司百度率先推出了面部识别应用程序。此外,像深圳这样的城市正在支持人工智能实验室。中国希望人工智能将提供安全,打击恐怖主义,并改善语音识别计划。许多人工智能算法的双重使用特性意味着人工智能研究专注于社会的一个部门,可以迅速修改以用于安全领域。