《美国商务部发布新的人工智能指南和工具》

  • 编译者: 李晓萌
  • 发布时间:2024-08-20
  • 近日,在拜登总统关于人工智能安全、可靠和值得信赖的发展的行政命令发布270天后,美国商务部宣布新的指南和工具,以帮助提高人工智能系统的安全性、可靠性和可信度。

    美国商务部的美国国家标准与技术研究院(NIST)发布了三份最终指导文件,于4月首次发布以征求公众意见,以及美国人工智能安全研究所的一份旨在帮助降低风险的指导文件草案。NIST还发布了一个软件包,旨在衡量对抗性攻击如何降低人工智能系统的性能。此外,美国商务部的美国专利商标局(USPTO)发布了一份关于专利主题资格的指导更新,以解决包括人工智能在内的关键和新兴技术的创新问题,美国国家电信和信息管理局(NTIA)向白宫提交了一份报告,审查了具有广泛可用权重的大型人工智能模型的风险和收益。

    美国商务部长Gina Raimondo表示:“在拜登总统和哈里斯副总统的领导下,我们商务部一直在不懈地努力实施具有历史意义的人工智能行政命令,自我们被赋予这些关键职责以来的九个月里,我们取得了重大进展。”。“人工智能是我们这一代人的决定性技术,因此我们正在快速发展,以跟上步伐,帮助确保人工智能的安全开发和部署。今天的公告表明,我们致力于为人工智能开发人员、部署人员和用户提供所需的工具,以安全地利用人工智能的潜力,同时最大限度地降低其相关风险。我们取得了很大进展,但还有很多工作要做。我们将保持势头,维护美国作为人工智能全球领导者的地位。”

    NIST的文件发布涵盖了人工智能技术的各个方面,其中两份是今天首次公开。一个是美国人工智能安全研究所的指导文件的初步公开草案,旨在帮助人工智能开发人员评估和减轻生成性人工智能和两用基础模型(可用于有益或有害目的的人工智能系统)带来的风险。另一个是测试平台,旨在帮助人工智能系统用户和开发人员衡量某些类型的攻击如何降低人工智能系统的性能。在剩下的三份文件中,有两份是指导文件,旨在帮助管理生成式人工智能的风险——该技术支持许多聊天机器人以及基于文本的图像和视频创建工具——并作为NIST人工智能风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源。第三份报告提出了一项计划,让美国利益相关者与全球其他国家合作制定人工智能标准。

    美国商务部标准与技术部副部长兼NIST主任Laurie E.Locascio表示:“尽管生成式人工智能具有潜在的转型优势,但它也带来了与传统软件截然不同的风险。”。“这些指导文件和测试平台将向软件创建者告知这些独特的风险,并帮助他们开发在支持创新的同时减轻这些风险的方法。”

    USPTO的指南更新将协助USPTO人员和利益相关者根据专利法(35 U.s.C.§101)确定人工智能发明的主题资格。这一最新更新建立在之前的指导之上,为美国专利商标局和申请人如何评估专利申请和涉及人工智能技术发明的专利中权利要求的主题资格提供了进一步的清晰度和一致性。指南更新还宣布了如何在各种技术中应用该指南的三个新示例。

    “美国专利商标局仍然致力于促进和保护包括人工智能在内的关键和新兴技术的创新,”负责知识产权的商务部副部长兼美国专利商标局长Kathi Vidal说。“我们期待听到公众对这一指导更新的反馈,这将进一步明确评估人工智能发明的主题资格,同时激励解决世界和社区问题所需的创新。”

    美国国家电信和信息管理局即将发布的报告将审查模型权重广泛可用的两用基础模型(即“开放权重模型”)的风险和收益,并制定政策建议,在降低风险的同时最大限度地提高这些收益。开放权重模型允许开发人员在先前工作的基础上进行构建和调整,从而扩大了人工智能工具对小公司、研究人员、非营利组织和个人的可用性。

    有关NIST公告的更多信息

    防止两用基础模型的误用风险

    人工智能基础模型是强大的工具,在广泛的任务中都很有用,有时被称为“两用”,因为它们既有好处也有坏处。NIST的美国人工智能安全研究所发布了其关于管理两用基础模型滥用风险的指导方针的初步公开草案,该草案概述了基础模型开发人员如何保护其系统免受滥用,从而对个人、公共安全和国家安全造成蓄意伤害的自愿最佳实践。

    该指南草案提供了七种关键方法来减轻模型被滥用的风险,并就如何实施这些模型以及如何使其实施透明提出了建议。这些做法可以共同帮助防止模型通过开发生物武器、开展进攻性网络行动、生成儿童性虐待材料和未经同意的亲密图像等活动造成伤害。

    美国东部时间2024年9月9日晚上11:59,人工智能安全研究所正在接受公众对《两用基础模型滥用风险管理》草案的意见。评论可以电子方式提交至NISTAI800-1@nist.gov主题行中有“NIST AI 800-1,管理两用基础模型的误用风险”。

    测试AI模型如何应对攻击

    人工智能系统的漏洞之一是其核心模型。通过将模型暴露于大量的训练数据中,它学会了做出决策。但是,如果对手用不准确的数据毒害训练数据——例如,通过引入可能导致模型将停车标志误判为限速标志的数据——模型可能会做出不正确的、潜在的灾难性决定。测试对抗性攻击对机器学习模型的影响是Dioptra的目标之一,Dioptra是一个新的软件包,旨在帮助人工智能开发人员和客户确定他们的人工智能软件在各种对抗性攻击中的表现。

    开源软件可供免费下载,可以帮助包括政府机构和中小型企业在内的社区进行评估,以评估人工智能开发人员对其系统性能的说法。该软件响应了行政命令第4.1(ii)(B)节,该节要求NIST帮助进行模型测试。Dioptra通过允许用户确定哪些类型的攻击会使模型的性能降低,并量化性能降低,以便用户可以了解系统在什么情况下会发生故障的频率和情况。

    管理生成型人工智能的风险

    人工智能RMF生成人工智能档案(NIST AI 600-1)可以帮助组织识别生成人工智能带来的独特风险,并提出最符合其目标和优先事项的生成人工智能风险管理行动。该指南旨在成为NIST人工智能RMF用户的配套资源。它以12个风险和200多个开发人员可以采取的管理风险的行动为中心。

    这12个风险包括降低网络安全攻击的进入门槛,产生错误和虚假信息或仇恨言论和其他有害内容,以及生成人工智能系统虚构或“幻觉”输出。在描述了每种风险之后,该文档提供了一个开发人员可以采取的缓解风险的行动矩阵,映射到AI RMF。

    减少对用于训练AI系统的数据的威胁

    第二份最终确定的出版物《生成性人工智能和两用基础模型的安全软件开发实践》(NIST特别出版物(SP)800-218A)旨在与安全软件开发框架(SP 800-218)一起使用。虽然SSDF广泛关注软件编码实践,但配套资源扩展了SSDF,部分是为了解决生成式人工智能系统的一个主要问题:它们可能会受到恶意训练数据的损害,从而对人工智能系统性能产生不利影响。

    除了涵盖人工智能系统的培训和使用方面外,本指导文件还确定了潜在的风险因素和应对策略。除其他建议外,它还建议分析训练数据中的中毒、偏见、同质性和篡改迹象。

    全球参与人工智能标准

    人工智能系统不仅在美国,而且在世界各地都在改变社会。《人工智能标准全球参与计划》(NIST AI 100-5)是第三份最终出版物,旨在推动全球开发和实施与人工智能相关的共识标准、合作与协调以及信息共享。

    该指南以NIST制定的《联邦参与人工智能标准和相关工具计划》中概述的优先事项为依据,并与《关键和新兴技术国家标准战略》挂钩。该出版物表明,来自许多国家的更广泛的多学科利益相关者参与了标准制定过程。

相关报告
  • 《美国商务部宣布执行拜登总统关于人工智能的行政命令的新行动》

    • 编译者:李晓萌
    • 发布时间:2024-06-12
    • 近日,美国商务部宣布,在拜登总统发布关于人工智能安全、可靠和值得信赖的发展的行政命令(EO)180天后,发布了几项与EO有关的新公告。美国国家标准与技术研究院(NIST)发布了四份出版物草案,旨在帮助提高人工智能系统的安全性、保障性和可信度。NIST还推出了一个挑战系列,将支持开发区分人类生产的内容和人工智能生产的内容的方法。除了NIST的出版物外,美国商务部专利商标局(USPTO)还发布了一份公众评论请求(RFC),寻求对人工智能如何影响对艺术领域普通技能水平的评估的反馈,以确定一项发明是否符合美国法律规定的专利申请,并于今年早些时候发布了人工智能辅助发明专利申请指南。 美国商务部长吉娜·雷蒙多表示:“自拜登总统颁布历史性的人工智能行政命令以来的六个月里,商务部一直在努力研究和制定安全利用人工智能潜力所需的指导意见,同时将相关风险降至最低。”。“我们今天发布的公告表明,我们致力于透明度和所有利益相关者的反馈,以及我们在短时间内取得的巨大进展。有了这些资源和国防部之前在人工智能方面的工作,我们将继续支持人工智能的负责任创新和美国的技术领导力。” NIST的出版物涵盖了人工智能技术的各个方面:前两份是指导文件,旨在帮助管理生成性人工智能的风险,该技术支持聊天机器人和基于文本的图像和视频创建工具,并分别作为NIST人工智能风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源。NIST的第三份出版物提供了提高数字内容透明度的方法,人工智能可以改变这些方法;第四部分提出了制定全球人工智能标准的计划。这些出版物是初稿,NIST现在正在发布,以在今年晚些时候提交最终版本之前征求公众反馈。 负责标准与技术的商务部副部长兼NIST主任Laurie E.Locascio表示:“尽管生成人工智能具有潜在的变革性好处,但它也带来了与传统软件截然不同的风险。”。“这些指导文件不仅将告知软件创作者这些独特的风险,还将帮助他们在支持创新的同时开发减轻风险的方法。” 美国专利商标局正在发布一份RFC,寻求人工智能如何影响他们在确定一项发明是否符合美国法律规定的专利时所做的评估的反馈。例如,人工智能的使用提出了什么是现有技术以及对具有本领域普通技能的人的技能水平的评估的问题。美国专利商标局希望对RFC的回应将有助于他们评估对这些问题的进一步指导的必要性,有助于制定任何此类指导,并有助于告知美国专利商标总局在法院的工作以及向国会提供技术建议。 负责知识产权的商务部副部长兼美国专利商标局局长Kathi Vidal表示:“随着人工智能在创新中发挥更大作用,我们必须鼓励负责任、安全地使用人工智能来解决当地和世界问题,发展未来的就业和产业,同时确保人工智能不会破坏知识产权在激励人类创造力和投资方面发挥的关键作用。”。“这项工作建立在我们的发明指导意见的基础上,该指导意见仔细规定了美国专利商标局何时为人工智能辅助创新颁发专利,以及我们在人工智能和所有形式的知识产权交叉点上的持续政策工作。” NIST的所有四份出版物都是首次公开草案,NIST将在2024年6月2日前就每一份征求公众意见。 缓解生成型人工智能的风险 人工智能RMF生成人工智能档案(NIST AI 600-1)可以帮助组织识别生成人工智能带来的独特风险,并提出最符合其目标和优先事项的生成人工智能风险管理行动。该指导文件是在过去一年中开发的,并借鉴了由2500多名成员组成的NIST生成人工智能公共工作组的意见,旨在成为NIST人工智能RMF用户的配套资源。人工智能档案指导文件以13种风险和开发者可采取的400多项行动为中心。 这13个风险包括以下问题:更容易获得与化学、生物、放射性或核武器有关的信息;降低了黑客、恶意软件、网络钓鱼和其他网络安全攻击的进入门槛;以及制造仇恨言论和有毒、诋毁或成见的内容。在这13个风险的详细描述之后,是开发人员可以采取的400项行动的矩阵,以减轻风险。 减少对用于训练人工智能系统的数据的威胁 第二份出版物《生成人工智能和两用基础模型的安全软件开发实践》(NIST特别出版物(SP)800-218A)旨在与SSDF(SP 800-218)一起使用。虽然SSDF广泛关注软件代码行的安全,但这一配套资源扩展了SSDF,以帮助解决对生成人工智能系统产生不利影响的恶意训练数据的问题。 除了涵盖人工智能系统的培训和使用方面,新的配套资源还提供了处理培训数据和数据收集过程的指导,包括一个确定潜在风险因素和应对策略的矩阵。在其他建议中,该文件建议分析训练数据中的中毒、偏见、同质性和篡改迹象。 降低合成内容风险 伴随着生成性人工智能的发展,人工智能创造或改变了“合成”内容。提供提高数字内容透明度的技术方法是NIST新出版物草案《降低合成内容带来的风险》(NIST AI 100-4)的目标。本出版物提供了一份关于了解人工智能EO第4.5(a)节要求NIST向白宫提供的合成内容来源和检测的单独报告,并对其进行了补充。 NIST AI 100-4列出了检测、验证和标记合成内容的方法,包括数字水印和元数据记录,其中指示内容来源或历史的信息(如图像或录音)嵌入内容中,以帮助验证其真实性。该报告不仅关注合成内容的危险性;它旨在通过理解和应用基于用例和上下文的技术方法来提高内容的透明度,从而降低合成内容的风险。 人工智能标准的全球参与 人工智能系统正在改变美国社会和世界各地。人工智能标准全球参与计划(NIST AI 100-5)旨在推动全球人工智能相关共识标准的制定和实施、合作与协调以及信息共享。 草案征求了对人工智能标准化可能急需的领域和主题的反馈意见。这些主题已准备好标准化,包括提高对数字内容来源的认识的机制,无论是真实的还是合成的;以及人工智能系统测试、评估、验证和验证的共享做法。其他主题可能需要更多的科学研究和开发,以建立对潜在标准关键组成部分的基本科学理解。 NIST GenAI 除了这四份文件,NIST还宣布了NIST GenAI,这是一个评估和测量生成人工智能技术的新项目。该项目是NIST对行政命令的回应的一部分,其努力将有助于为NIST的美国人工智能安全研究所的工作提供信息。 NIST GenAI项目将发布一系列挑战性问题,旨在评估和衡量生成人工智能技术的能力和局限性。这些评估将用于确定促进信息完整性的战略,并指导安全和负责任地使用数字内容。该项目的目标之一是帮助人们确定是人类还是人工智能制作了给定的文本、图像、视频或音频记录。5月开始注册,参与试点评估,旨在了解人工制作的内容与合成内容的区别。有关挑战和如何注册的更多信息,请访问NIST GenAI网站。 USPTO关于专利权的RFC 完整的联邦公报评论截止到2024年7月29日。为了激励、保护和鼓励对通过使用人工智能实现的创新的投资,并向公众明确人工智能辅助发明的专利性,美国专利商标局此前已在《联邦公报》上发布了指导意见。
  • 《美国商务部宣布将美国人工智能安全研究所(USAISI)转型为支持创新和科学的美国人工智能标准与创新中心(CAISI)》

    • 编译者:李晓萌
    • 发布时间:2025-06-24
    • 近日,在美国总统特朗普的指导下,美国商务部长Howard Lutnick宣布了他将前美国人工智能安全研究所(USAISI)改革为人工智能标准与创新中心(CAISI)的计划。 人工智能具有巨大的潜力,能够带来变革性的进步,从而增强美国的经济和国家安全。这一改革将确保商务部利用其广泛的科学和工业专业知识,评估和理解这些快速发展的系统的能力,并识别在美国和国外开发的系统中的漏洞和威胁。 “长期以来,审查和监管一直以国家安全的名义被滥用。创新者将不再受到这些标准的限制。人工智能标准与创新中心将评估并增强美国在这些快速发展的商业人工智能系统中的创新能力,同时确保它们符合我们的国家安全标准。”商务部长Howard Lutnick表示。 人工智能标准与创新中心将成为美国政府内与商业人工智能系统的潜力开发和安全保障相关的测试和协作研究的主要联系点。为此,人工智能标准与创新中心将: ·与美国国家标准与技术研究院(NIST)组织合作,制定衡量和提升人工智能系统安全性的指南和最佳实践,并与NIST信息技术实验室及其他NIST组织合作,协助产业界制定自愿性标准。 ·与私营部门的人工智能开发者和评估者建立自愿性协议,并主导对可能对国家安全构成风险的人工智能能力的非机密评估。在开展这些评估时,人工智能标准与创新中心(CAISI)将重点关注可证明的风险,例如网络安全、生物安全等。 ·主导对美国及其对手的人工智能系统能力、外国人工智能系统的采用情况以及国际人工智能竞争态势的评估和分析。 ·主导对使用对手人工智能系统可能引发的安全漏洞和恶意外国影响的评估与分析,包括是否存在backdoor病毒以及其他隐蔽的恶意行为的可能性。 ·与其他联邦机构和实体协调,包括国防部、能源部、国土安全部、科学技术政策办公室以及情报界,共同制定评估方法,并开展评估与分析工作。 ·在国际上代表美国的利益,防止外国政府对美国技术进行繁琐且不必要的监管,并与NIST信息技术实验室合作,确保美国在国际人工智能标准方面的主导地位。 人工智能标准与创新中心(CAISI)将继续在NIST内运作,并定期与NIST内的其他组织(包括信息技术实验室)以及其他商务部内的其他局(包括工业与安全局,BIS)进行合作与协调。