《NIST识别操纵人工智能系统行为的网络攻击类型》

  • 来源专题:计量基标准与精密测量
  • 编译者: 李晓萌
  • 发布时间:2024-01-24
  • 如果对手找到了混淆其决策的方法,人工智能系统可能会出现故障。在这个例子中,道路上的错误标记误导了无人驾驶汽车,可能使其转向迎面而来的车辆。这种“逃避”攻击是NIST一份新出版物中描述的众多对抗性策略之一,该出版物旨在帮助概述我们可能预期的攻击类型以及减轻攻击的方法。

    敌人可以故意混淆甚至“毒害”人工智能(AI)系统,使其发生故障——而且他们的开发人员无法采用万无一失的防御措施。美国国家标准与技术研究院(NIST)的计算机科学家及其合作者在一份新出版物中发现了人工智能和机器学习的这些和其他漏洞。

    他们的工作题为《对抗性机器学习:攻击和缓解的分类和术语》(NIST.AI.100-2),是NIST支持可信人工智能发展的更广泛努力的一部分,有助于将NIST的人工智能风险管理框架付诸实践。该出版物是政府、学术界和工业界的合作,旨在帮助人工智能开发人员和用户掌握他们可能预期的攻击类型,以及缓解攻击的方法,但要明白,没有灵丹妙药。

    该出版物的作者之一、NIST计算机科学家Apostol Vassilev表示:“我们正在提供一份考虑所有类型人工智能系统的攻击技术和方法的概述。”。“我们还描述了文献中报道的当前缓解策略,但这些可用的防御措施目前缺乏充分缓解风险的有力保证。我们鼓励社区提出更好的防御措施。”

    人工智能系统已经渗透到现代社会,其功能从驾驶车辆到帮助医生诊断疾病,再到作为在线聊天机器人与客户互动。为了学习执行这些任务,他们需要根据大量数据进行训练:例如,自动驾驶汽车可能会显示带有路标的高速公路和街道的图像,而基于大型语言模型(LLM)的聊天机器人可能会暴露在在线对话记录中。这些数据有助于人工智能预测在特定情况下如何应对。

    一个主要问题是数据本身可能不可信。其来源可能是网站和与公众的互动。不良行为者有很多机会破坏这些数据——无论是在人工智能系统的训练期间还是之后,同时人工智能继续通过与物理世界的互动来完善其行为。这可能导致AI以不希望的方式执行。例如,当聊天机器人的护栏被精心设计的恶意提示绕过时,他们可能会学会用辱骂或种族主义语言做出回应。

    Vassilev说:“在大多数情况下,软件开发人员需要更多的人来使用他们的产品,这样它才能在曝光率方面变得更好。”。“但不能保证曝光会是好的。聊天机器人在使用精心设计的语言提示时,会喷出糟糕或有毒的信息。”

    部分原因是用于训练人工智能的数据集太大,人们无法成功监测和过滤,因此目前还没有万无一失的方法来保护人工智能免受误导。为了帮助开发者群体,新报告概述了其人工智能产品可能遭受的攻击类型以及减少损害的相应方法。

    该报告考虑了四种主要类型的攻击:逃避攻击、投毒攻击、隐私攻击和虐待攻击。它还根据攻击者的目标、能力和知识等多个标准对它们进行分类。

    规避攻击发生在人工智能系统部署后,试图改变输入以改变系统对其的响应方式。例如,在停车标志上添加标记,使自动驾驶汽车将其误解为限速标志,或创建令人困惑的车道标记,使车辆偏离道路。

    中毒攻击在训练阶段通过引入损坏的数据而发生。一个例子是将大量不恰当语言的例子放入对话记录中,以便聊天机器人将这些例子解释为足够常见的说法,用于自己的客户互动。

    隐私攻击发生在部署过程中,是指试图了解有关人工智能或其训练数据的敏感信息,从而滥用这些信息。对手可以向聊天机器人提出许多合法的问题,然后使用这些问题的答案对模型进行逆向工程,以找出其弱点,或猜测其来源。在这些在线来源中添加不受欢迎的例子可能会使人工智能行为不当,而让人工智能在事后忘记这些特定的不受欢迎例子可能会很困难。

    滥用攻击涉及将不正确的信息插入到源中,如网页或在线文档,然后人工智能吸收这些信息。与上述中毒攻击不同,滥用攻击试图从合法但受损的来源向人工智能提供不正确的信息,以重新调整人工智能系统的预期用途。

    东北大学教授、合著者Alina Oprea表示:“大多数攻击都很容易发起,需要对人工智能系统的最低了解和有限的对抗能力。”。“例如,中毒攻击可以通过控制几十个训练样本来进行,这些样本在整个训练集中所占比例很小。”

    作者还包括Robust Intelligence股份有限公司的研究人员Alie Fordyce和Hyrum Anderson,他们将每一类攻击划分为子类别,并添加了减轻攻击的方法,尽管该出版物承认,人工智能专家迄今为止为对抗性攻击设计的防御措施充其量是不完整的。Vassilev说,对于希望部署和使用人工智能技术的开发人员和组织来说,意识到这些局限性很重要。

    他说:“尽管人工智能和机器学习取得了重大进展,但这些技术很容易受到攻击,这些攻击可能会导致严重的失败,带来可怕的后果。”。“保护人工智能算法存在一些理论问题,但这些问题还没有解决。如果有人说不同的话,那就是在骗人。”

相关报告
  • 《数字经济与人工智能监管 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 在数字经济及平台监管方面,市场监管总局公布《公平竞争审查条例(征求意见稿)》,向社会公众征求意见。北京  互联网法院通过案件审判明确付费会员权益应涵盖至该自然日的全部时间。 在数据安全及个人信息保护方面,工信部就四项有关汽车的强制性国家标准公开征求意见,两项聚焦于汽车数据安全。丰田汽车因人为错误致日本215万用户的车辆数据已被公开十年,面临数据泄露风险。超23.7万名美国政府雇员数据遭泄露。 知识产权保护方面,“同人作品第一案”金庸诉江南案终审宣判,法院认定构成著作权侵权和不正当竞争。AI孙燕姿等火爆平台,引起多种担忧。 目光转向海外。当地时间5月11日,欧盟通过《人工智能法(The AI Act)》提案的谈判授权草案。欧盟委员会近期根据《数字服务法》划定总计19个超大型平台。 数字经济及平台监管 1.市场监管总局公布《公平竞争审查条例(征求意见稿)》      5月12日,市场监管总局官网公布《公平竞争审查条例(征求意见稿)》(以下简称《条例》),通过在行政法规层面作出制度性规定,进一步完善公平竞争审查制度,切实强化竞争政策基础地位,促进加快建设高效规范、公平竞争、充分开放的全国统一大市场,助力构建新发展格局,推动高质量发展。    《条例》为总则、审查内容、审查程序、监督保障、附则五章,共41条。在审查内容方面,《条例》新增对审查内容的总体要求,对市场准入和退出、商品和要素自由流动、影响生产经营成本、影响生产经营行为等四方面审查内容做了进一步完善。同时,《条例》进一步完善了例外规定的适用情形,并优化了适用条件,规定了比例原则,增强针对性和指导性。 审查程序方面,《条例》在以自我审查为主的基础上,在地方层面建立了重大政策措施公平竞争审查会审制度。《条例》规定四种情形,属于规定情形之一的政策措施,政策制定机关在作出公平竞争审查结论后,应当提请本级公平竞争审查工作协调机制办公室开展会审。 2.北京互联网法院:付费会员权益应涵盖至该自然日的全部时间.      近日,北京互联网法院审结了石某诉A公司网络服务合同纠纷一案。双方产生争议的焦点在于会员服务结束的时间应为2021年7月9日20时46分48秒还是该日24时。      法院认为,会员权益应涵盖至该自然日的全部时间。首先,涉案会员服务协议相应条款中关于服务期限届满的计算单位表述为“日”,按照一般理解,“日”应该涵盖该自然日的全部时间。其次,涉案会员服务协议属于格式条款,在存在两种解释时,应按照有利于非格式条款提供方进行理解。此外,被告在其网站的“帮助中心”中对于会员有效期的说明,虽然不是涉案会员服务协议中的内容,但是也具有对相应格式条款进行解释的效果。由于“到期时间”的提示在用户充值成为会员后方可查看,不能视为在合同成立之前已经明确告知用户的内容。综上,被告提前结束向原告提供会员服务的行为构成违约,应承担相应的违约责任。 法院判令被告A公司向原告石某的账号提供VIP会员权益一日,驳回原告石某的其他诉讼请求。目前,该案判决已经生效。 南财点评:该案的亮点主要在于:一是明确了常见的会员平台服务的法律性质和法律效力,在该案中,法院将《VIP会员服务协议》认定为格式条款;二是明确了非以“协议”形式存在的官网说明为服务协议的组成内容;三是明确会员权益届满的计算方式,认定服务协议中的“日”应当涵盖自然日的全部时间。 数据安全及个人信息保护 1.汽车信息安全再添新标:严控智能网联汽车自动驾驶数据记录      近日,工信部就四项有关汽车的强制性国家标准公开征求意见,其中《汽车整车信息安全技术要求(征求意见稿)》与《智能网联汽车自动驾驶数据记录系统(征求意见稿)》两项聚焦于汽车数据安全。    《汽车整车信息安全技术要求(征求意见稿)》提出,应建立包括车辆的开发阶段、生产阶段及后生产阶段在内的车辆全生命周期的汽车信息安全管理体系。该体系涉及企业内部信息安全管理,车辆信息安全风险识别与处理,车辆信息安全测试,监测、响应、上报针对车辆的网络攻击和威胁,以及相关主体之间信息安全依赖关系五个方面的流程。同时,提出车辆不得直接通过车辆自身的数据出境功能或接口向境外传输数据,以避免大批车辆避开管理部门的监管向境外直传数据。    《智能网联汽车自动驾驶数据记录系统(征求意见稿)》对自动驾驶的数据记录、存储、读取等做出了严格规定,要求自动驾驶数据记录系统应记录车辆及自动驾驶数据记录系统基本信息、车辆状态及动态信息、自动驾驶系统运行信息、行车环境信息和驾驶员操作及状态信息五类数据元素。同时,区分了A级和B级车辆数据元素,其中A级数据元素指的是配备自动驾驶数据记录系统的车辆应记录的数据元素;B级数据元素指的是配备自动驾驶数据记录系统的车辆在相关功能处于自动驾驶系统调用的状态时应记录的数据元素。 南财点评:尽管此次出台的征求意见稿体现了多方面的考量与进步,但《汽车整车信息安全技术要求》等文件对与已有的信息安全制度衔接机制尚未明确,如网络安全等级保护、车联网定级备案等制度,如果未来相关制度的衔接机制不明确,可能会导致企业需要就信息安全进行重复建设。 2.丰田汽车:人为错误致日本215万用户车辆数据公开十年 或存数据泄露风险 丰田汽车公司周五表示,由于云环境中的设置错误,日本215万用户的车辆数据已被公开了十年。报道称,这几乎涵盖自2012年以来注册其主要云服务平台的全部客户群。这起事件也影响了其豪华品牌雷克萨斯的客户。丰田公司发言人说,这个问题从2013年11月开始,一直持续到4月中旬,源于人为错误,导致一个云系统被设置为公共的而不是私人的。该公司说,数据可能包括车辆位置和车辆设备的识别号码等细节,但没有关于恶意使用的报告。 3.超过23.7万名美国政府雇员数据遭泄露.     据海外网消息称,当地时间12日,美国交通运输部向国会报告称,该机构超23.7万名联邦雇员的个人信息遭泄露。 此次事件影响11.4万名现任员工和12.3万名前员工,他们都从美国交通运输部领取福利津贴。美国交通运输部表示,事件并未影响任何运输系统,但目前尚不清楚是否有任何个人信息被用于犯罪目的,将展开进一步调查。 知识产权保护 1.  “同人作品案”终审宣判 法院:构成著作权侵权和不正当竞争      近日,广州知识产权法院对“同人作品案”作出终审判决。 2016年,金庸将江南告上法庭起诉《此间的少年》侵权,被誉为“同人作品”第一案。2018年,该案一审判决后原告被告均提起上诉。二审期间,金庸去世,林某怡系其遗产执行人并作为上诉人参加了诉讼。      对于人物名称、人物关系、基本性格特征等元素能否构成作品的部分内容,《此间的少年》是否侵害查良镛作品著作权,是否构成不正当竞争,各执一词,莫衷一是,成为讼争焦点。 二审法院审理认为,认定被诉侵权行为分别构成著作权侵权和不正当竞争,判令被诉侵权作品《此间的少年》作者立即停止不正当竞争行为,并登报声明消除影响,赔偿经济损失168万元及为制止侵权行为的合理开支20万元,北京联合出版公司、北京精典博维公司就其中33万元承担连带赔偿责任。 二审法院考虑到《此间的少年》与《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品在人物名称、性格、关系等元素存在相同或类似,但情节并不相同,且分属不同文学作品类别,读者群有所区分。为满足读者的多元需求,衡平各方利益,促进文化事业的发展繁荣,采取充分切实的全面赔偿或者支付经济补偿等替代性措施的前提下,不判决停止侵权行为。但明确《此间的少年》如需再版,则应向《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品的权利人支付经济补偿。从《此间的少年》所利用的元素在全书中的比重,酌情确定经济补偿按照其再版版税收入的30%支付。 2. AI孙燕姿爆红网络 面临多种侵权风险      一段时间以来,AI孙燕姿爆火网络。在相关平台上,你可以听到AI孙燕姿的各类单曲,比如《我记得》、《发如雪》、《下雨天》等,每天多首发歌频率,得到了广泛的喜爱。值得注意的是,这并不是孙燕姿本人演唱的歌曲,而是在So-VITS-SVC 4.0技术的帮助之下,对孙燕姿的声音数据进行训练得到模型,通过模型推理,最终实现声音替换。 南财点评:AI歌手出现的背后,或涉嫌侵犯歌手本人声音权,以及音乐词、曲作者著作权等。同时,考虑互联网上公开传播,导致任何人都可以在选定时间、地点不受限制的接触,一般会认为超出“必要范围”,相关行为一般不构成合理使用。 海外动态 1.欧洲议会通过关于《人工智能法》提案的谈判授权草案      欧洲议会的官网消息显示,当地时间5月11日,欧洲议会两个关键委员会:内部市场委员会和公民自由委员会,通过《人工智能法(The AI Act)》提案的谈判授权草案。 草案将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。      草案提出了新的保障措施,并禁止各种危险用例,包括禁止在公共场所进行大规模面部识别程序,以及禁止使用预测性警务系统(即AI犯罪预测系统)。草案还要求建立一个公共数据库,记录政府部门部署的“高风险”人工智能系统,公开数据,以便公民能够了解他们将何时以及如何受到这项技术的影响。 这一草案将于6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。欧洲议会声明显示,一旦获得批准,这将成为全世界首部有关人工智能的法规。 2.欧盟数字服务法新动态:划定首批大型平台、成立算法透明中心      近日,欧盟委员会通过了《数字服务法》(Digital Services Act,以下简称“DSA”)下的第一批确定决议,划定总计19个超大型平台,这些平台将履行欧盟规定的一系列义务。 根据《数字服务法》, 在2023 年 2 月 17 日每月活跃用户达到4500万及以上的平台将被认为是大型平台。此次划定了17个超大型在线平台(Very Large Online Platforms,以下简称“VLOP”)和2个超大型在线搜索引擎(Very Large Online Search Engines,以下简称“VLOSE”)。其中VLOP包括:阿里巴巴全球速卖通、亚马逊商店、苹果应用商店、谷歌地图、TikTok、推特、维基百科等,而VLOSE则是必应、谷歌搜索。 在接下来四个月内,这些平台需要履行DSA规定的多项义务。包括发布关于内容审核决策和风险管理的透明度报告;识别、分析和缓解平台的系统性风险等。 南财点评:DSA对超大型平台和搜索引擎提出了更加全面的监管要求,在算法治理方面的要求也更为直接和明确。DSA的落地施行、算法透明度中心以及划定超大型平台体现了欧盟打造人工智能领域规范性力量的野心。当前,人工智能革命的浪涌给算法透明带来了新的影响和挑战,未来,监管、企业侧均应发力实现算法综合治理。
  • 《加速人工智能任务,同时保护数据安全》

    • 来源专题:新一代信息技术
    • 编译者:王晓丽
    • 发布时间:2023-11-28
    • 随着计算密集型机器学习应用(如执行实时语言翻译的聊天机器人)的激增,设备制造商通常会采用专用硬件组件来快速移动和处理这些系统所需的海量数据。 为这些被称为深度神经网络加速器的组件选择最佳设计极具挑战性,因为它们可能有大量的设计选项。如果设计者希望增加加密操作以保护数据安全,避免受到攻击,这个难题就会变得更加棘手。 现在,麻省理工学院的研究人员开发出了一种搜索引擎,可以有效识别深度神经网络加速器的最佳设计,在提高性能的同时保护数据安全。 他们的搜索工具被称为 "SecureLoop",旨在考虑增加数据加密和验证措施将如何影响加速器芯片的性能和能耗。工程师可以利用该工具获得针对其神经网络和机器学习任务的最佳加速器设计。 与不考虑安全性的传统调度技术相比,SecureLoop 可以提高加速器设计的性能,同时保护数据。 使用SecureLoop可以帮助用户提高要求苛刻的人工智能应用(如自动驾驶或医学图像分类)的速度和性能,同时确保敏感的用户数据免受某些类型的攻击。 "如果你想在进行计算时保护数据的安全,那么我们以前用来寻找最优设计的规则现在已经被打破了。因此,所有的优化都需要针对这一新的、更复杂的约束条件进行定制。麻省理工学院计算机科学和电子工程实践教授、SecureLoop 论文的共同作者乔尔-埃默(Joel Emer)说:"这就是(第一作者)Kyungmi 在这篇论文中完成的工作。 与埃默共同撰写论文的还有论文第一作者、电气工程与计算机科学研究生李京美(Kyungmi Lee),电气工程与计算机科学霍默-伯内尔职业发展助理教授、计算机科学与人工智能实验室(CSAIL)成员严孟嘉(Mengjia Yan),以及资深作者、麻省理工学院工程学院院长、电气工程与计算机科学范内瓦尔-布什(Vannevar Bush)教授阿南塔-钱德拉卡桑(Anantha Chandrakasan)。这项研究将在 IEEE/ACM 微体系结构国际研讨会上发表。