《如何应对生成式大模型「双刃剑」?之江实验室发布《生成式大模型安全与隐私白皮书》》

  • 来源专题:数智化图书情报
  • 编译者: 黄雨馨
  • 发布时间:2023-06-17
  • 当前,生成式大模型已经为学术研究甚至是社会生活带来了深刻的变革,以 ChatGPT 为代表,生成式大模型的能力已经显示了迈向通用人工智能的可能性。但同时,研究者们也开始意识到 ChatGPT 等生成式大模型面临着数据和模型方面的安全隐患。

    今年 5 月初,美国白宫与谷歌、微软、OpenAI、Anthropic 等 AI 公司的 CEO 们召开集体会议,针对 AI 生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。国内的生成式大模型技术也正在发展之中,但是同时也需要先对安全问题进行相应的分析以便双管齐下,避免生成式大模型这把双刃剑带来的隐藏危害。

    为此,之江实验室基础理论研究院人工智能与安全团队首次全面总结了 ChatGPT 为代表的生成式大模型的安全与隐私问题白皮书,希望能够为从事安全问题研究的技术人员指明方向,同时也为 AI 相关政策的制定者提供依据。


    白皮书链接: https://github.com/xiaogang00/white-paper-for-large-model-security-and-privacy

    生成式大模型的发展与重要应用

    这份白皮书首先总结了 ChatGPT 与 GPT4 等生成式大模型的发展历程,以及其带来的各种令人惊叹的能力和社会变革、社会应用等。作者列举了 ChatGPT 和 GPT4 出现之前的 GPT-1、GPT-2、GPT-3、Google Bert 等模型的特点以及缺点,这些缺点与 ChatGPT 和 GPT4 的强大能力形成了对比;并且,ChatGPT 和 GPT4 之后又涌现了一大批的模型,包括 LLaMa、Alpaca、文心一言、通义千问等,它们的出现使得在人机交互、资源管理、科学研究、内容创作等应用领域出现了新的、强有力的工具。但同时也出现了包括数据安全,使用规范、可信伦理、知识产权以及模型安全方面的问题。

    数据安全问题

    白皮书提出,数据的安全和隐私是 ChatGPT 及 GPT4 等生成式大模型使用和研发过程中一个极为重要的问题,并从「显式」和「隐式」两个方面对其进行了分析。

    在显式的信息泄漏中,首先,ChatGPT 等生成式大模型的训练数据在不经意间被转换成了生成内容,其中就包括了敏感和隐私的个人信息如银行卡账号、病例信息等。此外,ChatGPT 的数据安全和隐私隐患还体现在它对于对话框内容的存储,当用户在和 ChatGPT 互动时,他们的信息会以某些形式被记录和存储下来。

    白皮书还提出了之前被大家忽略的隐式信息泄漏问题。首先,ChatGPT 体现出的数据安全和隐私的隐患是它可能通过对对话框数据的收集进行广告推荐,以及收集对话框数据进行推荐或者其他的下游机器学习任务,且 ChatGPT 有时候可能也会生成虚假的信息,以此来诱导用户泄漏一系列的数据。

    使用规范问题


    在白皮书中,作者提到 ChatGPT 和 GPT4 等生成式大模型强大的理解和生成能力虽然为我们的生活和生产带来了很多的便利,但是同时也存在更多的机会被恶意使用。在没有规范约束的情况下,恶意使用将带来很多的社会性问题。

    其一,ChatGPT 和 GPT-4 等模型的强大能力使得某些别有用心的人想要将其作为违法活动的工具。例如用户可以利用 ChatGPT 来编写诈骗短信和钓鱼邮件,甚至开发代码,按需生成恶意软件和勒索软件等,而无需任何编码知识和犯罪经验。

    其二,ChatGPT 和 GPT4 等生成式大模型没有把不同地区的法律规范考虑在内,在使用和输出的过程中可能会违反当地法律法规,因此需要一个强而有力的当地监管系统来检测其使用是否与当地法律法规相冲突。

    其三,对于一些游离于安全和危险之间的灰色地带,ChatGPT 等生成式大模型的安全能力还没有得到增强。例如 ChatGPT 可能会输出一些诱导性的语句,包括跟抑郁症患者沟通时候可能会输出某些语句导致其产生轻生的心态。

    可信伦理问题

    ChatGPT 等生成式大模型以问答形态存在于社会层面,但其回复往往存在不可信,或者无法判断其正确的问题,会有似是而非的错误答案,甚至对现有社会伦理产生冲击。

    白皮书指出,首先 ChatGPT 等生成式大模型的回复可能是在一本正经地胡说八道,语句通畅貌似合理,但其实完全大相径庭,目前模型还不能提供合理的证据进行可信性的验证。例如,ChatGPT 可能会对一些历史、科学、文化等方面的问题回答错误或者与事实相悖,甚至可能会造成误导或者误解,需要用户有自己的鉴别能力。

    ChatGPT 等生成式大模型的伦理问题也在白皮书中被详细讨论。即使 OpenAI 等研发机构已经使用 ChatGPT 本身生成了他们的道德准则,但其中的道德准则是否符合我国国情的基本价值观原则,尚未有定论。作者提出其中存在传播有害意识形态、传播偏见和仇恨、影响政治正确、破坏教育公平、影响国际社会公平、加剧机器取代人类的进程、形成信息茧房阻碍正确价值观形成等问题。

    知识产权问题

    ChatGPT 等生成式大模型凭借强大的语言处理能力和低廉使用成本给社会方方面面带来便利的同时,也存在侵权的问题,对现存版权法体系带来冲击。例如 ChatGPT 生成的作品可能存在著作权争议:ChatGPT 虽然有着出色的语言处理能力,但是即使生成的作品符合知识产权的全部形式要求,ChatGPT 也无法成为著作权的主体,这是因为著作权主体享有权利的同时也要承担对应的社会责任,而 ChatGPT 只能作为用户强大的辅助生产力工具,它无法自主创作,更不要谈享有权利、履行义务的主体要求。

    而且 ChatGPT 等生成式大模型仍无法独立创作,更没有自主思维和独立思考的能力,因而,ChatGPT 根据用户的输入生成的内容不符合作品「独创性」的要求。ChatGPT 用于模型训练的数据来自于互联网,不论多么高级的模型训练算法必然涉及到对现有智力成果的引用、分析、处理等,必然存在对他人合法知识产权的侵犯问题。

    模型安全问题

    从攻防技术角度来看,ChatGPT 等生成式大模型也存在着模型安全的问题。ChatGPT 本质上是基于深度学习的一个大型生成模型,也面临着人工智能安全方面的诸多威胁,包括模型窃取以及各种攻击引起输出的错误(例如包括对抗攻击、后门攻击、prompt 攻击、数据投毒等)。

    例如,模型窃取指的是攻击者依靠有限次数的模型询问,从而得到一个和目标模型的功能和效果一致的本地模型。而 ChatGPT 已经开放了 API 的使用,这更为模型窃取提供了询问入口。又比如,ChatGPT 和 GPT4 作为一个分布式计算的系统,需要处理来自各方的输入数据,并且经过权威机构验证,这些数据将会被持续用于训练。那么 ChatGPT 和 GPT4 也面临着更大的数据投毒风险。攻击者可以在与 ChatGPT 和 GPT4 交互的时候,强行给 ChatGPT 和 GPT4 灌输错误的数据,或者是通过用户反馈的形式去给 ChatGPT 和 GPT4 进行错误的反馈,从而降低 ChatGPT 和 GPT4 的能力,或者给其加入特殊的后门攻击。

    安全与隐私建议

    最后,白皮书中对于安全和隐私等问题都进行了相应的建议,可作为之后技术研究者们的方向和政策制定者们的参考依据。

    在保护隐私建议方面,白皮书提出要在增强原始数据中高敏感隐私信息的辨别和传播限制;在数据收集过程中利用差分隐私等技术进行隐私保护;对于训练数据的存储进行数据加密形式的安全保护;在模型训练过程中使用安全多方计算,同态加密以及联邦学习等技术进行数据隐私和安全保护;建立数据隐私评估和模型保护与安全认证体系,并且保护下游应用的隐私。

    在模型安全问题的建议上,白皮书提出对安全与隐私信息的检测模型的训练;让不同的模型适用于不同国家的法律条款;以及针对各种对抗攻击进行防御性训练。

    在模型合规问题上,白皮书提出进行可信输出的度量,信任值评价,增加模型输出的版权信息的查询功能。

    总结来说,AI 生成式大模型的发展离不开安全,因此其安全问题将作为下一个技术点,值得众多研究者去攻克。而安全也是社会稳定的保障,有关部门需要尽快进行政策的制定。

  • 原文来源:https://mp.weixin.qq.com/s/lX7oI7_VBVCBcWkimjOoVA
相关报告
  • 《百度发布首个量子领域大模型》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-27
    • 9月23-24日,以“协同创新 量点未来”为主题,2023量子产业大会在安徽合肥召开。量子领域院士专家、智库机构、产业界嘉宾汇聚一堂,探讨量子产业化之路。 作为主旨报告嘉宾,百度量子计算研究所所长段润尧带来百度量子软硬件和解决方案等方面的最新成果,重磅发布首个量子领域大模型,及百度量子助手和量子写作助手两大AI原生应用,加速量子技术与大模型深度融合。他还发布了量子领域大模型白皮书,展望量子领域大模型的未来发展趋势和技术潜力。 当前,量子计算带来后摩尔时代算力革命,广阔市场空间随之打开。有数据显示,2031年69%的全球大型企业计划将采用量子计算。 依托百度量子平台和文心大模型的双重底座优势,百度发布首个量子领域大模型,旨在芯片层、框架层、模型层及应用层等全栈技术上加速量子技术与大模型深度融合,充分激发两大技术各自的潜力。 据段润尧介绍,该量子领域大模型是在文心一言基础上,使用量子领域高质量数据进行更有针对性的训练和优化而构建的量子领域大模型,能更好地理解量子知识,专业执行量子任务。百度量子领域大模型将充分发挥技术协同效应,在数据、算法和算力等各方面取长补短,实现双向赋能,将在训练速度、模型性能、训练成本、交互效率和数据隐私等各个维度全面加持现有大模型的技术能力。 百度量子助手是依托百度量子知识库与产业级知识增强文心大模型,基于7800万原始数据、22万精调数据训练打造。作为百度量子平台的统一入口,百度量子助手打通了百度量子平台量子硬件、量子软件、量子应用的技术全链条,持续降低百度量子平台的使用门槛。 量子写作助手实现了量子领域知识和技术准确且高效的输出,让量子知识触手可及,降低量子计算学习门槛,提高量子计算科研效率。只需输入6个变量,量子写作助手可在5分钟内撰写一篇13000字符合格式要求的专利文档,高效帮助企业将量子领域的研究成果与知识产权沉淀为企业资产。 段润尧进一步分享,量子领域大模型的未来发展将会呈现出多个代表性阶段。从近期以适配量子领域的行业大模型开始,大幅降低量子教育行业门槛;逐渐过渡为经典和量子混合大模型,再发展到通用量子领域大模型,有望实现大模型技术在数据、算法、算力等各维度的全面量子化;最终,量子领域大模型将会成为新时代的操作系统,在量子互联网的基础上互联互通,成为社会发展的基础设施。 现场,段润尧重磅发布量子领域大模型白皮书。报告指出,量子科技与大模型成为技术变革主引擎,量子计算是有效模拟大规模量子系统的利器,量子领域大模型或将成为量子人工智能的最终形式。交互式机制建立起“能力”传递的纽带,而量子纠缠有望将这种机制发挥至极致。 此外,段润尧公布了百度在量子芯片、软硬一体化解决方案等核心领域的最新进展。 百度量子平台近一年进行了持续大规模更新,在金融科技、光量子和量子芯片三大领域均有新功能发布。在金融科技领域,百度量子计算研究所推出量子金融工具集QFinance,提供全面且多功能的量子期权定价工具,整合众多前沿量子算法,包括量子蒙特卡洛、量子傅里叶变换和量子相位估计算法,既确保了计算的高度准确性,也显著缩短了算法运行时间,为资产配置带来了新的高效解决方案。 在光量子领域,百度推出光量子计算模拟器PQS(Photonic Quantum Simulator),为光量子芯片设计和算法研发提供了宝贵的工具和资源。该模拟器支持基于Gaussian态和Fock态的光量子线路模拟,并包含了近20种量子门和测量操作,可模拟多种光量子计算算法,是国内首款可以自由搭建光量子计算线路的模拟工具。 百度量子瞄准超导量子芯片研发“设计、流片、测控” 闭环中的核心技术,旨在研发具有业界核心竞争力的高性能量子芯片。目前,百度量子已完成一款 2D 含耦合器量子芯片的“流片验证”,以及一款 3D flipchip 含耦合器量子芯片的版图设计和仿真验证。近期,“高性能量子芯片的设计、流片与测控全栈技术” 项目荣获「2023 百度十大科技前沿发明」。高性能量子芯片研发将对人工智能、材料科学、药物研发、金融科技等领域带来高潜价值。 去年8月,百度推出全球首个全平台量子软硬一体化解决方案“量羲”,打造出量子计算产业落地的可行路径。量羲平台与百度云计算进行深度融合,并采纳了"四算合一"的战略布局,实现了量子计算、高性能计算、云计算及人工智能计算的有机融合。这使得平台能够根据不同业务需求,灵活调配算力资源。近期“量羲”已完成首个商业化合同的PoC部署。 在量子生态与知识产权方面,百度已申请高质量专利超过280项,已授权120项,覆盖量子算法与应用、量子通信与网络等热门研究方向。今年3月,百度牵头成立国内首个量子计算产业知识产权联盟,并设立国内首个量子计算专利池,在关键量子专利领域进行布局,以推动量子产业高效发展。 “量子产业化和产业量子化已成为未来发展的必然趋势,量子领域大模型有望进一步加速这些目标的实现。百度将持续为用户开放量子资源,为客户提供量子升级培训,与伙伴一起共创量子生态,期待携手用户、客户、伙伴,一同迈向量子计算产业化之路,实现人人皆可量子的时代。”段润尧表示。
  • 《《北京市人工智能行业大模型创新应用白皮书(2023年)》发布》

    • 来源专题:数智化图书情报
    • 编译者:杨小芳
    • 发布时间:2023-11-30
    •          11月29日,北京市科学技术委员会、中关村科技园区管理委员会在AICC 2023人工智能计算大会上发布了《北京市人工智能行业大模型创新应用白皮书(2023年)》(以下简称《白皮书》)。    《白皮书》从大模型全球发展态势、国内外行业应用概述、北京应用情况和发展建议等方面进行了系统分析和阐述,旨在进一步推动大模型应用落地,展示北京市大模型应用成果,促进大模型价值传播和供需对接。    《白皮书》认为,大模型技术迅速迭代,打破了原有AI技术发展的上限,呈现出数据巨量化、模型通用化、应用模式中心化等特点,以“无限生产”的能力重塑企业生产引擎,推动生产效率颠覆式提升。从全球范围看,世界各地均在积极推动大模型研发和应用,其中美国和中国发布的通用大模型总数占全球发布量的80%,成为大模型技术领域的引领者;欧盟、英国、加拿大、新加坡等国家和地区尚处于前期尝试阶段,仅个别头部企业开始应用。从全国范围看,国家和地方层面高度重视通用大模型产业发展。2023年7月,国家网信办、国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局等7部委联合公布《生成式人工智能服务管理暂行办法》,鼓励和规范生成式人工智能创新发展;北京、上海、广东等多省市也陆续出台大模型产业发展措施,加速大模型应用落地。从北京市大模型产业发展来看,北京是当前国内人工智能领域创新基础最好、人才资源最集中、研发创新能力最强、产品迭代最活跃的地区,现已拥有大模型创新团队122家,数量居全国首位,约占全国的一半。    《白皮书》详细梳理了现阶段北京市大模型应用的典型特点。从模型演进看,通用大模型趋于收敛,垂直行业应用成为大模型产业落地的关键赛道;当前,大模型发展呈现出从技术到产品、再到商业化应用的发展路径,并不断深入垂直行业领域。从应用领域来看,大模型应用案例百花齐放,已经在传统产业赋能、金融、政务、文化旅游、医疗、智慧城市等各个领域得到初步应用,其中,传统产业赋能和金融领域发展较快,如传统产业赋能领域有产业知识问答、图文生成等,金融领域有智能投研助理、智能客服等。从应用类型来看,大模型主要有内容生成、智能问答、IT支持、数据分析、智能识别和智能硬件等六个方面,其中内容生成和智能问答最为成熟。从商业模式来看,目前大模型商业模式初具雏形,形成了以通用大模型AI服务为主的基础层、以垂直行业领域AI服务为主的行业层和以大模型应用服务为主的应用层,三层服务相互促进,协同优化,共同支撑产业转化和发展。    《白皮书》对北京市大模型应用案例进行了梳理,从政务、金融、医疗、传统产业赋能、文化旅游、智慧城市等六个行业领域切入,围绕创新性、示范性、经济与社会效益性、可推广性等四个维度,选取衔远科技、360、瑞莱智慧、旷视、百度等18个典型案例,详细分析了各领域用户需求、解决方案、项目成果。如衔远科技围绕北京一轻科技集团在市场需求跟踪、新型产品研发等方面需求,打造品商大模型示范应用,形成商品智能反向定制、预测性生产、智能调度、智能营销等服务功能,加速消费制造领域全链路数智化升级;360围绕银行在数字化转型方面需求,打造金融领域大模型,实现员工平均办公文档处理时间减少40%等。基于案例分析,《白皮书》进一步提出了目前大模型应用落地面临的挑战。一是算力资源供不应求,成为大模型企业创新研发的重要挑战。二是高质量数据成为严重掣肘大模型行业应用的关键。三是大模型幻觉问题有所改善,但离规模落地尚有差距。四是大模型应用存在“蹭热度”和同质化情况。 附件:北京市人工智能行业大模型创新应用白皮书(2023年)