《生成式人工智能的技术局限和伦理风险》

  • 来源专题:数智化图书情报
  • 编译者: 程冰
  • 发布时间:2024-10-30
  • 自ChatGPT面世以来,生成式人工智能成为人工智能领域发展的热点。生成式人工智能技术的基本形态,是采用海量数据来训练人工智能大模型,使其学会人类的语言文本和图像视频的统计模式后,能够在用户给出提示指令后,自动地生成所需的数字内容。生成式人工智能技术综合了60多年来人工智能的研究成果,特别是最近10年来深度学习的技术突破。首先,能够从海量的语料数据中学习人类知识,熟记文本、语音、图像、视频等内在规律与统计模式,自动生成用户所需的新文本、图片、声音和视频。最后,具备多模态数据的融合机制,动态融合文本、语音、图像、视频等数据,不仅能够生成更为丰富多样的数字内容,而且通过语音、手势、面部表情等的识别,支撑实现AI像人一样与人类交流互动。其次,实现了大模型的基于大量数据的训练学习通用特征与在特定任务上进行微调以优化性能的学习模式,并能够接受人类反馈进一步强化学习。


    虽然这两三年来生成式人工智能展现出了前所未有的认知和多模态交互能力,但是其内在局限日益凸显,如何继续深入推进生成式人工智能技术发展,使之能够真正广泛落地应用,成为人们关注的焦点。首先,生成式人工智能所依赖的大模型在精准的认知理解和逻辑推理方面存在明显局限。其次,生成式人工智能面临着规模提升效益瓶颈。一方面,近5年来大模型的参数规模呈现指数级增强趋势,对智能算力的需求与日俱增;另一方面,高质量和高密度数据语料库也将成为制约模型规模继续扩大的因素。由此可见,如果生成式人工智能企图单纯以扩大模型规模来实现绝对通用的智能模型,无论是在技术上还是在经济成本上,都不是可持续的技术路线。


    生成式人工智能的发展使得相关的伦理安全风险日益突出,大模型认知能力的涌现和内在缺陷给人工智能的社会治理带来了更多挑战。首先,基于大模型的生成式人工智能系统缺乏可靠的安全护栏,很容易因受到攻击而输出敏感信息或是价值观错误的内容。其次,生成式人工智能广泛应用带来的各类衍生风险层出不穷,最突出的是深度合成内容的治理问题。最后,生成式人工智能研发与应用的敏捷治理将走向系统化和法治化。

  • 原文来源:https://mp.weixin.qq.com/s/b4IyeDgfgOLhgir5diO6kw
相关报告
  • 《生成式人工智能专家笔谈》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2023-11-28
    • 2023年5月,习近平总书记在主持召开中共中央政治局会议时提出,“要重视通用人工智能发展,营造创新生态,重视防范风险”,为推动生成式人工智能的发展指明了方向。为深入贯彻落实习近平总书记的重要指示精神和党中央决策部署,2023年7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。《办法》明确提出了生成式人工智能服务与管理主要原则,“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”,并从基本概念、发展举措、服务方式、监督检查、法律责任等方面提出规范要求,为生成式人工智能的健康发展提供了重要保障,是我国在人工智能治理之路上迈出的关键一步。 本刊编辑部对《办法》的制定和出台一直保持密切关注。早在2023年4月,《生成式人工智能服务管理办法(征求意见稿)》发布不久之后,编辑部即邀请多位专家聚焦这一议题,持续跟踪《办法》与生成式人工智能的进展。与以往的笔谈相比,此次专栏的独特之处可以用八个字来概括:跳出边界、奔向未来。生成式人工智能的影响力无远弗届,已经开始深入人类社会的政治、经济、文化、伦理等方方面面,这些影响力亦在互相渗透,逐步编织起一个崭新的智能时代——《办法》第五条也提出,“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系”。面对这种纵跨多行业和领域的新型技术,唯有“跳出边界”,以跨学科的宏阔视域、多领域的密切合作、全场景的实践方案,方能更好地应对其滔天翻浪式的影响和冲击;唯有以预见式的眼光、带入负责任创新的理念,汇聚多方面的思想资源和行动力量,方能奔向“积极健康、向上向善”的未来,有力地回应其带来的、复杂且复合的“技术-社会”议题!
  • 《ChatGPT的伦理——探索新兴技术的伦理问题》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2023-12-22
    • 摘要:本文探讨了像ChatGPT这样的生成式会话人工智能系统所提出的伦理问题。它采用既定方法分析新兴技术的伦理,对可能的好处和关切进行系统审查。该方法将预期技术伦理、伦理影响评估和新兴信息和通信技术应用的伦理问题与文献中的人工智能特定问题相结合。这些应用于分析ChatGPT生成类人文本和无缝交互的能力。分析发现,ChatGPT可以提供高水平的社会和道德效益。然而,它也引发了社会正义、个人自主、文化认同和环境问题方面的重大伦理问题。关键的高影响问题包括责任、包容、社会凝聚力、自主性、安全、偏见、问责制和环境影响。虽然目前的讨论仅限于作者身份等特定问题,但这一分析系统地揭示了一系列更广泛、更平衡的值得关注的伦理问题。研究结果与新兴的研究和行业对生成性人工智能伦理的优先事项一致。其影响包括需要不同的利益相关者参与,在开发应用程序时全面考虑利益和风险,以及促进积极成果的多层次政策干预。总的来说,该分析表明,应用既定的技术伦理方法可以产生一个严格、全面的基础,以指导围绕ChatGPT等有影响力的新兴技术的讨论和行动。该论文主张在用例展开时保持这种广泛、平衡的伦理视角,以实现收益,同时解决伦理的负面影响。