《四部门联合发布《人工智能生成合成内容标识办法》 全流程安全管理打造可信赖的人工智能技术》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2025-03-26
  • 利用人工智能“换脸”“拟声”冒充亲友实施诈骗,借助人工智能合成的假视频冒充名医、名人进行虚假宣传,通过人工智能生成谣言后在网上传播……越来越多人工智能生成的信息,充斥在网络中,真假难辨。

    近年来,人工智能技术快速发展,为生成合成文字、图片、音频、视频等信息提供了便利工具,海量信息得以快速生成合成并在网络平台传播,在促进经济社会发展的同时,也产生了生成合成技术滥用、虚假信息传播扩散加剧等问题,引发社会各界的关注。

    为了促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益,近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行。

    • 推动建立新技术安全体系

    《标识办法》重点解决“哪些是生成的”“谁生成的”“从哪里生成的”等问题,推动由生成到传播各环节的全流程安全管理,力争打造可信赖的人工智能技术。

    据联合国高级别人工智能咨询机构中方专家、中国政法大学数据法治研究院教授张凌寒介绍,在人工智能生成合成内容的生产环节,服务提供者应对生成合成内容添加标识。服务提供者应对文本、图片、音频、视频、虚拟场景等典型应用场景的生成合成内容添加显式标识,并在生成合成内容的文件元数据中添加隐式标识,以明确内容属性、服务提供者信息等内容。

    在人工智能生成合成内容的传播环节,不同主体应对标识的合规性进行确认。服务提供者在提供生成合成内容下载、复制、导出等服务时,应当确保文件中含有满足要求的显式标识。网络信息内容传播平台应当核验文件元数据中是否含有隐式标识,并采取适当方式在发布内容周边添加显著的提示标识,明确提醒用户。互联网应用程序分发平台在应用程序上架或上线审核时,应核验生成合成内容标识相关材料。

    在人工智能生成合成内容的使用环节,用户同样应履行标识义务。服务提供者应当在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求。用户向网络信息内容传播平台上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识。

    国家计算机网络应急技术处理协调中心正高级工程师张震表示,《标识办法》是对《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》的继承和延伸,从人工智能技术特性出发,在生成合成标识这一人工智能安全治理关键上提出了针对性的管理思路,将成为我国建立健全人工智能新技术安全体系的重要推动力。

    “《标识办法》进一步明确了人工智能生成合成内容全生命周期履行标识义务的具体要求与主体责任,完善了我国生成式人工智能的治理框架。”张凌寒说。

    张震认为,《标识办法》充分彰显了监管理念的与时俱进,从传统的严格监管转向更加灵活的引导与规范,既尊重了技术创新的内在规律,又体现对潜在风险的有效防范。

    • 同步发布强制性国家标准

    为推动《标识办法》落地实施,强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(以下简称《标识标准》)同步发布。

    国家网信办有关负责人介绍说,《标识办法》主要从立法层面提出管理要求,明确生成合成内容制作传播各主体的责任义务,为促进人工智能技术创新发展,对具体实施操作不作要求。《标识标准》以强制性国家标准形式制定实施,主要提出强制执行部分的标识具体实施方式和操作方法,两者同步推出,于2025年9月1日同步实施,以更好地指导相关主体规范开展标识活动。

    “《标识标准》作为《标识办法》的补充,明确了生成合成内容标识应当遵循的技术方法,为产业落地提供了参考依据。”张震说。

    在中国电子技术标准化研究院副院长范科峰看来,此次《标识办法》《标识标准》的协同发布,破解了以往治理中管理规范与技术标准衔接不畅的问题,形成了“制度牵引技术落地,技术固化制度要求”的治理闭环。

    作为我国人工智能领域首部“办法+强标”组合拳,其创新性体现在三个维度:管理维度明确生成、传播、分发全链条主体责任;监管维度建立审核、监测、追责的闭环机制;技术维度规范显隐标识体系并预留创新空间。范科峰说,“这种三位一体的治理架构,既通过管理机制明确责任边界,又依托监管举措筑牢安全防线,更以技术标准固化治理要求,为人工智能安全治理提供了清晰的实施路径。”

    规范人工智能生成合成内容标识的举措还有许多。全国网络安全标准化技术委员会针对生成合成服务提供者和内容传播服务提供者的平台编码,组织起草了配套实践指南《网络安全标准实践指南——人工智能生成合成内容标识

    服务提供者编码规则》,已于3月14日正式获批发布,为相关主体开展文件元数据隐式标识提供了编码指引。

    此外,全国网络安全标准化技术委员会正在就各文件格式的元数据标识规范、各应用场景的标识方法等组织编制一系列推荐性标准、实践指南,将在《标识办法》发布后逐步推出。

    • 全社会凝心聚力协同配合

    《标识办法》《标识标准》的发布,标志着我国在人工智能安全治理领域迈出了重要的一步。推动《标识办法》《标识标准》落地的重要性不言而喻。

    “考虑到企业需要时间充分理解相关规定和标准规范,有针对性地开展能力建设和功能研发,基于标识技术实施的复杂程度、试点试行的实践经验,设定《标识办法》和《标识标准》6个月左右的施行过渡期。”国家网信办有关负责人说。

    “《标识办法》和《标识标准》的落地离不开全社会的凝心聚力和协同配合。”中国工程院院士、浙江大学教授陈纯说,地方主管部门、高校、科研机构、企业可共同参与,充分利用新媒体、新渠道面向全社会进行大力宣贯,形成标识工作先行的多点协同内容治理网络,推动标识工作行稳致远。此外,有必要建立全国性的内容标识公共服务平台,以可视可交互的实际操练形式,配合口头宣贯,促进公众和产业深入理解标识工作。

    “可以预见,我国人工智能安全执法将延续重点事项监管、促进产业有序发展的方向。”公安部第三研究所副所长金波认为,伴随标识管理与算法备案、安全评估等机制逐步实现有机衔接,生成合成内容标识合规有望成为相关部门开展人工智能监督检查、专项行动的重点关注领域。在此进程中,一系列深层次问题亟待审慎思考与妥善解决——如何平衡发展与安全、创新与责任、公益与私益等多元目标的内在张力,怎样达成不同执法部门、不同层级、不同地域执法的一致性、协调性,又该通过何种路径提升执法的专业化、精细化、智慧化水平,从而培育出安全、开放、公平、符合国情的人工智能产业生态环境。这些都是标识管理中需要深入探究的重要课题。

    “此外,‘人的因素’应融入人工智能标识管理的全过程,着重提升公众对于信息内容真实性、来源可追溯性的批判性评估能力,无疑是重中之重。积极培育公众人工智能素养,确保人工智能技术成果普惠共享,这也是应有之义。”金波说。

    张凌寒认为,目前的人工智能生成合成内容标识制度主要关注于“是否机器生成”的形式判断,随着标识技术的进步与发展,未来标识制度能够发挥更为丰富的功能,从形式判断逐渐转向“是否足够可靠”的质量判断,进一步促进行业健康发展。        

                     编 辑:章芳

  • 原文来源:http://www.cctime.com/html/2025-3-21/1705235.htm
相关报告
  • 《全球出版和新闻组织联合发布人工智能 (AI) 全球综合原则》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-21
    • STM加入了代表全球数千名创意专业人士的26个组织,包括学术出版部门,新闻,娱乐,杂志和图书出版公司发布了全球人工智能 (AI)原则 。这些开创性的全球原则是同类产品中的首创,为人工智能(AI)系统和应用程序的开发、部署和监管提供了指导,以确保商业机会和创新能够在道德和负责任的框架内蓬勃发展。《人工智能全球原则》旨在确保出版商持续创造和传播优质内容的能力,同时促进创新和负责任地开发值得信赖的人工智能系统。 《人工智能全球原则》涉及与知识产权、透明度、问责制、质量和诚信、公平、安全、设计和可持续发展有关的关键问题,标志着一次前所未有的合作,保障了内容创作者、出版商和消费者的利益。 在《原则》中,这些组织呼吁负责任地开发和部署人工智能系统和应用程序,并指出这些新工具只能根据保护出版商知识产权、品牌、消费者关系和投资的既定原则和法律进行开发。该原则明确指出,人工智能系统“不分青红皂白地盗用我们的知识产权是不道德的、有害的,侵犯了我们受保护的权利。 除其他事项外,《全球人工智能原则》规定,人工智能系统的开发人员、运营商和部署者应:尊重知识产权,保护组织对原创内容的投资。利用高效的许可模式,通过培训值得信赖的高质量 AI 系统来促进创新。提供精细的透明度,允许发布者在其内容包含在训练数据集中时行使其权利。明确将内容归因于内容的原始发布者。认识到出版商在生成用于培训、展示和合成的高质量内容方面的宝贵作用。遵守竞争法和原则,并确保人工智能模型不被用于反竞争目的。促进可信和可靠的信息来源,并确保人工智能生成的内容准确、正确和完整。不歪曲原创作品。尊重与其互动的用户的隐私,并在人工智能系统设计、培训和使用中充分披露其个人数据的使用情况。与人类价值观保持一致,并按照全球法律运营。完整的人工智能全球原则, 可以在这里找到,更详细地阐述了上述每一点。 签署全球人工智能原则的组织包括: ?  AMI – Colombian News Media Association ?  Asociación de Entidades Periodísticas Argentinas (Adepa) ?  Association of Learned & Professional Society Publishers ?  Associa??o Nacional de Jornais (Brazilian Newspaper Association) (ANJ) ?  Czech Publishers’ Association ?  Danish Media Association ?  Digital Content Next ?  European Magazine Media Association ?  European Newspaper Publishers’ Association ?  European Publishers Council ?  FIPP ?  Grupo de Diarios América ?  Inter American Press Association ?  Korean Association of Newspapers ?  Magyar Lapkiadók Egyesülete (Hungarian Publishers’ Association) ?  NDP Nieuwsmedia ?  News/Media Alliance ?  News Media Association ?  News Media Canada ?  News Media Europe  ?  News Media Finland ?  News Publishers’ Association ?  Nihon Shinbun Kyokai (The Japan Newspaper Publishers & Editors Association) ?  Professional Publishers Association ?  STM ?  World Association of News Publishers (WAN-IFRA)
  • 《IEEE发布《人工智能系统可信度评估联合规范V1.0》》

    • 来源专题:科技标准
    • 编译者:孙红军
    • 发布时间:2024-11-26
    • 11月21日,美国电气电子工程师协会(IEEE)发布了《人工智能系统可信度评估联合规范V1.0》,结合IEEE CertifAIEd?、VDE VDESPEC 90012和Positive AI框架优势,旨在统一和简化全球AI系统的评估标准。 该规范的发布标志着在人工智能治理方面迈出了重要一步,为负责任的人工智能治理铺平了道路。该规范遵循2024年欧盟《人工智能法案》的建议,旨在确保AI系统的设计和使用符合全球监管要求和框架。与传统的通过/未通过评估不同,该规范引入了涵盖六个关键原则的细致入微的评分系统,包括人力机构和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平以及社会和环境福祉。这种方法可以对AI系统进行详细、更完整的评估,涵盖广泛的指标并解决原则之间的依赖关系。 目前,IEEE CertifAIEd人工智能道德认证计划已经在全球范围内得到认可,来自28个国家的167人已成为IEEE CertifAIEd授权评估员。该规范也正在获得国家和全球层面的认可,并将成为可信赖人工智能落地的基石。 IEEE SA高级总监Ravi Subramaniam表示,该规范在制定透明的人工智能质量和测试标准时得到了广泛应用,进一步强调了IEEE CertifAIEd规范的影响,并承认IEEE的全球标准以及IEEE标准协会在欧洲合作中的持续合作伙伴关系和影响。 随着《人工智能法案》的发布,欧盟在推进值得信赖的人工智能系统方面迈出了重要一步。该规范有望成为实施可信人工智能的关键资源,为符合《人工智能法案》价值观的人工智能信任标签奠定基础。IEEE旨在通过扩展IEEE CertifAIEd计划,成为传播即将推出的标签的主导力量。IEEE鼓励所有感兴趣的各方,包括行业领导者和政策制定者,共同参与开发基于该规范的AI Trust标签认证计划,以确保人工智能系统的开发和部署负责任,符合欧洲价值观和监管标准。