《IEEE发布《人工智能系统可信度评估联合规范V1.0》》

  • 来源专题:科技标准
  • 编译者: 孙红军
  • 发布时间:2024-11-26
  • 11月21日,美国电气电子工程师协会(IEEE)发布了《人工智能系统可信度评估联合规范V1.0》,结合IEEE CertifAIEd?、VDE VDESPEC 90012和Positive AI框架优势,旨在统一和简化全球AI系统的评估标准。

    该规范的发布标志着在人工智能治理方面迈出了重要一步,为负责任的人工智能治理铺平了道路。该规范遵循2024年欧盟《人工智能法案》的建议,旨在确保AI系统的设计和使用符合全球监管要求和框架。与传统的通过/未通过评估不同,该规范引入了涵盖六个关键原则的细致入微的评分系统,包括人力机构和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平以及社会和环境福祉。这种方法可以对AI系统进行详细、更完整的评估,涵盖广泛的指标并解决原则之间的依赖关系。

    目前,IEEE CertifAIEd人工智能道德认证计划已经在全球范围内得到认可,来自28个国家的167人已成为IEEE CertifAIEd授权评估员。该规范也正在获得国家和全球层面的认可,并将成为可信赖人工智能落地的基石。

    IEEE SA高级总监Ravi Subramaniam表示,该规范在制定透明的人工智能质量和测试标准时得到了广泛应用,进一步强调了IEEE CertifAIEd规范的影响,并承认IEEE的全球标准以及IEEE标准协会在欧洲合作中的持续合作伙伴关系和影响。

    随着《人工智能法案》的发布,欧盟在推进值得信赖的人工智能系统方面迈出了重要一步。该规范有望成为实施可信人工智能的关键资源,为符合《人工智能法案》价值观的人工智能信任标签奠定基础。IEEE旨在通过扩展IEEE CertifAIEd计划,成为传播即将推出的标签的主导力量。IEEE鼓励所有感兴趣的各方,包括行业领导者和政策制定者,共同参与开发基于该规范的AI Trust标签认证计划,以确保人工智能系统的开发和部署负责任,符合欧洲价值观和监管标准。

  • 原文来源:https://standards.ieee.org/news/joint-specification-trustworthy-ai-systems/
相关报告
  • 《美军人工智能发展决策的智库评估》

    • 来源专题:装备制造监测服务
    • 编译者:zhangmin
    • 发布时间:2020-11-11
    • 在美军人工智能发展决策过程中,智库作为专业政策研究机构,充分利用其专业优势、专业力量,对人工智能战略、政策以及所形成的发展态势进行评估,为战略与政策的优化提供建议,进而也扩大自身的影响。   01   智库评估的关注点   美国智库通过研究报告、会议论坛、政策评论、听证咨询等形式,对美军人工智能发展进行多角度评估,在技术影响、发展态势、管理政策三个方面较为突出。   技术影响评估主要关注国家安全和军事应用两个方面,对产生的问题进行分析评估,为后续的战略政策制定进行铺垫和造势,属于比较典型的事前评估。面对竞争对手在新兴技术领域,特别是人工智能方面的快速发展,美国高层强烈感受到国家安全面临的威胁和挑战,为化解危机、提出对策,新美国安全中心、兰德公司等知名智库多次发布研究报告,分析评估人工智能的深远影响以及美国面临的挑战,并提出政策建议。近几年来,仅以人工智能与国家安全为主题的研究报告就有五份之多,有的机构还先后提出两份。在军事应用方面,众多知名智库围绕情报分析、规划决策、自主系统、人机编队、作战概念、伦理风险等方面,从历史与现实、理论与实践、对手与美军等方面进行了多维度评估,为美军人工智能发展与应用建言献策。   发展态势评估主要是对美军在人工智能组织、人才、机制、应用等方面的评估,属于比较典型的事中评估。要评估态势,需要与国防部和军种相关机构进行多次沟通,充分掌握大量一手信息和数据,尽管美国有信息公开法律保障,但对于军事领域,必须与军方建立较为密切的关系。作为联邦资助的研究与发展中心,兰德公司具有得天独厚的条件,根据国防部的委托,兰德公司对国防部人工智能态势进行了长时间评估,经过对国防部和其他政府机构的中小型企业和利益相关方,以及学术界和私营企业的专家进行访谈并开展案例研究,于2019年底发布《国防部人工智能态势:评估与建议》报告,从组织、进展、应用、创新、数据、人才等六个维度,对美国国防部人工智能态势进行了综合分析与评估。国防创新委员会作为国防部的智囊,2016年成立以来,多次对美军人工智能发展情况进行评估,通过考察对比国防部和商业领域在人工智能领域的发展现状,借鉴商业领域的有效做法,提出设立机构加强统一管理、创新软件采办程序、加强国防部与学术界和私营部门联系等建议。   管理政策评估主要是对涉及美军人工智能发展的相关法律、指令、指示、备忘录等政策进行评估,属于比较典型的事后评估。人工智能在军事上的应用,其中一个重要影响就是增强了武器系统的自主性,但随着系统的自主性越来越高,系统能够自主决策进行杀伤行为,如何提升系统的识别能力、防止对平民的误击等问题随之而来,人在系统中的作用和价值成为涉及武器设计、战争伦理、国际条约的重要问题。2012年,美国国防部就发布3000.09指令《武器系统的自主性》,对自主和半自主武器系统的设计、开发、获取、测试、部署和使用等活动进行规范,要求自主和半自主武器系统的设计应允许指挥官和操作人员对使用武力进行适当程度的人类判断。对于这一问题,海军分析中心专门成立“自主性与人工智能中心”,并发布《人工智能、机器人和集群——问题、疑问和研究建议》《第三次抵消战略的思考:应对自主性与人工智能在军事中的挑战》等报告,对美军自主性发展进行评估并提出系列建议。新美国安全中心专门成立了一个伦理自治项目,主要研究未来武器系统中不断增加的法律、伦理、政策和战略稳定性方面的问题,发表了《自主武器与作战风险》《武器系统中的自主性》等系列报告,对自主武器的风险性进行分析评估。   02   智库评估的影响   智库在对人工智能发展评估的基础上,就投资、人才、标准、数据、机构等方面提出一系列建议,促进了人工智能发展战略与政策的调整和修订。2016年,美国白宫依托科学技术委员会发布人工智能研发战略,经过几年的推行实践,在智库、企业等机构的评估促进下,2019年,又发布了战略文件修订版。新版文件对原版文件确定的七大战略方向进行了坚持与继承,同时又根据需要进行了优化和创新,并增加了“拓展公私伙伴关系以加快人工智能发展”作为第八战略方向。   智库对人工智能发展的评估,也对相关立法产生了重要影响。智库通过开展咨询研究、参加立法听证、参与立法起草等方式,向国会有关委员会、小组委员会以及议员不断输送评估研究成果,提出立法内容建议,推动有关举措进入法律条文。通过分析《2019财年国防授权法》和《2020财年国防授权法》,智库的评估建议都得到不同程度的体现,显示了智库在人工智能立法方面的影响力。《2019财年国防授权法》专门列出关于人工智能主题研究的内容,提出要设立高层次咨询专家组织,在国家层面全面审查人工智能、机器学习和相关技术领域的进步情况,以及国防部在人工智能、机器学习和此类技术方面的竞争力。《2020财年国防授权法》专门设立关于联合人工智能中心方面的内容,要求每半年至2023年年底,国防部长应向国会提交关于联合人工智能中心的报告。   新的机构和部门的设立也是智库评估所促成的重要结果。国防创新委员会的成员大都由知名企业高管担任,在考察和评估国防部人工智能发展情况后,委员会认为,人工智能和机器学习可媲美第一次“抵消战略”的核武器及第二次“抵消战略”的精确制导武器和隐形技术,国防部应沿袭过去为确保核武器技术优势设立专门机构的传统,创建针对人工智能和机器学习的内部中心,以维持国防部在这两个领域的技术优势。在此基础上,要加强国防部、学术界及私营部门之间的交流沟通,采用更加灵活的采办机制,实现创新项目及后续成果在军种的快速部署。2017年10月,时任国防部长卡特正式采纳创建人工智能和机器学习中心的建议,2018年6月,国防部联合人工智能中心成立。
  • 《IEEE发布人工智能伦理标准 确保人类不受影响》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:姜山
    • 发布时间:2017-11-22
    • 人工智能(AI)已经从一个科幻小说式的探索领域发展到一个蓬勃发展的科技领域,在这个领域里,不可能的事情正在成为可能。为了确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。 IEEE 自称为“世界上最大的技术进步技术专业组织”。根据最近发布的一份新闻稿,他们的人工智能标准将优先考虑人类,因为他们承诺要跟上该领域不断发展的脚步。 这些新标准将成为一份题为《伦理一致的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》的 IEEE 文档的一部分。这份文件将继续随着时代的变迁而不断变化,鼓励那些推动技术进步的人考虑这样的进步可能会如何影响伦理方面的担忧。 Satoshi Tadokoro 是 IEEE 机器人和自动化协会的主席,他解释了为什么他们在发布会上制定了这样的标准:“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能产生的巨大潜在利益。不幸的是,在这些讨论中,可能会出现一些来自虚构和想象的错误信息。” Tadokoro 继续说道:“IEEE 将基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化。”三大人工智能标准将作为一个单独的项目引入,每个项目由专家领导。 第一个标准是这样的:“机器化系统、智能系统和自动系统的伦理推动标准”。这个标准探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。 第二个标准是“自动和半自动系统的故障安全设计标准”。它包含了自动技术,如果它们发生故障,可能会对人类造成危害。就目前而言,最明显的问题是自动驾驶汽车。 第三个标准是“道德化的人工智能和自动系统的福祉衡量标准”。它阐述了进步的人工智能技术如何有益于人类的益处。 这些标准的实施可能比我们想象的要早,因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展,甚至创造出能够自我学习又扩大“智能”领域的人工智能系统。专家们认为,这样的人工智能会破坏世界稳定,导致大规模的失业和战争,甚至转向创造“杀人武器”。最近,联合国的重要讨论促使人们开始认真思考,需对将人工智能技术当作武器使用进行更严格的监管。 这三个标准项目有望能够规范人工智能的发展,而不是阻碍进步,但是我们所了解的社会也并未被我们努力创造的东西所破坏。