《斯坦福大学以人为本人工智能研究所(Stanford HAI)发布《2024年人工智能指数报告》》

  • 来源专题:计量基标准与精密测量
  • 编译者: 李晓萌
  • 发布时间:2024-05-08
  • 近日,斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2024年人工智能指数报告》(Artificial Intelligence Index Report 2024)。该报告是目前最为全面且权威的AI领域数据洞察报告,通过跟踪、整理、提取和可视化与人工智能(AI)相关的数据,提供公正、经过严格审查、来源广泛的数据,以便决策者、研究人员、高管、记者和公众对人工智能的复杂领域有更彻底、更细致的了解。

    此次发布的为第七版人工智能指数报告,此版报告扩大了范围,更广泛地涵盖了人工智能的技术进步、公众对该技术的看法以及围绕其发展的地缘政治动态等基本趋势。此版比以往任何时候都多的原始数据为特色,介绍了对人工智能培训成本的新估计,对负责任的人工智能前景的详细分析,以及专门讨论人工智能对科学和医学影响的全新章节。

相关报告
  • 《2024年人工智能人才现状分析》

    • 编译者:程冰
    • 发布时间:2024-11-22
    • 2024年2月,英国数据公司Zeki聚焦人工智能生态系统中的人才情况,发布了《2024年人工智能人才现状》(The State of AI Talent 2024)的报告,该报告基于过去10年的人工智能人才数据,结合机器学习和强化学习等技术,描绘了14万人工智能顶尖人才的研究成果和职业路径,揭示了一流人工智能科学家和工程师等人才在全球范围内的流动趋势及其背后原因。 一、全球人工智能人才现状 随着全球企业布局人工智能相关业务,对顶尖人才需求大增。美国五大科技公司虽因人工智能发展迅速,但在人才聘用上面临激烈国际竞争,全球其他大型科技公司雇佣的顶尖人工智能人才数量更多。这些人才跨境流动性高、频繁换职且注重自身价值实现,推动人工智能应用市场化及提升可信度。美国在全球人才市场主导地位渐失,欧洲医疗等行业吸引顶尖人工智能人才数量大幅增加,其他受监管行业也在培养相关人才。能吸引并留住人才的公司将扩大领先优势,加强知识产权保护和内部培训。 二、全球人工智能人才趋势 1. 人才市场两级化:自2015年起,美国大型科技公司引发顶尖人工智能人才争夺潮,形成人才引进国和输出国两级市场,人才流失国家面临技术落后风险。 2. 美国五大科技公司人才流动率高:其曾是人才职业发展快速通道,但高流动率和大规模招聘模式因市场份额下降和成本上升面临挑战。 3. 中型人工智能公司难生存:大型公司主导市场,收购有潜力初创公司,中型公司要么发展壮大要么被收购。 4. 人工智能推动产业转型:汽车、医疗等行业在人工智能驱动下重塑产业生态,医疗行业吸引人才能力指数增长,部分行业则未能吸引顶尖人才。 5. 部分国家人才流失或吸引人才:英国、德国等国吸引人才,印度、西班牙等国人才流失,亚洲和东南亚国家与美国进行人才交换。 三、研究发现 1. 人才竞争的赢家和输家:美国大型科技公司扩张引发人才需求激增,造成全球人才市场失衡,欧洲发达经济体形成两级系统。各国政府意识到风险,部分国家已开始扭转人才净流失局面,人才流向受国家人工智能生态系统影响。 2. 五大科技巨头招聘模式遇挑战:其招聘模式面临竞争加剧导致成本上升压力,因需支持更强计算能力,该模式或难持续。 3. 市场向纵深化和多样化发展:人工智能生态系统将更多样化,大型企业市场份额增长,中型研究组织吸引学术人才但人才流入工业界少,小型公司招聘人才多且具多样性。 4. 人才快速增长的行业:医疗、汽车等行业采用人工智能速度快,欧洲公司在医疗和国防领域招聘人才领先,部分小公司也成功吸引顶尖人才,咨询公司也在加速招聘。 5. 各国人才生态系统调整:人才流失影响国家安全发展,英国和德国扭转局面,法国等国落后,美国科技巨头从印度和以色列大学招聘导致人才流入美国,以色列能留住部分人才,印度则表现不佳。
  • 《美国商务部发布新的人工智能指南和工具》

    • 编译者:李晓萌
    • 发布时间:2024-08-20
    • 近日,在拜登总统关于人工智能安全、可靠和值得信赖的发展的行政命令发布270天后,美国商务部宣布新的指南和工具,以帮助提高人工智能系统的安全性、可靠性和可信度。 美国商务部的美国国家标准与技术研究院(NIST)发布了三份最终指导文件,于4月首次发布以征求公众意见,以及美国人工智能安全研究所的一份旨在帮助降低风险的指导文件草案。NIST还发布了一个软件包,旨在衡量对抗性攻击如何降低人工智能系统的性能。此外,美国商务部的美国专利商标局(USPTO)发布了一份关于专利主题资格的指导更新,以解决包括人工智能在内的关键和新兴技术的创新问题,美国国家电信和信息管理局(NTIA)向白宫提交了一份报告,审查了具有广泛可用权重的大型人工智能模型的风险和收益。 美国商务部长Gina Raimondo表示:“在拜登总统和哈里斯副总统的领导下,我们商务部一直在不懈地努力实施具有历史意义的人工智能行政命令,自我们被赋予这些关键职责以来的九个月里,我们取得了重大进展。”。“人工智能是我们这一代人的决定性技术,因此我们正在快速发展,以跟上步伐,帮助确保人工智能的安全开发和部署。今天的公告表明,我们致力于为人工智能开发人员、部署人员和用户提供所需的工具,以安全地利用人工智能的潜力,同时最大限度地降低其相关风险。我们取得了很大进展,但还有很多工作要做。我们将保持势头,维护美国作为人工智能全球领导者的地位。” NIST的文件发布涵盖了人工智能技术的各个方面,其中两份是今天首次公开。一个是美国人工智能安全研究所的指导文件的初步公开草案,旨在帮助人工智能开发人员评估和减轻生成性人工智能和两用基础模型(可用于有益或有害目的的人工智能系统)带来的风险。另一个是测试平台,旨在帮助人工智能系统用户和开发人员衡量某些类型的攻击如何降低人工智能系统的性能。在剩下的三份文件中,有两份是指导文件,旨在帮助管理生成式人工智能的风险——该技术支持许多聊天机器人以及基于文本的图像和视频创建工具——并作为NIST人工智能风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源。第三份报告提出了一项计划,让美国利益相关者与全球其他国家合作制定人工智能标准。 美国商务部标准与技术部副部长兼NIST主任Laurie E.Locascio表示:“尽管生成式人工智能具有潜在的转型优势,但它也带来了与传统软件截然不同的风险。”。“这些指导文件和测试平台将向软件创建者告知这些独特的风险,并帮助他们开发在支持创新的同时减轻这些风险的方法。” USPTO的指南更新将协助USPTO人员和利益相关者根据专利法(35 U.s.C.§101)确定人工智能发明的主题资格。这一最新更新建立在之前的指导之上,为美国专利商标局和申请人如何评估专利申请和涉及人工智能技术发明的专利中权利要求的主题资格提供了进一步的清晰度和一致性。指南更新还宣布了如何在各种技术中应用该指南的三个新示例。 “美国专利商标局仍然致力于促进和保护包括人工智能在内的关键和新兴技术的创新,”负责知识产权的商务部副部长兼美国专利商标局长Kathi Vidal说。“我们期待听到公众对这一指导更新的反馈,这将进一步明确评估人工智能发明的主题资格,同时激励解决世界和社区问题所需的创新。” 美国国家电信和信息管理局即将发布的报告将审查模型权重广泛可用的两用基础模型(即“开放权重模型”)的风险和收益,并制定政策建议,在降低风险的同时最大限度地提高这些收益。开放权重模型允许开发人员在先前工作的基础上进行构建和调整,从而扩大了人工智能工具对小公司、研究人员、非营利组织和个人的可用性。 有关NIST公告的更多信息 防止两用基础模型的误用风险 人工智能基础模型是强大的工具,在广泛的任务中都很有用,有时被称为“两用”,因为它们既有好处也有坏处。NIST的美国人工智能安全研究所发布了其关于管理两用基础模型滥用风险的指导方针的初步公开草案,该草案概述了基础模型开发人员如何保护其系统免受滥用,从而对个人、公共安全和国家安全造成蓄意伤害的自愿最佳实践。 该指南草案提供了七种关键方法来减轻模型被滥用的风险,并就如何实施这些模型以及如何使其实施透明提出了建议。这些做法可以共同帮助防止模型通过开发生物武器、开展进攻性网络行动、生成儿童性虐待材料和未经同意的亲密图像等活动造成伤害。 美国东部时间2024年9月9日晚上11:59,人工智能安全研究所正在接受公众对《两用基础模型滥用风险管理》草案的意见。评论可以电子方式提交至NISTAI800-1@nist.gov主题行中有“NIST AI 800-1,管理两用基础模型的误用风险”。 测试AI模型如何应对攻击 人工智能系统的漏洞之一是其核心模型。通过将模型暴露于大量的训练数据中,它学会了做出决策。但是,如果对手用不准确的数据毒害训练数据——例如,通过引入可能导致模型将停车标志误判为限速标志的数据——模型可能会做出不正确的、潜在的灾难性决定。测试对抗性攻击对机器学习模型的影响是Dioptra的目标之一,Dioptra是一个新的软件包,旨在帮助人工智能开发人员和客户确定他们的人工智能软件在各种对抗性攻击中的表现。 开源软件可供免费下载,可以帮助包括政府机构和中小型企业在内的社区进行评估,以评估人工智能开发人员对其系统性能的说法。该软件响应了行政命令第4.1(ii)(B)节,该节要求NIST帮助进行模型测试。Dioptra通过允许用户确定哪些类型的攻击会使模型的性能降低,并量化性能降低,以便用户可以了解系统在什么情况下会发生故障的频率和情况。 管理生成型人工智能的风险 人工智能RMF生成人工智能档案(NIST AI 600-1)可以帮助组织识别生成人工智能带来的独特风险,并提出最符合其目标和优先事项的生成人工智能风险管理行动。该指南旨在成为NIST人工智能RMF用户的配套资源。它以12个风险和200多个开发人员可以采取的管理风险的行动为中心。 这12个风险包括降低网络安全攻击的进入门槛,产生错误和虚假信息或仇恨言论和其他有害内容,以及生成人工智能系统虚构或“幻觉”输出。在描述了每种风险之后,该文档提供了一个开发人员可以采取的缓解风险的行动矩阵,映射到AI RMF。 减少对用于训练AI系统的数据的威胁 第二份最终确定的出版物《生成性人工智能和两用基础模型的安全软件开发实践》(NIST特别出版物(SP)800-218A)旨在与安全软件开发框架(SP 800-218)一起使用。虽然SSDF广泛关注软件编码实践,但配套资源扩展了SSDF,部分是为了解决生成式人工智能系统的一个主要问题:它们可能会受到恶意训练数据的损害,从而对人工智能系统性能产生不利影响。 除了涵盖人工智能系统的培训和使用方面外,本指导文件还确定了潜在的风险因素和应对策略。除其他建议外,它还建议分析训练数据中的中毒、偏见、同质性和篡改迹象。 全球参与人工智能标准 人工智能系统不仅在美国,而且在世界各地都在改变社会。《人工智能标准全球参与计划》(NIST AI 100-5)是第三份最终出版物,旨在推动全球开发和实施与人工智能相关的共识标准、合作与协调以及信息共享。 该指南以NIST制定的《联邦参与人工智能标准和相关工具计划》中概述的优先事项为依据,并与《关键和新兴技术国家标准战略》挂钩。该出版物表明,来自许多国家的更广泛的多学科利益相关者参与了标准制定过程。