《Bain公司为首席执行官发布人工智能指南,开设新加坡中心》

  • 编译者: 高楠
  • 发布时间:2025-12-02
  • Bain & Company的一份新报告称,东南亚的许多组织仍停留在早期产品测试阶段,因为他们将人工智能视为一套工具,而不是商业运作方式的改变。在《东南亚CEO人工智能转型指南》中作者表示,领导者应该首先考虑人工智能如何重塑他们的行业和收入计划,然后将资金投入到他们预计会有明确和可衡量结果的领域。

    该地区的文化、收入水平和市场规模的混合使得人工智能的采用比条件更加统一的地方更难。该地区不同国家的人们在购物和行为上有所不同,工资往往仍然很低,许多公司没有规模来进行长期和昂贵的试验。这些因素意味着简单的效率提升很少能带来丰厚的回报。该指南指出,当人工智能被用来重新思考业务如何运行,更快地做出决策,或在不扩大团队的情况下增加能力时,才会有真正的收益。

    Bain的分析显示,东南亚的工资约为美国水平的7%,这限制了企业能够从裁员中节省的资金。报告还指出,该地区只有40%的市场价值来自大公司,相比之下,印度有60%。随着越来越少的大公司能够吸收早期人工智能成本,领导者需要以速度、规模和新流程为目标,而不是仅仅依赖于成本节约。

    人工智能如何帮助今天

    通过将人工智能计划与业务目标挂钩,该地区的一些组织已经看到了明显的收益。该指南强调了早期的举措,如使用人工智能来缩短产品上市时间或减少供应链问题,从而为收入创造新的机会。工厂可以使用预测模型来减少机器停机时间和提高产量,或者金融机构可以使用LLM来支持合规性工作。

    Bain公司高级合伙人Aadarsh Baijal表示,影响力取决于领导者如何看待他们的市场。他认为,许多人仍将人工智能视为“软件的推出,而不是对商业竞争方式的重新设计。”当领导者了解人工智能如何改变需求、定价、运营或客户需求时,他们就可以决定将精力集中在哪里。

    关于人工智能中的数据、文化和人,指南是怎么说的

    该指南强调,人工智能转型依赖于人、习惯和技能,而不仅仅是技术。许多组织认为扩大人工智能是一个招聘问题,但Bain认为人才通常已经存在于企业中。真正的问题是让团队一起工作,并帮助员工理解如何在工作中使用人工智能。

    作者描述了参与成功变革的两个群体。“Lab”由技术团队组成,他们重建流程并创建新工具的第一个版本。“Crowd”包括企业中需要足够的人工智能意识来日常使用这些工具的员工。没有这两个团队,项目就会停滞。

    高级合伙人Mohan Jayaraman说,当现有的团队领导这项工作时,最强的结果就会出现。在他看来,当公司将小型专家组与更广泛的培训相匹配时,影响会增加,因此新系统会成为正常工作流程的一部分,而不是一次性试验。

    领导者还需要解决持续存在的问题,如数据质量、如何跟踪数据、治理以及与当前系统的链接。他们还需要决定他们的人工智能计划如何与现有技术连接。没有这个基础,早期的成果很难大规模复制。

    支持企业人工智能的区域推动

    Bain在新加坡经济发展局(EDB)的支持下,正在新加坡建立一个人工智能创新中心。该中心的目标是通过构建可以大规模运行的人工智能系统,帮助公司超越试验。它将在先进制造业、能源和资源、金融服务、医疗保健和消费品领域发挥作用。

    该中心位于新加坡一个不断发展的人工智能社区,该社区有1000多家创业公司,预计到2030年,人工智能将产生约1983亿新元的经济价值。它的工作将涵盖生产就绪系统,如工厂的预测性维护,金融监管任务的人工智能支持,以及零售的个性化工具。它还将帮助企业建立内部团队和工程技能,以便它们能够独立运行人工智能项目。

    随着东南亚竞争的加剧,将人工智能视为经营方式转变的公司——这是Bain人工智能指南的核心主题——将更有能力将试点转化为长期成果。

相关报告
  • 《英国发布人工智能监管白皮书 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。      风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。 白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。 受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。      AI治理的五个原则      “人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。 在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。      具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。      “透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。      白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。 在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。 不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。 据了解,在接下来的12个月里,英国监管机构将向人工智能公司发布实用指南,以及其他工具和资源,如风险评估模板,以阐明如何在其行业中实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管机构始终如一地考虑这些原则。      失控和刹车?       耐人寻味的是,白皮书推出的时间点,正值ChatGPT等高级AI技术遭受质疑的风口浪尖。 就在白皮书发布前不久,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的系统至少六个月,理由是这种系统对社会和人类构成潜在风险;同时,要求在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。      图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。甚至OpenAI CEO Sam Altman的名字一度也出现在公开信上,尽管不久之后便无端消失。 这封信在产业界掀起了轩然大波。 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,这封联名信及其呼吁反映了科技从业者、技术社群、社会公众以及监管机构对于人工智能的技术信任焦虑。“在技术展现其强大力量和极高发展速度的情况下,规则缺位带来的人工智能技术的种种不确定性将会影响人们对这一技术的信任。”      此次英国发布的人工智能产业监管白皮书所搭建的监管体系,能否有效让存在“失控”风险的AI“悬崖勒马”,在一定程度上提振行业的发展信心? 吴沈括表示,英国对新兴产业,如数字经济等的监管展现出实用主义色彩。其监管主要目的是增强英国市场的吸引力和活力,推动本国产业的发展,因此也更具产业友好性。 “此次产业白皮书的发布,将进一步提升监管框架的确定性、明确性,有利于增强该国甚至外国投资者的信心。”他说。      据媒体报道,英国在近日宣布将投资9亿英镑(约合人民币 75.06亿元)来打造百亿亿级(exascale)超级计算机。这样的超级计算机将被用于创建类似于ChatGPT的语言模型,并暂时命名为“BritGPT”。英国政府认为“BritGPT”将为英国在人工智能领域发展带来新的机遇。      可信AI、监管沙盒等举措助力我国产业发展      虽然人工智能并非近几年才出现的新概念,但该市场目前正处在起步发展阶段,而我国、乃至全世界对应的规则、监管机构还在逐步建构和明确。英国此次公布的监管举措及整体框架对我国未来的人工智能治理有一定的借鉴意义。 人工智能技术是否值得信任,是横亘在技术的理论和实际应用间的重要问题。英国政府在白皮书中宣布将提供相关技术和技术标准保障可信人工智能的落地,具体举措包括提供保证技术工具箱衡量研发流程中的可信度,计划分类分层拟定技术标准等。      “未来,可信人工智能仍然是各国在人工智能监管工作中的重点。”张欣指出,只有技术被确保可信,人工智能技术的研发和产业应用才能放心迈开脚步。 近年来,人工智能领域内可信人工智能的研究与应用步伐都在加快。中国信通院数据显示,截至2022年 4月,全球可信人工智能领域相关论文数量论文共计 7059 篇。美国、中国、英国是可信人工智能领域论文发表的主要国家,三国发表的论文总数占全球论文总数 53%以上。 此外,在具体举措上,英国政府还表示,将资助2万英镑建立一个监管沙盒,为人工智能企业提供测试环境。企业可以测试如何将监管应用于人工智能产品和服务,以支持创新者将新想法推向市场。而不会受监管规则的约束。      “监管沙盒与人工智能产业迭代速度快的特点相适应,对我国对人工智能产业治理亦有参考价值。”在张欣看来监管沙盒模式一方面,则能够在“沙盒”模拟中预判可能出现的风险,帮助监管方早日知晓和防范;另一方面,能够帮助激发技术创新活力,拓展产业发展的空间。 去年9月发布的《上海市促进人工智能产业发展条例》就提出,政府应当顺应人工智能快速迭代的特点,探索分级治理和沙盒监管。 吴沈括认为,从整体的监管框架上看,英国重视现行法律法规的思路对我国具有一定参考意义。针对人工智能带来的新挑战和新问题,应该充分挖掘和发挥现有的制度资源和监管资源,然后再“查漏补缺”适当引入必要的治理规范。      此外,重视产业发展的价值也值得深入思考。“本次白皮书研究并发布了一个结论——繁重、不适宜的监管可能会为中小企业的创新带来负担。”张欣指出,白皮书中体现出的监管互操作性、一致性及监管比例性,对我国未来促进中小企业科技创新就有借鉴意义。  “人工智能的治理不应当以牺牲产业发展为代价。”吴沈括表示,应当充分兼顾各方利益和诉求,在保护、保障、保卫核心价值的基础之上,兼容技术发展和产业发展的需求,最大限度推动人工智能发展的一个良性生态。
  • 《美国商务部发布新的人工智能指南和工具》

    • 编译者:李晓萌
    • 发布时间:2024-08-20
    • 近日,在拜登总统关于人工智能安全、可靠和值得信赖的发展的行政命令发布270天后,美国商务部宣布新的指南和工具,以帮助提高人工智能系统的安全性、可靠性和可信度。 美国商务部的美国国家标准与技术研究院(NIST)发布了三份最终指导文件,于4月首次发布以征求公众意见,以及美国人工智能安全研究所的一份旨在帮助降低风险的指导文件草案。NIST还发布了一个软件包,旨在衡量对抗性攻击如何降低人工智能系统的性能。此外,美国商务部的美国专利商标局(USPTO)发布了一份关于专利主题资格的指导更新,以解决包括人工智能在内的关键和新兴技术的创新问题,美国国家电信和信息管理局(NTIA)向白宫提交了一份报告,审查了具有广泛可用权重的大型人工智能模型的风险和收益。 美国商务部长Gina Raimondo表示:“在拜登总统和哈里斯副总统的领导下,我们商务部一直在不懈地努力实施具有历史意义的人工智能行政命令,自我们被赋予这些关键职责以来的九个月里,我们取得了重大进展。”。“人工智能是我们这一代人的决定性技术,因此我们正在快速发展,以跟上步伐,帮助确保人工智能的安全开发和部署。今天的公告表明,我们致力于为人工智能开发人员、部署人员和用户提供所需的工具,以安全地利用人工智能的潜力,同时最大限度地降低其相关风险。我们取得了很大进展,但还有很多工作要做。我们将保持势头,维护美国作为人工智能全球领导者的地位。” NIST的文件发布涵盖了人工智能技术的各个方面,其中两份是今天首次公开。一个是美国人工智能安全研究所的指导文件的初步公开草案,旨在帮助人工智能开发人员评估和减轻生成性人工智能和两用基础模型(可用于有益或有害目的的人工智能系统)带来的风险。另一个是测试平台,旨在帮助人工智能系统用户和开发人员衡量某些类型的攻击如何降低人工智能系统的性能。在剩下的三份文件中,有两份是指导文件,旨在帮助管理生成式人工智能的风险——该技术支持许多聊天机器人以及基于文本的图像和视频创建工具——并作为NIST人工智能风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源。第三份报告提出了一项计划,让美国利益相关者与全球其他国家合作制定人工智能标准。 美国商务部标准与技术部副部长兼NIST主任Laurie E.Locascio表示:“尽管生成式人工智能具有潜在的转型优势,但它也带来了与传统软件截然不同的风险。”。“这些指导文件和测试平台将向软件创建者告知这些独特的风险,并帮助他们开发在支持创新的同时减轻这些风险的方法。” USPTO的指南更新将协助USPTO人员和利益相关者根据专利法(35 U.s.C.§101)确定人工智能发明的主题资格。这一最新更新建立在之前的指导之上,为美国专利商标局和申请人如何评估专利申请和涉及人工智能技术发明的专利中权利要求的主题资格提供了进一步的清晰度和一致性。指南更新还宣布了如何在各种技术中应用该指南的三个新示例。 “美国专利商标局仍然致力于促进和保护包括人工智能在内的关键和新兴技术的创新,”负责知识产权的商务部副部长兼美国专利商标局长Kathi Vidal说。“我们期待听到公众对这一指导更新的反馈,这将进一步明确评估人工智能发明的主题资格,同时激励解决世界和社区问题所需的创新。” 美国国家电信和信息管理局即将发布的报告将审查模型权重广泛可用的两用基础模型(即“开放权重模型”)的风险和收益,并制定政策建议,在降低风险的同时最大限度地提高这些收益。开放权重模型允许开发人员在先前工作的基础上进行构建和调整,从而扩大了人工智能工具对小公司、研究人员、非营利组织和个人的可用性。 有关NIST公告的更多信息 防止两用基础模型的误用风险 人工智能基础模型是强大的工具,在广泛的任务中都很有用,有时被称为“两用”,因为它们既有好处也有坏处。NIST的美国人工智能安全研究所发布了其关于管理两用基础模型滥用风险的指导方针的初步公开草案,该草案概述了基础模型开发人员如何保护其系统免受滥用,从而对个人、公共安全和国家安全造成蓄意伤害的自愿最佳实践。 该指南草案提供了七种关键方法来减轻模型被滥用的风险,并就如何实施这些模型以及如何使其实施透明提出了建议。这些做法可以共同帮助防止模型通过开发生物武器、开展进攻性网络行动、生成儿童性虐待材料和未经同意的亲密图像等活动造成伤害。 美国东部时间2024年9月9日晚上11:59,人工智能安全研究所正在接受公众对《两用基础模型滥用风险管理》草案的意见。评论可以电子方式提交至NISTAI800-1@nist.gov主题行中有“NIST AI 800-1,管理两用基础模型的误用风险”。 测试AI模型如何应对攻击 人工智能系统的漏洞之一是其核心模型。通过将模型暴露于大量的训练数据中,它学会了做出决策。但是,如果对手用不准确的数据毒害训练数据——例如,通过引入可能导致模型将停车标志误判为限速标志的数据——模型可能会做出不正确的、潜在的灾难性决定。测试对抗性攻击对机器学习模型的影响是Dioptra的目标之一,Dioptra是一个新的软件包,旨在帮助人工智能开发人员和客户确定他们的人工智能软件在各种对抗性攻击中的表现。 开源软件可供免费下载,可以帮助包括政府机构和中小型企业在内的社区进行评估,以评估人工智能开发人员对其系统性能的说法。该软件响应了行政命令第4.1(ii)(B)节,该节要求NIST帮助进行模型测试。Dioptra通过允许用户确定哪些类型的攻击会使模型的性能降低,并量化性能降低,以便用户可以了解系统在什么情况下会发生故障的频率和情况。 管理生成型人工智能的风险 人工智能RMF生成人工智能档案(NIST AI 600-1)可以帮助组织识别生成人工智能带来的独特风险,并提出最符合其目标和优先事项的生成人工智能风险管理行动。该指南旨在成为NIST人工智能RMF用户的配套资源。它以12个风险和200多个开发人员可以采取的管理风险的行动为中心。 这12个风险包括降低网络安全攻击的进入门槛,产生错误和虚假信息或仇恨言论和其他有害内容,以及生成人工智能系统虚构或“幻觉”输出。在描述了每种风险之后,该文档提供了一个开发人员可以采取的缓解风险的行动矩阵,映射到AI RMF。 减少对用于训练AI系统的数据的威胁 第二份最终确定的出版物《生成性人工智能和两用基础模型的安全软件开发实践》(NIST特别出版物(SP)800-218A)旨在与安全软件开发框架(SP 800-218)一起使用。虽然SSDF广泛关注软件编码实践,但配套资源扩展了SSDF,部分是为了解决生成式人工智能系统的一个主要问题:它们可能会受到恶意训练数据的损害,从而对人工智能系统性能产生不利影响。 除了涵盖人工智能系统的培训和使用方面外,本指导文件还确定了潜在的风险因素和应对策略。除其他建议外,它还建议分析训练数据中的中毒、偏见、同质性和篡改迹象。 全球参与人工智能标准 人工智能系统不仅在美国,而且在世界各地都在改变社会。《人工智能标准全球参与计划》(NIST AI 100-5)是第三份最终出版物,旨在推动全球开发和实施与人工智能相关的共识标准、合作与协调以及信息共享。 该指南以NIST制定的《联邦参与人工智能标准和相关工具计划》中概述的优先事项为依据,并与《关键和新兴技术国家标准战略》挂钩。该出版物表明,来自许多国家的更广泛的多学科利益相关者参与了标准制定过程。