《《北京市人工智能行业大模型创新应用白皮书(2023年)》发布》

  • 来源专题:数智化图书情报
  • 编译者: 杨小芳
  • 发布时间:2023-12-01
  •          11月29日,北京市科学技术委员会、中关村科技园区管理委员会在AICC 2023人工智能计算大会上发布了《北京市人工智能行业大模型创新应用白皮书(2023年)》(以下简称《白皮书》)。


       《白皮书》从大模型全球发展态势、国内外行业应用概述、北京应用情况和发展建议等方面进行了系统分析和阐述,旨在进一步推动大模型应用落地,展示北京市大模型应用成果,促进大模型价值传播和供需对接。


       《白皮书》认为,大模型技术迅速迭代,打破了原有AI技术发展的上限,呈现出数据巨量化、模型通用化、应用模式中心化等特点,以“无限生产”的能力重塑企业生产引擎,推动生产效率颠覆式提升。从全球范围看,世界各地均在积极推动大模型研发和应用,其中美国和中国发布的通用大模型总数占全球发布量的80%,成为大模型技术领域的引领者;欧盟、英国、加拿大、新加坡等国家和地区尚处于前期尝试阶段,仅个别头部企业开始应用。从全国范围看,国家和地方层面高度重视通用大模型产业发展。2023年7月,国家网信办、国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局等7部委联合公布《生成式人工智能服务管理暂行办法》,鼓励和规范生成式人工智能创新发展;北京、上海、广东等多省市也陆续出台大模型产业发展措施,加速大模型应用落地。从北京市大模型产业发展来看,北京是当前国内人工智能领域创新基础最好、人才资源最集中、研发创新能力最强、产品迭代最活跃的地区,现已拥有大模型创新团队122家,数量居全国首位,约占全国的一半。


       《白皮书》详细梳理了现阶段北京市大模型应用的典型特点。从模型演进看,通用大模型趋于收敛,垂直行业应用成为大模型产业落地的关键赛道;当前,大模型发展呈现出从技术到产品、再到商业化应用的发展路径,并不断深入垂直行业领域。从应用领域来看,大模型应用案例百花齐放,已经在传统产业赋能、金融、政务、文化旅游、医疗、智慧城市等各个领域得到初步应用,其中,传统产业赋能和金融领域发展较快,如传统产业赋能领域有产业知识问答、图文生成等,金融领域有智能投研助理、智能客服等。从应用类型来看,大模型主要有内容生成、智能问答、IT支持、数据分析、智能识别和智能硬件等六个方面,其中内容生成和智能问答最为成熟。从商业模式来看,目前大模型商业模式初具雏形,形成了以通用大模型AI服务为主的基础层、以垂直行业领域AI服务为主的行业层和以大模型应用服务为主的应用层,三层服务相互促进,协同优化,共同支撑产业转化和发展。


       《白皮书》对北京市大模型应用案例进行了梳理,从政务、金融、医疗、传统产业赋能、文化旅游、智慧城市等六个行业领域切入,围绕创新性、示范性、经济与社会效益性、可推广性等四个维度,选取衔远科技、360、瑞莱智慧、旷视、百度等18个典型案例,详细分析了各领域用户需求、解决方案、项目成果。如衔远科技围绕北京一轻科技集团在市场需求跟踪、新型产品研发等方面需求,打造品商大模型示范应用,形成商品智能反向定制、预测性生产、智能调度、智能营销等服务功能,加速消费制造领域全链路数智化升级;360围绕银行在数字化转型方面需求,打造金融领域大模型,实现员工平均办公文档处理时间减少40%等。基于案例分析,《白皮书》进一步提出了目前大模型应用落地面临的挑战。一是算力资源供不应求,成为大模型企业创新研发的重要挑战。二是高质量数据成为严重掣肘大模型行业应用的关键。三是大模型幻觉问题有所改善,但离规模落地尚有差距。四是大模型应用存在“蹭热度”和同质化情况。


    附件:北京市人工智能行业大模型创新应用白皮书(2023年)

相关报告
  • 《英国发布首份人工智能白皮书》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-07
    • 2023年3月29日,英国政府发布题为《创新型人工智能监管》(A pro-innovation approach to AI regulation)的白皮书,以建立公众对前沿技术的信任,并使企业更容易创新和成长,从而创造更多就业的机会。 白皮书提出了一种创新的基于原则的人工智能监管框架,供监管机构在其职权范围内解释和应用人工智能,以最大限度地促进人工智能在相关行业中的安全和创新使用。这种协作和迭代的方法可以跟上人工智能快速发展的脚步,从而加强英国作为全球人工智能领导者的地位。监管机构应该考虑的5条明确原则分别是:(1)安全性、可靠性和稳健性:人工智能的应用应该以一种安全、可靠和稳健的方式运行,并警惕管理风险;(2)透明度和可解释性:开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配人工智能的使用所带来的风险;(3)公平性:人工智能的使用应符合英国现有的法律,例如《2010年平等法案》或英国GDPR,不得歧视个人或产生不公平的商业结果;(4)问责制和治理:需要采取措施以确保对人工智能的使用方式进行适当的监督,并对结果进行明确地问责;(5)可争议性和补救:需要有明确的途径来对人工智能产生的有害结果或决定提出异议。 白皮书指出,人工智能监管制度的基本特征包括:(1)促进创新:促进而非扼杀创新;(2)均衡性:避免给企业和监管机构带来不必要或不相称的负担;(3)可信性:培育公众对人工智能的信任,以促进和鼓励人工智能的应用;(4)可适用性:随着人工智能技术的发展,确保英国经济的发展能够快速有效地适应,足以应对突发的机遇和风险;(4)明确性:让人工智能生命周期中的参与者,如使用人工智能的企业更容易知道规则是什么,它们适用于谁,由谁执行,以及如何遵守;(5)协同性:鼓励政府、监管机构和产业界共同努力,促进人工智能创新,建立公众信任,并确保公众的声音能够得到倾听并被考虑。 在接下来的12个月里,监管机构将向各组织发布实用指南,以及风险评估模板等其他工具和资源,以阐明如何在各自的领域实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管者一致考虑这些原则。除此之外,英国政府还将提供200万英镑创建一个新的沙箱机制,为人工智能创企提供产品和服务测试环境。
  • 《英国发布人工智能监管白皮书 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。      风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。 白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。 受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。      AI治理的五个原则      “人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。 在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。      具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。      “透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。      白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。 在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。 不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。 据了解,在接下来的12个月里,英国监管机构将向人工智能公司发布实用指南,以及其他工具和资源,如风险评估模板,以阐明如何在其行业中实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管机构始终如一地考虑这些原则。      失控和刹车?       耐人寻味的是,白皮书推出的时间点,正值ChatGPT等高级AI技术遭受质疑的风口浪尖。 就在白皮书发布前不久,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的系统至少六个月,理由是这种系统对社会和人类构成潜在风险;同时,要求在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。      图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。甚至OpenAI CEO Sam Altman的名字一度也出现在公开信上,尽管不久之后便无端消失。 这封信在产业界掀起了轩然大波。 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,这封联名信及其呼吁反映了科技从业者、技术社群、社会公众以及监管机构对于人工智能的技术信任焦虑。“在技术展现其强大力量和极高发展速度的情况下,规则缺位带来的人工智能技术的种种不确定性将会影响人们对这一技术的信任。”      此次英国发布的人工智能产业监管白皮书所搭建的监管体系,能否有效让存在“失控”风险的AI“悬崖勒马”,在一定程度上提振行业的发展信心? 吴沈括表示,英国对新兴产业,如数字经济等的监管展现出实用主义色彩。其监管主要目的是增强英国市场的吸引力和活力,推动本国产业的发展,因此也更具产业友好性。 “此次产业白皮书的发布,将进一步提升监管框架的确定性、明确性,有利于增强该国甚至外国投资者的信心。”他说。      据媒体报道,英国在近日宣布将投资9亿英镑(约合人民币 75.06亿元)来打造百亿亿级(exascale)超级计算机。这样的超级计算机将被用于创建类似于ChatGPT的语言模型,并暂时命名为“BritGPT”。英国政府认为“BritGPT”将为英国在人工智能领域发展带来新的机遇。      可信AI、监管沙盒等举措助力我国产业发展      虽然人工智能并非近几年才出现的新概念,但该市场目前正处在起步发展阶段,而我国、乃至全世界对应的规则、监管机构还在逐步建构和明确。英国此次公布的监管举措及整体框架对我国未来的人工智能治理有一定的借鉴意义。 人工智能技术是否值得信任,是横亘在技术的理论和实际应用间的重要问题。英国政府在白皮书中宣布将提供相关技术和技术标准保障可信人工智能的落地,具体举措包括提供保证技术工具箱衡量研发流程中的可信度,计划分类分层拟定技术标准等。      “未来,可信人工智能仍然是各国在人工智能监管工作中的重点。”张欣指出,只有技术被确保可信,人工智能技术的研发和产业应用才能放心迈开脚步。 近年来,人工智能领域内可信人工智能的研究与应用步伐都在加快。中国信通院数据显示,截至2022年 4月,全球可信人工智能领域相关论文数量论文共计 7059 篇。美国、中国、英国是可信人工智能领域论文发表的主要国家,三国发表的论文总数占全球论文总数 53%以上。 此外,在具体举措上,英国政府还表示,将资助2万英镑建立一个监管沙盒,为人工智能企业提供测试环境。企业可以测试如何将监管应用于人工智能产品和服务,以支持创新者将新想法推向市场。而不会受监管规则的约束。      “监管沙盒与人工智能产业迭代速度快的特点相适应,对我国对人工智能产业治理亦有参考价值。”在张欣看来监管沙盒模式一方面,则能够在“沙盒”模拟中预判可能出现的风险,帮助监管方早日知晓和防范;另一方面,能够帮助激发技术创新活力,拓展产业发展的空间。 去年9月发布的《上海市促进人工智能产业发展条例》就提出,政府应当顺应人工智能快速迭代的特点,探索分级治理和沙盒监管。 吴沈括认为,从整体的监管框架上看,英国重视现行法律法规的思路对我国具有一定参考意义。针对人工智能带来的新挑战和新问题,应该充分挖掘和发挥现有的制度资源和监管资源,然后再“查漏补缺”适当引入必要的治理规范。      此外,重视产业发展的价值也值得深入思考。“本次白皮书研究并发布了一个结论——繁重、不适宜的监管可能会为中小企业的创新带来负担。”张欣指出,白皮书中体现出的监管互操作性、一致性及监管比例性,对我国未来促进中小企业科技创新就有借鉴意义。  “人工智能的治理不应当以牺牲产业发展为代价。”吴沈括表示,应当充分兼顾各方利益和诉求,在保护、保障、保卫核心价值的基础之上,兼容技术发展和产业发展的需求,最大限度推动人工智能发展的一个良性生态。