《数字经济与人工智能监管 》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-09
  • 在数字经济及平台监管方面,市场监管总局公布《公平竞争审查条例(征求意见稿)》,向社会公众征求意见。北京  互联网法院通过案件审判明确付费会员权益应涵盖至该自然日的全部时间。 在数据安全及个人信息保护方面,工信部就四项有关汽车的强制性国家标准公开征求意见,两项聚焦于汽车数据安全。丰田汽车因人为错误致日本215万用户的车辆数据已被公开十年,面临数据泄露风险。超23.7万名美国政府雇员数据遭泄露。 知识产权保护方面,“同人作品第一案”金庸诉江南案终审宣判,法院认定构成著作权侵权和不正当竞争。AI孙燕姿等火爆平台,引起多种担忧。 目光转向海外。当地时间5月11日,欧盟通过《人工智能法(The AI Act)》提案的谈判授权草案。欧盟委员会近期根据《数字服务法》划定总计19个超大型平台。

    数字经济及平台监管

    1.市场监管总局公布《公平竞争审查条例(征求意见稿)》
         5月12日,市场监管总局官网公布《公平竞争审查条例(征求意见稿)》(以下简称《条例》),通过在行政法规层面作出制度性规定,进一步完善公平竞争审查制度,切实强化竞争政策基础地位,促进加快建设高效规范、公平竞争、充分开放的全国统一大市场,助力构建新发展格局,推动高质量发展。
       《条例》为总则、审查内容、审查程序、监督保障、附则五章,共41条。在审查内容方面,《条例》新增对审查内容的总体要求,对市场准入和退出、商品和要素自由流动、影响生产经营成本、影响生产经营行为等四方面审查内容做了进一步完善。同时,《条例》进一步完善了例外规定的适用情形,并优化了适用条件,规定了比例原则,增强针对性和指导性。 审查程序方面,《条例》在以自我审查为主的基础上,在地方层面建立了重大政策措施公平竞争审查会审制度。《条例》规定四种情形,属于规定情形之一的政策措施,政策制定机关在作出公平竞争审查结论后,应当提请本级公平竞争审查工作协调机制办公室开展会审。
    2.北京互联网法院:付费会员权益应涵盖至该自然日的全部时间.
         近日,北京互联网法院审结了石某诉A公司网络服务合同纠纷一案。双方产生争议的焦点在于会员服务结束的时间应为2021年7月9日20时46分48秒还是该日24时。
         法院认为,会员权益应涵盖至该自然日的全部时间。首先,涉案会员服务协议相应条款中关于服务期限届满的计算单位表述为“日”,按照一般理解,“日”应该涵盖该自然日的全部时间。其次,涉案会员服务协议属于格式条款,在存在两种解释时,应按照有利于非格式条款提供方进行理解。此外,被告在其网站的“帮助中心”中对于会员有效期的说明,虽然不是涉案会员服务协议中的内容,但是也具有对相应格式条款进行解释的效果。由于“到期时间”的提示在用户充值成为会员后方可查看,不能视为在合同成立之前已经明确告知用户的内容。综上,被告提前结束向原告提供会员服务的行为构成违约,应承担相应的违约责任。 法院判令被告A公司向原告石某的账号提供VIP会员权益一日,驳回原告石某的其他诉讼请求。目前,该案判决已经生效。

    南财点评:该案的亮点主要在于:一是明确了常见的会员平台服务的法律性质和法律效力,在该案中,法院将《VIP会员服务协议》认定为格式条款;二是明确了非以“协议”形式存在的官网说明为服务协议的组成内容;三是明确会员权益届满的计算方式,认定服务协议中的“日”应当涵盖自然日的全部时间。

    数据安全及个人信息保护
    1.汽车信息安全再添新标:严控智能网联汽车自动驾驶数据记录
         近日,工信部就四项有关汽车的强制性国家标准公开征求意见,其中《汽车整车信息安全技术要求(征求意见稿)》与《智能网联汽车自动驾驶数据记录系统(征求意见稿)》两项聚焦于汽车数据安全。
       《汽车整车信息安全技术要求(征求意见稿)》提出,应建立包括车辆的开发阶段、生产阶段及后生产阶段在内的车辆全生命周期的汽车信息安全管理体系。该体系涉及企业内部信息安全管理,车辆信息安全风险识别与处理,车辆信息安全测试,监测、响应、上报针对车辆的网络攻击和威胁,以及相关主体之间信息安全依赖关系五个方面的流程。同时,提出车辆不得直接通过车辆自身的数据出境功能或接口向境外传输数据,以避免大批车辆避开管理部门的监管向境外直传数据。
       《智能网联汽车自动驾驶数据记录系统(征求意见稿)》对自动驾驶的数据记录、存储、读取等做出了严格规定,要求自动驾驶数据记录系统应记录车辆及自动驾驶数据记录系统基本信息、车辆状态及动态信息、自动驾驶系统运行信息、行车环境信息和驾驶员操作及状态信息五类数据元素。同时,区分了A级和B级车辆数据元素,其中A级数据元素指的是配备自动驾驶数据记录系统的车辆应记录的数据元素;B级数据元素指的是配备自动驾驶数据记录系统的车辆在相关功能处于自动驾驶系统调用的状态时应记录的数据元素。
    南财点评:尽管此次出台的征求意见稿体现了多方面的考量与进步,但《汽车整车信息安全技术要求》等文件对与已有的信息安全制度衔接机制尚未明确,如网络安全等级保护、车联网定级备案等制度,如果未来相关制度的衔接机制不明确,可能会导致企业需要就信息安全进行重复建设。
    2.丰田汽车:人为错误致日本215万用户车辆数据公开十年 或存数据泄露风险

    丰田汽车公司周五表示,由于云环境中的设置错误,日本215万用户的车辆数据已被公开了十年。报道称,这几乎涵盖自2012年以来注册其主要云服务平台的全部客户群。这起事件也影响了其豪华品牌雷克萨斯的客户。丰田公司发言人说,这个问题从2013年11月开始,一直持续到4月中旬,源于人为错误,导致一个云系统被设置为公共的而不是私人的。该公司说,数据可能包括车辆位置和车辆设备的识别号码等细节,但没有关于恶意使用的报告。

    3.超过23.7万名美国政府雇员数据遭泄露.
        据海外网消息称,当地时间12日,美国交通运输部向国会报告称,该机构超23.7万名联邦雇员的个人信息遭泄露。 此次事件影响11.4万名现任员工和12.3万名前员工,他们都从美国交通运输部领取福利津贴。美国交通运输部表示,事件并未影响任何运输系统,但目前尚不清楚是否有任何个人信息被用于犯罪目的,将展开进一步调查。
    知识产权保护
    1.  “同人作品案”终审宣判 法院:构成著作权侵权和不正当竞争
         近日,广州知识产权法院对“同人作品案”作出终审判决。 2016年,金庸将江南告上法庭起诉《此间的少年》侵权,被誉为“同人作品”第一案。2018年,该案一审判决后原告被告均提起上诉。二审期间,金庸去世,林某怡系其遗产执行人并作为上诉人参加了诉讼。
         对于人物名称、人物关系、基本性格特征等元素能否构成作品的部分内容,《此间的少年》是否侵害查良镛作品著作权,是否构成不正当竞争,各执一词,莫衷一是,成为讼争焦点。 二审法院审理认为,认定被诉侵权行为分别构成著作权侵权和不正当竞争,判令被诉侵权作品《此间的少年》作者立即停止不正当竞争行为,并登报声明消除影响,赔偿经济损失168万元及为制止侵权行为的合理开支20万元,北京联合出版公司、北京精典博维公司就其中33万元承担连带赔偿责任。 二审法院考虑到《此间的少年》与《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品在人物名称、性格、关系等元素存在相同或类似,但情节并不相同,且分属不同文学作品类别,读者群有所区分。为满足读者的多元需求,衡平各方利益,促进文化事业的发展繁荣,采取充分切实的全面赔偿或者支付经济补偿等替代性措施的前提下,不判决停止侵权行为。但明确《此间的少年》如需再版,则应向《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品的权利人支付经济补偿。从《此间的少年》所利用的元素在全书中的比重,酌情确定经济补偿按照其再版版税收入的30%支付。
    2. AI孙燕姿爆红网络 面临多种侵权风险
         一段时间以来,AI孙燕姿爆火网络。在相关平台上,你可以听到AI孙燕姿的各类单曲,比如《我记得》、《发如雪》、《下雨天》等,每天多首发歌频率,得到了广泛的喜爱。值得注意的是,这并不是孙燕姿本人演唱的歌曲,而是在So-VITS-SVC 4.0技术的帮助之下,对孙燕姿的声音数据进行训练得到模型,通过模型推理,最终实现声音替换。

    南财点评:AI歌手出现的背后,或涉嫌侵犯歌手本人声音权,以及音乐词、曲作者著作权等。同时,考虑互联网上公开传播,导致任何人都可以在选定时间、地点不受限制的接触,一般会认为超出“必要范围”,相关行为一般不构成合理使用。

    海外动态
    1.欧洲议会通过关于《人工智能法》提案的谈判授权草案
         欧洲议会的官网消息显示,当地时间5月11日,欧洲议会两个关键委员会:内部市场委员会和公民自由委员会,通过《人工智能法(The AI Act)》提案的谈判授权草案。 草案将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。
         草案提出了新的保障措施,并禁止各种危险用例,包括禁止在公共场所进行大规模面部识别程序,以及禁止使用预测性警务系统(即AI犯罪预测系统)。草案还要求建立一个公共数据库,记录政府部门部署的“高风险”人工智能系统,公开数据,以便公民能够了解他们将何时以及如何受到这项技术的影响。 这一草案将于6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。欧洲议会声明显示,一旦获得批准,这将成为全世界首部有关人工智能的法规。
    2.欧盟数字服务法新动态:划定首批大型平台、成立算法透明中心
         近日,欧盟委员会通过了《数字服务法》(Digital Services Act,以下简称“DSA”)下的第一批确定决议,划定总计19个超大型平台,这些平台将履行欧盟规定的一系列义务。 根据《数字服务法》, 在2023 年 2 月 17 日每月活跃用户达到4500万及以上的平台将被认为是大型平台。此次划定了17个超大型在线平台(Very Large Online Platforms,以下简称“VLOP”)和2个超大型在线搜索引擎(Very Large Online Search Engines,以下简称“VLOSE”)。其中VLOP包括:阿里巴巴全球速卖通、亚马逊商店、苹果应用商店、谷歌地图、TikTok、推特、维基百科等,而VLOSE则是必应、谷歌搜索。 在接下来四个月内,这些平台需要履行DSA规定的多项义务。包括发布关于内容审核决策和风险管理的透明度报告;识别、分析和缓解平台的系统性风险等。
    南财点评:DSA对超大型平台和搜索引擎提出了更加全面的监管要求,在算法治理方面的要求也更为直接和明确。DSA的落地施行、算法透明度中心以及划定超大型平台体现了欧盟打造人工智能领域规范性力量的野心。当前,人工智能革命的浪涌给算法透明带来了新的影响和挑战,未来,监管、企业侧均应发力实现算法综合治理。

相关报告
  • 《英国发布人工智能监管白皮书 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。      风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。 白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。 受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。      AI治理的五个原则      “人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。 在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。      具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。      “透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。      白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。 在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。 不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。 据了解,在接下来的12个月里,英国监管机构将向人工智能公司发布实用指南,以及其他工具和资源,如风险评估模板,以阐明如何在其行业中实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管机构始终如一地考虑这些原则。      失控和刹车?       耐人寻味的是,白皮书推出的时间点,正值ChatGPT等高级AI技术遭受质疑的风口浪尖。 就在白皮书发布前不久,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的系统至少六个月,理由是这种系统对社会和人类构成潜在风险;同时,要求在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。      图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。甚至OpenAI CEO Sam Altman的名字一度也出现在公开信上,尽管不久之后便无端消失。 这封信在产业界掀起了轩然大波。 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,这封联名信及其呼吁反映了科技从业者、技术社群、社会公众以及监管机构对于人工智能的技术信任焦虑。“在技术展现其强大力量和极高发展速度的情况下,规则缺位带来的人工智能技术的种种不确定性将会影响人们对这一技术的信任。”      此次英国发布的人工智能产业监管白皮书所搭建的监管体系,能否有效让存在“失控”风险的AI“悬崖勒马”,在一定程度上提振行业的发展信心? 吴沈括表示,英国对新兴产业,如数字经济等的监管展现出实用主义色彩。其监管主要目的是增强英国市场的吸引力和活力,推动本国产业的发展,因此也更具产业友好性。 “此次产业白皮书的发布,将进一步提升监管框架的确定性、明确性,有利于增强该国甚至外国投资者的信心。”他说。      据媒体报道,英国在近日宣布将投资9亿英镑(约合人民币 75.06亿元)来打造百亿亿级(exascale)超级计算机。这样的超级计算机将被用于创建类似于ChatGPT的语言模型,并暂时命名为“BritGPT”。英国政府认为“BritGPT”将为英国在人工智能领域发展带来新的机遇。      可信AI、监管沙盒等举措助力我国产业发展      虽然人工智能并非近几年才出现的新概念,但该市场目前正处在起步发展阶段,而我国、乃至全世界对应的规则、监管机构还在逐步建构和明确。英国此次公布的监管举措及整体框架对我国未来的人工智能治理有一定的借鉴意义。 人工智能技术是否值得信任,是横亘在技术的理论和实际应用间的重要问题。英国政府在白皮书中宣布将提供相关技术和技术标准保障可信人工智能的落地,具体举措包括提供保证技术工具箱衡量研发流程中的可信度,计划分类分层拟定技术标准等。      “未来,可信人工智能仍然是各国在人工智能监管工作中的重点。”张欣指出,只有技术被确保可信,人工智能技术的研发和产业应用才能放心迈开脚步。 近年来,人工智能领域内可信人工智能的研究与应用步伐都在加快。中国信通院数据显示,截至2022年 4月,全球可信人工智能领域相关论文数量论文共计 7059 篇。美国、中国、英国是可信人工智能领域论文发表的主要国家,三国发表的论文总数占全球论文总数 53%以上。 此外,在具体举措上,英国政府还表示,将资助2万英镑建立一个监管沙盒,为人工智能企业提供测试环境。企业可以测试如何将监管应用于人工智能产品和服务,以支持创新者将新想法推向市场。而不会受监管规则的约束。      “监管沙盒与人工智能产业迭代速度快的特点相适应,对我国对人工智能产业治理亦有参考价值。”在张欣看来监管沙盒模式一方面,则能够在“沙盒”模拟中预判可能出现的风险,帮助监管方早日知晓和防范;另一方面,能够帮助激发技术创新活力,拓展产业发展的空间。 去年9月发布的《上海市促进人工智能产业发展条例》就提出,政府应当顺应人工智能快速迭代的特点,探索分级治理和沙盒监管。 吴沈括认为,从整体的监管框架上看,英国重视现行法律法规的思路对我国具有一定参考意义。针对人工智能带来的新挑战和新问题,应该充分挖掘和发挥现有的制度资源和监管资源,然后再“查漏补缺”适当引入必要的治理规范。      此外,重视产业发展的价值也值得深入思考。“本次白皮书研究并发布了一个结论——繁重、不适宜的监管可能会为中小企业的创新带来负担。”张欣指出,白皮书中体现出的监管互操作性、一致性及监管比例性,对我国未来促进中小企业科技创新就有借鉴意义。  “人工智能的治理不应当以牺牲产业发展为代价。”吴沈括表示,应当充分兼顾各方利益和诉求,在保护、保障、保卫核心价值的基础之上,兼容技术发展和产业发展的需求,最大限度推动人工智能发展的一个良性生态。
  • 《欧洲的人工智能监管困局与焦虑》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    •  近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发展的步伐,希望欧盟更加关注不断变化的人工智能技术格局。 1.政策监管出台即过时    欧盟在尝试推动出台人工智能监管政策方面是先行者。2021年,欧盟委员会推出了全球第一个关于人工智能的法律框架——欧盟人工智能法案,希望通过该框架来应对人工智能技术可能带来的风险与挑战。在欧委会设计的框架中,根据应用场景、使用技术等多个方面,人工智能技术被划分为四个不同的风险等级,配有不同的监管要求。    当时的框架设计者们相信,尽管人工智能是一项快速发展的技术,但是欧洲的制度设计足以适应技术变化。但事实似乎并不尽然。仅仅几年间,人工智能技术的发展就让那些规则设计者们感叹欧盟的设计似乎已经过时了。欧盟人工智能法案的主要起草人之一、来自德国的欧洲议会议员阿克塞尔·沃斯指出,人工智能技术在两年前还没有这么先进,而未来两年中还会进一步发展,“如此之快”的发展速度让当时的大部分法律设计在实际生效时可能已经不再适用了。    此次,欧洲议会成员在公开信中要求,欧盟人工智能法案应保证未来人工智能发展本着“以人为本、安全、可信赖”的理念发展,甚至让涵盖整个欧盟市场的监管“可以成为全球不同监管传统和环境中其他监管举措的蓝图”。    引人关注的是,公开信还呼吁欧盟委员会主席冯德莱恩和美国总统拜登举行一次高级别峰会,就“研发、控制和部署非常强大的人工智能的初步管理原则达成一致”。 2.语言模型人工智能引发担忧    欧洲议员们的呼声很大程度上受到时下火爆的语言模型人工智能应用的影响。大型语言模型让人工智能可以进行深度学习和训练,使其不仅可以模仿人类对话,甚至还可以编写和调试代码、创作诗歌和论文。不过,这样的人工智能应用自推出伊始,人们对其技术伦理就纷争不断,各方监管机构也十分关注。    今年2月,参与欧洲人工智能法案讨论的欧洲议员曾提议,人工智能语言模型技术在没有人类监督的情况下生成复杂文本应该被列入“高风险”列表,以阻止这类应用大规模制造虚假信息。    意大利数据保护机构认为,开发语言模型人工智能使用的数据,可能违反了欧洲的通用数据保护条例。意大利数据保护机构要求研发公司必须对用户更加透明地说明数据是如何处理的,如果要将用户的数据用于进一步的软件开发(即帮助人工智能学习),必须获得用户的许可,并且必须设置未成年人的访问权限。西班牙和法国也表示了类似的担忧。    目前,欧洲议会仍在讨论欧盟委员会两年前提出的人工智能法案,尚未确定通过该法案。法案即使在欧洲议会获得批准,仍需欧盟成员国逐一审核通过。有分析认为,该法案可能要到2025年初才能生效。    沃斯议员在接受欧洲媒体采访时表示:“出于竞争原因,也因为欧洲在技术上已经落后,欧洲实际上需要以更多的乐观态度来看待人工智能。但正在发生的情况是,欧洲议会中大多数人都被恐惧和担忧所引导,试图排斥一切。”他说,欧盟成员国有关方面希望设立一个独立机构来监控人工智能技术,并且修改现有的数据保护立法。 3.英国与欧盟不同的监管思路    今年3月,英国政府公布了人工智能监管拟定办法白皮书。英国政府表示,计划在相关部门和领域中迅速采用新的监管框架,未来数月将向金融、市场等行业领域的监管机构提供人工智能监管准则。    英国采取的人工智能监管思路与欧盟提出的监管设计框架截然不同。欧盟试图推出高度规范性指令,针对高风险人工智能系统的研发者和使用者做出具体的技术和机构规定;而英国则有意对人工智能研发和使用采取宽泛的监管原则,实施更为灵活、平衡的监管办法。此外,英国政府希望,由行业监管机构在参考政府的一系列指导原则的基础上,制定具体的监管办法。    未来一年里,英国政府监管机构将面向人工智能研发和应用企业推出更加具体的监管指南,引导后者对人工智能进行风险评估。在此基础上,英国议会再适时开启人工智能立法,以确保监管机构有法可依。    英国政府希望在人工智能领域掌握更多的话语权。英国前财政大臣杰里米·亨特此前在一次演讲中表示,英国在培育人工智能技术方面必须“全速前进”,以保证“赢得这场竞赛”,为新兴技术制定全球标准。2022年亨特就表示要将英国变成“世界的下一个硅谷”,提出为量子计算技术投入数十亿美元,并承诺投资一台新的超级计算机来推动人工智能研究。 4.政府与科技公司的博弈    有业内分析认为,当前欧盟和英国加快对人工智能的监管规则设计,都是希望在规则制定上抢夺话语权,但它们的规则设计都难以在消费者保护、监管、经济和科研的自由发展之间取得平衡。    很多欧盟官员认为,监管机构必须承担更多责任,仅用风险级别来管理人工智能应用程序是远远不够的。欧盟内部市场专员蒂埃里·布雷顿提出,研发人员和科技公司应该监控每个人工智能应用程序的风险,因为科技公司有时无法预测其人工智能产品在第二天可能会做什么,甚至对做了什么感到惊讶。    但是,很多科技公司对部分欧盟监管规则并不满意。2022年欧盟曾推动出台人工智能责任规定,作为对欧盟人工智能法案的补充,以使消费者在因人工智能技术受到伤害时能够更容易起诉技术所属的科技公司。而很多科技公司坚称,这将给欧洲的技术创新带来“寒蝉效应”,科技公司的程序员不仅要为人工智能的程序错误负责,还要为人工智能技术对用户产生的潜在心理健康影响负责,这是一种苛责。    欧洲监管困局的背后,还有欧洲各国在人工智能技术领域失去领先位置后的忧心忡忡。两年前欧盟提出人工智能立法时,布雷顿就表示,欧盟此举不是要赶走人工智能的研发者,而是要鼓励和说服他们留下来。欧盟不应依赖外国供应商,人工智能数据也应在欧盟存储和处理。    沃斯议员的话更是充满焦虑:“如果欧盟规则过于复杂,科技公司就会去其他地方搞人工智能研发。欧盟还不迅速采取行动的话,将成为其他国家的‘数字殖民地’,并有可能最终失去政治和社会的稳定。” .