《没有社会性的人工智能是危险的》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-10-08
  •  缺乏社会性的人工智能常常存在着一定的潜在危险性,这是因为:首先,社会性对于人类而言是非常重要的,我们通过社交互动、合作和沟通来建立联系、理解他人以及共同解决问题。人类具有复杂的情感和道德价值观,这些因素在我们的决策和行为中起着重要作用。缺乏社会性的人工智能可能无法理解和适应这些社会互动的规则和背后的含义,从而导致与人类的交流和合作困难。其次,社会性也与伦理和道德相关。人工智能系统能够以无偏见、公正和道德的方式进行决策和行为至关重要。如果人工智能缺乏社会性,并没有对社会价值观和伦理准则进行深入理解,那么它的决策可能不符合人类的期望,并产生不可预测的结果。
          因此,确保人工智能具备一定程度的社会性是一个重要的研究方向。研究者们正在努力开发具备社会认知、情感理解和道德意识的人工智能系统,以更好地与人类进行交互,并在各个领域中得到可靠和安全的应用。尽管如此,我们也必须意识到,实现完全具备社会性的人工智能仍然是一个巨大的挑战,并且需要遵循伦理原则和法律规定来确保其安全和可靠性。在推动人工智能发展的过程中,我们应该关注社会影响和伦理问题,并确保人工智能技术的进步与人类价值和利益相一致。为此,我们可以从人机环境系统的角度来理解和开发智能产品或系统:
    一、人机环境系统可以让许多对象都可以进行连接
         人机环境系统的概念旨在实现各种对象之间的互联互通。随着物联网、云计算和无线通信技术的发展,越来越多的物理设备和数字系统可以通过网络连接,实现信息的交流和共享。在人机环境系统中,各种智能设备、传感器、计算机系统和人类用户都可以成为系统的一部分,并通过网络进行连接和通信。这种连接可以是有线的,比如通过以太网或USB接口;也可以是无线的,比如通过Wi-Fi、蓝牙或其他无线通信技术。通过连接,各个对象可以相互传递数据、交换信息并协同工作。
        人机环境系统的应用领域也非常广泛。在智能家居中,家庭中的各种设备和电器可以通过网络连接,实现远程控制和自动化管理。在智能城市中,各种基础设施和服务可以通过互联网连接,提高城市的效率和便利性。在工业生产中,各种机器和传感器可以连接成为一个智能化的生产系统,实现自动化和优化。此外,人机环境系统还广泛应用于交通、医疗、农业、教育等领域。然而,需要注意的是,在实现对象的互联互通时,我们也要重视信息安全和隐私保护。确保连接的安全性、加密通信以及权限管理等技术措施非常关键,以保护用户数据和系统的安全。总而言之,人机环境系统提供了一种创新的方式,使得各种对象都可以通过网络连接,实现信息的交流和共享。这将为我们的生活、工作和社会带来更多的便利和智能化。
    二、人机环境系统智能可以让许多的应用模型化
          人机环境系统智能的一个关键目标是通过模型化来实现应用程序的智能化。模型化是指将应用程序的功能和逻辑抽象成数学模型或计算模型,以便进行问题建模、决策推理、数据分析等操作。通过模型化,可以将复杂的应用程序分解为更小、更具可管理性的模块或组件。这些模块可以是传感器、执行器、算法、规则等,通过互相协作,实现系统的整体功能。通过建立准确的数学模型和算法模型,可以更好地理解和描述应用程序的行为和特征。模型化使得应用程序的智能化变得更加可行和高效。通过对数据和输入进行建模,可以让系统更好地理解和解释用户需求,从而做出更智能的决策和响应。同时,模型化还可以帮助优化系统的性能、资源利用和运行效率。
          在人机环境系统智能中,模型化被广泛应用于各个层面和领域。在智能家居中,通过对家庭环境、用户习惯和设备状态等进行建模,可以实现自动化控制和智能调度。在智能交通领域,通过建立交通流模型和优化算法,可以实现交通信号的智能调控和拥堵预测。在医疗健康领域,通过对患者数据和疾病模型进行建模,可以实现个性化诊断和治疗方案的制定。模型化并非一劳永逸的过程,而是一个不断演化和迭代的过程。随着数据的积累和算法的改进,模型会不断更新和优化,从而提升系统的智能化水平。因此,人机环境系统智能通过模型化为应用程序的智能化提供了一种有效的方法,使得各种应用可以更好地理解和适应动态的环境和用户需求。
    三、人机环境系统智能让许多的决策都可以计算
          人机环境系统智能的目标之一是通过计算和算法来辅助或自动化决策过程。借助计算能力和智能算法,可以处理大量的数据、分析复杂的情境,并基于这些分析结果做出决策。在人机环境系统中,通过建立决策模型和算法模型,可以将决策问题抽象成数学或计算模型。这些模型可以包括优化算法、机器学习算法、决策树等,用于分析和推理输入数据,预测可能的结果,并生成决策方案。例如,在智能交通领域,通过收集和分析交通流数据、车辆信息及其他相关数据,可以建立交通流模型,并利用优化算法进行路网调度和交通信号优化,以最大程度地减少拥堵和提高交通效率。同样地,在智能供应链管理中,通过对供应链各环节的数据进行建模和分析,可以使用基于规则或机器学习的算法,实现即时库存管理、供应链路径优化以及需求预测等决策。然而,需要注意的是,尽管人机环境系统智能可以辅助决策过程,但并不意味着所有决策都可以完全由计算和算法替代。某些决策仍然依赖于人类的判断、经验和道德等因素,特别是在涉及伦理、社会和人类价值观等方面的决策。因此,人机环境系统智能可以通过计算和算法来辅助和优化决策过程,但在关键决策中仍需要结合人类的智慧和决策(算计)能力,实现最佳的决策结果。
    四、人类的智能超越了“与或非门”及其组合
          人类智能远远超出了简单的“与或非门”及其组合。虽然逻辑门是计算机中处理信息的基本组件,但人类智能涵盖了更广泛的认知和思维能力。构建一个有思想的大脑远远超出了二极管逻辑门的能力范围。人类智能具备复杂的感知、思考、决策和创造等能力。我们能够理解语言的含义、从各种感官中获取信息、将经验和知识应用于新情境中,并进行逻辑推理和问题解决。我们还能够表达情感、拥有主观意识和自我意识,并展示出创造性和想象力。这些能力并不仅仅取决于简单的逻辑运算,而是由大脑的结构和神经网络的复杂性所支持。大脑中的神经元通过复杂的连接和化学信号交互,形成了高度分布式的信息处理系统。这种复杂性使得人类能够同时处理多个任务、灵活地适应不同的情境,并做出判断和决策。此外,人类智能还受到情感、价值观、道德和伦理等因素的影响。我们的决策和行为不仅仅基于逻辑推理,还涉及情感体验、道德判断和社会因素等综合考量。
          因此,尽管逻辑门在计算机科学中具有重要的作用,人类智能远超过了“与或非门”及其组合的简单逻辑运算。人类智能是一个复杂而多层次的概念,远远超越了目前技术所能实现的范畴。
    五、多模态基础模型是构建人机环境系统智能的基础
        人机环境系统智能是一种将人与机器环境相结合,通过多种感知模态的信息获取和处理,从而实现智能化决策和交互的系统。在这个系统中,多模态基础模型是构建人机环境系统智能的基础。多模态基础模型是指能够处理来自不同感知模态的信息的模型。在人机环境系统中,我们通常会有多种感知模态,比如视觉、听觉、语音、触觉等。多模态基础模型能够将这些不同感知模态的信息进行融合和处理,从而提供更全面、准确的情境理解和决策支持。多模态基础模型通常由多个子模型组成,每个子模型负责处理一种感知模态的信息。这些子模型可能包括计算机视觉模型、语音识别模型、音频处理模型等等。这些子模型可以分别对不同的感知模态进行特征提取、数据处理和模式识别,然后将处理后的信息进行融合,得到更全面、准确的情境理解结果。多模态基础模型在人机环境系统智能中起到了关键的作用。通过融合和处理不同感知模态的信息,多模态基础模型能够提供更全面、准确的情境理解和决策支持,从而使得人机环境系统能够更智能地应对各种情境和任务。同时,多模态基础模型也为后续的高层模型和应用提供了基础,如情感识别、自然语言理解、人机交互等。
          总之,多模态基础模型是构建人机环境系统智能的基础,通过融合和处理不同感知模态的信息,提供更全面、准确的情境理解和决策支持,为人机环境系统的智能化提供基础。 人类智能是一个复杂的概念,它涉及到多个方面,包括时空的认知和非时空的心理过程。 时空方面,人类智能包括对于时间和空间的感知、理解和利用,人类能够感知时间的流逝,理解时间的概念,以及在时间的基础上进行规划、预测和记忆。同时,人类也能够感知和理解空间的概念,包括位置、方向、距离等,并在空间中进行导航、定位和操作。除了时空方面,人类智能也涉及到非时空的心理过程。这包括我们对于思维、情感、意识和意义的理解和表达,人类能够进行推理、解决问题、学习和创造,这些都属于非时空的智能表现。此外,情感和情绪也是人类智能的重要组成部分,它们能够影响我们的决策、行为和交互方式。所以,人类智能既涉及到时空方面的认知和操作,包括时间和空间的感知和利用,也包括非时空的心理过程,如思维、情感和意识,这些方面共同构成了人类智能的多维度特征。
          人机环境系统智能是时空事实和社会价值共同作用的结果。时空事实是指系统所处的具体时空背景和环境条件。不同的时空条件会对人机环境系统智能的发展和运行产生影响, 例如,技术的发展、资源的可及性、环境的稳定性等都会对系统智能的实现提供必要的条件。 社会价值是指社会对人机环境系统智能的期待和评价,社会价值的形成与社会的需求和价值观密切相关。 例如,对于智能交通系统而言,社会价值可能包括减少交通事故、提高交通效率、节约能源等。社会价值的认同和支持对于人机环境系统智能的发展和应用至关重要。时空事实和社会价值的共同作用使得人机环境系统智能得以实现和发展。时空事实提供了系统所需的基础条件,而社会价值则推动了系统的应用和发展。只有时空事实和社会价值相辅相成,人机环境系统智能才能真正发挥作用,为人们带来实际的便利和改善。
    考虑到社会性对于人机环境系统智能的安全性和可靠性至关重要。只有系统能够与社会和人类的价值观相一致,并能够理解和适应社会环境,才能更好地为人类服务,避免潜在的危险和问题。

相关报告
  • 《数字经济与人工智能监管 》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    • 在数字经济及平台监管方面,市场监管总局公布《公平竞争审查条例(征求意见稿)》,向社会公众征求意见。北京  互联网法院通过案件审判明确付费会员权益应涵盖至该自然日的全部时间。 在数据安全及个人信息保护方面,工信部就四项有关汽车的强制性国家标准公开征求意见,两项聚焦于汽车数据安全。丰田汽车因人为错误致日本215万用户的车辆数据已被公开十年,面临数据泄露风险。超23.7万名美国政府雇员数据遭泄露。 知识产权保护方面,“同人作品第一案”金庸诉江南案终审宣判,法院认定构成著作权侵权和不正当竞争。AI孙燕姿等火爆平台,引起多种担忧。 目光转向海外。当地时间5月11日,欧盟通过《人工智能法(The AI Act)》提案的谈判授权草案。欧盟委员会近期根据《数字服务法》划定总计19个超大型平台。 数字经济及平台监管 1.市场监管总局公布《公平竞争审查条例(征求意见稿)》      5月12日,市场监管总局官网公布《公平竞争审查条例(征求意见稿)》(以下简称《条例》),通过在行政法规层面作出制度性规定,进一步完善公平竞争审查制度,切实强化竞争政策基础地位,促进加快建设高效规范、公平竞争、充分开放的全国统一大市场,助力构建新发展格局,推动高质量发展。    《条例》为总则、审查内容、审查程序、监督保障、附则五章,共41条。在审查内容方面,《条例》新增对审查内容的总体要求,对市场准入和退出、商品和要素自由流动、影响生产经营成本、影响生产经营行为等四方面审查内容做了进一步完善。同时,《条例》进一步完善了例外规定的适用情形,并优化了适用条件,规定了比例原则,增强针对性和指导性。 审查程序方面,《条例》在以自我审查为主的基础上,在地方层面建立了重大政策措施公平竞争审查会审制度。《条例》规定四种情形,属于规定情形之一的政策措施,政策制定机关在作出公平竞争审查结论后,应当提请本级公平竞争审查工作协调机制办公室开展会审。 2.北京互联网法院:付费会员权益应涵盖至该自然日的全部时间.      近日,北京互联网法院审结了石某诉A公司网络服务合同纠纷一案。双方产生争议的焦点在于会员服务结束的时间应为2021年7月9日20时46分48秒还是该日24时。      法院认为,会员权益应涵盖至该自然日的全部时间。首先,涉案会员服务协议相应条款中关于服务期限届满的计算单位表述为“日”,按照一般理解,“日”应该涵盖该自然日的全部时间。其次,涉案会员服务协议属于格式条款,在存在两种解释时,应按照有利于非格式条款提供方进行理解。此外,被告在其网站的“帮助中心”中对于会员有效期的说明,虽然不是涉案会员服务协议中的内容,但是也具有对相应格式条款进行解释的效果。由于“到期时间”的提示在用户充值成为会员后方可查看,不能视为在合同成立之前已经明确告知用户的内容。综上,被告提前结束向原告提供会员服务的行为构成违约,应承担相应的违约责任。 法院判令被告A公司向原告石某的账号提供VIP会员权益一日,驳回原告石某的其他诉讼请求。目前,该案判决已经生效。 南财点评:该案的亮点主要在于:一是明确了常见的会员平台服务的法律性质和法律效力,在该案中,法院将《VIP会员服务协议》认定为格式条款;二是明确了非以“协议”形式存在的官网说明为服务协议的组成内容;三是明确会员权益届满的计算方式,认定服务协议中的“日”应当涵盖自然日的全部时间。 数据安全及个人信息保护 1.汽车信息安全再添新标:严控智能网联汽车自动驾驶数据记录      近日,工信部就四项有关汽车的强制性国家标准公开征求意见,其中《汽车整车信息安全技术要求(征求意见稿)》与《智能网联汽车自动驾驶数据记录系统(征求意见稿)》两项聚焦于汽车数据安全。    《汽车整车信息安全技术要求(征求意见稿)》提出,应建立包括车辆的开发阶段、生产阶段及后生产阶段在内的车辆全生命周期的汽车信息安全管理体系。该体系涉及企业内部信息安全管理,车辆信息安全风险识别与处理,车辆信息安全测试,监测、响应、上报针对车辆的网络攻击和威胁,以及相关主体之间信息安全依赖关系五个方面的流程。同时,提出车辆不得直接通过车辆自身的数据出境功能或接口向境外传输数据,以避免大批车辆避开管理部门的监管向境外直传数据。    《智能网联汽车自动驾驶数据记录系统(征求意见稿)》对自动驾驶的数据记录、存储、读取等做出了严格规定,要求自动驾驶数据记录系统应记录车辆及自动驾驶数据记录系统基本信息、车辆状态及动态信息、自动驾驶系统运行信息、行车环境信息和驾驶员操作及状态信息五类数据元素。同时,区分了A级和B级车辆数据元素,其中A级数据元素指的是配备自动驾驶数据记录系统的车辆应记录的数据元素;B级数据元素指的是配备自动驾驶数据记录系统的车辆在相关功能处于自动驾驶系统调用的状态时应记录的数据元素。 南财点评:尽管此次出台的征求意见稿体现了多方面的考量与进步,但《汽车整车信息安全技术要求》等文件对与已有的信息安全制度衔接机制尚未明确,如网络安全等级保护、车联网定级备案等制度,如果未来相关制度的衔接机制不明确,可能会导致企业需要就信息安全进行重复建设。 2.丰田汽车:人为错误致日本215万用户车辆数据公开十年 或存数据泄露风险 丰田汽车公司周五表示,由于云环境中的设置错误,日本215万用户的车辆数据已被公开了十年。报道称,这几乎涵盖自2012年以来注册其主要云服务平台的全部客户群。这起事件也影响了其豪华品牌雷克萨斯的客户。丰田公司发言人说,这个问题从2013年11月开始,一直持续到4月中旬,源于人为错误,导致一个云系统被设置为公共的而不是私人的。该公司说,数据可能包括车辆位置和车辆设备的识别号码等细节,但没有关于恶意使用的报告。 3.超过23.7万名美国政府雇员数据遭泄露.     据海外网消息称,当地时间12日,美国交通运输部向国会报告称,该机构超23.7万名联邦雇员的个人信息遭泄露。 此次事件影响11.4万名现任员工和12.3万名前员工,他们都从美国交通运输部领取福利津贴。美国交通运输部表示,事件并未影响任何运输系统,但目前尚不清楚是否有任何个人信息被用于犯罪目的,将展开进一步调查。 知识产权保护 1.  “同人作品案”终审宣判 法院:构成著作权侵权和不正当竞争      近日,广州知识产权法院对“同人作品案”作出终审判决。 2016年,金庸将江南告上法庭起诉《此间的少年》侵权,被誉为“同人作品”第一案。2018年,该案一审判决后原告被告均提起上诉。二审期间,金庸去世,林某怡系其遗产执行人并作为上诉人参加了诉讼。      对于人物名称、人物关系、基本性格特征等元素能否构成作品的部分内容,《此间的少年》是否侵害查良镛作品著作权,是否构成不正当竞争,各执一词,莫衷一是,成为讼争焦点。 二审法院审理认为,认定被诉侵权行为分别构成著作权侵权和不正当竞争,判令被诉侵权作品《此间的少年》作者立即停止不正当竞争行为,并登报声明消除影响,赔偿经济损失168万元及为制止侵权行为的合理开支20万元,北京联合出版公司、北京精典博维公司就其中33万元承担连带赔偿责任。 二审法院考虑到《此间的少年》与《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品在人物名称、性格、关系等元素存在相同或类似,但情节并不相同,且分属不同文学作品类别,读者群有所区分。为满足读者的多元需求,衡平各方利益,促进文化事业的发展繁荣,采取充分切实的全面赔偿或者支付经济补偿等替代性措施的前提下,不判决停止侵权行为。但明确《此间的少年》如需再版,则应向《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品的权利人支付经济补偿。从《此间的少年》所利用的元素在全书中的比重,酌情确定经济补偿按照其再版版税收入的30%支付。 2. AI孙燕姿爆红网络 面临多种侵权风险      一段时间以来,AI孙燕姿爆火网络。在相关平台上,你可以听到AI孙燕姿的各类单曲,比如《我记得》、《发如雪》、《下雨天》等,每天多首发歌频率,得到了广泛的喜爱。值得注意的是,这并不是孙燕姿本人演唱的歌曲,而是在So-VITS-SVC 4.0技术的帮助之下,对孙燕姿的声音数据进行训练得到模型,通过模型推理,最终实现声音替换。 南财点评:AI歌手出现的背后,或涉嫌侵犯歌手本人声音权,以及音乐词、曲作者著作权等。同时,考虑互联网上公开传播,导致任何人都可以在选定时间、地点不受限制的接触,一般会认为超出“必要范围”,相关行为一般不构成合理使用。 海外动态 1.欧洲议会通过关于《人工智能法》提案的谈判授权草案      欧洲议会的官网消息显示,当地时间5月11日,欧洲议会两个关键委员会:内部市场委员会和公民自由委员会,通过《人工智能法(The AI Act)》提案的谈判授权草案。 草案将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。      草案提出了新的保障措施,并禁止各种危险用例,包括禁止在公共场所进行大规模面部识别程序,以及禁止使用预测性警务系统(即AI犯罪预测系统)。草案还要求建立一个公共数据库,记录政府部门部署的“高风险”人工智能系统,公开数据,以便公民能够了解他们将何时以及如何受到这项技术的影响。 这一草案将于6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。欧洲议会声明显示,一旦获得批准,这将成为全世界首部有关人工智能的法规。 2.欧盟数字服务法新动态:划定首批大型平台、成立算法透明中心      近日,欧盟委员会通过了《数字服务法》(Digital Services Act,以下简称“DSA”)下的第一批确定决议,划定总计19个超大型平台,这些平台将履行欧盟规定的一系列义务。 根据《数字服务法》, 在2023 年 2 月 17 日每月活跃用户达到4500万及以上的平台将被认为是大型平台。此次划定了17个超大型在线平台(Very Large Online Platforms,以下简称“VLOP”)和2个超大型在线搜索引擎(Very Large Online Search Engines,以下简称“VLOSE”)。其中VLOP包括:阿里巴巴全球速卖通、亚马逊商店、苹果应用商店、谷歌地图、TikTok、推特、维基百科等,而VLOSE则是必应、谷歌搜索。 在接下来四个月内,这些平台需要履行DSA规定的多项义务。包括发布关于内容审核决策和风险管理的透明度报告;识别、分析和缓解平台的系统性风险等。 南财点评:DSA对超大型平台和搜索引擎提出了更加全面的监管要求,在算法治理方面的要求也更为直接和明确。DSA的落地施行、算法透明度中心以及划定超大型平台体现了欧盟打造人工智能领域规范性力量的野心。当前,人工智能革命的浪涌给算法透明带来了新的影响和挑战,未来,监管、企业侧均应发力实现算法综合治理。
  • 《欧洲的人工智能监管困局与焦虑》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2023-06-09
    •  近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发展的步伐,希望欧盟更加关注不断变化的人工智能技术格局。 1.政策监管出台即过时    欧盟在尝试推动出台人工智能监管政策方面是先行者。2021年,欧盟委员会推出了全球第一个关于人工智能的法律框架——欧盟人工智能法案,希望通过该框架来应对人工智能技术可能带来的风险与挑战。在欧委会设计的框架中,根据应用场景、使用技术等多个方面,人工智能技术被划分为四个不同的风险等级,配有不同的监管要求。    当时的框架设计者们相信,尽管人工智能是一项快速发展的技术,但是欧洲的制度设计足以适应技术变化。但事实似乎并不尽然。仅仅几年间,人工智能技术的发展就让那些规则设计者们感叹欧盟的设计似乎已经过时了。欧盟人工智能法案的主要起草人之一、来自德国的欧洲议会议员阿克塞尔·沃斯指出,人工智能技术在两年前还没有这么先进,而未来两年中还会进一步发展,“如此之快”的发展速度让当时的大部分法律设计在实际生效时可能已经不再适用了。    此次,欧洲议会成员在公开信中要求,欧盟人工智能法案应保证未来人工智能发展本着“以人为本、安全、可信赖”的理念发展,甚至让涵盖整个欧盟市场的监管“可以成为全球不同监管传统和环境中其他监管举措的蓝图”。    引人关注的是,公开信还呼吁欧盟委员会主席冯德莱恩和美国总统拜登举行一次高级别峰会,就“研发、控制和部署非常强大的人工智能的初步管理原则达成一致”。 2.语言模型人工智能引发担忧    欧洲议员们的呼声很大程度上受到时下火爆的语言模型人工智能应用的影响。大型语言模型让人工智能可以进行深度学习和训练,使其不仅可以模仿人类对话,甚至还可以编写和调试代码、创作诗歌和论文。不过,这样的人工智能应用自推出伊始,人们对其技术伦理就纷争不断,各方监管机构也十分关注。    今年2月,参与欧洲人工智能法案讨论的欧洲议员曾提议,人工智能语言模型技术在没有人类监督的情况下生成复杂文本应该被列入“高风险”列表,以阻止这类应用大规模制造虚假信息。    意大利数据保护机构认为,开发语言模型人工智能使用的数据,可能违反了欧洲的通用数据保护条例。意大利数据保护机构要求研发公司必须对用户更加透明地说明数据是如何处理的,如果要将用户的数据用于进一步的软件开发(即帮助人工智能学习),必须获得用户的许可,并且必须设置未成年人的访问权限。西班牙和法国也表示了类似的担忧。    目前,欧洲议会仍在讨论欧盟委员会两年前提出的人工智能法案,尚未确定通过该法案。法案即使在欧洲议会获得批准,仍需欧盟成员国逐一审核通过。有分析认为,该法案可能要到2025年初才能生效。    沃斯议员在接受欧洲媒体采访时表示:“出于竞争原因,也因为欧洲在技术上已经落后,欧洲实际上需要以更多的乐观态度来看待人工智能。但正在发生的情况是,欧洲议会中大多数人都被恐惧和担忧所引导,试图排斥一切。”他说,欧盟成员国有关方面希望设立一个独立机构来监控人工智能技术,并且修改现有的数据保护立法。 3.英国与欧盟不同的监管思路    今年3月,英国政府公布了人工智能监管拟定办法白皮书。英国政府表示,计划在相关部门和领域中迅速采用新的监管框架,未来数月将向金融、市场等行业领域的监管机构提供人工智能监管准则。    英国采取的人工智能监管思路与欧盟提出的监管设计框架截然不同。欧盟试图推出高度规范性指令,针对高风险人工智能系统的研发者和使用者做出具体的技术和机构规定;而英国则有意对人工智能研发和使用采取宽泛的监管原则,实施更为灵活、平衡的监管办法。此外,英国政府希望,由行业监管机构在参考政府的一系列指导原则的基础上,制定具体的监管办法。    未来一年里,英国政府监管机构将面向人工智能研发和应用企业推出更加具体的监管指南,引导后者对人工智能进行风险评估。在此基础上,英国议会再适时开启人工智能立法,以确保监管机构有法可依。    英国政府希望在人工智能领域掌握更多的话语权。英国前财政大臣杰里米·亨特此前在一次演讲中表示,英国在培育人工智能技术方面必须“全速前进”,以保证“赢得这场竞赛”,为新兴技术制定全球标准。2022年亨特就表示要将英国变成“世界的下一个硅谷”,提出为量子计算技术投入数十亿美元,并承诺投资一台新的超级计算机来推动人工智能研究。 4.政府与科技公司的博弈    有业内分析认为,当前欧盟和英国加快对人工智能的监管规则设计,都是希望在规则制定上抢夺话语权,但它们的规则设计都难以在消费者保护、监管、经济和科研的自由发展之间取得平衡。    很多欧盟官员认为,监管机构必须承担更多责任,仅用风险级别来管理人工智能应用程序是远远不够的。欧盟内部市场专员蒂埃里·布雷顿提出,研发人员和科技公司应该监控每个人工智能应用程序的风险,因为科技公司有时无法预测其人工智能产品在第二天可能会做什么,甚至对做了什么感到惊讶。    但是,很多科技公司对部分欧盟监管规则并不满意。2022年欧盟曾推动出台人工智能责任规定,作为对欧盟人工智能法案的补充,以使消费者在因人工智能技术受到伤害时能够更容易起诉技术所属的科技公司。而很多科技公司坚称,这将给欧洲的技术创新带来“寒蝉效应”,科技公司的程序员不仅要为人工智能的程序错误负责,还要为人工智能技术对用户产生的潜在心理健康影响负责,这是一种苛责。    欧洲监管困局的背后,还有欧洲各国在人工智能技术领域失去领先位置后的忧心忡忡。两年前欧盟提出人工智能立法时,布雷顿就表示,欧盟此举不是要赶走人工智能的研发者,而是要鼓励和说服他们留下来。欧盟不应依赖外国供应商,人工智能数据也应在欧盟存储和处理。    沃斯议员的话更是充满焦虑:“如果欧盟规则过于复杂,科技公司就会去其他地方搞人工智能研发。欧盟还不迅速采取行动的话,将成为其他国家的‘数字殖民地’,并有可能最终失去政治和社会的稳定。” .