2024年8月16日,联合国教科文组织(UNESCO)发布《全球9大新兴的人工智能监管方法》,报告探讨了全球立法机构正在审议的关于人工智能的不同监管方法。
1、基于原则的方法
基于原则的方法为利益相关者提供了一套基本原则,为通过合乎道德、以人为本和尊重人权的程序开发和使用人工智能系统提供指导。例如联合国教科文组织的《人工智能伦理问题建议书》和联合国经济合作与发展组织(OECD)的《人工智能原则》。基于原则的方法并不对公共机构、私人组织或个人规定具体的义务或限制,也不规定不遵守的后果。法律主体可自行判断如何根据原则调整自己的行为。然而,基于原则的方法可以与其他规定了具体的义务和权利的监管方法相结合。
2、基于标准的方法
基于标准的方法将国家的监管权力下放给标准制定机构,这些机构可以是公共、私营或混合机构。这种方法使专业和行业组织可直接或间接参与制定有关程序和活动的技术标准。人工智能标准中心(AI Standards Hub)已经确定了近300项人工智能相关标准,这些标准涉及众多领域,如人工智能采购、人权、以人为本的设计、人工智能的发展和应用。
3、基于实验主义的方法
在电信和金融等不同经济部门以及数据保护、隐私法和公共采购等横向立法中,已采用灵活制定的监管方法。监管沙盒(Regulatory Sandboxes)的主要目标是为公共和私营组织创造测试新商业模式的空间。最近,这种方法也被用于人工智能监管。如欧盟的《人工智能法案》,该法案建立了人工智能监管沙盒的创建框架。此外,英国的《支持创新的人工智能监管方法》提案还包括开发沙盒和测试平台。
4、基于促进和扶持的方法
基于促进和扶持的方法旨在促进和营造一种环境,鼓励私营和公共部门开发和使用负责任的、符合道德和人权的人工智能系统。例如,在这方面,联合国教科文组织制定了准备情况评估方法(RAM),旨在帮助各国了解自己在为其所有公民实施人工智能方面的准备程度,并在此过程中强调需要进行哪些体制和监管变革。
5、基于调整现有法律的方法规则
一些地区倾向于调整特定部门的规则(如卫生、金融、教育、司法)和横向规则(如刑法、数据保护法、劳动法),而不是发布人工智能法案。这种方法的一个潜在好处是,它允许立法者根据他们对人工智能的了解,讨论并逐步改进监管框架。
6、基于信息透明度的方法
要使用这一方法,需采用透明披露的基本信息。披露信息的范围可包括人工智能系统生命周期的各个方面,包括模型是如何开发的、使用了哪些数据对其进行训练、系统如何运行、系统的性能、系统对其支持的程序有哪些影响、人们如何对根据系统输入信息做出的决定进行质疑等等。
7、基于风险的方法
基于风险的方法旨在根据各方对监管机构实现其目标所带来的风险的评估,确定监管行动的优先次序。这种监管方法已在不同部门实施,包括环境部门、税收部门、食品安全部门和消费者保护部门。基于风险的方法侧重于预防问题和控制与使用人工智能系统相关的风险。因此,其目的是根据不同类型的人工智能系统所造成的风险程度来调整法规的义务或要求。该方法根据风险水平,确定目标的优先次序,区分风险类型,并选择干预措施。
8、基于权利的方法
基于权利的方法旨在确保人工智能法规保护个人的权利和自由,强调人权。这种方法假定,市场失灵不是监管的唯一理由,监管的合理性在于保护权利、促进分配公正和推进社会目标。基于权利的方法制定了强制性规则,以保证在人工智能系统的生命周期内尊重、保护和促进权利,包括人权和其他经济或社会权利。
9、基于责任的方法
这种方法旨在规定强制性行为标准以刑事、行政或民事责任为后盾。在这种监管方法中,法律的力量被用来禁止某些形式的行为,要求采取某些积极行动,或规定进入某个行业的条件。例如,欧盟的《人工智能法案》规定了适用于违反该法规的处罚措施。此外,欧洲议会正在审议关于人工智能造成伤害的民事责任新规定的提案。