近日,世界上第一部关于人工智能的全面法规欧盟《人工智能法案》(AI法案)生效。《人工智能法案》旨在确保欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。该法规旨在在欧盟建立一个统一的人工智能内部市场,鼓励采用这项技术,并为创新和投资创造一个支持性的环境。
《人工智能法案》基于欧盟的产品安全和基于风险的方法,引入了人工智能的前瞻性定义。风险分为四类,风险等级越高,管控越严格:
·最小风险:大多数人工智能系统,如支持人工智能的推荐系统和垃圾邮件过滤器,都属于这一类。由于对公民权利和安全的风险很小,这些系统在《人工智能法》下没有义务。公司可以自愿采用额外的行为准则。
·特定的透明度风险:像聊天机器人这样的人工智能系统必须向用户明确披露他们正在与机器交互。某些人工智能生成的内容,包括深度伪造的内容,必须这样标记,当使用生物特征分类或情感识别系统时,需要通知用户。此外,提供商必须以一种方式设计系统,即合成音频、视频、文本和图像内容以机器可读格式标记,并可检测为人工生成或操纵。
·高风险:被确定为高风险的人工智能系统将需要遵守严格的要求,包括风险缓解系统、高质量的数据集、活动记录、详细的文档、清晰的用户信息、人工监督以及高水平的稳健性、准确性和网络安全性。监管沙盒将促进负责任的创新和合规人工智能系统的开发。这种高风险的人工智能系统包括用于招聘、评估某人是否有权获得贷款或运行自主机器人的人工智能。
·不可接受的风险:被认为对人们的基本权利构成明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用程序,例如使用语音辅助鼓励未成年人危险行为的玩具,允许政府或公司进行“社会评分”的系统,以及预测性警务的某些应用程序。此外,生物识别系统的一些用途将被禁止,例如在工作场所使用的情绪识别系统,以及在公共场所为执法目的对人员进行分类或实时远程生物识别的一些系统(少数例外)。
为了补充这一系统,《人工智能法案》还引入了所谓的通用人工智能模型的规则,这些模型是功能强大的人工智能模型,旨在执行各种任务,如生成类人文本。通用人工智能模型越来越多地被用作人工智能应用程序的组件。《人工智能法案》将确保价值链的透明度,并解决最有能力的模型可能存在的系统性风险。