11月26日,人工智能技术全球领先的两家企业Mila和CEIMIA发布了迄今为止关于人工智能领域性别平等和多样性的最全面的战略报告。该报告题为“迈向人工智能的实质性平等:促进性别平等和多样性的变革性人工智能政策”,旨在使各国和其他利益相关者能够创建包容、公平和公正的人工智能生态系统,并提供战略性建议,以改善人工智能和相关政策制定中的性别平等和多样性。
人工智能的快速发展正在改变产业、拉动经济增长。它具有改善全世界生活和生计的巨大潜力。然而,它反映和强化了社会偏见、歧视和危险的陈规定型观念,特别是影响妇女和其他历史上边缘化群体的偏见、歧视和危险的陈规定型观念,因此有可能加剧现有的不平等现象。已经有记录的案例表明人工智能系统和流程导致未经同意的个人图像传播和在线骚扰。人工智能生态系统多样性的缺乏也会通过排除不同的观点而强化危险的刻板印象和歧视。这导致边缘群体的就业机会有限,以及残疾人的资源分配不公平。
“这份报告至关重要,因为这些建议解决了不平等的根本原因,以实现人工智能及其他领域的实质性平等。蒙特雷科技大学教授、哈佛大学伯克曼克莱因互联网与社会中心教员、资深教授保拉·里考特·基贾诺 (Paola Ricaurte Quijiano) 表示:“当通过人工智能开发和政策的变革实现这一目标时,人权将会得到改善。”“我们必须建立一个强有力的监管框架,以防止有害影响并确保人工智能系统和流程的有益发展。”
主要建议分为四类:
激励包容性设计和民主创新:整合平权行动和制度包容性政策。此外,支持包容性技术的发展。
促进有意义地参与人工智能治理:促进并确保边缘群体积极参与人工智能治理,以确保为所有人提供更好的人工智能政策。
确保伤害预防的透明度和问责制:为所有人工智能参与者建立保障和问责机制,以减轻潜在威胁并确保公平。
确保有效诉诸司法:采取措施确保边缘化群体能够针对与人工智能相关的歧视和偏见获得补救。
例如,报告建议将资金分配给以包容性技术设计原则为指导并促进人工智能生态系统中公平应用、实践和流程的举措。这些建议还包括制定战略,使公共和私营部门能够在部署人工智能系统之前进行基本权利影响评估。其他例子包括确保算法透明度,以便受人工智能系统负面影响的人可以在清晰易懂的信息的基础上质疑其结果,并减轻原告的举证负担,以确保获得人工智能补救措施,以改善受控歧视和偏见。
Mila 政策、安全和全球事务副总裁、《人工智能》一书的合著者本杰明·普鲁德霍姆 (Benjamin Prud'homme ) 补充道:“迫切需要强有力的监管框架来防止伤害,并努力实现人工智能生态系统真正的平等和多样性,最终促进人类的生活。”报告补充道:“通过包容性人工智能政策,我们可以提高人工智能系统的质量、可用性和有效性,为所有人创造更公平、更可持续和更美好的未来。”
为了补充该报告,CEIMIA 和 Mila 正在发布一份指南,以帮助政策制定者实施这些建议。本指南提供了构建更具包容性的人工智能生态系统的分步路线图,以及促进行业转型升级的可行步骤。