随着人工智能这一新兴技术的快速发展,全球范围内的相关讨论也日益热烈。本文选择了卡内基国际和平基金会和兰德公司的两篇智库文章,从其他相似技术发展领域,如技术、互联网、加密产品和基因工程的治理历史路径入手,分析其中的成功经验,为人工智能治理提供更多的思路。
卡内基国际和平基金会:将人工智能讨论引入高级别核对话的风险
首先,作者陈述了上个月核政策制定者和专家为审查《不扩散核武器条约》执行情况的重要会议所做的准备。其次,作者进一步指出,在外交层面将AI注入核政策讨论可能存在潜在陷阱,引入AI的复杂性可能会分散对其他关键核政策问题的注意力,甚至可能以一种进一步加深外交障碍的方式与未解决的分歧领域联系起来。在论坛选择方面,虽然理论上利用AI讨论来克服其他外交障碍非常吸引人,但它引发了一些实际问题;在话题选择方面,增强讨论内容的具体性将会提高新论坛的生产力;在参与者方面,尽管一些核政策专家和外交官可能对AI有深入的了解,但这并不是参加核安全论坛的先决条件。此外,作者指出,鉴于AI和核武器交汇处的无数风险,这两个问题的交汇点当然值得在某些国际论坛上进行深思熟虑的讨论。
兰德公司:核技术等技术治理经验为人工智能治理路径提供了“他山之石”
首先,作者强调了人工智能(Artificial Intelligence, AI)治理具有紧迫性,多方利益相关者愈加关注人工智能潜在福祉和风险治理。其次,作者为了更好地制定AI治理地方案,分别梳理了核技术、互联网、加密产品和基因工程所对应的治理路径。就核技术而言,对于核技术扩散的担忧是推动核技术的治理机制演变的动力;就互联网治理而言,其采用了由私营部门主导、公私部门相互合作的治理模式,政府为治理提供资金并促进技术的发展,而私营部门则为治理的具体实践者;就加密产品而言,其代表了学术界和私营部门与国家和公共部门由达成共识到分歧凸显的负面治理案例,加密产品的治理模式经历了由公私部门达成共同规范到规范分异的历程;就基因工程而言,其采用的以私营部门和社会部门为主体、通过设置和开展国际会议,并创造性的发展“暂停”措施的治理模式被广泛视为在面对不确定风险时成功的技术治理案例。第三,作者指出了这四种新兴技术与AI的相似之处,并指出最有效的AI治理方法将取决于未来的特征。最后,作者根据人工智能治理可能出现的三类场境提出治理建议。