本调研的目的希望在一定范围内客观呈现不同领域的学者、从业者对是否能够实现,以及是否应当发展强人工智能的不同意见与状况,为开展相关研究和不同背景的学者、公众进一步讨论提供参考。国际上不乏关于通用人工智能、强人工智能的学者、公众调研。扩展相关议题并专门针对中国学者、青年科技工作者和公众调研的观点和声音进行分析与研究,相信会增加对这个问题的理解。调研工作于2021年5至7月开展,彼时“强人工智能”、“通用人工智能”等概念与本报告正式发布时相比还不具有更广泛的认知和讨论,相对更能够反映参与调研者的原本的认识。致谢调研主要参与者为中青年人工智能相关学生、学者,有效问卷1032份。中国科学院自动化研究所人工智能伦理与治理中心、远期人工智能研究中心的相关科研人员参与了调研设计、实施与结果分析。调研过程中通过北京智源人工智能研究院、中国计算机学会、中国人工智能学会、中国自动化学会等渠道邀请63位专家参与,在此对上述机构表示衷心感谢。特别感谢北京大学教授、北京智源人工智能研究院黄铁军院长参与研讨,协助联络学会与专家并对调研的支持。报告发布中文版(及更新版维护地址):
http://braincog.ai/docs/strong-ai-survey-in-china-cn.pdf
英文版(及更新版维护地址):
https://long-term-ai.center/research/f/whether-we-can-and-should-develop-strong-artificial-intelligence
http://braincog.ai/docs/strong-ai-survey-in-china.pdf
一、引言
人工智能是能改变世界的颠覆性技术,人们接受人工智能作为工具为人类服务,并期望人工智能技术持续发展以发挥更大的效用,但持续发展的人工智能技术是否能够或者应该实现强人工智能引发了人们的思考。目前人工智能的进展主要围绕能够完成特定类型智能任务或解决特定类型智能问题的人工智能,无法自动推广至解决其他类型的任务。未来人工智能的重要发展方向即是实现能够自适应地应对外界环境挑战的智能。然而,针对是否需要,以及科学上是否能够实现达到人类水平,发展能完成人类能实现的所有任务的通用人工智能,乃至是发展智能所有方面超越人类的超级智能,仍存在截然不同的观点。为了推进新一代人工智能的有序发展,使人工智能赋能社会进步的同时尽可能避免其中可能存在的风险,我们开展了有关“我们是否能够并有必要实现强人工智能”的专题调研。本次调研,做出如下概念约定:(1) 专用智能:也称弱人工智能(Narrow AI),是指能够完成特定智能任务或解决特定智能问题的人工智能,无法自动推广至实现其他智能。(2) 自主智能:是指能够不同程度自适应地应对外界环境挑战的智能。地球上的动物具备不同水平的自主智能。(3) 自主人工智能:能够自适应地应对外界环境挑战的人工智能。自主人工智能可以类似动物智能,称为(特定)动物水平的自主人工智能,也可以与动物智能无关,称为非生物自主人工智能。(4) 通用人工智能(Artificial General Intelligence):达到人类水平的自主人工智能。在人类智能所有方面都达到人类水平,能够自适应地应对外界环境挑战,完成人类能完成的所有任务的人工智能。亦称人类水平的人工智能(Human Level AI)。(5) 超级智能(Superintelligence):在人类智能所有方面都已经超越人类的通用人工智能。(6) 强人工智能(Strong AI):通用人工智能/人类水平的人工智能和超级智能统称强人工智能。
二、核心观点
通过本次调研与相关调研数据分析,主要得到以下核心观点。1.大多数受访者认为强人工智能能够实现受访者中无论是人工智能从业者还是其他领域人员,大部分人认为强人工智能可以实现。2.受访者普遍认为在2050年以前强人工智能无法实现受访者普遍认为在近10年内还无法实现强人工智能,认为2050年左右实现强人工智能的参与者占比最大。强人工智能实现其次最有可能的时间是2120年之后,特别在拥有人工智能相关学术荣誉的人和专业的人工智能研究人员这两个群体中这个观点更为显著,这与国际上在中国以外的调研结论相比更保守。3.大多数受访者普遍认为应该发展强人工智能受访者中大多数人认为应该发展强人工智能,其中人工智能从业者及自然科学领域人员相较而言要比人文社科领域学者表现出更多支持,人文社科领域学者表现出相对更多迟疑。4.大多数受访者认为人类愿意与强人工智能和谐相处,同时也认为强人工智能可以与人类和谐相处在调研中从两个角度来考虑和谐相处的可能性,一是人类是否愿意与强人工智能和谐相处,另一个是强人工智能是否能与人类和谐相处,从受访者的回应来看,受访者普遍认为无论是人类还是强人工智能都能主动去实现和谐相处。5.大多数受访者普遍认为强人工智能会对人类造成生存风险在公开场合和媒体报道下,各界人士对发展强人工智能的声音并不统一,甚至在相关学术界和产业界为此争论不断。强人工智能对人类造成生存风险是引发争论的核心问题。在调研问卷中,也能体现出受访者对此问题的担忧,大部分受访者认为强人工智能会对人类造成生存风险。6.受访者普遍关注强人工智能带来的伦理问题受访者认为在回答如何发展强人工智能的时候,应该研究和设法解决强人工智能带来的伦理问题。而对伦理问题的担忧是影响是否发展强人工智能的主要原因。7.大多数受访者普遍认可强人工智能会助力人类发展受访者普遍认为强人工智能将带来更高效的生产、更便捷的生活方式。这也是受访者接受和认为应该发展强人工智能,能够实现强人工智能的主要原因。8.人工智能学者和从业者相较于其他领域人员对强人工智能的发展更乐观调研问卷反映出,受访者即使担忧强人工智能可能带来的人类生存风险,但也表现出了对发展强人工智能及实现强人工智能的认可,其中人工智能学者和从业人员的表现更加乐观和积极。
三、调研方法
调研问卷共计13个问题,课题组将调研问卷公开发布,任何人都可以通过手机或电脑在平台上回答该调研问卷。此外,课题组还通过微信朋友圈、好友群等方式将调研问卷进行了共享。本次调研结果及观点呈现不涉任何具体受访者。同时,受访者可以根据个人意愿选择回答全部或部分问题。本次调研自2021年5月18日开始,至2021年7月14日结束。课题组共收集到1049份调研问卷反馈,排除无效调研问卷17份,有效调研问卷作答总计为1032份。受访者人工智能学者占比14.15%,人工智能技术研发人员占比14.73%,其他自然科学领域占比27.33%,人文社科领域学者占比5.33%,其他职业占比38.47%。其中,具有中国人工智能学会、中国计算机学会、中国自动化学会的会士或杰出会员、智源学者等荣誉的受访者63人。
四、调研分析与结论
1.大多数受访者认为强人工智能能够实现能否实现强人工智功能在学术界一直是存在争论的[Vincent 2014, Oren 2016, Toby 2018]。从本次调研数据来看,见图2,绝大多数受访者确信强人工智能够实现,其中在受访的人工智能学者、人工智能技术研发人员群体中确信的所占比例均达到或超过76%,这与人文社科领域学者、其他自然科学领域受访者、和其他职业的受访者并没有明显差异。此外这个结果与[Oren 2016]的调研结果也较为一致(接受调研的80位AAAI会士中75%的人认为通用人工智能可以实现)。虽然受访者普遍认为可以实现强人工智能,但在回答“不能实现强人工智能的理由”时,受访者普遍认为“现有技术无法实现”,一些受访者认为“具有意识或情感是强人工智能的关键,机器或技术无法产生或实现意识或情感”,“强人工智能就是模仿人,而人和人脑的复杂性是技术无法解决的”,“风险隐患、道德伦理、舆论导向等因素”等问题是强人工智能智能不能实现的理由。可见,受访者即使认为强人工智能可以实现,但也给出了影响强人工智能实现的原因。总体而言,认为不能实现强人工智能的理由主要为两个方面,一是技术无法实现,二是因为巨大风险和道德伦理问题而应制约其发展或实现。图2 您认为强人工智能是否能够实现2.大多数受访者普遍认为应该发展强人工智能受访者中普遍认为应该发展强人工智能,见图3,其中,63.64%的人文社科领域学者中认为应该发展,虽然超过半数的人文社科领域学者认为应该发展,但这个数据是所有受访职业中占比最低的。这部分反应出,人文社科领域学者相较于其他领域对发展强人工智能表现出更多负面意见,更担心强人工智能的伦理安全问题。图3 您认为是否应该发展强人工智能?3.大多数受访者认为人类愿意与强人工智能和谐相处,同时也认为强人工智能可以与人类和谐相处调研数据显示:大多数受访者认为人类愿意与强人工智能和谐相处(68.51%)。同时认为强人工智能能够与人类和谐相处的受访者数量也大致相当(68.99%),见图4、5。在受访者中,人文社科领域学者对“人与强人工智能和谐相处”与“强人工智能与人和谐相处”持否定观点的占比相对于其他领域较高。这显示出受访者对:“人与强人工智能和谐相处”与“强人工智能与人和谐相处”的信心相近并相关。部分受访者明确表示二者是否和谐相处的关键在于人类自己。图4 您认为人类是否愿意和强人工智能和谐相处?图5 您认为强人工智能是否能与人类和谐相处?4.大多数受访者认为强人工智能会对人类造成生存风险一直以来,社会各界人士对发展强人工智能的声音并不统一,学术界、产业界、公众为此争论不断,各抒己见。强人工智能是否会对人类造成生存风险是引发争论的核心问题。如图6所示:在调研问卷中,也能体现出受访者对此问题的担忧,大部分受访者认为强人工智能是会对人类造成生存风险。相对而言,非人工智能领域受访者比人工智能领域受访者对此确信的占比相对更高,显示出更多担忧。 图6 您认为强人工智能是否对人类造成生存风险?5.认为在2050年左右实现强人工智能的人最多,约90%参与者选择“2120年之后”及其之前的时间节点见图7,受访者普遍认为强人工智能可以实现,并且在2050年以后的可能性会更大(2050年这个选项拥有最多的选择者,人文社科领域和其他领域的参与者尤为倾向此选项)。强人工智能实现其次最有可能的时间是2120年之后(选择2120年之后能够实现的参与者总量占比%),特别在拥有人工智能相关学术荣誉的人和专业的人工智能研究人员这两个群体中这个观点更为显著,将结果叠加可得:关于实现强人工智能的时间,所有受访者中89.08%选择了包括“2120年之后”及之前的时间点,而人工智能学者及研发人员对应的数据为87.88%。这与国际上在中国以外的调研结论相比略延后(如在[Toby 2018]的调研中的结果显示:90%的人工智能学者认为这个时间约为2109年,自动化与机器人的学者90%倾向于2118年)。这说明中国学者比国外学者在强人工智能实现的时间上表现相对更为保守。调研数据显示,在认为永远无法实现强人工智能的受访者中,人工智能学者、人工智能技术研发人员和其他自然科学领域的占比人文社科领域学者和其他职业多。这反应出小部分从事人工智能、计算机科学的科研、产业人员而言,认为当前人工智能技术离实现强人工智能有难以逾越的鸿沟。图7 强人工智能预计大致会发生在哪个时间?6.获得学术荣誉的受访者超过半数认为2030年之前一定水平的自主人工智能可以实现获得学术荣誉的受访者中认为2030年之前自主人工智能不能实现的占27.42%,认为在2030年之前自主人工智能至多达到果蝇的占20.97%,达到鼠的占16.13%、达到狨猴的占8.06%、达到斑马鱼的占8.06%、达到线虫的占8.06%,达到人的占4.84%,认为永远不可能的占6.45%。见图8。图8 获得学术荣誉的受访者预计2030年之前自主人工智能能够至多达到哪种动物的水平7.获得学术荣誉的受访者多数认为强人工智能能够实现如图9所示,80.65%的获得学术荣誉受访者认为强人工智能能够实现。而其余具有学术荣誉的受访者认为存在困难甚至不可能。给出的理由是“人类智能的形成机制不是当前科学研究方法论能研制出来的”,“计算机学科的基础尚未发生根本变革,目前还仅为数理逻辑,不能体现人类社会的概率特征。此外,自然环境与人类的相互作用也会导致人类不断的进步,这些都不是强人工智能所能体现的。”72.13%的获得学术荣誉受访者认为强人工智能对人类造成生存风险(全部参与者的数据为:68.41%受访者认为强人工智能对人类造成生存风险),他们认为:强人工智能存在挑战人类的可能性甚至毁灭人类,理由是“缺少可信方面的保证,发展出自我意识和具备自作主张能力,人类无法约束其行为,与人类抢夺资源,攻击和其理念不一致的人类,其生命是无限的,不可预计和更多未知性”。79.03%的获得学术荣誉受访者认为应该发展强人工智能(全部参与者的数据:77.13%受访者认为应该发展强人工智能)。理由是“自主扩大人类智力,代替人完成高级智力工作,代替人从事更高更精细更缜密的工作,极大的提高生产力和效率,减少人类工作负担,更好的辅助人类、服务人类;帮助人类防范自然灾害,实现人类完美认识和超越自我,提升人类生存发展整体能力,助推人类面向未来星辰大海。”获得学术荣誉受访者69.35%认为“强人工智能与人类和谐相处”,75.81%认为“人类愿意与强人工智能和谐相处”(全部参与者的数据:68.51%的受访者认为强人工智能可以与人类和谐相处,68.99%的受访者认为人类愿意和强人工智能和谐相处)。值得注意的是获得学术荣誉的受访者对于“人类愿意与强人工智能和谐相处”的意见较为明显高于本次调研受访者的平均水平。 图9 获得学术荣誉的受访者回答8.受访者普遍关注强人工智能带来的伦理问题问卷调研通过主观回答的方式提出了“您认为强人工智能有哪些风险?”的问题,从问卷回答来看。表达“担忧强人工智能不可控、不受控而引发的一些列问题”的观点最多,因为“不可控、不受控”所以担忧“挑战人类”、“无法管制”,甚至“毁灭人类”的受访者也不在少数。大部分受访者担忧“强人工智能会带来失业问题”,“扩大贫富差距”,“引发不公平”,部分受访者担忧出现“对抗人类”,“控制、奴役、统治人类”,“取代人类”,“机器暴政”等观点。从这些观点中,我们可以发现,受访者普遍担忧强人工智能带来的伦理问题,即使是同意发展强人工智能的受访者也会对此担忧。这些伦理问题的集中在强人工智能是否安全可控,是否会“挑战人类,损害人类的权力”,甚至“毁灭人类”。9.大多数受访者从积极的一面回应了强人工智能助力人类发展问卷调研中我们提出了“您认为强人工智能有哪些益处?”的问题。73.06%的受访者从积极的方面回应了强人工智能带来的益处,3.97%的受访者则认为“强人工智能没有益处”或“并不能清楚会有什么益处”以及“强人工智能带来的是弊大于利”,还有22.97%的受访者放弃了回答。从问卷回答来看,表达了“代替(或增强)人类能力(脑力劳动、重复工作、组织协调等)和智能化、自动化更加全面,从而极大的提高生产力”的观点最多。表达出“生活更加便利”、“弥补人类不足”、“从事危险的工作”、“探索未知的领域”等观点也较为显著,不少受访者表达了“推动科技、经济、社会、人类的发展,人类更自由、解放人类”等观点,也有少数受访者表达“强人工智能会让人类更懒惰”的担忧。个别受访者表达了认为“没有益处”,“强人工智能带来的益处通过其他方式也可以实现”。从这些回答中可以看出:绝大多数受访者认可强人工智能为人类带来益处,这是受访者接受和认为应该发展强人工智能的主要原因。总之,大多数受访者积极的回答了强人工智能带来的益处,这可以认为是这些受访者接受和认为应该发展强人工智能的主要原因的组成。但我们也要看到,小部分受访者非常明确的表示了抵制,认为强人工智能是弊大于利,甚至是没有益处。10.人工智能学者和从业者相较于其他领域人员对强人工智能的发展更乐观问卷调研反映出,受访者即使担忧强人工智能可能带来的人类生存风险,但也表现出了对发展强人工智能及实现强人工智能的认可,其中人工智能学者和从业人员、具有学术荣誉的受访者的表现更加乐观和积极。
五、结语与建议
中外学术界和科技产业界对强人工智能的未来表达的看法主要表现是在认可发展的前提下谨慎地担忧[Catherine 2017, Catherine 2019],如“人工智能将对人类造成威胁” [Miriam 2014, Elizabeth 2015],以及“人工智能武器对人类的威胁” [Elizabeth 2015, Catherine 2019]。这些不同的观点也进一步印证了社会各界对人工智能未来有担忧,也有期待。在问卷调研中,获得学术荣誉的受访者中有部分人从技术现状出发认为现在还没有掌握实现强人工智能的技术,他们认为“很多基础问题以及计算框架都没有解决”;“到目前为止,人类对人的智能的本质知之甚少,生物学基础和认知学基础还远未建立,当前的计算机原理与生物的差异太大”;“人类智能的形成机制不是当前科学研究方法论能研制出来的”;“计算机学科的基础尚未发生根本变革,目前还仅为数理逻辑,不能体现人类社会的概率特征,此外,自然环境与人类的相互作用也会导致人类不断的进步,这些都不是强人工智能所能体现的”。我们认为:虽然当前人工智能技术还不足以实现强人工智能,但对强人工智能可能带来的伦理问题仍需要我们尽早研究和积极应对,因为能够解决这些问题的方法并不能保证在强人工智能到来之前提出和做好充分准备。对强人工智能伦理问题的探讨和研究不限于人工智能的学者和从业者、人文科学的工作者,由于这个问题关乎人类的未来,因此还需要全社会的参与。人工智能产学研界要具备交叉学科的视角,保持对人工智能技术未来的思考、实践和前瞻性的把握。在强人工智能还没有实现的时候就对其开展伦理研究并不是杞人忧天,要时刻保持强人工智能向着安全、可控、可信的方向发展,强人工智能不应也不能成为人类的威胁。基于调研可以反映出:社会各界对强人工智能既有期待,也有担忧。调研的数据显示多数人认为应该发展强人工智能,并判断在未来可以实现强人工智能,但也对强人工智能带来的伦理问题表示担忧。虽然也有学者和社会人士警告强人工智能是危险的,认为不该发展强人工智能,而且不少学者认为现有的技术方法还不足以实现人类智能,但更多人相信强人工智能未来可期。阻止强人工智能的发展并不符合调研中多数人的观点,人们期盼强人工智能带来的益处。我们在正视强人工智能对人类的意义的同时,不能也不该忽视强人工智能带来的风险。人工智能产学研界应心怀善念,以科技向善为目标,深入研究和积极应对强人工智能发展带来的风险,要重视未来可能出现的问题和伦理影响,强人工智能的发展与全人类的命运息息相关。世界各国不应将强人工智能用于武器等暴力行为,强人工智能不应成为持强凌弱的工具,而应赋能全球和谐共生与可持续发展的实现。无论是从科学技术还是从人文方面的准备,当下我们都不能准确的判断强人工智能的未来,但我们要时刻提醒自己发展强人工智能的目的及可能面临的风险,高度重视应对强人工智能伦理问题,并对可能到来的风险提早做好前沿探索与准备。
参考文献
[Vincent 2014] V. C. Müller, N. Bostrom. Future progress in artificial intelligence: A survey of expert opinion. Fundamental Issues of Artificial Intelligence, V. C. Müller, Ed., Berlin, Germany: Springer, pp. 555–572, 2014.
[Toby 2018] Toby Walsh. Expert and Non-expert Opinion About Technological Unemployment. International Journal of Automation and Computing. 2018.
[Oren 2016] Oren Etzioni. No, the experts don′t think super intelligent AI is a threat to humanity. MIT Technology Review, Massachusetts Institute of Technology, Ed., Cambridge, MA, USA: Massachusetts Institute of Technology, 2016.
[Catherine 2017] Catherine Clifford. Facebook CEO Mark Zuckerberg: Elon Musk’s doomsday AI predictions are ‘pretty irresponsible’. July 24th, 2017. https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html
[Catherine 2019] Catherine Clifford. Bill Gates: A.I. is like nuclear energy — ‘both promising and dangerous’. March 26th, 2019. https://www.cnbc.com/2019/03/26/bill-gates-artificial-intelligence-both-promising-and-dangerous.html
[Elizabeth 2015] Elizabeth Peterson. Stephen Hawking on Reddit: Ask Him a Question on Artificial Intelligence. July 28, 2015. https://www.livescience.com/51668-stephen-hawking-reddit-ama.html
[Miriam 2014] Miriam Kramer. Elon Musk: Artificial Intelligence Is Humanity's 'Biggest Existential Threat'. October 28, 2014. https://www.livescience.com/48481-elon-musk-artificial-intelligence-threat.html智能的本质与未来人类智能、人工智能的科学、哲学与伦理研究进展与观点。33篇原创内容公众号