《神经科学会成为人工智能“超进化”的关键吗》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2019-03-20
  • 人工智能会取代人类吗?这个问题一度引发全民热议。虽然目前人工智能正在快速提“智”,但是这不代表它真的很聪明。相反,很多时候它还很傻很天真,仍然需要向人脑学习。 近日,以色列魏茨曼科学研究学院计算机科学系教授希蒙·厄尔曼发文表示,相信神经科学能为人工智能发展提供进一步的助力。那么,人工智能和神经科学究竟有什么关系?神经科学到底如何进一步助力人工智能发展?深度融合神经科学的人工智能将发生哪些变化? 神经科学和人工智能本属同源 谈到人工智能和神经科学之间的关系,中国科学院上海生命科学研究院副研究员王小理用两句话来概括:同源分流、学科独立;交叉融合、分久必合。 最初,人工智能与神经科学是两门各自独立的学科,有着不太一样的研究对象、研究方法体系。从学科起源的时间原点来看,人工智能学科以1956年美国达特茅斯学院夏季讨论班为缘起;而神经科学诞生的标志可以回溯到1891年的神经元学说。这样看神经科学算是人工智能学科的“前辈”。 神经科学更多地侧重于生物学意义上的神经活动的规律,解析包括思维、情感、智能等在内的高级神经活动的发生机制,而意识起源问题,则是神经科学的终极目标,研究方法上神经科学是以自然现象归纳为主的“实验科学”。而人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究对象不是智能而是智能操控,现阶段研究方法上是侧重于对复杂现象进行模拟仿真的“计算科学”。 “但可以将神经科学和人工智能的关系简单理解为源和流。”王小理告诉科技日报记者,人工智能的兴起和发展离不开神经科学成果的滋养。 正如希蒙·厄尔曼文章所述,早期人工智能领域的科学家将生物神经系统作为参照对象,创造出了近年来盛行的“深度网络”脑启发架构,这是一个非常鲜明的“源流”案例,也一直为神经科学家和人工智能领域科学家所津津乐道。但有些人工智能领域的专家,认为深度网络前期是仿脑,后期发展了独立的方法,因此认为,人工智能有自己的方法体系,基本可以抛开脑科学。这样的观点其实是值得深入讨论的。 中国科学院神经科学研究所蒲慕明院士曾向记者表示,近年来,脑与神经科学、认知科学的进展使得人们在脑区、神经微环路、神经元等不同尺度观测的各种认知任务中,获取脑组织的部分活动数据已成为可能,获知人脑信息处理过程不再仅凭猜测,通过多学科交叉和实验研究获得的人脑工作机制更具可靠性。因此,脑科学有望为机器学习、类脑计算的突破提供借鉴。 但是,人工智能对神经科学发展的反哺或反馈作用也是客观存在的。在神经科学基础研究阶段,人工智能可以辅助研究人员解析复杂的脑神经信号、脑神经图谱实验数据,构建和模拟大脑模型系统等。在转化应用阶段,人工智能还能加速脑科学成果的应用,例如大脑疾病诊断与新疗法成果的临床转化等。 打开人工智能“黑箱”的几条通路 事实上,没有神经科学大的理论突破,没有对智能生物本原的认识,人工智能中的“智能”概念很可能就一直是个“黑箱”,而智能模拟与扩展就可能一直在“外围”打转。比如,美国国家工程院《21世纪人类面临的14大科技挑战》报告就认为,人工智能目前存在的部分问题是源于设计中并没有充分考虑真实的大脑情况。而通过对人脑的逆向工程来揭示大脑的秘密,可以更好地设计出能同时处理多重信息流的计算设备。 目前神经科学在助力人工智能发展上有几条通路。王小理介绍,具体路径上,可以延续认知经验主义思路的人工智能发展方向。例如,对于人工智能而言,目前总是用一个特定的任务去训练它,而忽略了它接触其他事物的过程。如果给智能体一个类似成长环境和成长过程,是不是会让它更智能呢?人类的智慧是建立在沟通之上的,目前的人工智能体还没有自主沟通能力, 这也是目前的人工智能水平与强人工智能的差距所在,也是未来的发展方向。 但也可能,希蒙·厄尔曼提出的借鉴人类先天认知系统更具有意义。深入理解大脑的原始能力,从而实现高级的机器逻辑能力。人类具备学习如何学习的能力,如果让智能体学习如何学习,那么这种二阶学习的关系也许会让它学得更快,如果未来智能体有了想象力和计划能力,那么它也许真的可以创造出一些我们人类很难创造出的东西。 此外,神经科学助力人工智能,在人工智能重大技术领域也有几个方向。例如,构建统计关联与特征关联相结合的新型学习理论,实现“知识驱动”与“语义驱动”关联统一;构建融合深度学习与强化学习、演化计算、主动学习、毕生学习等仿生和自然计算理论的新型理论框架;实现大规模并行神经网络、进化算法和其他复杂理论计算;具有自主学习能力的通用性人工智能系统等。 未来两者深度融合大有可为 那么,深度融合神经科学的人工智能将会发生什么变化呢? 对此,王小理认为,目前神经科学与人工智能的融合,只占生物大脑计算原理的冰山一角。准确预见未来人工智能将如何发展很难,但如果洞察神经科学、人工智能的学科发展规律和人类经济社会发展大趋势,粗略勾勒未来发展阶段还是可能的,这对于找准创新突破口,明确创新主攻方向非常关键。这也是包括我国在内开展相关脑科学预测和技术预见的初衷之一。 从当前到2025年,神经科学继续保持高速发展态势,但颠覆性的理论成果还不多,在这一时期,人工智能和大数据技术是神经科学发展的“加速器”。而到2030—2035年,神经科学将迎来第一轮重大突破,在神经感知和神经认知理解方面出现颠覆性成果,从而反哺、革新人工智能的原有算法基础和元器件基础,人类社会进入实质性类脑智能研究阶段。 到2050年,神经科学将迎来第二轮重大突破,在情感、意识理解方面出现颠覆性成果,开发出一个多尺度、整合、可验证的大脑模型理论,类脑智能进入升级版,并将推动人脑的超生物进化,神经科学和类脑智能学科融为一体,人类社会全面进入强人工智能时代。当然,围绕神经科学和人工智能特别是强人工智能,还有许多科学理论和社会与伦理方面的问题。 “我们相信,未来神经科学领域大有可为、未来神经科学与人工智能融合大有可为。”王小理说,从人类科技文明长河来看,神经科学和人工智能是同一枚硬币的两个面,虽然相互独立,但都有共同的指向:为人类的生存和意识演化提供新可能。

相关报告
  • 《脑启发设计:人工智能的进化之路》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2024-07-08
    • 作者:微软亚洲研究院 编者按:你可以用左手(不常用的那只手)的小指与食指拿起一件物品么?         试完你是不是发现自己竟然可以毫不费力地用自己不常用的手中,两根使用频率相对较低的手指,做一个不常做的动作。这就是人类大脑不可思议之处——无需经过特别的训练,大脑就能够在短时间内以低功耗的方式控制身体完成各种复杂行为,甚至是全新的动作。相比之下,人工智能虽然是人类智慧的产物,但在很多方面还远不及人类大脑。 为此,微软亚洲研究院(上海)团队的研究员们从理解大脑结构与活动中获得灵感,开发了一系列涵盖大脑学习、计算过程不同层级的创新技术,包括模仿脑神经回路连接方式,可高效处理众多任务的 CircuitNet 神经回路网络;可应用于时间序列预测,更适配神经拟态芯片的新型 SNN(脉冲神经网络)框架和策略;以及可为具身智能提供理论指导的贝叶斯行为框架。这些探索为未来的人工智能技术发展提供了新的可能。         从能耗的角度来看,人类大脑只需要大约20瓦的功率即可维持运转,这约等于一个节能灯泡的功耗。但随着人工智能大模型参数和规模的增大,其能源需求远高于传统的数据中心。主流的大语言模型训练过程预计会消耗上千兆瓦的电力,相当于数百个家庭一年的用电量。这种能源消耗的增长趋势显然不利于人工智能技术的可持续发展。那么如何通过新的处理机制解决能耗问题,就成了信息科学领域一个紧迫且前沿的挑战。《千脑智能》一书为我们提供了启示:“要创造出真正智能的机器,我们首先需要对大脑进行逆向工程。我们研究大脑,不仅是为了理解它的工作原理,更是为了探索智能的本质。”其实,人工智能本身就是人类对大脑探索的产物,在计算机诞生之初,人们就已经利用神经连接模式+数字计算的方式模拟大脑。但受限于当时的算力和人们对大脑粗浅的认知,人工智能发展非常缓慢,甚至一度被束之高阁。             近几十年来,随着神经科学家对大脑结构的深入理解和计算资源及相关技术的增强,以脑启发为核心的“人工智能文艺复兴”也掀起了新一轮热潮,促使科研人员重新定位大脑机制对人工智能的作用。来自微软亚洲研究院(上海)的研究员们跨越计算机和脑科学专业知识,深入理解大脑的结构与行为活动,针对大脑学习和计算过程,从神经元、网络层和更高级别的系统层出发,分别设计研发了高性能的脉冲神经网络(SNN)、参数效率更高的回路神经网络(CircuitNet),以及提升决策效率的贝叶斯行为框架,促进了人工智能网络向着更低功耗、更高效率、更好性能的方向良性发展,同时也为具身智能发展提供了理论和方法。 CircuitNet:模拟大脑神经元连接,实现更低功耗与更高性能         人工神经网络(ANN)已经被广泛应用于人工智能的众多领域,包括自然语言处理、机器学习、语音识别和控制系统等。这些应用的成功,很大程度上得益于它们对大脑神经元工作模式的模仿。神经元是大脑最基本的单元,它们之间通过复杂的连接模式相互作用来传递和处理信息。但早期的人工神经网络设计相对简单,仅能模拟一两种连接模式。 随着神经科学的发展,人们发现大脑神经元的连接方式多种多样,其中有四种常见模式:前馈激励和抑制、反馈抑制、侧抑制和相互抑制。然而,现有的许多人工神经网络,如具有残差连接的网络,只能模拟前馈激励和抑制模式。即便是能够模拟循环模式的递归神经网络(RNN),在信息传入前也无法处理上游神经元间的复杂相互作用,从而影响了神经网络在不同机器学习任务中的表现。         生物神经网络与人工神经网络的整体连接模式也大不相同。生物神经网络的一个显著特点是局部密集连接与全局稀疏连接的结合。尽管单个神经元可以有数千个突触,但它们大多数位于一个脑区内,形成针对特定任务的功能集群。只有少数突触作为不同脑区之间的桥梁,延伸到其它功能集群,而人工神经网络通常不具备这样的特性。此外,人工神经网络中的许多参数也被证实是冗余的,增加了网络的复杂性。基于对大脑神经连接的新理解,研究员们提出了新的回路神经网络 CircuitNet,它能够模拟包括反馈和侧向模式在内的多种神经元连接模式。CircuitNet 的设计还借鉴了大脑神经元局部密集和全局稀疏连接的特性,通过不同电路模式单元(Circuit Motif Unit, CMU)的输入端和输出端的稀疏连接,实现了信号在不同 CMU 之间的多轮传输。实验结果表明,CircuitNet 在函数逼近、强化学习、图像分类和时间序列预测等任务中的表现超越了当前流行的神经网络架构。而且,在各种类型的任务中,CircuitNet 在达到与其它神经网络相同性能的同时,具有相当或更少的参数,展示了其在机器学习任务中的有效性和强大的泛化能力。 CircuitNet: A Generic Neural Network to Realize Universal Circuit Motif Modeling https://openreview.net/pdf?id=Fl9q5z40e3 让SNN网络更适用于时间序列预测任务的新框架         脉冲神经网络(SNN)因其能效高、事件驱动范式和生物学上的合理性,正逐渐受到业内的重视。SNN 的设计灵感来源于生物神经网络中神经元间的信息传递方式——神经元不是在每次迭代传播中都被激活,只有膜电位达到特定阈值时才被激活,进行信号传递。这种事件驱动机制使得 SNN 只在接收到有效刺激时才进行信息处理,从而避免了无效计算,极大地提高了运算效率和能效比。然而,研究员们发现,现有的 SNN 设计大多聚焦于其离散的事件驱动特性,有的会忽略其时间属性,有的则为了适应事件驱动范式过程,过度简化序列数据模式。这些方法虽然让 SNN 在图像分类、文本分类和序列图像分类任务上实现了与人工神经网络接近的性能,但并未充分发挥 SNN 在处理时间信号方面的潜力。研究员们认为,时间序列预测是 SNN 一个理想的应用场景。作为现实数据分析的重要组成部分,时间序列预测广泛应用于交通、能源、医疗等领域,旨在基于按时间顺序排列的历史数据来预测未来。但是,将 SNN 应用于时间序列预测还面临两大挑战:         SNN 中脉冲值的离散特性与时间序列数据的浮点属性之间存在巨大的差异,需要一种有效的机制来减少在将浮点值转换为脉冲序列时的信息丢失和噪声。如何选择用于时序数据的 SNN 标准化模型目前还缺少一个指导方针,进而加剧了任务的复杂性,这就需要对 SNN 架构及其参数进行深入探索,以适应不同时间序列数据的特定特征。研究员们提出了一个用于时间序列预测任务的 SNN 框架。该框架充分利用了脉冲神经元在处理时间序列信息上的高效性,成功实现了时间序列数据与 SNN 之间的时间同步。研究员们还设计了两种编码层,可以将连续时间序列数据转换为有意义的脉冲序列。这之后,研究员们又利用多种脉冲化的时间序列模型对脉冲序列进行了建模,得到了最终的预测结果。         通过在多个时间序列预测基准集上的测试,研究员们证实了 SNN 方法在时间序列预测中的有效性。该方法不仅展现出与传统时间序列预测方法相媲美或更优的性能,而且显著降低了能耗。此外,在分析实验中,研究员们还展示了 SNN 如何捕获时间序列数据中的时间依赖性,并发现 SNN 确实能够模拟时间序列数据的内在动态。这项研究为 SNN 领域提供了一个既节能,又符合生物学原理的时间序列预测新方案。 Efficient and Effective Time-Series Forecasting with Spiking Neural Networks https://arxiv.org/pdf/2402.01533 大脑中枢模式发生器与位置编码双加持,让SNN序列预测更上一层楼          尽管 SNN 在多个领域取得了显著进展,但它们在适应不同类型任务时仍面临挑战。SNN 作为事件驱动的系统,缺乏有效机制来捕获索引信息、节奏模式和周期性数据,从而限制了它们处理自然语言和时间序列等数据模式的能力。而且,SNN 依赖于脉冲形式的通信,这使得并非所有适用于人工神经网络的深度学习技术都能直接迁移到 SNN 上。为了克服这些限制,研究员们进一步从生物神经学机制中汲取灵感,基于人类大脑中枢模式发生器(Central Pattern Generator, CPG)和位置编码(Positional Encoding,PE)技术,开发了针对 SNN 的新型位置编码技术 CPG-PE。         中枢模式发生器(CPG):在神经科学中,CPG 是一组能够在不需要节奏输入的情况下,产生有节奏的模式输出的神经元。这些神经回路位于脊髓和脑干中,负责产生控制运动、呼吸和咀嚼等重要活动的有节奏信号。位置编码(PE):PE 是人工神经网络中的一项关键技术,尤其在序列处理任务中尤为重要。通过为输入序列的每个元素赋予位置信息,PE 使神经网络能够识别序列中元素的顺序和相对位置。CPG 和 PE 都能产生周期性输出,CPG 是相对于时间的输出,而 PE 则是相对于位置的输出。研究员们将两者类比,使 CPG-PE 可以编码时间或空间的位置信息,预测神经信号的来源或位置。         在 Metr-la(洛杉矶高速公路平均交通速度数据)、Pems-bay(湾区平均交通速度数据)、Electricity(以千瓦时 kWh 测量的每小时电力消耗数据)和 Solar(太阳能发电数据)四个真实世界数据集上进行的时间序列预测实验表明,采用 CPG-PE 策略的 SNN 在时间序列分析方面显著优于没有 PE 特性的神经网络。同时,CPG-PE 可以无缝集成到任何能够处理序列的 SNN 中,理论上可以实现与 SNN 硬件的兼容,适配各类神经拟态芯片。 Advancing Spiking Neural Networks for Sequential Modeling with Central Pattern Generators https://arxiv.org/pdf/2405.14362 贝叶斯行为框架:为具身智能提供理论指导         在心理学和认知神经科学领域,以人类为代表的智能生物群体被认为会执行两类行为:习惯性行为和目标导向行为。习惯性行为是指为了最大化利益而自动执行的动作,无需意识思考或意图的参与,例如寻找食物和避免危险。目标导向行为是指为了实现特定目标而执行的动作,例如有计划地前往某个地点。传统上认为,在认知科学和机器学习中,习惯性行为和目标导向行为由两套独立的系统控制,因此在建模时,研究人员通常会为这两种行为设计独立的模型。         然而,微软亚洲研究院的研究员们认为,这两种系统应该更紧密地结合,实现协同学习和工作。尽管在大脑中这两种系统之间的相互作用尚未完全明了,但习惯性行为和目标导向行为共享着诸如脑干这样的下游神经回路。两种行为共享低级运动技能,且每个系统都可能利用对方学习到的高级动作。例如,习惯性行为虽然缺乏灵活性,但通过练习可以提供熟练的运动技能,这些技能可以被目标导向行为用于更复杂的任务规划。那么如何在保持两种行为差异的同时实现协同?为此,研究员们提出了一个基于变分贝叶斯方法的理论框架——贝叶斯行为(Bayesian Behavior)框架,用于理解感知运动学习中的行为。其核心创新在于引入了一个贝叶斯“意图”(intention)变量,从而有效地连接了习惯性行为与目标导向行为。习惯性行为由感官输入计算的意图先验分布驱动,无需具体目标。目标导向行为则由一个通过最小化变分自由能推断(active inference)的目标条件意图后验分布引导。         在视觉引导的感知运动任务中进行模拟实验的测试结果显示,贝叶斯行为框架所得出的结论与神经科学和心理学实验的观察数据相吻合。这一发现不仅为认知科学中“行为”的理解提供了新的视角,也为具身智能的构建提供了理论基础。例如,人类能够轻松地用左手食指和小指拿起东西,或者原地转圈,未来的具身智能也可能完成这种未曾学习过的动作,展现出更高的适应性和灵活性。 Synergizing Habits and Goals with Variational Bayes https://www.nature.com/articles/s41467-024-48577-7 该论文已在《自然-通讯》(Nature Communications)杂志上发表。 跨领域研究让人工智能向节能高效进化         从达尔文进化论的角度来看,现在的主流人工智能模型在未来可能会面临淘汰。在生物进化的过程中,物种的基因变异是繁殖下一代时的常态。那些有利于生物适应环境的变异,将通过环境的筛选,以“适者生存”的原则被保留下来。然而,将这一概念应用于人工智能时,我们会发现能耗问题并不利于人工智能的发展和“进化”。         借鉴人脑的工作原理,构建脑启发的人工智能,不失为促进人工智能技术向节能高效方向发展的有效途径。这一趋势已经引发了新的研究热潮,包括对大脑理解的研究、基于神经元构建新的语言模型、根据不同脑区功能设计的 MoE 架构等脑启发人工智能正蓬勃发展。在微软亚洲研究院进行脑启发式人工智能研究的过程中,研究员们更加体会到跨学科、跨领域专家协作支持的重要性。CircuitNet、SNN 时间序列框架、贝叶斯行为框架等创新成果的背后,凝聚了来自复旦大学、上海交通大学及日本冲绳科学技术大学院大学等机构的神经科学和脑科学专家的专业知识和贡献。未来,随着对大脑机理的深入理解和技术的不断创新,我们有望增进对智能本质的理解,构建出更加智能、高效且环保的人工智能技术,更好地服务于人类社会。
  • 《推进我国人工智能深入发展的六大关键点》

    • 来源专题:装备制造监测服务
    • 编译者:zhangmin
    • 发布时间:2020-10-10
    • 作为新一轮科技革命的通用目的技术,人工智能将对经济体系产生重要而深刻的影响,对推进中国经济高质量发展和抢占全球科技战略制高点具有重大意义。目前我国人工智能产业的发展基础比较薄弱,数据安全、伦理道德、收入分配、科技泡沫、区域空间等也都面临着严峻挑战。加大联合攻关、实现科技突围,整合数据资源、防范安全风险,立足人的立尝应对伦理挑战,降低失业冲击、调整赢家通吃模式,拓展应用场景、防范科技泡沫,应对虹吸效应、优化空间结构,是推进我国人工智能深入发展的关键所在。   在摩尔定律、大数据技术和深度学习等的综合推动下,人工智能迎来第三次浪潮。作为一种通用目的技术,与蒸汽机、电力、信息通信技术一样,人工智能将对经济体系产生重要而深刻的影响。随着中国跨过刘易斯拐点、老龄化程度不断加快、产业转型压力不断加大,人工智能具有巨大的市场需求空间。同时,5G产业化、云服务提供商等的发展也为人工智能提供巨大的供给支撑。人工智能将对推进中国经济高质量发展和抢占全球科技战略制高点具有重大意义。   2020年突如其来的新冠肺炎疫情,在给宏观经济造成巨大影响的同时,也推动了人工智能在各行各业的深入应用。在疫情防控与复工复产过程中,人工智能在医学影像识别、病毒基因检测、辅助治疗、智能制造、金融风险防控、公共安全防护、智慧物流与智慧零售、在线教育、智慧城市等领域发挥了越来越突出且不可替代的作用。   与此同时,我国人工智能的发展也存在诸多风险和挑战。以人工智能为代表的新一轮科技革命带来的大国竞争前所未有,中国面临巨大的科技突围压力;由于数据本身的价值很高、人工智能技术自身不完善和使用不当等原因,人工智能系统已成为不法黑客攻击的重要目标;人工智能的兴起冲击传统的伦理关系,挑战人类的道德权威;机器替人会带来失业冲击与收入再分配;巨大的科技收益预期加大投机风险,会引发人工智能泡沫;虹吸效应会促进人工智能企业过度聚集,进一步拉大区域差距。这些挑战既有人工智能自身的不足,也有人工智能发展而引发的伦理、社会、经济等问题。提前谋划并妥善解决这些问题,是推进我国人工智能深入发展的关键所在。   一、加大联合攻关,实现科技突围   当今世界正经历百年未有之大变局。随着中国成为世界第二大经济体并逐步迈入创新型国家行列,世界经济中心加快向亚太转移,百年来西方国家主导的国际政治经济秩序正在发生大调整。以人工智能为代表的第四次工业革命方兴未艾,将深刻地改变人类的生产和生活方式,一定程度上决定了一个国家未来的国际竞争力。为此,世界主要大国之间围绕人工智能等进行的科技竞争日趋激烈,特别是中美关系历经多年未遇的重大挑战,国际间的人才交流、科技合作、投资并购、产业链分工等都受到不同程度的限制,单边主义、保护主义不断抬头,经济全球化遭遇逆流。   目前中国人工智能产业的核心技术比较薄弱,集成电路超过原油成为第一大进口商品,基础软件90%以上依赖国外企业;顶尖人才数量与美国等发达国家还有较大差距。当今世界国际技术环境的剧烈变化决定了中国必须跳出传统的模仿创新模式, 加快走自主创新之路,实现科技突围。中国既要大力拓宽国际科技合作新渠道,大力加强顶尖人才的培养与引进。        更为重要的是,积极发挥市场经济条件下的新型举国体制优势,围绕人工智能核心基础零部件和元器件、先进基础工艺、关键基础材料、产业技术等“卡脖子”的共性问题实施专项行动,集中优势资源,加大研究投入,设定目标,分解任务,协同攻关,实现突破。同时,技术标准也是全球化时代各国争夺市场话语权的重要手段,是市场竞争的制高点。要以《国家新一代人工智能标准体系建设指南》(2020)为指引,对标世界一流,加强多部门协作,制定和完善人工智能标准体系,抢占国际标准主导权乃至控制权。        此外,还要借鉴德国弗劳恩霍夫研究所等机构的经验,调动各类智商高、情商高、有知识、肯下功夫钻研以及接地气、了解市场的人建立技术转移机构或担任技术经理人,搭建科技与产业的桥梁,实现技术到创新的转化(黄奇帆,2020)。最终通过加大联合攻关,突破瓶颈制约,形成标准体系,畅通转化渠道,实现中国人工智能产业的科技突围。   二、整合数据资源,防范安全风险   数据是人工智能的三大支柱之一,人工智能因大数据而重生, 制约人工智能广泛应用的不是算法不够先进,而是缺乏高质量的数据。目前我国运行着多种信息化系统,这些多源异构的系统之间彼此割裂,而且由于历史原因很多数据没有被数字化,致使系统之间处于孤岛状态。分散各处难以融合的数据孤岛,无法很好地训练模型,成为制约中国人工智能产业发展的最大障碍。就像土地是农业时代的原材料、钢铁是工业时代的原材料一样,数据是信息时代的原材料。限制数据读取无异于在农业时代管控土地使用、工业化时代限制工厂的产品生产(罗斯,2016)。         为了加快人工智能的发展与应用,需要加快数据的开放和大力整合,实现数据准确与有效联通。在规范数据使用、保护隐私等前提下,借助区块链等技术,建设数据中台,汇聚多种来源数据,形成统一标准和体系。在此基础上,根据用户的各种需求, 快速响应,及时提供可视化、智能化、便捷化的数据服务方案(付登坡等,2020)。   由于数据本身的价值很高、人工智能技术自身不完善和使用不当等原因,人工智能系统已成为不法黑客攻击的重要目标,面临着巨大的安全风险。保障数据与网络安全需要政策法规与技术手段等的结合。   1.完善细化法律法规,保护数据安全。首先要立法确定数据的所有权,并且数据所有者有删除个人数据的“被遗忘权”(王坚,2018)。其次,完善细化法律法规,明确数据收集、存储、处理、使用等各个环节的边界。在数据汇聚和使用之前,利用大数据和人工智能技术完成数据的清洗、脱敏、结构化和标准化(冯登国,张敏和李昊,2014)。保障数据使用的可追溯性,完善追责问责机制,规范数据使用范围。   2.使用“联邦学习”策略,保护数据安全。在数据不出本地的前提下,各个数据拥有方依托各自数据建立模型,将各地的模型参数上传到云端,再在云端训练人工智能模型。然后将优化的人工智能模型参数返回到各地共享。这种策略既实现了数据共享,又保证了数据安全(世界人工智能大会组委会,2019)。   3.借助大数据和人工智能等技术,保障网络安全。基于人工智能技术在软件二进制分析、网络攻击检测、安全行为辅助分析、网络信息过滤等领域的应用,建立一套基于“大数据+威胁情报+安全知识+安全专家”的全新战法,构建覆盖整个国土空间的智能网络防御系统,即国家网络安全大脑,从而应对网络战争,保障网络安全。此外,加强政府、科研院所、企业和行业等各方紧密合作,共建有利于网络安全的大生态(周鸿,2019)。   三、立足人的立场,应对伦理挑战   随着中国跨过刘易斯拐点、老龄化进程加快与产业转型升级的压力加大,人工智能在中国具有巨大的应用前景。人工智能的使用,一方面提高了生产效率,赋予劳动力和资本更多能量,拉动经济增长(Aghion,Benjiamin and Charles,2017);人工智能也促使生产方式趋向人性化,使得人们逐步从重复、单调、危险的工作中解放出来,促进人的自由全面发展。另一方面,人工智能的兴起与发展也对人类的传统伦理关系、人的本质等发起了深层次的挑战。   首先,人工智能的兴起,冲击传统的伦理关系,挑战人类的道德权威。(1)隐私问题。人工智能系统的建立需要大量数据来训练模型,这将会产生隐私泄露等问题。(2)安全与责任问题。目前人工智能技术大多基于云端或互联网开放平台,互联网与人工智能技术本身的漏洞可能造成巨大的安全隐患。(3)算法歧视。数据质量和隐含的信息决定了深度学习模型得到的结果可能存在算法歧视(莫宏伟,2018)。(4)智能鸿沟。人们使用人工智能产品的能力有很大差异,尤其是对于老年人使用人工智能产品的能力有限,从而导致这些人被人工智能技术排斥在外,形成智能鸿沟。   其次,人工智能的发展与应用,引发人类对于人的本质的深层次挑战。随着生物技术和智能技术的发展,强人工智能时代将会到来。人的自然身体与智能机器日益“共生”,“共生体”究竟是“人”还是“机器”?当智能机器具备了人的思维,会制造工具,并且具有人的外形、声音与行为,智能机器是否是“人”?如果智能机器在一定意义上是“人”,那么它是否享有人权等基本权利?是否应该承担相应的行为后果?超级智能是否会“失控”,反过来取代、控制或统治人类?这些都是极具挑战性的问题(孙伟平,2017)。   目前国际上有两套被普遍认可的人工智能伦理共识。一套是“阿西洛马人工智能原则”,另一套是国际电气电子工程师学会提出的“人工智能设计的伦理准则” (杨放、刘开、常运立,2020)。        2019年中国也发布了《新一代人工智能治理原则发展负责任的人工智能》,提出了八项原则。应对人工智能带来的伦理挑战,须要以伦理共识与治理原则为准绳,立足人的立场,按照人本、公正和责任原则,早做谋划,让人工智能服务人类。一是,在人工智能的系统设计中,要将人类社会的伦理规范和价值观念嵌入人工智能系统。二是,制定人工智能算法规范和标准。对软件和算法设计进行规范和监管,同时加强代码和决策透明性。建立第三方检测、评估、认证和审批制度,对不符合监管标准的产品不允许推向市场(莫宏伟,2018)。三是,不断细化完善现行法律法规,明确人工智能产品设计者、生产者和使用者的责任范围。同时需要确保用户对算法等有知情权与被解释权。此外,还需要加强人工智能伦理风险方面的宣传与教育。   四、降低失业冲击,调整赢家通吃模式   人工智能革命通过变革技术体系、产业结构与生产方式影响就业结构与就业形态。人工智能的就业效应主要包括创造效应和替代效应。人工智能对就业的创造效应主要表现为间接效应,即人工智能通过提高企业经济效率与降低生产成本,带来人工智能研发企业、产品供应商、应用企业和其他企业的发展,进而促进就业增长(邱和何勤,2020) 。         人工智能的就业替代效应主要通过技能偏向型技术进步和程序偏向型技术进步而实现。技能偏向型技术进步会增加对高技能劳动者的需求,减少对低技能劳动力的需求,从而对低技能劳动者造成冲击。程序偏向型技术进步将机械性、重复性、逻辑性强、易编程的工作任务自动化,从而对中等技能岗位造成冲击(Autor,Levy and Murnane,2003;Autor and Dorn,2013)。目前人工智能尚处于弱人工智能阶段,就业总体效应还存在争议,但从短期看就业破坏效应大于就业创造效应,会给社会带来一定程度的失业冲击。   在数字化技术变革、信息通信技术进步、网络效应和垄断寻租等因素的综合推动下,人工智能还将创造赢家通吃市场,形成高技能劳动者与低技能劳动者之间、资本和劳动之间、超级明星与其他人之间的巨大财富分化。赢家通吃市场的经济模式与工业化经济模式截然不同。工业化经济中营业收入和个人所得跟天分和努力高度相关,收入分配差异远远小于赢家通吃市常而在赢家通吃市场存在极其不稳定、不均匀的竞争,收入分配呈现幂律分布。这种分配模式下,小规模群体获得不成比例的收入份额,即80/20法则。同时,这种分布具备尺度(标度)不变的特征(第1名在前10名中所占的份额,与前10名在前100名中所占的份额大体上相同)。收入分配向幂律分布转变意味着支撑社会稳定的中产阶级钟形曲线结束了(布莱恩约弗森和麦卡菲,2014)。   人工智能带来的失业冲击和赢家通吃市场,会使很多失业者和失败者被取代、被排斥和被抛弃,可能成为解构社会、破坏秩序稳定的重要因素。因此,一方面需要政府落实反垄断法,强化监管,减少寻租,创造公平的竞争环境,这是缩小收入分配分化的关键(斯蒂格利茨,2013)。另一方面,改革税收体制,降低个人所得税,使得个人所得税率小于或等于企业所得税率,增加农民财产性收入(黄奇帆,2020)。        抑制新自由主义的霸权资本逻辑,逐步推行遗产税收制度,避免寡头统治的形成。同时,扩大社会事业支出。加强教育培训,提高劳动技能与技术发展之间的匹配度。建立健全社会福利和保障体系,增加住房和医疗等方面的支出,对弱势群体进行救助, 维护他们的尊严和合法权益。   五、拓展应用场景,防范科技泡沫   随着经济的不断发展,经济体累积了庞大的、过剩的资本,这些财富亟需投资渠道。科技革命形成良好的前景,为资本提供了众多投资机会,巨大的收益预期也让投资人变为投机家。尽管投机活动大大增加了市场的流动性,提高了交易量,增加了市场参与者,但是投机的结果往往是经济泡沫。历次工业革命时期曾先后出现过19世纪20年代和30年代初的运河泡沫、19世纪30年代和40年代的铁路泡沫、20世纪20年代的航空泡沫、20世纪90年代的互联网泡沫等(戈登,2011;霍布斯鲍姆,2017)。         随着人类步入人工智能时代,人工智能被看作是重现20世纪90年代计算机技术奇迹、拉动全球经济起飞的又一契机,人工智能企业受到资本市场的强烈追逐,全球人工智能公司数量快速增长。20132018年第一季度中国人工智能领域的投融资占到全球的60%,成为全球最“吸金”的国家,人工智能产业出现“盲目跟风、重复投资”的泡沫化倾向(周鸿,2019)。在当前人工智能应用场景变现困难的情况下,科技革命的预期效应可能引发新一轮经济泡沫。   除了完善相关法律法规和加强资金监管之外,攻关应用场景和探索商业模式是引导科技发展、避免泡沫破灭引起经济恐慌的关键。(1)凝聚多方力量,攻关应用场景。人工智能的使用将对企业的组织模式发生变革,其应用场景的攻关需要若干垂直领域的人员共同参与才能有所突破。在国家超算中心等机构和企业提供便捷的算力和算法支撑的基础上,探索人工智能在推动数字技术产业化、传统产业数字化、智慧城市与智慧管理等方面的应用场景。        (2)增加资金渠道,探索商业模式。人工智能的应用场景多是资本密集型的环节,风险很大。一方面,需要完善多层次的资本市场,特别是要发挥科创板的示范作用,为人工智能初创企业注入资本动能;另一方面,根据应用场景的性质,探索财政专项基金、自然科学基金、重大基础科学研究项目群、风险资金等的不同结合方式,增加资金供给渠道。在此基础上,积极探索合适的商业模式。一是在国内外寻求合作者,通过实行开放和反馈的思路,提升人工智能产品性能,提高服务和盈利能力;二是与上下游企业合作, 将人工智能系统搭载在上下游企业的产品上进行销售,既能增加上下游企业的竞争力,又能验证产品的实际效果,还能加快产品通过认证。        (3)政府部门也要加快人工智能产品的审批流程,对符合条件的人工智能产品可先在人工智能示范区内进行应用试点示范,形成可复制的经验,加快人工智能产品的推广与使用。   六、应对虹吸效应,优化空间结构   中国区域差距很大,为了便于分析人工智能在区域空间上的虹吸效应,可将全国分成经济发达和经济不发达两类区域。相比经济不发达区域,经济发达区域具有更高的资本密集度、更好的人力资本和更完善的基础设施,具有更深更广的使用人工智能的能力和动力。在此背景下,人工智能通过生产效率、资本深化、劳动禀赋、技能溢价、产业组织等渠道,促进空间极化。(1)人工智能的使用会提高生产效率,经济发达区域使用较多的人工智能,带来更高的经济效率,从而拉大生产效率对区域差距的贡献。        (2 )人工智能的使用在很大程度上表现为资本替代劳动。相比经济不发达区域,经济发达区域人工智能资本深化程度更高,因此资本收入份额更大,从而拉大资本对区域差距的贡献。        (3)机器替代劳动会降低企业的生产成本,这将大幅降低经济不发达区域的劳动禀赋优势,压缩依托劳动禀赋的发展空间,进而拉大区域之间的差距。        (4 )人工智能的使用使得很多低技能或程序化的工作被机器替代,从而带来失业。在当前中国的户籍制度下,经济发达区域的很多失业者会选择回到不发达区域进行回乡创业。同时人工智能的使用意味着适应人工智能需求的劳动力工资会上涨, 这会引起不发达区域适应人工智能需求的劳动力更多选择流向发达区域,从而获得更多的发展机会与经济收益。劳动力在空间上的双向流动,会降低不发达区域劳动力技能的整体水平与工资水平,提高发达区域劳动者技能的整体水平和工资水平,从而拉大区域差距。        (5)人工智能的使用会对产业组织产生影响。使用人工智能的企业具有更高的生产效率和更低的生产成本,产生更大的竞争力,从而更容易在市场竞争中胜出。经济发达和不发达区域使用不同程度的人工智能技术,这意味着经济发达区域较多的企业在市场竞争中胜出,而经济不发达区域较多的企业在市场竞争中退出。企业的进入和退出差异会加剧区域经济不平衡。当然,人工智能的使用也存在趋同机制, 趋同的力量主要在于人工智能的使用会加快知识的扩散。同时,人工智能技术也不仅仅是劳动力替代技术,也存在劳动力互补技术。但是趋同的力量相比于以上五个分化的力量要小得多,人工智能的使用会加大虹吸效应,促进空间极化。   从经验数据看,中国的人工智能企业和人工智能应用企业表现为较高程度的空间极化。从中国人工智能企业的分布看,2019年科技部公布的15家中国最强人工智能企业只分布于北京、上海、深圳、合肥和杭州等5个城市。从2019年人工智能初创企业100强的分布看,东部地区占据99家,西部只有1家。从人工智能的应用企业看,中国企业500强是人工智能使用的主要示范企业,位于京津冀城市群、长三角城市群和粤港澳大湾区的2019中国500强企业分别有125家、130家和68家,占到全国的64.6%。   人工智能的发展需要科技力量、集群网络、基础设施、知识交流等的支撑,这是人工智能企业出现虹吸效应和空间极化的基本逻辑。近年来,中国的区域经济差距呈现扩大趋势。人工智能带来的空间极化效应会进一步拉大中国的区域差距,这不利于推动形成国内大循环为主体、国内国际双循环相互促进的新发展格局,从而反过来限制人工智能的发展潜力与广泛应用。考虑到中国国土空间很大,为实现区域公平发展,并推动形成双循环发展格局,需要在空间上形成以都市圈为核心的多极空间结构,宜选择长三角城市群、粤港澳大湾区、京津冀城市群、长江中游城市群、成渝城市群、山东半岛城市群、关中城市群等作为中国人工智能发展的研发和使用示范区。以都市圈为核心的多极空间结构,既与国家的资源、环境和人口的分布特征相吻合,与人工智能产业聚集发展的经济诉求相吻合,与形成国内大循环为主体、国内国际双循环相互促进的新发展格局相吻合,也与国土空间结构优化与区域公平发展的需求相吻合。