《人工智能系统自我组织,开发出复杂生物大脑的特征》

  • 来源专题:新一代信息技术
  • 编译者: 王晓丽
  • 发布时间:2023-11-24
  • 发表于《自然-机器智能》(Nature Machine Intelligence)的一项研究中,阿赫特伯格、阿卡尔卡及其同事创建了一个人工系统,旨在模拟一个非常简化的大脑模型,并应用了物理约束。他们发现,他们的系统进而发展出了某些与人类大脑相似的关键特征和策略。

    该系统使用的是计算节点,而不是真正的神经元。神经元和节点的功能类似,都是接收输入、转换输入并产生输出,而且单个节点或神经元可能连接多个其他节点或神经元,所有输入的信息都要进行计算。

    然而,在他们的系统中,研究人员对系统施加了 "物理 "限制。每个节点在虚拟空间中都有一个特定的位置,两个节点离得越远,它们就越难沟通。这与人脑中神经元的组织方式类似。

    研究人员给该系统布置了一个简单的任务--在这种情况下,它要完成的是一个简化版的迷宫导航任务,通常是在研究大脑时给大鼠和猕猴等动物布置的任务,它必须结合多种信息来决定到达终点的最短路线。

    研究小组选择这项特殊任务的原因之一是,要完成这项任务,系统需要保持一系列要素--起始位置、终点位置和中间步骤--一旦学会可靠地完成任务,就有可能在试验的不同时刻观察到哪些节点是重要的。例如,一个特定的节点集群可能编码终点位置,而其他节点集群则编码可用路线,因此可以跟踪哪些节点在任务的不同阶段处于活动状态。

    起初,系统不知道如何完成任务并会犯错。但当系统得到反馈后,它就会逐渐学会如何更好地完成任务。它通过改变节点间连接的强度来学习,这与我们学习时脑细胞间连接强度的变化类似。然后,系统会一遍又一遍地重复任务,直到最终学会正确执行任务。

    然而,在他们的系统中,物理限制意味着两个节点离得越远,就越难根据反馈在两个节点之间建立连接。在人脑中,跨越较大物理距离的连接的形成和维持都非常昂贵。

    当系统被要求在这些限制条件下执行任务时,它使用了一些与真实人脑相同的技巧来解决任务。例如,为了绕过这些限制,人工系统开始发展集线器--高度连接的节点,作为整个网络传递信息的通道。

    然而,更令人惊讶的是,单个节点本身的反应特征也开始发生变化:换句话说,系统中的每个节点不再为迷宫任务的某一特定属性(如目标位置或下一个选择)编码,而是发展出一种灵活的编码方案。这就意味着,在不同的时刻,节点可能会对迷宫的各种属性进行编码。例如,同一个节点可以对迷宫的多个位置进行编码,而不需要专门的节点对特定位置进行编码。这是复杂生物大脑的另一个特点。


  • 原文来源:https://www.sciencedaily.com/releases/2023/11/231120124246.htm
相关报告
  • 《脑启发设计:人工智能的进化之路》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2024-07-08
    • 作者:微软亚洲研究院 编者按:你可以用左手(不常用的那只手)的小指与食指拿起一件物品么?         试完你是不是发现自己竟然可以毫不费力地用自己不常用的手中,两根使用频率相对较低的手指,做一个不常做的动作。这就是人类大脑不可思议之处——无需经过特别的训练,大脑就能够在短时间内以低功耗的方式控制身体完成各种复杂行为,甚至是全新的动作。相比之下,人工智能虽然是人类智慧的产物,但在很多方面还远不及人类大脑。 为此,微软亚洲研究院(上海)团队的研究员们从理解大脑结构与活动中获得灵感,开发了一系列涵盖大脑学习、计算过程不同层级的创新技术,包括模仿脑神经回路连接方式,可高效处理众多任务的 CircuitNet 神经回路网络;可应用于时间序列预测,更适配神经拟态芯片的新型 SNN(脉冲神经网络)框架和策略;以及可为具身智能提供理论指导的贝叶斯行为框架。这些探索为未来的人工智能技术发展提供了新的可能。         从能耗的角度来看,人类大脑只需要大约20瓦的功率即可维持运转,这约等于一个节能灯泡的功耗。但随着人工智能大模型参数和规模的增大,其能源需求远高于传统的数据中心。主流的大语言模型训练过程预计会消耗上千兆瓦的电力,相当于数百个家庭一年的用电量。这种能源消耗的增长趋势显然不利于人工智能技术的可持续发展。那么如何通过新的处理机制解决能耗问题,就成了信息科学领域一个紧迫且前沿的挑战。《千脑智能》一书为我们提供了启示:“要创造出真正智能的机器,我们首先需要对大脑进行逆向工程。我们研究大脑,不仅是为了理解它的工作原理,更是为了探索智能的本质。”其实,人工智能本身就是人类对大脑探索的产物,在计算机诞生之初,人们就已经利用神经连接模式+数字计算的方式模拟大脑。但受限于当时的算力和人们对大脑粗浅的认知,人工智能发展非常缓慢,甚至一度被束之高阁。             近几十年来,随着神经科学家对大脑结构的深入理解和计算资源及相关技术的增强,以脑启发为核心的“人工智能文艺复兴”也掀起了新一轮热潮,促使科研人员重新定位大脑机制对人工智能的作用。来自微软亚洲研究院(上海)的研究员们跨越计算机和脑科学专业知识,深入理解大脑的结构与行为活动,针对大脑学习和计算过程,从神经元、网络层和更高级别的系统层出发,分别设计研发了高性能的脉冲神经网络(SNN)、参数效率更高的回路神经网络(CircuitNet),以及提升决策效率的贝叶斯行为框架,促进了人工智能网络向着更低功耗、更高效率、更好性能的方向良性发展,同时也为具身智能发展提供了理论和方法。 CircuitNet:模拟大脑神经元连接,实现更低功耗与更高性能         人工神经网络(ANN)已经被广泛应用于人工智能的众多领域,包括自然语言处理、机器学习、语音识别和控制系统等。这些应用的成功,很大程度上得益于它们对大脑神经元工作模式的模仿。神经元是大脑最基本的单元,它们之间通过复杂的连接模式相互作用来传递和处理信息。但早期的人工神经网络设计相对简单,仅能模拟一两种连接模式。 随着神经科学的发展,人们发现大脑神经元的连接方式多种多样,其中有四种常见模式:前馈激励和抑制、反馈抑制、侧抑制和相互抑制。然而,现有的许多人工神经网络,如具有残差连接的网络,只能模拟前馈激励和抑制模式。即便是能够模拟循环模式的递归神经网络(RNN),在信息传入前也无法处理上游神经元间的复杂相互作用,从而影响了神经网络在不同机器学习任务中的表现。         生物神经网络与人工神经网络的整体连接模式也大不相同。生物神经网络的一个显著特点是局部密集连接与全局稀疏连接的结合。尽管单个神经元可以有数千个突触,但它们大多数位于一个脑区内,形成针对特定任务的功能集群。只有少数突触作为不同脑区之间的桥梁,延伸到其它功能集群,而人工神经网络通常不具备这样的特性。此外,人工神经网络中的许多参数也被证实是冗余的,增加了网络的复杂性。基于对大脑神经连接的新理解,研究员们提出了新的回路神经网络 CircuitNet,它能够模拟包括反馈和侧向模式在内的多种神经元连接模式。CircuitNet 的设计还借鉴了大脑神经元局部密集和全局稀疏连接的特性,通过不同电路模式单元(Circuit Motif Unit, CMU)的输入端和输出端的稀疏连接,实现了信号在不同 CMU 之间的多轮传输。实验结果表明,CircuitNet 在函数逼近、强化学习、图像分类和时间序列预测等任务中的表现超越了当前流行的神经网络架构。而且,在各种类型的任务中,CircuitNet 在达到与其它神经网络相同性能的同时,具有相当或更少的参数,展示了其在机器学习任务中的有效性和强大的泛化能力。 CircuitNet: A Generic Neural Network to Realize Universal Circuit Motif Modeling https://openreview.net/pdf?id=Fl9q5z40e3 让SNN网络更适用于时间序列预测任务的新框架         脉冲神经网络(SNN)因其能效高、事件驱动范式和生物学上的合理性,正逐渐受到业内的重视。SNN 的设计灵感来源于生物神经网络中神经元间的信息传递方式——神经元不是在每次迭代传播中都被激活,只有膜电位达到特定阈值时才被激活,进行信号传递。这种事件驱动机制使得 SNN 只在接收到有效刺激时才进行信息处理,从而避免了无效计算,极大地提高了运算效率和能效比。然而,研究员们发现,现有的 SNN 设计大多聚焦于其离散的事件驱动特性,有的会忽略其时间属性,有的则为了适应事件驱动范式过程,过度简化序列数据模式。这些方法虽然让 SNN 在图像分类、文本分类和序列图像分类任务上实现了与人工神经网络接近的性能,但并未充分发挥 SNN 在处理时间信号方面的潜力。研究员们认为,时间序列预测是 SNN 一个理想的应用场景。作为现实数据分析的重要组成部分,时间序列预测广泛应用于交通、能源、医疗等领域,旨在基于按时间顺序排列的历史数据来预测未来。但是,将 SNN 应用于时间序列预测还面临两大挑战:         SNN 中脉冲值的离散特性与时间序列数据的浮点属性之间存在巨大的差异,需要一种有效的机制来减少在将浮点值转换为脉冲序列时的信息丢失和噪声。如何选择用于时序数据的 SNN 标准化模型目前还缺少一个指导方针,进而加剧了任务的复杂性,这就需要对 SNN 架构及其参数进行深入探索,以适应不同时间序列数据的特定特征。研究员们提出了一个用于时间序列预测任务的 SNN 框架。该框架充分利用了脉冲神经元在处理时间序列信息上的高效性,成功实现了时间序列数据与 SNN 之间的时间同步。研究员们还设计了两种编码层,可以将连续时间序列数据转换为有意义的脉冲序列。这之后,研究员们又利用多种脉冲化的时间序列模型对脉冲序列进行了建模,得到了最终的预测结果。         通过在多个时间序列预测基准集上的测试,研究员们证实了 SNN 方法在时间序列预测中的有效性。该方法不仅展现出与传统时间序列预测方法相媲美或更优的性能,而且显著降低了能耗。此外,在分析实验中,研究员们还展示了 SNN 如何捕获时间序列数据中的时间依赖性,并发现 SNN 确实能够模拟时间序列数据的内在动态。这项研究为 SNN 领域提供了一个既节能,又符合生物学原理的时间序列预测新方案。 Efficient and Effective Time-Series Forecasting with Spiking Neural Networks https://arxiv.org/pdf/2402.01533 大脑中枢模式发生器与位置编码双加持,让SNN序列预测更上一层楼          尽管 SNN 在多个领域取得了显著进展,但它们在适应不同类型任务时仍面临挑战。SNN 作为事件驱动的系统,缺乏有效机制来捕获索引信息、节奏模式和周期性数据,从而限制了它们处理自然语言和时间序列等数据模式的能力。而且,SNN 依赖于脉冲形式的通信,这使得并非所有适用于人工神经网络的深度学习技术都能直接迁移到 SNN 上。为了克服这些限制,研究员们进一步从生物神经学机制中汲取灵感,基于人类大脑中枢模式发生器(Central Pattern Generator, CPG)和位置编码(Positional Encoding,PE)技术,开发了针对 SNN 的新型位置编码技术 CPG-PE。         中枢模式发生器(CPG):在神经科学中,CPG 是一组能够在不需要节奏输入的情况下,产生有节奏的模式输出的神经元。这些神经回路位于脊髓和脑干中,负责产生控制运动、呼吸和咀嚼等重要活动的有节奏信号。位置编码(PE):PE 是人工神经网络中的一项关键技术,尤其在序列处理任务中尤为重要。通过为输入序列的每个元素赋予位置信息,PE 使神经网络能够识别序列中元素的顺序和相对位置。CPG 和 PE 都能产生周期性输出,CPG 是相对于时间的输出,而 PE 则是相对于位置的输出。研究员们将两者类比,使 CPG-PE 可以编码时间或空间的位置信息,预测神经信号的来源或位置。         在 Metr-la(洛杉矶高速公路平均交通速度数据)、Pems-bay(湾区平均交通速度数据)、Electricity(以千瓦时 kWh 测量的每小时电力消耗数据)和 Solar(太阳能发电数据)四个真实世界数据集上进行的时间序列预测实验表明,采用 CPG-PE 策略的 SNN 在时间序列分析方面显著优于没有 PE 特性的神经网络。同时,CPG-PE 可以无缝集成到任何能够处理序列的 SNN 中,理论上可以实现与 SNN 硬件的兼容,适配各类神经拟态芯片。 Advancing Spiking Neural Networks for Sequential Modeling with Central Pattern Generators https://arxiv.org/pdf/2405.14362 贝叶斯行为框架:为具身智能提供理论指导         在心理学和认知神经科学领域,以人类为代表的智能生物群体被认为会执行两类行为:习惯性行为和目标导向行为。习惯性行为是指为了最大化利益而自动执行的动作,无需意识思考或意图的参与,例如寻找食物和避免危险。目标导向行为是指为了实现特定目标而执行的动作,例如有计划地前往某个地点。传统上认为,在认知科学和机器学习中,习惯性行为和目标导向行为由两套独立的系统控制,因此在建模时,研究人员通常会为这两种行为设计独立的模型。         然而,微软亚洲研究院的研究员们认为,这两种系统应该更紧密地结合,实现协同学习和工作。尽管在大脑中这两种系统之间的相互作用尚未完全明了,但习惯性行为和目标导向行为共享着诸如脑干这样的下游神经回路。两种行为共享低级运动技能,且每个系统都可能利用对方学习到的高级动作。例如,习惯性行为虽然缺乏灵活性,但通过练习可以提供熟练的运动技能,这些技能可以被目标导向行为用于更复杂的任务规划。那么如何在保持两种行为差异的同时实现协同?为此,研究员们提出了一个基于变分贝叶斯方法的理论框架——贝叶斯行为(Bayesian Behavior)框架,用于理解感知运动学习中的行为。其核心创新在于引入了一个贝叶斯“意图”(intention)变量,从而有效地连接了习惯性行为与目标导向行为。习惯性行为由感官输入计算的意图先验分布驱动,无需具体目标。目标导向行为则由一个通过最小化变分自由能推断(active inference)的目标条件意图后验分布引导。         在视觉引导的感知运动任务中进行模拟实验的测试结果显示,贝叶斯行为框架所得出的结论与神经科学和心理学实验的观察数据相吻合。这一发现不仅为认知科学中“行为”的理解提供了新的视角,也为具身智能的构建提供了理论基础。例如,人类能够轻松地用左手食指和小指拿起东西,或者原地转圈,未来的具身智能也可能完成这种未曾学习过的动作,展现出更高的适应性和灵活性。 Synergizing Habits and Goals with Variational Bayes https://www.nature.com/articles/s41467-024-48577-7 该论文已在《自然-通讯》(Nature Communications)杂志上发表。 跨领域研究让人工智能向节能高效进化         从达尔文进化论的角度来看,现在的主流人工智能模型在未来可能会面临淘汰。在生物进化的过程中,物种的基因变异是繁殖下一代时的常态。那些有利于生物适应环境的变异,将通过环境的筛选,以“适者生存”的原则被保留下来。然而,将这一概念应用于人工智能时,我们会发现能耗问题并不利于人工智能的发展和“进化”。         借鉴人脑的工作原理,构建脑启发的人工智能,不失为促进人工智能技术向节能高效方向发展的有效途径。这一趋势已经引发了新的研究热潮,包括对大脑理解的研究、基于神经元构建新的语言模型、根据不同脑区功能设计的 MoE 架构等脑启发人工智能正蓬勃发展。在微软亚洲研究院进行脑启发式人工智能研究的过程中,研究员们更加体会到跨学科、跨领域专家协作支持的重要性。CircuitNet、SNN 时间序列框架、贝叶斯行为框架等创新成果的背后,凝聚了来自复旦大学、上海交通大学及日本冲绳科学技术大学院大学等机构的神经科学和脑科学专家的专业知识和贡献。未来,随着对大脑机理的深入理解和技术的不断创新,我们有望增进对智能本质的理解,构建出更加智能、高效且环保的人工智能技术,更好地服务于人类社会。
  • 《人工智能助力生物识别精准化》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-05-26
    • “你是谁?”在当今社会,无处不在的身份识别场景在无声发问。进小区门,要问你是业主本人吗?进家门,要扭动匹配的钥匙或按下指纹;开电脑工作,弹出密码输入弹窗。每个人都是独立的个体,我们能否使用唯一特性与外界建立联系?唯一意味着安全,也意味着核实更方便准确,就像我们的身份证,上面有唯一的数字编码。 与此同时,数字化时代,我们与机器的互动,从敲键盘一步跨向手指点击滑动、开口对话、抬起头、眨眨眼,远隔千里的人们能便捷地沟通交流、能跨省跨国网上办事,但客观上无法实现“亲眼所见”,也给建立“信任”关系带来新的挑战。 人工智能技术的发展,针对数字社会人与人之间、人与机器之间如何建立“信任”关系,提供了一个很好的技术解决手段,即生物识别技术。你用什么方式证明自己?怎样才能定义这世界独一无二的你?设备的进化中,谁在保证个人使用的安全性?无接触生活的背后都是技术在化解复杂,生物识别技术的研究,正是希望解决这些问题。 1.生物识别是数字社会的重要基础 无论处于哪个社会经济发展阶段,“人”始终是最重要的核心要素。人类作为群居动物,在地球上有人类的时刻,“信任”的需求就应运而生,通过视觉“亲眼所见”、听觉“亲耳所闻”等辨别同伴建立信任关系,这种最原始的通过“亲眼所见”等手段建立“信任”的方式也将伴随人类一直延续下去。 数字化世界,需要迭代新的信任交互,生物识别技术是技术发展演进到一定阶段的必然产物,也是一种新型数字身份的基础设施。它基于个体生物特征进行自动识别的一种技术,结合计算机与光学、声学、生物传感器和生物统计学原理等,依靠人体的生理特征或者行为特征来进行身份验证的识别,是当前人工智能技术和信息安全技术在工业界落地应用最显著的代表性成果之一。 所谓生物特征包括人脸、指纹、声纹、虹膜、指静脉、体温等,行为特征则记录签名笔迹、行走步态、坐姿等。这些生物特征各有特点,比如每个人的静脉血管都不是一样的,血管也足够多,因此它的信息唯一、丰富,几乎不能被复制;而一个人随着年龄增长和一些突发情况,行为特征比如走路姿态可能会发生变化,可以理解为特征信息稳定性不那么强。 唯一的、稳定的生物特征就具备理论上的安全基础,我们将它们进一步结合形成有效技术手段,同时采用多种方式来确保它准确、高效就像使用身份证确认“你就是你”。 作为一种身份认证方式,目前生物识别技术已经在金融、教育、司法、医疗、社会治理等行业都有了广泛应用,它需要满足不同场景、行业要求和不断变化演进的业务需求。它将迅速成为数字经济社会的重要信息基础设施之一。 2.生物识别开始出现大规模技术创新 从技术上来说,传统生物识别技术在鲁棒性、准确性以及抗攻击能力等方面,近年来都有大幅提升。比如突破2D人脸存在景深数据丢失的局限性,3D人脸识别技术因其具有更强的描述能力开始在高准确性应用中逐渐增多;在3D识别的基础上人脸活体检测的新技术也进一步被采用;防止人脸数据库被盗库的识别技术也已被提出;指纹识别则开始引入基于手指皮肤颜色和的脉搏心率信号的活体检验,用于防止被仿生导电材料做成的假手指攻击;声纹识别可结合使用电磁场检测,来判断声源为真人还是扬声器等。 另一方面,考虑到应用场景的不同需求:持续认证、移动设备上识别、个人隐私保护等,新型生物识别技术也是应需而生。比如,浙江大学网络空间安全团队针对持续认证,开发了“心脏密码”系统通过不间断用生物雷达的无线信号来感知心脏运动,实现了易用性高的非接触式可持续认证;针对移动设备上的生物识别,利用设备内置摄像头捕捉到的眼球运动,智能手环上测量到的心电图,以及虚拟现实头罩测量到的眼电图和脑电波都相应的实现了可靠的生物识别;针对生物识别中的个人隐私保护,采用无线信号成像来代替摄像头,既避免了摄像头受视角和阻挡等条件的限制,更消除了直接获取图像的隐私泄露风险。 另外,正如每种生物特征各有特点,在充分考虑各种攻击场景下,任何单一生物识别技术往往都呈现出特定的优势和局限。每个模态都具有不同的数据安全程度、采集适应场景、隐私敏感度等,因此解决方案并不能通过单一技术完全达成。 多模态多因子生物识别技术融合因此非常重要。比如夜晚光照不理想,人像识别率低,结合红外成像和热成像的跨模态互补就能增强人像识别的准确度。像是蚂蚁金服多模态融合人脸识别技术实现用户的精准识别,满足金融级误识率(低至千万分之一误识率)下,大大超出了单模态人脸识别技术能达到的性能瓶颈,并提升了人脸识别的安全性。同时,还充分利用移动设备的芯片级安全能力,经过与产业链多方的合作,构造了基于TEE(可信执行环境)的全链路安全协议,为生物支付提供了强有力的安全保障。此外,通过风险感知模块检测黑产攻击,风控引擎自动更新风险模型,风险拦截效率大幅提升,充分保证了交易安全。 未来生物识别技术的趋势便是如此,将会从传统的只提取人体生理特征,向人、物理世界、数字世界融合的认证方向发展。生物识别技术将在和环境特征、数字凭证相结合,满足时空关联、多模态多因子融合的基础上完全实现可信认证。 3.“生物识别”“多模态融合”作为主流研究方向形成标准化的应用共识 从实验室走向产业商用,从模型走向安全产品,靠的是持续生物识别技术迭代和多重技术算法的保障,尤其引起我们关注的是“安全和隐私保护”。 基于这一点,去年,浙江大学和蚂蚁金服联合成立了数据安全与隐私保护实验室,汇集了双方创新力量和优势资源,产学研联合推进前沿科技研究,提升国内生物识别行业安全技术水平。 目前针对人脸数据脱敏、不可逆、可更新、加密等做了大量研究,给生物识别信息保护提供可行的安全技术解决方案。部分安全技术已经转化应用到蚂蚁金服人脸识别技术上,支撑大量金融级安全应用。 在生物识别技术突破最多的是人脸识别,即在图像特征抽取和人脸比对环节中取得了很大进展。但从实验室之外的实际场景应用模拟发现,其影响因素很多。从全链路的角度来看,活体检测、人脸交互、关键点定位、人脸跟踪等在真实的场景下,特别是不同的手机、环境、用户背景等条件下,想做到非常好并且稳定的用户体验是很难的。我们对此进行了很多特殊的优化,如使算法在不同的手机上达到比较一致的运算速度、响应时间,通过文案设计提高用户对刷脸的感知和理解,适应用户背景(如光线、角度等),分析基于其他传感器数据的反馈等。同时企业根据自身业务的不断发展,向学术界持续反馈新的需求,也反过来促进了联合实验室在新技术前沿开拓的方向感和紧迫感,产学研联动形成良性闭环发展。 基于我们共同进行的大量研究、实践积累,近期企业已在IEEE成立“移动设备生物特征识别”标准工作组,并立项“生物特征识别多模态融合”IEEE国际标准。这也是中国企业首次在国际标准中,提出移动设备多模态融合技术的实现框架、功能要求、性能要求、安全要求等。这意味着,“生物识别”、“多模态融合”作为主流研究方向将形成标准化的应用共识。这也是一项技术脱离实验室踏上商用之路的重要一步,有利于推动行业平均技术发展水平。而国际标准是国际规则和共识重要通用载体,对整个行业良性发展至关重要,也是具备技术实力的中国企业必须具备发言权之处。毫无疑问,高校和企业在生物识别这类国际前沿技术及标准上的探索,是中国科技布局眼光、研究能力、科学严谨性的综合体现。它同样预示着,中国企业在人工智能技术领域的国际竞争进入新阶段——从产品出海到技术走出去,如今又向输出全球标准迈进。