《科研人员通过反应描述语言连接化学与人工智能》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2025-05-28
  • 近日,中国科学院上海药物研究所郑明月团队报道了名为ReactSeq反应描述语言。该语言可以编码化学反应中的分子编辑操作,使自然语言处理模型在逆合成预测、反应表征和检索方面表现得更为出色。

    以大语言模型为代表的人工智能技术在自然语言处理方面取得了进展,影响了科学研究范式。在生命科学领域,语言模型现已被用于在蛋白质和基因序列中挖掘隐藏信息,并取得了成果。在化学与药物研发领域,处理化学分子与反应的化学语言模型(CLMs)也逐渐兴起。与自然语言、蛋白质和基因不同,化学分子缺乏固有的顺序表示。CLM利用化学家定义的分子线性注释来学习和生成分子结构。常用的分子线性注释是简化分子输入线输入系统(SMILES)。

    近年来,为提升CLMs在特定任务中的表现,有研究设计了一些新的分子线性注释。然而,这些语言都是为了描述化学分子的静态结构,无法明确描述化学反应过程中分子中原子和键的变化过程。这限制了语言模型在化学反应预测和表示中的应用。目前用于化学反应预测的语言模型包括正向和反向合成预测,通常直接将产物和反应物的线性表示相互转换,但在可解释性与交互性方面存在不足。此外,尽管预训练语言模型在多种序列数据的表示学习方面表现出色,但其在化学反应表示方面的进展相对有限。

    受逆合成分析过程的启发,ReactSeq定义了从产物结构出发并将其转化为反应物分子所需的一系列分子编辑操作(MEO)。这些MEO包括化学键的断裂和变化、原子电荷的改变以及离去基团的附着。在基于ReactSeq的逆合成模型中,反应物不是从头开始逐个生成。相反地,它是通过这些MEO从产物分子转化而来。这确保了预测反应物和产物之间的精确原子映射,增强了模型的可解释性。研究显示,利用ReactSeq,只需要简单的Transformer模型便能在逆合成预测中实现先进的性能。

    ReactSeq具有表示MEO的显式令牌,可对人类指令进行编码。结果表明,人类专家的提示可提高模型性能,甚至指导它探索新的反应。同时,这些MEO令牌利于提取反应表示。与聚合整个ReactSeq的嵌入相比,专注于这些MEO令牌的嵌入可以产生更加忠实且具有内在化学意义的反应表示。基于这一策略并结合自监督学习,研究人员构建了通用且可靠的反应表示方法。该方法能够自然区分反应类型并评估其相似性,从而促进相似反应的检索、实验流程的推荐及反应收率的预测。

    该研究通过创新的化学语言设计,为垂直领域的大语言模型赋予了新能力。同时,这一成果提升了自然语言处理模型应对复杂化学问题的能力,为化学人工智能基础模型的发展提供了新方向。

    5月13日,相关研究成果在线发表在《自然-机器智能》(Nature Machine Intelligence)上。研究工作得到国家自然科学基金、国家重点研发计划、中国科学院战略性先导科技专项等的支持。

  • 原文来源:https://www.cas.cn/syky/202505/t20250516_5068454.shtml
相关报告
  • 《Nature | 医学人工智能的未来》

    • 来源专题:战略生物资源
    • 编译者:李康音
    • 发布时间:2023-10-29
    • 本文内容转载自“ChemBioAI”微信公众号。原文链接: https://mp.weixin.qq.com/s/hlwb9sc0rugxZ_ThiOy7gQ 2023年10月24日,《自然》新闻(Nature News)在线发表了一篇题为An AI revolution is brewing in medicine. What will it look like?的特别报道。 Jordan Perchik于2018年开始在亚拉巴马大学伯明翰分校进行放射科住院医生培训,那时正值他所谓的放射科学领域的“AI恐慌”高峰期。在计算机科学家Geoffrey Hinton宣称人们应停止培训成为放射科医生的仅仅两年后,这一时期开始。Hinton被称为人工智能之父,他预测这些系统很快将能够比人类更好地阅读和解释医学扫描图像和X光片。此后,放射科医学项目的申请数量大幅下降。 基于人工智能的工具越来越多地成为医疗保健的一部分,美国食品和药品监督管理局(FDA)已经授权使用超过500种这类工具。其中大多数与医学影像有关,用于改进图像质量、测量异常或标记检测结果以供后续跟踪。 调查显示,虽然许多医生知道临床AI工具的存在,但实际上只有很小一部分 (大约在10%到30%之间) 使用过它们,他们的态度从谨慎乐观到彻底不信任不等。荷兰乌得勒支大学医疗中心的医学创新实施专家Charisma Hehakaya说:“一些放射科医生对AI应用的质量和安全性存在疑虑。”即使AI工具能够完成它们的目标任务,仍不清楚这是否会转化为患者更好的医疗护理。但有一种被称为综合医学AI的方法似乎正在兴起。这些模型受到庞大数据集的训练,就像驱动ChatGPT和其他AI聊天机器人的模型一样。在吸收大量医学图像和文本数据后,这些模型可以适用于许多任务。尽管目前获得批准的工具执行特定功能,比如在计算机断层扫描(CT)中检测肺结节,但这些综合模型将更像医生,评估扫描中的每一种异常情况,并将其整合为一种诊断。 尽管现在的AI爱好者趋向避免大胆宣称机器将取代医生,但许多人认为,这些模型可以克服目前医学AI的某些限制,有朝一日可能在某些情况下超越医生。然而,这些新工具能够在实际临床护理中使用之前,还有漫长的道路需要走。 目前存在的限制 医学领域的人工智能工具充当从业者的辅助角色,例如通过快速浏览扫描图像并标记医生可能立即查看的潜在问题,这些工具有时表现很出色。Jordan Perchik记得有一次,在他值夜班的时候,一种AI分诊工具在凌晨3点为一名出现呼吸急促症状的患者标记了一张胸部CT扫描。他将这张扫描图像提上优先级,并同意AI的评估结果,该结果显示患者存在肺栓塞,这是一种可能致命且需要立即治疗的情况。如果没有被标记出来,这张扫描图像可能要等到当天晚些时候才会被评估。 但如果AI犯了错误,它也会产生相反的效果。Jordan Perchik说,最近他发现了一例AI没有标记出来的肺栓塞病例,他决定采取额外的审查步骤,最终证实了他的评估,但这减缓了他的工作进度。如果他决定相信AI并继续前进,那么这种情况可能会被漏诊。”许多已获批准的设备并不一定符合医生的需求,早期的AI医学工具是根据影像数据的可用性来开发的,因此一些应用程序是为常见且容易识别的疾病而建立的。 另一个问题是,这些AI工具倾向专注于特定任务,而不是全面解释医学检查——观察图像中可能相关的一切,考虑以前的结果和患者的临床病史。尽管专注于检测一些疾病具有一定价值,但它并不反映放射科医生真正的认知工作。 解决方案通常是增加更多基于AI的工具,但这也对医疗护理构成挑战,伦敦Google Health的临床研究科学家Alan Karthikesalingam表示。假如一个人接受常规乳腺X光检查,技术员可能会采用一种用于乳腺癌筛查的AI工具的辅助。如果发现异常,同一患者可能需要进行磁共振成像(MRI)扫描以确认诊断,而这可能需要另一个AI设备。如果诊断结果得到确认,那么病变将会通过手术移除,可能需要另一种AI系统来协助进行病理学分析。 许多医院并不了解监测AI性能和安全性所涉及的挑战,英国伯明翰大学研究医疗AI负责创新的临床研究员Xiaoxuan Liu表示。她和她的同事们确定了数千份医学成像研究,比较了深度学习模型的诊断性能与医疗保健专业人员的性能。对于该团队评估的69项诊断准确性研究,一个主要发现是,大多数模型未经真正独立于用于训练模型的信息的数据集进行测试。这意味着这些研究可能高估了模型的性能。 坚实的基础 为了解决医学领域AI工具的一些限制,研究人员一直在探索具备更广泛能力的医学人工智能。他们受到了像ChatGPT这样的革命性大型语言模型的启发。这个术语是由斯坦福大学的科学家们在2021年创造的,它描述了在广泛的数据集上进行训练的模型,这些数据集可以包括图像、文本和其他数据,使用一种称为自监督学习的方法。这些基础模型,也被称为基本模型或预训练模型,构成了后续可以适应执行不同任务的基础。 目前大多数医学AI设备是通过监督学习方法开发的。例如,使用这种方法训练一个模型来识别肺炎,需要专家分析大量的胸部X光片并将它们标记为“肺炎”或“非肺炎”,以教导系统识别与该疾病相关的模式。在基础模型中不需要大量图像的注释。例如,对于ChatGPT,使用大量文本进行训练,以训练一个通过预测句子中的下一个单词来学习的语言模型。同样,伦敦摩尔菲尔德眼科医院的眼科医生Pearse Keane及其同事开发的医学基础模型使用了160万张视网膜照片和扫描图像,以学习如何预测这些图像缺失部分应该是什么样子。在进行了这一预训练后,研究人员引入了几百张标记图像,使其能够学习特定的与视觉相关的疾病,如糖尿病性视网膜病变和青光眼。该系统在检测这些眼部疾病以及通过眼底血管微小变化检测出的心脏病和帕金森病等系统性疾病方面优于以前的模型,但该模型尚未在临床环境中进行测试。 Keane表示,基础模型对眼科学领域特别合适,因为几乎可以对眼部的每个部位进行高分辨率成像。而且有大量的这些图像数据可用于训练这种模型。人工智能将彻底改变医疗保健,而眼科学可以成为其他医学专业的示范。大型科技公司已经在投资使用多种图像类型的医学成像基础模型,包括皮肤照片、视网膜扫描、X光片和病理学切片,并整合电子健康记录和基因组数据。 今年6月,Google Research科学家们发表了一篇论文,介绍了他们称之为REMEDIS(具有自监督的强大和高效医学成像)的方法,与使用监督学习训练的AI工具相比,该方法能够将诊断准确性提高高达11.5%。研究发现,在对未标记图像的大型数据集进行预训练后,只需要少量标记图像就能达到这些结果。这项研究的共同作者之一,Karthikesalingam说:“我们的主要发现是,REMEDIS能够以非常高效的方式,只需很少的示例,学会如何在许多不同的医学图像中对许多不同的事物进行分类,包括胸部X光片、数字病理学扫描和乳腺X光检查。”次月,Google的研究人员在一篇预印本中描述了他们如何将这一方法与该公司的医学大型语言模型Med-PaLM相结合,该模型几乎可以像医生一样回答一些开放性的医学问题。结果表明,Med-PaLM Multimodal不仅可以解释胸部X光图像,还可以以自然语言起草医疗报告。 微软也在努力将语言和视觉整合到一个单一的医学AI工具中。今年6月,公司的科学家们推出了LLaVA-Med(生物医学大型语言和视觉助手),该模型在与从PubMed Central(一个公开可访问的生物医学文章数据库)提取的文本配对的图像上进行训练。微软Health Futures的生物医学AI研究负责人Hoifung Poon表示:“一旦你这样做,你就可以开始与图像进行对话,就像你在与ChatGPT交谈一样。” 这种方法的一个挑战是它需要大量的文本-图像对。 随着这些模型在越来越多的数据上进行训练,一些科学家乐观地认为它们可能能够识别人类无法识别的模式。AI工具可能在某些领域超越人类能力,比如使用数字病理学来预测免疫疗法对肿瘤的反应。 Karthikesalingam还指出,即使Google的医学成像AI取得了最佳结果,它仍然无法与人类相媲美。人类放射科医生的X光报告仍然被认为明显优于最先进的多模式综合医学系统。尽管基础模型似乎特别适合扩大医学AI工具的应用,但要展示它们可以安全用于临床护理还有很长的路要走。 毫无疑问,AI在放射科领域的作用将继续增长,与其说取代放射科医生,不如培训他们如何使用AI。
  • 《脑启发设计:人工智能的进化之路》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2024-07-08
    • 作者:微软亚洲研究院 编者按:你可以用左手(不常用的那只手)的小指与食指拿起一件物品么?         试完你是不是发现自己竟然可以毫不费力地用自己不常用的手中,两根使用频率相对较低的手指,做一个不常做的动作。这就是人类大脑不可思议之处——无需经过特别的训练,大脑就能够在短时间内以低功耗的方式控制身体完成各种复杂行为,甚至是全新的动作。相比之下,人工智能虽然是人类智慧的产物,但在很多方面还远不及人类大脑。 为此,微软亚洲研究院(上海)团队的研究员们从理解大脑结构与活动中获得灵感,开发了一系列涵盖大脑学习、计算过程不同层级的创新技术,包括模仿脑神经回路连接方式,可高效处理众多任务的 CircuitNet 神经回路网络;可应用于时间序列预测,更适配神经拟态芯片的新型 SNN(脉冲神经网络)框架和策略;以及可为具身智能提供理论指导的贝叶斯行为框架。这些探索为未来的人工智能技术发展提供了新的可能。         从能耗的角度来看,人类大脑只需要大约20瓦的功率即可维持运转,这约等于一个节能灯泡的功耗。但随着人工智能大模型参数和规模的增大,其能源需求远高于传统的数据中心。主流的大语言模型训练过程预计会消耗上千兆瓦的电力,相当于数百个家庭一年的用电量。这种能源消耗的增长趋势显然不利于人工智能技术的可持续发展。那么如何通过新的处理机制解决能耗问题,就成了信息科学领域一个紧迫且前沿的挑战。《千脑智能》一书为我们提供了启示:“要创造出真正智能的机器,我们首先需要对大脑进行逆向工程。我们研究大脑,不仅是为了理解它的工作原理,更是为了探索智能的本质。”其实,人工智能本身就是人类对大脑探索的产物,在计算机诞生之初,人们就已经利用神经连接模式+数字计算的方式模拟大脑。但受限于当时的算力和人们对大脑粗浅的认知,人工智能发展非常缓慢,甚至一度被束之高阁。             近几十年来,随着神经科学家对大脑结构的深入理解和计算资源及相关技术的增强,以脑启发为核心的“人工智能文艺复兴”也掀起了新一轮热潮,促使科研人员重新定位大脑机制对人工智能的作用。来自微软亚洲研究院(上海)的研究员们跨越计算机和脑科学专业知识,深入理解大脑的结构与行为活动,针对大脑学习和计算过程,从神经元、网络层和更高级别的系统层出发,分别设计研发了高性能的脉冲神经网络(SNN)、参数效率更高的回路神经网络(CircuitNet),以及提升决策效率的贝叶斯行为框架,促进了人工智能网络向着更低功耗、更高效率、更好性能的方向良性发展,同时也为具身智能发展提供了理论和方法。 CircuitNet:模拟大脑神经元连接,实现更低功耗与更高性能         人工神经网络(ANN)已经被广泛应用于人工智能的众多领域,包括自然语言处理、机器学习、语音识别和控制系统等。这些应用的成功,很大程度上得益于它们对大脑神经元工作模式的模仿。神经元是大脑最基本的单元,它们之间通过复杂的连接模式相互作用来传递和处理信息。但早期的人工神经网络设计相对简单,仅能模拟一两种连接模式。 随着神经科学的发展,人们发现大脑神经元的连接方式多种多样,其中有四种常见模式:前馈激励和抑制、反馈抑制、侧抑制和相互抑制。然而,现有的许多人工神经网络,如具有残差连接的网络,只能模拟前馈激励和抑制模式。即便是能够模拟循环模式的递归神经网络(RNN),在信息传入前也无法处理上游神经元间的复杂相互作用,从而影响了神经网络在不同机器学习任务中的表现。         生物神经网络与人工神经网络的整体连接模式也大不相同。生物神经网络的一个显著特点是局部密集连接与全局稀疏连接的结合。尽管单个神经元可以有数千个突触,但它们大多数位于一个脑区内,形成针对特定任务的功能集群。只有少数突触作为不同脑区之间的桥梁,延伸到其它功能集群,而人工神经网络通常不具备这样的特性。此外,人工神经网络中的许多参数也被证实是冗余的,增加了网络的复杂性。基于对大脑神经连接的新理解,研究员们提出了新的回路神经网络 CircuitNet,它能够模拟包括反馈和侧向模式在内的多种神经元连接模式。CircuitNet 的设计还借鉴了大脑神经元局部密集和全局稀疏连接的特性,通过不同电路模式单元(Circuit Motif Unit, CMU)的输入端和输出端的稀疏连接,实现了信号在不同 CMU 之间的多轮传输。实验结果表明,CircuitNet 在函数逼近、强化学习、图像分类和时间序列预测等任务中的表现超越了当前流行的神经网络架构。而且,在各种类型的任务中,CircuitNet 在达到与其它神经网络相同性能的同时,具有相当或更少的参数,展示了其在机器学习任务中的有效性和强大的泛化能力。 CircuitNet: A Generic Neural Network to Realize Universal Circuit Motif Modeling https://openreview.net/pdf?id=Fl9q5z40e3 让SNN网络更适用于时间序列预测任务的新框架         脉冲神经网络(SNN)因其能效高、事件驱动范式和生物学上的合理性,正逐渐受到业内的重视。SNN 的设计灵感来源于生物神经网络中神经元间的信息传递方式——神经元不是在每次迭代传播中都被激活,只有膜电位达到特定阈值时才被激活,进行信号传递。这种事件驱动机制使得 SNN 只在接收到有效刺激时才进行信息处理,从而避免了无效计算,极大地提高了运算效率和能效比。然而,研究员们发现,现有的 SNN 设计大多聚焦于其离散的事件驱动特性,有的会忽略其时间属性,有的则为了适应事件驱动范式过程,过度简化序列数据模式。这些方法虽然让 SNN 在图像分类、文本分类和序列图像分类任务上实现了与人工神经网络接近的性能,但并未充分发挥 SNN 在处理时间信号方面的潜力。研究员们认为,时间序列预测是 SNN 一个理想的应用场景。作为现实数据分析的重要组成部分,时间序列预测广泛应用于交通、能源、医疗等领域,旨在基于按时间顺序排列的历史数据来预测未来。但是,将 SNN 应用于时间序列预测还面临两大挑战:         SNN 中脉冲值的离散特性与时间序列数据的浮点属性之间存在巨大的差异,需要一种有效的机制来减少在将浮点值转换为脉冲序列时的信息丢失和噪声。如何选择用于时序数据的 SNN 标准化模型目前还缺少一个指导方针,进而加剧了任务的复杂性,这就需要对 SNN 架构及其参数进行深入探索,以适应不同时间序列数据的特定特征。研究员们提出了一个用于时间序列预测任务的 SNN 框架。该框架充分利用了脉冲神经元在处理时间序列信息上的高效性,成功实现了时间序列数据与 SNN 之间的时间同步。研究员们还设计了两种编码层,可以将连续时间序列数据转换为有意义的脉冲序列。这之后,研究员们又利用多种脉冲化的时间序列模型对脉冲序列进行了建模,得到了最终的预测结果。         通过在多个时间序列预测基准集上的测试,研究员们证实了 SNN 方法在时间序列预测中的有效性。该方法不仅展现出与传统时间序列预测方法相媲美或更优的性能,而且显著降低了能耗。此外,在分析实验中,研究员们还展示了 SNN 如何捕获时间序列数据中的时间依赖性,并发现 SNN 确实能够模拟时间序列数据的内在动态。这项研究为 SNN 领域提供了一个既节能,又符合生物学原理的时间序列预测新方案。 Efficient and Effective Time-Series Forecasting with Spiking Neural Networks https://arxiv.org/pdf/2402.01533 大脑中枢模式发生器与位置编码双加持,让SNN序列预测更上一层楼          尽管 SNN 在多个领域取得了显著进展,但它们在适应不同类型任务时仍面临挑战。SNN 作为事件驱动的系统,缺乏有效机制来捕获索引信息、节奏模式和周期性数据,从而限制了它们处理自然语言和时间序列等数据模式的能力。而且,SNN 依赖于脉冲形式的通信,这使得并非所有适用于人工神经网络的深度学习技术都能直接迁移到 SNN 上。为了克服这些限制,研究员们进一步从生物神经学机制中汲取灵感,基于人类大脑中枢模式发生器(Central Pattern Generator, CPG)和位置编码(Positional Encoding,PE)技术,开发了针对 SNN 的新型位置编码技术 CPG-PE。         中枢模式发生器(CPG):在神经科学中,CPG 是一组能够在不需要节奏输入的情况下,产生有节奏的模式输出的神经元。这些神经回路位于脊髓和脑干中,负责产生控制运动、呼吸和咀嚼等重要活动的有节奏信号。位置编码(PE):PE 是人工神经网络中的一项关键技术,尤其在序列处理任务中尤为重要。通过为输入序列的每个元素赋予位置信息,PE 使神经网络能够识别序列中元素的顺序和相对位置。CPG 和 PE 都能产生周期性输出,CPG 是相对于时间的输出,而 PE 则是相对于位置的输出。研究员们将两者类比,使 CPG-PE 可以编码时间或空间的位置信息,预测神经信号的来源或位置。         在 Metr-la(洛杉矶高速公路平均交通速度数据)、Pems-bay(湾区平均交通速度数据)、Electricity(以千瓦时 kWh 测量的每小时电力消耗数据)和 Solar(太阳能发电数据)四个真实世界数据集上进行的时间序列预测实验表明,采用 CPG-PE 策略的 SNN 在时间序列分析方面显著优于没有 PE 特性的神经网络。同时,CPG-PE 可以无缝集成到任何能够处理序列的 SNN 中,理论上可以实现与 SNN 硬件的兼容,适配各类神经拟态芯片。 Advancing Spiking Neural Networks for Sequential Modeling with Central Pattern Generators https://arxiv.org/pdf/2405.14362 贝叶斯行为框架:为具身智能提供理论指导         在心理学和认知神经科学领域,以人类为代表的智能生物群体被认为会执行两类行为:习惯性行为和目标导向行为。习惯性行为是指为了最大化利益而自动执行的动作,无需意识思考或意图的参与,例如寻找食物和避免危险。目标导向行为是指为了实现特定目标而执行的动作,例如有计划地前往某个地点。传统上认为,在认知科学和机器学习中,习惯性行为和目标导向行为由两套独立的系统控制,因此在建模时,研究人员通常会为这两种行为设计独立的模型。         然而,微软亚洲研究院的研究员们认为,这两种系统应该更紧密地结合,实现协同学习和工作。尽管在大脑中这两种系统之间的相互作用尚未完全明了,但习惯性行为和目标导向行为共享着诸如脑干这样的下游神经回路。两种行为共享低级运动技能,且每个系统都可能利用对方学习到的高级动作。例如,习惯性行为虽然缺乏灵活性,但通过练习可以提供熟练的运动技能,这些技能可以被目标导向行为用于更复杂的任务规划。那么如何在保持两种行为差异的同时实现协同?为此,研究员们提出了一个基于变分贝叶斯方法的理论框架——贝叶斯行为(Bayesian Behavior)框架,用于理解感知运动学习中的行为。其核心创新在于引入了一个贝叶斯“意图”(intention)变量,从而有效地连接了习惯性行为与目标导向行为。习惯性行为由感官输入计算的意图先验分布驱动,无需具体目标。目标导向行为则由一个通过最小化变分自由能推断(active inference)的目标条件意图后验分布引导。         在视觉引导的感知运动任务中进行模拟实验的测试结果显示,贝叶斯行为框架所得出的结论与神经科学和心理学实验的观察数据相吻合。这一发现不仅为认知科学中“行为”的理解提供了新的视角,也为具身智能的构建提供了理论基础。例如,人类能够轻松地用左手食指和小指拿起东西,或者原地转圈,未来的具身智能也可能完成这种未曾学习过的动作,展现出更高的适应性和灵活性。 Synergizing Habits and Goals with Variational Bayes https://www.nature.com/articles/s41467-024-48577-7 该论文已在《自然-通讯》(Nature Communications)杂志上发表。 跨领域研究让人工智能向节能高效进化         从达尔文进化论的角度来看,现在的主流人工智能模型在未来可能会面临淘汰。在生物进化的过程中,物种的基因变异是繁殖下一代时的常态。那些有利于生物适应环境的变异,将通过环境的筛选,以“适者生存”的原则被保留下来。然而,将这一概念应用于人工智能时,我们会发现能耗问题并不利于人工智能的发展和“进化”。         借鉴人脑的工作原理,构建脑启发的人工智能,不失为促进人工智能技术向节能高效方向发展的有效途径。这一趋势已经引发了新的研究热潮,包括对大脑理解的研究、基于神经元构建新的语言模型、根据不同脑区功能设计的 MoE 架构等脑启发人工智能正蓬勃发展。在微软亚洲研究院进行脑启发式人工智能研究的过程中,研究员们更加体会到跨学科、跨领域专家协作支持的重要性。CircuitNet、SNN 时间序列框架、贝叶斯行为框架等创新成果的背后,凝聚了来自复旦大学、上海交通大学及日本冲绳科学技术大学院大学等机构的神经科学和脑科学专家的专业知识和贡献。未来,随着对大脑机理的深入理解和技术的不断创新,我们有望增进对智能本质的理解,构建出更加智能、高效且环保的人工智能技术,更好地服务于人类社会。