《AI系统发展出类人脑特征,会用与人相同的思维来完成任务》

  • 来源专题:新一代信息技术
  • 编译者: 王晓丽
  • 发布时间:2023-11-24

  •   20日发表在《自然·机器智能》杂志上的一项研究中,英国剑桥大学科学家证明,对人工智能(AI)系统施加物理限制,就像人脑必须在物理和生物限制下发育和运作一样,可让它发展出某些与人脑相似的关键特征和策略,从而解决任务。
      该系统使用计算节点,而不是真正的神经元。神经元和节点在功能上相似,包括接受输入、转换并产生输出,并且单个节点或神经元可能连接到多个其他节点或神经元。
      团队对系统应用了“物理”约束。他们给系统提供了一个简单的任务。这是一个迷宫导航任务的简化版本,通常在研究大脑时也会用于老鼠和猕猴等动物,系统必须结合多条信息来决定到达终点的最短路径。
      当系统被要求在物理约束下执行任务时,它使用了与真实人脑相同的技巧来解决任务。例如,为了克服这些限制,人工系统开始形成集线器,这是高度连接的节点,充当跨网络传递信息的渠道。
      而且,节点发展出了灵活的编码方案。这意味着在不同时刻,节点可能会因迷宫的混合属性而被触发。例如,同一节点能对迷宫的多个位置进行编码,不需要专门的节点来对特定位置进行编码。这是在复杂生物体的大脑中才能看到的另一个特征。
      团队表示,这一人造大脑为科学家提供了一种方法,让他们能够理解在真实大脑中记录神经元活动时所看到的丰富而令人眼花缭乱的数据。人造大脑还让人们能够注意到在实际生物系统中不可能看到的问题。
      新系统的总体布线成本比典型的人工智能系统低得多,更接近真实的大脑。这意味着,用有限的能量资源处理大量不断变化的信息的机器人,亦可从该类脑结构中受益。
    总编辑圈点

  • 原文来源:http://www.chinasei.com.cn/xxjscy/rgzn/202311/t20231121_65044.html
相关报告
  • 《人工智能系统自我组织,开发出复杂生物大脑的特征》

    • 来源专题:新一代信息技术
    • 编译者:王晓丽
    • 发布时间:2023-11-24
    • 发表于《自然-机器智能》(Nature Machine Intelligence)的一项研究中,阿赫特伯格、阿卡尔卡及其同事创建了一个人工系统,旨在模拟一个非常简化的大脑模型,并应用了物理约束。他们发现,他们的系统进而发展出了某些与人类大脑相似的关键特征和策略。 该系统使用的是计算节点,而不是真正的神经元。神经元和节点的功能类似,都是接收输入、转换输入并产生输出,而且单个节点或神经元可能连接多个其他节点或神经元,所有输入的信息都要进行计算。 然而,在他们的系统中,研究人员对系统施加了 "物理 "限制。每个节点在虚拟空间中都有一个特定的位置,两个节点离得越远,它们就越难沟通。这与人脑中神经元的组织方式类似。 研究人员给该系统布置了一个简单的任务--在这种情况下,它要完成的是一个简化版的迷宫导航任务,通常是在研究大脑时给大鼠和猕猴等动物布置的任务,它必须结合多种信息来决定到达终点的最短路线。 研究小组选择这项特殊任务的原因之一是,要完成这项任务,系统需要保持一系列要素--起始位置、终点位置和中间步骤--一旦学会可靠地完成任务,就有可能在试验的不同时刻观察到哪些节点是重要的。例如,一个特定的节点集群可能编码终点位置,而其他节点集群则编码可用路线,因此可以跟踪哪些节点在任务的不同阶段处于活动状态。 起初,系统不知道如何完成任务并会犯错。但当系统得到反馈后,它就会逐渐学会如何更好地完成任务。它通过改变节点间连接的强度来学习,这与我们学习时脑细胞间连接强度的变化类似。然后,系统会一遍又一遍地重复任务,直到最终学会正确执行任务。 然而,在他们的系统中,物理限制意味着两个节点离得越远,就越难根据反馈在两个节点之间建立连接。在人脑中,跨越较大物理距离的连接的形成和维持都非常昂贵。 当系统被要求在这些限制条件下执行任务时,它使用了一些与真实人脑相同的技巧来解决任务。例如,为了绕过这些限制,人工系统开始发展集线器--高度连接的节点,作为整个网络传递信息的通道。 然而,更令人惊讶的是,单个节点本身的反应特征也开始发生变化:换句话说,系统中的每个节点不再为迷宫任务的某一特定属性(如目标位置或下一个选择)编码,而是发展出一种灵活的编码方案。这就意味着,在不同的时刻,节点可能会对迷宫的各种属性进行编码。例如,同一个节点可以对迷宫的多个位置进行编码,而不需要专门的节点对特定位置进行编码。这是复杂生物大脑的另一个特点。
  • 《美国IBM公司开发出新型类脑AI芯片》

    • 来源专题:集成电路
    • 编译者:李衍
    • 发布时间:2023-09-22
    • 我们正处于人工智能革命的开端,这场革命将重新定义人类的生活和工作方式。特别是,深度神经网络 (DNN) 彻底改变了人工智能领域,并随着基础模型和生成式人工智能的出现而日益受到重视。但在传统数字计算架构上运行这些模型限制了它们可实现的性能和能源效率。专门用于人工智能推理的硬件开发已经取得了进展,但其中许多架构在物理上分割了内存和处理单元。这意味着人工智能模型通常存储在离散的内存位置,计算任务需要在内存和处理单元之间不断地整理数据。此过程会减慢计算速度并限制可实现的最大能源效率。 IBM 研究中心一直在研究重塑人工智能计算方式的方法。模拟内存计算,或者简称模拟人工智能,是一种很有前途的方法,可以借用神经网络在生物大脑中运行的关键特征来应对这一挑战。在我们的大脑以及许多其他动物的大脑中,突触的强度(或称“权重”)决定了神经元之间的通信。对于模拟人工智能系统,研究人员将这些突触权重本地存储在纳米级电阻存储设备的电导值中,例如相变存储器(PCM) 并通过利用电路定律并减少在内存和处理器之间不断发送数据的需要来执行乘法累加 (MAC) 操作,这是 DNN 中的主要计算操作。对于模拟人工智能处理,IBM表示需要克服两个关键挑战:这些存储器阵列需要以与现有数字系统相当的精度进行计算,并且它们需要能够与数字计算单元以及数字通信结构无缝连接。 据TechXplore网8月22日消息,美国IBM公司又开发出一种新型类脑AI芯片,基于相变存储器的用于深度神经网络推理的 64 位混合信号内存计算芯片。这种新型混合信号芯片的工作方式与大脑中突触相互作用的方式类似,具有64个模拟内存核心,每个核心都托管一组突触细胞单元。同时,该芯片还具有一个转换器,确保模拟和数字信号之间的平滑转换。据IBM公司称,新型芯片在CIFAR-10数据集的测试中实现了92.81%的准确率。该芯片具有较高的能效比,能效可达传统数字计算机芯片的14倍,可大幅降低AI计算的功耗,未来有望满足低能耗、高算力的场景需求。 面对传统通用处理器(包含图形处理器、中央处理器等)效能低下的问题,IBM研究团队提出“模拟内存计算”的方案,通过在自身的存储器上并行执行矩阵-向量乘法,以提供更强的能效。IBM的研究团队基于该方案开发出了一个 14nm 模拟芯片,利用34个大型相变存储器(PCM)阵列,结合了数模转换输入、模拟外围电路、模数转换输出和大规模并行二维网格路由。每个14nm芯片上可编码3500万个PCM,在每权重对应2-PCMs的方案中,可容纳1700万个参数。将这些芯片组合在一起,便能够像数字芯片一样有效地处理真实AI用例的实验。该芯片是在 IBM 的 Albany NanoTech Complex 中制造的,由 64 个模拟内存计算核心(或块)组成,每个核心包含 256×256 的突触单元格交叉阵列。使用该芯片,IBM对模拟内存计算的计算精度进行了最全面的研究,并在CIFAR-10图像数据集上证明了 92.81% 的准确率,是目前报道的使用类似技术的芯片中精度最高的。8位输入输出矩阵向量乘法密度为400Gop/s/mm,峰值达到63Top/s和9.76Top/W,功耗比之前基于电阻式存储器的多核内存计算芯片高出 15 倍以上,同时实现了可比的能源效率。 相关成果以题名“A 64-core mixed-signal in-memory compute chip based on phase-change memory for deep neural network inference”于8月10日在线发表于《自然-电子》(Nature Electronics)期刊。 参考链接:https://www.163.com/dy/article/IDDS0R940511838M.html https://caifuhao.eastmoney.com/news/20230812113147087316760 https://xueqiu.com/9919963656/149699780 论文链接:https://www.nature.com/articles/s41928-023-01010-1