《美国IBM公司开发出新型类脑AI芯片》

  • 来源专题:集成电路
  • 编译者: 李衍
  • 发布时间:2023-09-22
  • 我们正处于人工智能革命的开端,这场革命将重新定义人类的生活和工作方式。特别是,深度神经网络 (DNN) 彻底改变了人工智能领域,并随着基础模型和生成式人工智能的出现而日益受到重视。但在传统数字计算架构上运行这些模型限制了它们可实现的性能和能源效率。专门用于人工智能推理的硬件开发已经取得了进展,但其中许多架构在物理上分割了内存和处理单元。这意味着人工智能模型通常存储在离散的内存位置,计算任务需要在内存和处理单元之间不断地整理数据。此过程会减慢计算速度并限制可实现的最大能源效率。

    IBM 研究中心一直在研究重塑人工智能计算方式的方法。模拟内存计算,或者简称模拟人工智能,是一种很有前途的方法,可以借用神经网络在生物大脑中运行的关键特征来应对这一挑战。在我们的大脑以及许多其他动物的大脑中,突触的强度(或称“权重”)决定了神经元之间的通信。对于模拟人工智能系统,研究人员将这些突触权重本地存储在纳米级电阻存储设备的电导值中,例如相变存储器(PCM) 并通过利用电路定律并减少在内存和处理器之间不断发送数据的需要来执行乘法累加 (MAC) 操作,这是 DNN 中的主要计算操作。对于模拟人工智能处理,IBM表示需要克服两个关键挑战:这些存储器阵列需要以与现有数字系统相当的精度进行计算,并且它们需要能够与数字计算单元以及数字通信结构无缝连接。

    据TechXplore网8月22日消息,美国IBM公司又开发出一种新型类脑AI芯片,基于相变存储器的用于深度神经网络推理的 64 位混合信号内存计算芯片。这种新型混合信号芯片的工作方式与大脑中突触相互作用的方式类似,具有64个模拟内存核心,每个核心都托管一组突触细胞单元。同时,该芯片还具有一个转换器,确保模拟和数字信号之间的平滑转换。据IBM公司称,新型芯片在CIFAR-10数据集的测试中实现了92.81%的准确率。该芯片具有较高的能效比,能效可达传统数字计算机芯片的14倍,可大幅降低AI计算的功耗,未来有望满足低能耗、高算力的场景需求。

    面对传统通用处理器(包含图形处理器、中央处理器等)效能低下的问题,IBM研究团队提出“模拟内存计算”的方案,通过在自身的存储器上并行执行矩阵-向量乘法,以提供更强的能效。IBM的研究团队基于该方案开发出了一个 14nm 模拟芯片,利用34个大型相变存储器(PCM)阵列,结合了数模转换输入、模拟外围电路、模数转换输出和大规模并行二维网格路由。每个14nm芯片上可编码3500万个PCM,在每权重对应2-PCMs的方案中,可容纳1700万个参数。将这些芯片组合在一起,便能够像数字芯片一样有效地处理真实AI用例的实验。该芯片是在 IBM 的 Albany NanoTech Complex 中制造的,由 64 个模拟内存计算核心(或块)组成,每个核心包含 256×256 的突触单元格交叉阵列。使用该芯片,IBM对模拟内存计算的计算精度进行了最全面的研究,并在CIFAR-10图像数据集上证明了 92.81% 的准确率,是目前报道的使用类似技术的芯片中精度最高的。8位输入输出矩阵向量乘法密度为400Gop/s/mm,峰值达到63Top/s和9.76Top/W,功耗比之前基于电阻式存储器的多核内存计算芯片高出 15 倍以上,同时实现了可比的能源效率。

    相关成果以题名“A 64-core mixed-signal in-memory compute chip based on phase-change memory for deep neural network inference”于8月10日在线发表于《自然-电子》(Nature Electronics)期刊。

    参考链接:https://www.163.com/dy/article/IDDS0R940511838M.html

    https://caifuhao.eastmoney.com/news/20230812113147087316760

    https://xueqiu.com/9919963656/149699780

    论文链接:https://www.nature.com/articles/s41928-023-01010-1

  • 原文来源:https://techxplore.com/news/2023-08-ibm-analog-ai-chip-patterned.html
相关报告
  • 《美国研究团队合作开发出新型高精度模拟芯片架构》

    • 来源专题:集成电路
    • 发布时间:2024-03-26
    • 许多复杂的物理系统可以用耦合的非线性方程来描述,这些方程必须在多个时空尺度上同时分析。然而,复杂系统的直接数值计算往往受到“维度诅咒”的阻碍,随着问题规模的增加,计算资源也需要成倍增加。尽管对精确、高性能计算解决方案的需求正在增长,但传统冯·诺依曼计算架构在速度、能耗和基础设施方面正达到极限。作为复杂物理系统建模的一种有效方法,存内计算绕过了冯·诺依曼体系结构固有的内存处理器瓶颈,具有诱人的发展前景。但是,存内计算受到读取噪声和写入可变性等问题阻碍,限制了高性能计算的可扩展性、准确性和精度。 2024年2月22日《科学》期刊报道,美国TetraMem公司、南加州大学和马萨诸塞大学阿默斯特分校研究团队开发出一种新型高精度模拟芯片架构,通过调整忆阻器实现了前所未有的精度,并设计出一种新的电路架构和编程协议,编程协议在最后一步将模拟计算结果转换为数字从而使用多个相对低精度的模拟设备(如忆阻器)有效表示高精度的数字,使得模拟设备的编程更加快速和精确,并使低精度模拟设备能够执行高精度计算。在集成的忆阻器片上系统上,研究团队通过实验证明了多个科学计算任务的高精度解决方案,实现了高达10-15的高精度解决方案,同时保持了与传统数字方法相比的巨大功率效率优势。 该新型高精度模拟芯片架构不仅适用于神经网络等传统低精度领域,还可扩展至其他存储技术领域,如磁性存储器和相变存储器[1]。 这种技术创新结合了数字计算的精度和模拟计算的节能和高速优势,不仅提高了模拟计算的效率和速度,还能为人工智能和机器学习等领域带来更多应用可能性。 [1] Wenhao Song, Mingyi Rao, Yunning Li, et al. Programming memristor arrays with arbitrarily high precision for analog computing [J]. Science, 2024, 383(6685):903-910. https://www.science.org/doi/10.1126/science.adi9405
  • 《美国科学家开发出新型脑机接口,可直连大脑和硅基芯片》

    • 来源专题:中国科学院文献情报生命健康领域集成服务门户
    • 编译者:江洪波
    • 发布时间:2020-04-02
    • 3月20日,美国斯坦福大学的研究人员开发出一种新型脑机接口设备,可将大脑直接与硅基芯片连接起来。该脑机接口包括数百根微导线,每根导线的宽度不到人类最细头发的一半。这些导线可插入大脑,并在外部直接连接到一个硅芯片上。通过记录每根导线传递的大脑电信号,研究人员即可大规模记录神经元活动影像。该设备可记录的数据更多,且侵入性更小,有望提高人们对大脑功能的理解,有助于提高机械假肢的性能以及帮助恢复语言和视力等。相关研究成果发表于《科学进展》期刊。