《北京大学成功研制基于阻变存储器的高精度、可扩展模拟矩阵计算芯片》

  • 来源专题:集成电路与量子信息
  • 发布时间:2025-10-15
  • 北京大学人工智能研究院孙仲团队与集成电路学院联合研究,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一芯片首次将模拟计算的精度提升至24位定点精度,在大规模MIMO信号检测等关键科学问题上,其计算吞吐量和能效比当前顶级数字处理器(如GPU)提升百倍至千倍。该成果标志着我国在突破模拟计算世纪难题方面取得重大进展,为后摩尔时代的计算范式变革提供了新路径,对人工智能和6G通信领域的算力挑战提供了解决方案。 

    模拟计算具有高并行、低延时、低功耗的优势,但传统模拟计算精度低、难扩展。研究团队通过新型信息器件、原创电路和经典算法的协同设计,实现了兼具高精度和可扩展性的模拟计算系统,将传统模拟计算的精度提升了五个数量级。研究团队提出的块矩阵模拟计算方法成功解决了规模限制问题,实验表明该技术在算力和能效方面有显著优势。例如,在求解32×32矩阵求逆问题时,其算力超越高端GPU的单核,当问题规模扩大至128×128时,计算吞吐量可达顶级数字处理器的1000倍以上。 

    这项技术的突破不仅在于理论层面,还展示了广阔的应用前景。在6G通信领域,能以实时且低能耗方式处理海量天线信号,提升网络容量和能效;在人工智能领域,有望加速大模型训练中的计算密集型二阶优化算法,提高训练效率。此外,低功耗特性也将支持复杂信号处理和AI训推一体在终端设备上的直接运行,推动边缘计算的发展。 

    目前,研究团队正积极推进该技术的产业化进程,希望尽快将实验室成果推向市场,为算力提升探索出一条高效且绿色的途径,打破数字计算的长期垄断。

  • 原文来源:https://news.sciencenet.cn/htmlnews/2025/10/553097.shtm
相关报告
  • 《北京大学突破模拟计算世纪难题 研发全球首款高精度忆阻器矩阵计算芯片》

    • 来源专题:新一代信息技术
    • 编译者:刘飞
    • 发布时间:2025-10-16
    • 北京大学人工智能研究院孙仲团队在国际顶级期刊《自然?电子学》发表突破性研究成果,成功研制出基于阻变存储器的高精度模拟矩阵计算芯片。该芯片将传统模拟计算精度提升五个数量级,在求解大规模MIMO信号检测等关键问题时,计算吞吐量与能效较当前顶级GPU提升百倍至千倍,为后摩尔时代计算范式变革开辟全新路径。 研究团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次使模拟计算在精度上可与数字计算媲美,将传统模拟计算的精度提升了五个数量级。性能评估表明,该芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。这一成果标志着我国在突破模拟计算世纪难题方面取得了重大进展,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径。  研究背景显示,矩阵方程求解是线性代数的核心内容,广泛应用于信号处理、科学计算及神经网络二阶训练等领域。传统的高精度矩阵求逆数字计算开销巨大,时间复杂度高达立方级。面对大数据驱动应用带来的高复杂度计算挑战,模拟计算因其高并行、低延时、低功耗的优势重新受到关注。然而,传统模拟计算因低精度和难扩展逐渐被高精度、可编程的数字计算取代。 研究方法包括构建基于阻变存储器阵列的高精度、可拓展全模拟矩阵方程求解器,通过新型信息器件、原创电路和经典算法的协同设计,将模拟计算精度提升至24位定点精度。研究团队结合模拟低精度矩阵求逆和模拟高精度矩阵-向量乘法运算,开发了一种基于全模拟矩阵运算的高精度矩阵方程求解方案,并在40nm CMOS工艺平台上制造出相应电路。 实验结果显示,通过与块矩阵算法相结合,他们在实验上成功实现了16×16矩阵的24比特定点数精度求逆,显著提高了计算精度和效率。
  • 《IBM推出基于相变存储器的用于深度神经网络推理的 64 位混合信号内存计算芯片》

    • 来源专题:集成电路
    • 编译者:李衍
    • 发布时间:2023-08-14
    • 我们正处于人工智能革命的开端,这场革命将重新定义人类的生活和工作方式。特别是,深度神经网络 (DNN) 彻底改变了人工智能领域,并随着基础模型和生成式人工智能的出现而日益受到重视。但在传统数字计算架构上运行这些模型限制了它们可实现的性能和能源效率。专门用于人工智能推理的硬件开发已经取得了进展,但其中许多架构在物理上分割了内存和处理单元。这意味着人工智能模型通常存储在离散的内存位置,计算任务需要在内存和处理单元之间不断地整理数据。此过程会减慢计算速度并限制可实现的最大能源效率。 IBM 研究中心一直在研究重塑人工智能计算方式的方法。模拟内存计算,或者简称模拟人工智能,是一种很有前途的方法,可以借用神经网络在生物大脑中运行的关键特征来应对这一挑战。在我们的大脑以及许多其他动物的大脑中,突触的强度(或称“权重”)决定了神经元之间的通信。对于模拟人工智能系统,研究人员将这些突触权重本地存储在纳米级电阻存储设备的电导值中,例如相变存储器(PCM) 并通过利用电路定律并减少在内存和处理器之间不断发送数据的需要来执行乘法累加 (MAC) 操作,这是 DNN 中的主要计算操作。对于模拟人工智能处理,IBM表示需要克服两个关键挑战:这些存储器阵列需要以与现有数字系统相当的精度进行计算,并且它们需要能够与数字计算单元以及数字通信结构无缝连接。 近期,IBM 推出了一款用于实现神经网络的模拟内存 芯片。该器件将权重作为模拟电平存储在相变存储器中作为电导,并实现模拟乘法累加计算。该芯片是在 IBM 的 Albany NanoTech Complex 中制造的,由 64 个模拟内存计算核心(或块)组成,每个核心包含 256×256 的突触单元格交叉阵列。使用该芯片,我们对模拟内存计算的计算精度进行了最全面的研究,并在CIFAR-10图像数据集上证明了 92.81% 的准确率,是目前报道的使用类似技术的芯片中精度最高的。8位输入输出矩阵向量乘法密度为400Gop/s/mm,峰值达到63Top/s和9.76Top/W,功耗比之前基于电阻式存储器的多核内存计算芯片高出 15 倍以上,同时实现了可比的能源效率。 该研究成果以题名“A 64-core mixed-signal in-memory compute chip based on phase-change memory for deep neural network inference”发表在Nature Electronics上。 参考信息链接:https://caifuhao.eastmoney.com/news/20230812113147087316760 https://www.nature.com/articles/s41928-023-01010-1 https://xueqiu.com/9919963656/149699780