《突破瓶颈!我国成功研制高精度模拟计算芯片》

  • 来源专题:新一代信息技术
  • 编译者: 刘飞
  • 发布时间:2025-10-23
  • 北京大学团队成功研制出基于阻变存储器的高精度模拟矩阵计算芯片。该芯片实现了24比特定点数精度,矩阵方程求解相对误差低至10??量级,标志着我国在模拟计算领域取得重大突破。研究团队指出,该芯片专注于AI训练中最耗能的矩阵逆运算,将与现有CPU、GPU形成互补格局,有望在机器人和人工智能训练领域率先实现应用落地。

    该芯片首次实现了在精度上可与数字计算媲美的模拟计算系统,在求解大规模MIMO信号检测等关键科学问题时,其计算吞吐量和能效相比当前顶级数字处理器(GPU)提升了百倍至千倍。相关研究成果发表在《自然·电子学》期刊上。 不同于传统的数字计算,模拟计算直接利用连续的物理量(如电压、电流)进行类比计算,取消了将数据转化为二进制数字流的过程,从而实现更高的计算效率和低能耗。

    此次研究突破了模拟计算“算不准”的瓶颈,成功实现了16×16矩阵的24比特定点数精度求逆,相对误差低至10??量级。在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量达到顶级数字处理器的1000倍以上。 该芯片在未来AI领域特别是计算智能领域(如机器人和人工智能模型训练)中具有重要应用前景。孙仲表示,未来的计算架构将是互补共存的模式,CPU作为通用指挥单元,GPU专注加速矩阵乘法计算,而新的模拟计算芯片则高效处理AI等领域最耗能的矩阵逆运算,成为现有算力体系的有力补充。

  • 原文来源:https://www.stdaily.com/web/gdxw/2025-10/23/content_420013.html
相关报告
  • 《北京大学突破模拟计算世纪难题 研发全球首款高精度忆阻器矩阵计算芯片》

    • 来源专题:新一代信息技术
    • 编译者:刘飞
    • 发布时间:2025-10-16
    • 北京大学人工智能研究院孙仲团队在国际顶级期刊《自然?电子学》发表突破性研究成果,成功研制出基于阻变存储器的高精度模拟矩阵计算芯片。该芯片将传统模拟计算精度提升五个数量级,在求解大规模MIMO信号检测等关键问题时,计算吞吐量与能效较当前顶级GPU提升百倍至千倍,为后摩尔时代计算范式变革开辟全新路径。 研究团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次使模拟计算在精度上可与数字计算媲美,将传统模拟计算的精度提升了五个数量级。性能评估表明,该芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。这一成果标志着我国在突破模拟计算世纪难题方面取得了重大进展,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径。  研究背景显示,矩阵方程求解是线性代数的核心内容,广泛应用于信号处理、科学计算及神经网络二阶训练等领域。传统的高精度矩阵求逆数字计算开销巨大,时间复杂度高达立方级。面对大数据驱动应用带来的高复杂度计算挑战,模拟计算因其高并行、低延时、低功耗的优势重新受到关注。然而,传统模拟计算因低精度和难扩展逐渐被高精度、可编程的数字计算取代。 研究方法包括构建基于阻变存储器阵列的高精度、可拓展全模拟矩阵方程求解器,通过新型信息器件、原创电路和经典算法的协同设计,将模拟计算精度提升至24位定点精度。研究团队结合模拟低精度矩阵求逆和模拟高精度矩阵-向量乘法运算,开发了一种基于全模拟矩阵运算的高精度矩阵方程求解方案,并在40nm CMOS工艺平台上制造出相应电路。 实验结果显示,通过与块矩阵算法相结合,他们在实验上成功实现了16×16矩阵的24比特定点数精度求逆,显著提高了计算精度和效率。
  • 《北京大学成功研制基于阻变存储器的高精度、可扩展模拟矩阵计算芯片》

    • 来源专题:集成电路与量子信息
    • 发布时间:2025-10-15
    • 北京大学人工智能研究院孙仲团队与集成电路学院联合研究,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一芯片首次将模拟计算的精度提升至24位定点精度,在大规模MIMO信号检测等关键科学问题上,其计算吞吐量和能效比当前顶级数字处理器(如GPU)提升百倍至千倍。该成果标志着我国在突破模拟计算世纪难题方面取得重大进展,为后摩尔时代的计算范式变革提供了新路径,对人工智能和6G通信领域的算力挑战提供了解决方案。  模拟计算具有高并行、低延时、低功耗的优势,但传统模拟计算精度低、难扩展。研究团队通过新型信息器件、原创电路和经典算法的协同设计,实现了兼具高精度和可扩展性的模拟计算系统,将传统模拟计算的精度提升了五个数量级。研究团队提出的块矩阵模拟计算方法成功解决了规模限制问题,实验表明该技术在算力和能效方面有显著优势。例如,在求解32×32矩阵求逆问题时,其算力超越高端GPU的单核,当问题规模扩大至128×128时,计算吞吐量可达顶级数字处理器的1000倍以上。  这项技术的突破不仅在于理论层面,还展示了广阔的应用前景。在6G通信领域,能以实时且低能耗方式处理海量天线信号,提升网络容量和能效;在人工智能领域,有望加速大模型训练中的计算密集型二阶优化算法,提高训练效率。此外,低功耗特性也将支持复杂信号处理和AI训推一体在终端设备上的直接运行,推动边缘计算的发展。  目前,研究团队正积极推进该技术的产业化进程,希望尽快将实验室成果推向市场,为算力提升探索出一条高效且绿色的途径,打破数字计算的长期垄断。