北京大学人工智能研究院孙仲团队与集成电路学院联合研究,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一芯片首次将模拟计算的精度提升至24位定点精度,在大规模MIMO信号检测等关键科学问题上,其计算吞吐量和能效比当前顶级数字处理器(如GPU)提升百倍至千倍。该成果标志着我国在突破模拟计算世纪难题方面取得重大进展,为后摩尔时代的计算范式变革提供了新路径,对人工智能和6G通信领域的算力挑战提供了解决方案。
模拟计算具有高并行、低延时、低功耗的优势,但传统模拟计算精度低、难扩展。研究团队通过新型信息器件、原创电路和经典算法的协同设计,实现了兼具高精度和可扩展性的模拟计算系统,将传统模拟计算的精度提升了五个数量级。研究团队提出的块矩阵模拟计算方法成功解决了规模限制问题,实验表明该技术在算力和能效方面有显著优势。例如,在求解32×32矩阵求逆问题时,其算力超越高端GPU的单核,当问题规模扩大至128×128时,计算吞吐量可达顶级数字处理器的1000倍以上。
这项技术的突破不仅在于理论层面,还展示了广阔的应用前景。在6G通信领域,能以实时且低能耗方式处理海量天线信号,提升网络容量和能效;在人工智能领域,有望加速大模型训练中的计算密集型二阶优化算法,提高训练效率。此外,低功耗特性也将支持复杂信号处理和AI训推一体在终端设备上的直接运行,推动边缘计算的发展。
目前,研究团队正积极推进该技术的产业化进程,希望尽快将实验室成果推向市场,为算力提升探索出一条高效且绿色的途径,打破数字计算的长期垄断。