《香港理工大学与教育大学徐秉刚、洪福教授联合发表高性能AI芯片先进设计综述,解析能效突破、多模态处理及脑启发计算等关键技术路径》

  • 编译者: AI智能小编
  • 发布时间:2025-10-12
  • 随着人工智能模型发展到数十亿参数的规模,传统计算架构在能效、处理速度和硬件可扩展性方面面临越来越大的挑战。香港理工大学和香港教育大学的研究人员,以徐斌教授和胡红教授为首,发布了一篇关于高性能AI芯片设计的全面综述。这项研究提供了关于满足现代AI应用需求的下一代芯片技术的重要见解。 ### 为何先进AI芯片如此重要 - **能效提升**:先进的芯片设计显著降低了功耗,解决了AI计算中的“能源墙”问题。 - **多模态处理**:这些芯片通过可重构和异构架构,高效处理图像、音频、文本等多种数据类型。 - **类脑计算**:通过模仿神经结构,神经形态芯片提供低延迟、事件驱动的计算,适用于边缘AI和实时任务。 ### 创新设计和特性 - **芯片类型**:综述涵盖了多种AI芯片,包括模拟AI加速器、光子处理器、神经形态系统和量子芯片,每种芯片都针对特定的AI工作负载进行了优化。 - **功能材料**:重点介绍了新兴材料,如相变存储器(PCM)、阻性RAM(RRAM)和二维半导体,这些材料能够实现高密度、低功耗的计算。 - **集成技术**:引入了高级封装和三维集成方法,比如整体3D(M3D)和范德华层压技术,以克服缩放限制并提高系统性能。 ### 应用与未来展望 - **内存计算**:通过将存储和计算结合,这些芯片消除了冯·诺依曼瓶颈,使AI推理和训练更快且更节能。 - **边缘AI**:神经形态和异步芯片专为智能传感器、物联网和自主系统设计,提供超低功耗和实时响应能力。 综上所述,这篇综述不仅探讨了当前AI芯片技术的前沿,还展望了其未来的发展方向,特别是在解决能源效率和处理速度等关键问题上的潜力。
相关报告
  • 《香港理工大学等机构研究团队开发量子微处理器芯片,用于模拟大型且结构复杂的分子光谱》

    • 编译者:张宇
    • 发布时间:2024-09-11
    • 近日,香港理工大学的工程研究人员开发了一种新的量子微处理器芯片,用于模拟大型和复杂的分子结构。这种16量子比特的量子微处理器芯片能够对分子振动光谱进行高精度模拟,它克服了经典计算机的局限性并推动了量子化学应用的发展。这种尖端的量子微处理器可能会彻底改变材料科学和化学等领域,在模拟蛋白质结构和优化分子反应方面具有潜在应用。 香港理工大学的工程研究人员已成功开发出一种量子微处理器芯片,用于模拟现实中的大结构和复杂分子的分子光谱,这是世界上首次取得这样的成就。准确捕捉这些量子效应需要开发精确的计算模型,模型中这些涉及量子叠加和纠缠的部分都是计算密集型的经典模型。 该研究发表在《Nature Communications》期刊,题为“Large-scale photonic network with squeezed vacuum states for molecular vibronic spectroscopy(用于分子振动光谱的具有挤压真空状态的大规模光子网络)”的论文中。这项尖端技术使用了超出经典计算机能力的量子计算应用程序为解决复杂的量子化学问题铺平了道路。 研究团队由LIU Ai-Qun教授领导,他是量子工程与科学领域的主席教授,也是量子技术研究所(IQT)的所长,全球STEM学者,新加坡工程院院士。与他一起的主要项目推动者是ZHU Hui Hui博士,电子与电气工程系的博士后研究员,也是研究论文的第一作者。其他合作者来自南洋理工大学、香港城市大学、北京理工大学、南方科技大学、微电子研究所以及瑞典的查尔默斯理工大学。 Zhu博士的团队通过实验演示了一种大规模量子微处理器芯片,并引入了一种非常规的理论模型,该模型采用线性光子网络和压缩真空量子光源来模拟分子振动光谱。16量子比特量子微处理器芯片被制造并集成到单个芯片中。项目已经开发了一个完整的系统,包括用于量子光子微处理器芯片和电气控制模块的光-电-热封装的硬件集成、设备驱动程序的软件开发、用户界面和完全可编程的底层量子算法。量子计算机系统的发展为进一步的应用提供了基本的组成部分。 量子微处理器可用于解决复杂任务,例如模拟大型蛋白质结构或优化分子反应,并显著提高速度和准确性。Zhu博士说:“我们的方法可以产生一类早期的实用分子模型,这些模拟的运行方式超越了经典计算模型的限制,并有望在相关量子化学应用中实现量子加速。 量子技术在科学领域至关重要,包括材料科学、化学和凝聚态物理学。量子微处理器芯片作为一种极具吸引力的硬件平台,为量子信息处理提供了一种很有前途的技术解决方案。 研究结果和由此产生的集成量子微处理器芯片为众多实际应用开辟了重要的新途径。这些应用包括解决分子对接问题和利用量子机器学习技术。刘教授说:我们的研究受到量子模拟技术对现实世界的潜在影响的启发。在我们工作的下一阶段,我们的目标是扩大微处理器的规模,并处理更复杂的应用,从而进一步促进使社会生产和行业进步。 这个团队推动了量子技术的突破性发展,可以被认为是“游戏规则的改变者”他们利用量子计算微处理器成功地完成了分子光谱模拟这一极具挑战性的任务。他们的研究标志着量子技术及其潜在的量子计算应用的重大进步。
  • 《格芯与欧洲微电子中心于AI芯片研发取得突破》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2020-07-13
    • 日前,全球领先的纳米电子及数字技术研究中心IMEC(欧洲微电子中心)和格罗方德共同发布了一种新型AI芯片AnIA的硬件展示。基于IMEC模拟内存计算(AiMC)架构与格芯22FDX技术,新芯片可在模拟域的内存计算硬件上执行深度神经网络计算,帮助低功耗设备实现边缘推理。同时,这项新技术在隐私保护、安全性和延迟性方面的优势,将会对从智能扬声器到自动驾驶汽车等各种边缘设备中的AI程序产生重大影响。 从早期的数字计算机时代开始,处理器已经从存储器中分离出来。在内存容量指数级提升以后,CPU和内存之间的数据传输带宽却成为了瓶颈,这也就是人们所说的冯·诺伊曼瓶颈。这种限制会掩盖实际的计算时间,特别是在依赖于大型向量矩阵乘法的神经网络中。这些计算的执行需要数字计算机的精密度,以及大量的能量支持。然而,如果是采用较低精度的模拟技术执行向量-矩阵乘法,神经网络也可以获得准确的计算结果。 为了应对这一挑战,IMEC及其工业合作伙伴,包括格芯在内,在IMEC的工业合作机器学习计划开发了一种新的体系结构,通过在SRAM单元中执行模拟计算消除了冯·诺依曼瓶颈。由此产生的模拟推理加速器(AnIA)以格芯22FDX半导体平台为基础,具有超高的能效。特性测试显示,AnIA的功率效率最高可达到2900 TOPS/W。通常由数据中心的机器学习驱动的微型传感器及低功耗边缘设备中的模式识别,现在可以在这个节能加速器上进行本地执行。 IMEC机器学习项目主管Diederik Verkest表示:“AnIA的成功流片是验证模拟内存计算架构的重要一步。参考设计的实现不仅表明AiMC在实践中是可能的,且它取得的能效要比数字加速器好10到100倍。在IMEC的机器学习程序中,我们会对现有的和新兴的内存设备进行优化,以更好地进行模拟内存计算。目前看来,这些成果具有良好的前景,这也鼓励我们进一步发展这项技术,朝着10000 TOPS/W的目标迈进。” 格芯计算和有线基础设施产品管理副总裁Hiren Majmudar则表示:“一直以来,格罗方德与IMEC都保持着密切合作。此次双方利用GF低功耗、高性能的22FDX平台成功研发出新的AnIA芯片,也是向业界展示22FDX如何降低能源密集型AI和机器学习应用能耗的关键一步。” 未来,格罗方德将把AiMC芯片融合进22FDX平台,用于开发AI市场的差异化解决方案。目前,搭载AiMC的22FDX正在GF最先进的300mm生产线上进行开发,该生产线位于德国德累斯顿1号工厂。