《探索 | 美国科研团队开发出新型光子内存计算器件》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: 胡思思
  • 发布时间:2024-10-25
  • 日前,来自美国加州大学圣巴巴拉分校的科研团队成功开发出了一种集成非互易磁光技术的新型光子内存计算器件。该器件通过利用非互易的相移现象,实现了高速、高能效和超高耐久性的光子计算。这项研究成果以“Integrated non-reciprocal magneto-optics with ultra-high endurance

    for photonic in-memory computin”为题,发表在《自然·光子学》(Nature Photonics)上。

    图. a.计算架构与单元器件示意图;d.内存单元示意图

    光子计算以其高速度和低能耗的优势成为人工智能和机器学习领域未来发展的重要方向之一。然而,目前的光子处理架构面临着存储阵列更新速度慢、能耗高以及耐久性不足等挑战。该研究团队提出的非互易磁光技术,通过将掺铈钇铁石榴石与硅微环谐振器集成,成功解决了这些瓶颈。利用这种材料的非互易相移特性,研究人员展示了光子内存单元的快速编程(1纳秒)、低能耗(每比特143飞焦耳)以及出色的耐久性(可编程24亿次循环)。

    该技术的核心是通过磁光材料在微环谐振器中产生的非互易相移效应来编码光权重。与现有的基于热光或等离子体色散效应的光子权重不同,非互易磁光权重不仅提高了编程速度,还显著提升了器件的抗疲劳性与多层次存储能力。

    研究团队还指出,采用这一新架构的光子计算平台有望为人工智能的矩阵-向量乘法(MVM)提供更高的计算效

    此次研究展示的光子内存单元,在高速响应和低能耗的特点下,能够以极高的编程速度更新权重,并且大大减轻了系统整体的能耗负担。尤其是在深度学习等需要大规模计算的应用中,该技术可通过非挥发性、多比特存储的方式,大幅降低传统电学架构的计算瓶颈,进一步推动未来计算架构向更高效、绿色的方向发展。

    结合该技术未来的发展前景,研究人员认为,通过进一步优化材料的集成方式,例如利用自旋轨道转矩或自旋转矩转移效应,有望实现更高的切换效率。

    此外,随着掺铈钇铁石榴石与硅光子器件的单片集成技术的进展,未来该技术在光子计算、磁性存储等领域的应用潜力巨大。

  • 原文来源:https://www.nature.com/articles/s41566-024-01549-1
相关报告
  • 《Nature Photonics:美国加州大学圣巴巴拉分校研发出集成非互易磁光技术的新型光子内存计算器件》

    • 来源专题:集成电路与量子信息
    • 发布时间:2024-10-25
    • 光子计算以其高速度和低能耗的优势成为人工智能和机器学习领域未来发展的重要方向之一。然而,目前的光子处理架构面临着存储阵列更新速度慢、能耗高以及耐久性不足等挑战。 近期,美国加州大学圣巴巴拉分校的研究团队提出了非互易磁光技术,通过将掺铈钇铁石榴石与硅微环谐振器集成,成功研发出了一种新型光子内存计算器件。这种器件通过利用非互易的相移现象,实现了高速、高能效和超高耐久性的光子计算。利用材料的非互易相移特性,研究人员展示了光子内存单元的快速编程(1纳秒)、低能耗(每比特143飞焦耳)以及出色的耐久性(可编程24亿次循环)。 该技术的核心是通过磁光材料在微环谐振器中产生的非互易相移效应来编码光权重。与现有的基于热光或等离子体色散效应的光子权重不同,非互易磁光权重不仅提高了编程速度,还显著提升了器件的抗疲劳性与多层次存储能力。研究团队还指出,采用这一新架构的光子计算平台有望为人工智能的矩阵-向量乘法(MVM)提供更高的计算效率。 结合这项技术未来的发展前景,研究人员认为,通过进一步优化材料的集成方式,例如利用自旋轨道转矩或自旋转矩转移效应,有望实现更高的切换效率。此外,随着掺铈钇铁石榴石与硅光子器件的单片集成技术的进展,未来该技术在光子计算、磁性存储等领域的应用潜力巨大。 这项研究以“Integrated non-reciprocal magneto-optics with ultra-high endurance for photonic in-memory computin”为题,发表在《Nature Photonics》上。 论文下载链接为:https://www.nature.com/articles/s41566-024-01549-1
  • 《美国IBM公司开发出新型类脑AI芯片》

    • 来源专题:集成电路
    • 编译者:李衍
    • 发布时间:2023-09-22
    • 我们正处于人工智能革命的开端,这场革命将重新定义人类的生活和工作方式。特别是,深度神经网络 (DNN) 彻底改变了人工智能领域,并随着基础模型和生成式人工智能的出现而日益受到重视。但在传统数字计算架构上运行这些模型限制了它们可实现的性能和能源效率。专门用于人工智能推理的硬件开发已经取得了进展,但其中许多架构在物理上分割了内存和处理单元。这意味着人工智能模型通常存储在离散的内存位置,计算任务需要在内存和处理单元之间不断地整理数据。此过程会减慢计算速度并限制可实现的最大能源效率。 IBM 研究中心一直在研究重塑人工智能计算方式的方法。模拟内存计算,或者简称模拟人工智能,是一种很有前途的方法,可以借用神经网络在生物大脑中运行的关键特征来应对这一挑战。在我们的大脑以及许多其他动物的大脑中,突触的强度(或称“权重”)决定了神经元之间的通信。对于模拟人工智能系统,研究人员将这些突触权重本地存储在纳米级电阻存储设备的电导值中,例如相变存储器(PCM) 并通过利用电路定律并减少在内存和处理器之间不断发送数据的需要来执行乘法累加 (MAC) 操作,这是 DNN 中的主要计算操作。对于模拟人工智能处理,IBM表示需要克服两个关键挑战:这些存储器阵列需要以与现有数字系统相当的精度进行计算,并且它们需要能够与数字计算单元以及数字通信结构无缝连接。 据TechXplore网8月22日消息,美国IBM公司又开发出一种新型类脑AI芯片,基于相变存储器的用于深度神经网络推理的 64 位混合信号内存计算芯片。这种新型混合信号芯片的工作方式与大脑中突触相互作用的方式类似,具有64个模拟内存核心,每个核心都托管一组突触细胞单元。同时,该芯片还具有一个转换器,确保模拟和数字信号之间的平滑转换。据IBM公司称,新型芯片在CIFAR-10数据集的测试中实现了92.81%的准确率。该芯片具有较高的能效比,能效可达传统数字计算机芯片的14倍,可大幅降低AI计算的功耗,未来有望满足低能耗、高算力的场景需求。 面对传统通用处理器(包含图形处理器、中央处理器等)效能低下的问题,IBM研究团队提出“模拟内存计算”的方案,通过在自身的存储器上并行执行矩阵-向量乘法,以提供更强的能效。IBM的研究团队基于该方案开发出了一个 14nm 模拟芯片,利用34个大型相变存储器(PCM)阵列,结合了数模转换输入、模拟外围电路、模数转换输出和大规模并行二维网格路由。每个14nm芯片上可编码3500万个PCM,在每权重对应2-PCMs的方案中,可容纳1700万个参数。将这些芯片组合在一起,便能够像数字芯片一样有效地处理真实AI用例的实验。该芯片是在 IBM 的 Albany NanoTech Complex 中制造的,由 64 个模拟内存计算核心(或块)组成,每个核心包含 256×256 的突触单元格交叉阵列。使用该芯片,IBM对模拟内存计算的计算精度进行了最全面的研究,并在CIFAR-10图像数据集上证明了 92.81% 的准确率,是目前报道的使用类似技术的芯片中精度最高的。8位输入输出矩阵向量乘法密度为400Gop/s/mm,峰值达到63Top/s和9.76Top/W,功耗比之前基于电阻式存储器的多核内存计算芯片高出 15 倍以上,同时实现了可比的能源效率。 相关成果以题名“A 64-core mixed-signal in-memory compute chip based on phase-change memory for deep neural network inference”于8月10日在线发表于《自然-电子》(Nature Electronics)期刊。 参考链接:https://www.163.com/dy/article/IDDS0R940511838M.html https://caifuhao.eastmoney.com/news/20230812113147087316760 https://xueqiu.com/9919963656/149699780 论文链接:https://www.nature.com/articles/s41928-023-01010-1