《前沿 | 基于45nmCMOS工艺的硅基光电融合单片集成光互连芯片》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: 胡思思
  • 发布时间:2024-10-16
  • 伴随人工智能、机器学习和高性能计算等新一代信息技术的迅猛进步,数据搬移对互连的宽带和能效需求指数型提升。电互连受限于导线损耗和微电子工艺演进,难以满足未来超高带宽、百米距离扁平化网络连接的需求。硅基光互连技术利用CMOS成熟节点工艺制备集成光路与电路,在计算芯片封装内构建光输入/输出接口(optical I/O),极大地延伸了芯片间低延时数据互连,为构建大容量数据传输的高能效、大规模并行计算系统奠定了坚实基础。

    与传统网络通信不同,计算互连要求极高的带宽密度、能耗效率与极低的延时,这决定了其并行多通道的系统架构,以及无DSP辅助下超低误码率(BER<10-12)的需求。但值得注意的是,基于分立光电子芯片的封装集成不仅限制了芯片规模,还在关键性能方面造成显著恶化:封装键合引入的寄生损害了信号完整性,高频信号进出芯片增加了不必要的功耗。硅基光电融合单片集成技术,在硅衬底上将光器件与电路一体化设计和单芯片制备,可打破互连带宽和能效的固有瓶颈,显著降低封装复杂性并降低收发功耗,被认为是推动人工智能、高性能计算和数据中心网络可持续发展的核心支撑技术。

    中国科学院半导体研究所李明研究员团队与祁楠研究员团队合作研制出国内首款基于45 nm CMOS工艺的硅基光电融合单片集成互连芯片,成功实现了光电子与微电子等器件的单片融合集成,单通道支持64 Gb/s传输速率,借助微环谐振波分复用技术,4通道单向总带宽达到256 Gb/s。图1显示了该硅基光电融合单片集成互连芯片,单片集成了微环调制器、微环滤波器、热相移器和光电探测器等光学器件,以及驱动器和跨阻放大器等电学器件。图2为芯片封装测试实物图,图3为大信号测试结果,单通道光收发芯片均可以实现清晰的64 Gb/s眼图信号传输,收发芯片总能效达到2.85 pJ/bit,比特误码率可达到10-12以下。

    图4展示了本项工作与国际代表性成果的对比,其中与光电单片集成技术国际领先的Ayar Labs公司2024年报导结果相比,本文实测单通道速率由32 Gb/s提升至64 Gb/s,具备更高的收发能耗效率,为更多通道并行的带宽拓展提供了更好的性能前景。

    图 1. 硅基光电融合单片集成互连芯片实物图及系统框图

    图 2. 芯片测试板实物图

    图 3. 4通道发射机和接收机的眼图,单通道速率为64Gb/s NRZ

    4. 与国际相关代表性成果的性能比较

  • 原文来源:https://www.jos.ac.cn/article/doi/10.1088/1674-4926/24050040
相关报告
  • 《前沿 | 美国宾夕法尼亚大学:逆向设计高集成度硅基光计算芯片》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2024-02-26
    • 逆向设计高集成度光子集成器件是近年来的前沿热点研究方向。近日,美国宾夕法尼亚大学Vahid Nikkhah,Nader Engheta等学者提出了高效率仿真新方法,逆向设计了大矩阵维度的光学向量-矩阵乘法计算芯片。传统的逆向设计过程中,光场仿真时间随器件面积指数级增长,这限制了器件的设计面积与矩阵计算维度。 本文中提出的方法p2DEIA,基于光传播的二维有效折射率近似,能够大幅缩减逆向设计仿真时间,突破传统方法在器件面积上的限制,从而设计大矩阵维度的光学向量-矩阵乘法芯片。此外,由于p2DEIA方法对折射率的约束,该芯片具有无定形透镜型结构,可以避免谐振特征引起的窄带宽和制造误差敏感性,这在实现大规模集成的光计算芯片中发挥关键作用。相关成果发布在Nature Photonics上。 逆向设计光计算芯片:算法与芯片融合创新 光计算芯片是利用光进行低功耗、高速度、高并行度的计算。其中,最为关键的一类片上光计算芯片就是光学向量-矩阵乘法器,特别是在神经网络计算中,矩阵乘法占据了80%以上的计算量。近年兴起的逆向设计方法特别适合这类器件设计,理论上具备亚波长尺度近乎“任意”调控光场的超强设计能力,可实现超高集成、超强性能的光学向量-矩阵乘法器。然而,逆向设计的优化过程需要数百次3D光场仿真,而3D光场仿真的仿真时间会随器件面积指数级增长,这导致传统方法的设计面积被限制在几个平方微米,无法设计出大矩阵维度的光学向量-矩阵乘法器。 为了解决这个问题,文中提出一种压缩光场仿真时间的方法——基于传播的二维有效折射率近似(propagation-based 2D effective index approximation, p2DEIA)。该方法可以显著减少逆向设计过程中的光场仿真时间,并且基于该方法设计出的芯片具有无定形透镜型器件结构,这种结构的刻蚀区硅厚度呈现缓变状态,可以降低谐振特征引起的窄带宽和制造误差敏感性。相关研究人员利用该方法,将设计面积提升至几十个平方微米,并成功设计出大矩阵维度 (3×3和10×10)的光学向量-矩阵乘法器。实验结果表明,该乘法器的实测性能与仿真性能非常接近,这为实现大规模集成的光计算芯片提供了新的方法和思路。 高效算法助力新型结构设计 图1 (a) p2DEIA方法示意图(b)无定型透镜结构示意图 图2 向量-矩阵乘法器设计示意图 图3 向量-矩阵乘法器实验测试结果 文章中提出的p2DEIA方法,是基于光传播的二维有效折射率近似,对硅基光芯片的三维结构的进行高速仿真,该方法可以显著少逆向设计过程中的光场仿真时间成本。如图1所示,p2DEIA方法基于光传播的二维有效折射率近似,根据斯涅尔定律仿真设计区域中硅厚度变化引起的光波的反射和透射,对设计区域中的光场传播的进行仿真,大幅度缩减逆向设计过程中的仿真时间。在仿真精度上,当设计区域中的硅厚度缓变时,p2DEIA方法的仿真结果与传统3D光场仿真非常接近。基于该方法进行逆向设计时,会使器件接近硅厚度缓变的无定形透镜结构,这种结构可以避免谐振特征引起的窄带宽和制造误差敏感特性。 相关研究人员利用该方法突破了仿真成本造成的逆向设计面积瓶颈,并成功设计出了大矩阵维度的光学向量-矩阵乘法器,可以完成1×N向量与N×N矩阵的乘法。如图2(a)所示,基于220 nm的标准SOI平台,有N个500 nm的输入波导与N个500 nm的输出波导,波导中基模的复振幅携带输入与输出向量,其中输入输出向量之间的复数域传播参数与矩阵元素数值相对应,该团队将这些矩阵元素作为设计目标,使用基于p2DEIA的逆向设计方法,对器件硅层厚度进行设计。如图2所示,该团队设计了矩阵维度分别为2×2、3×3和10×10向量-矩阵乘法器,这三个器件的设计面积分别为10 μm×11 μm、23 μm×34 μm、和29 μm×35 μm,设计面积相较传统方法提升了几个数量级,并且这种结构可以避免谐振特征引起的窄带宽和制造误差敏感性。 芯片标准工艺制备和测试 研究人员基于新加坡先进微晶圆厂(Advanced Micro Foundry,简称AMF)的180 nm工艺制造了相关器件,该工艺允许两种不同深度的蚀刻,设计中使用了较浅的70 nm蚀刻深度。如图3(a)所示,本文展示了3×3向量-矩阵乘法器。为了验证本文提出的p2DEIA方法的仿真精度,对器件在工作波长(1.525 μm)的透射系数进行了统计,分别统计了基于p2DEIA方法的仿真、传统3D仿真、实验测量与设计目标对应的透射系数,图3(b)(c)依次展示了2×2向量-矩阵乘法器和3×3向量-矩阵乘法器的统计结果,结果表明本文中的p2DEIA仿真结果与传统3D仿真、实测结果、设计目标非常接近,这说明基于p2DEIA方法的仿真非常精准。为了进一步验证p2DEIA方法的宽带特性,图3(d)(e)依次展示了2×2向量-矩阵乘法器和3×3向量-矩阵乘法器的宽带光谱测量结果。可以看到,器件光谱对波长变化不敏感,该器件可以在60 nm的宽带范围工作,说明基于p2DEIA方法设计出的器件可以避免谐振特征引起的窄带宽特性。 总结与展望 在这项工作中,研究人员提出了逆向设计新方法,解决了传统逆向设计中仿真时间随器件面积指数级增长的瓶颈问题,突破了器件面积的限制,设计了大矩阵维度的光学向量-矩阵乘法芯片。同时,提出的新方法和新结构可以避免谐振特征引起的窄带宽和制造误差敏感特性。研究人员利用该方法设计了3种向量-矩阵乘法器芯片,矩阵维度分别是2×2、3×3和10×10,并进行了相关器件测试。该工作采用的设计方法和思路为实现大规模高集成度光信号处理芯片提供了新路径。
  • 《Neurophos融资720万美元以实现基于超材料和硅基光电子技术的AI芯片的量产》

    • 来源专题:集成电路
    • 编译者:张冉冉
    • 发布时间:2024-01-08
    • 随着大模型时代的来临, AI 计算需求日益增长。现代GPU虽在加速人工智能工作负载方面取得了巨大成功,但其能源效率和扩展能力仍存在局限性,AI计算迫切需要专业硬件设施来提高性能。光计算是一种基于光子学原理的计算方式,具有二维并行处理、超高速、大带宽、低功耗、抗干扰等优势。该方式为满足AI计算需求提供了良好的解决方案,但相应的硬件设施因无法大规模制造足够小的光学配件而未能实现产品化。超材料的发现为光计算的推广落地提供了新的可能。 Neurophos是一家人工智能计算解决方案提供商,其利用先进超材料和硅基光电子技术,为数据中心创建快速、节能、基于超材料的光学AI芯片。据Neurophos官网2023年12月14日消息,Neurophos已经获得720万美元的种子轮融资,以实现超材料和光子AI推理芯片的突破。这轮融资由 Gates Frontier 领投,并得到 MetaVC、Mana Ventures 和其他投资者的支持。该公司计划使用这笔资金来生产光学超表面(metasurface)作为处理 AI 工作负载的超密集张量核心处理器。光学超表面将光学矩阵运算中的组件缩小到前所未有的大小,使得基于超材料的光调制器比标准代工厂PDK(工艺设计套件)的光调制器小1000倍以上,能够提供超过100万TOPS(每秒数万亿次操作)的性能。此外,光学架构与标准 CMOS 工艺兼容便于大规模制造,克服了光计算AI加速器所面临的商业可行性的关键障碍。 先进超材料和硅基光电子技术支持为Neurophos利用光学计算来加速 AI提供了诸多优势。在密度方面,光学超表面组件比现状小 1000 多倍,使每个芯片的光学处理单元数量大大增加。在速度方面,Neurophos搭建了结合革命性的光学超表面和人工智能工作负载的创新内存架构,以光速并行方式执行操作,实现超高速计算。在效率方面,基于超材料的调制器缩小了处理光信号所需的组件,在固定能源范围内显著增加的计算密度带来前所未有的单位性能。在可制造性方面,采用成熟的硅基光电子制造技术和兼容的标准CMOS制造技术,实现可扩展的大规模生产。 从基础超材料科学到可制造的芯片,Neurophos将尖端光子技术研究与用户商业化的工程设计思维相结合,重构人工智能基础设施的经济和规模,成为推动人工智能下一代硬件的前沿。Neurophos减少光子芯片的尺寸和能量需求,使其光子芯片更适合运行LLM(大型语言模型)等人工智能平台,有望推动大规模数据中心中的AI推理应用,造福医疗、科研、教育等广泛领域。