《哥伦比亚大学研究团队实现高功率微梳芯片突破,有望推动便携传感设备革新》

  • 编译者: 李晓萌
  • 发布时间:2025-11-07
  • 数年前,Michal Lipson实验室的研究人员观察到一项非凡现象。

    当时他们正致力于改进LiDAR技术——这种利用光波测距的技术。实验室致力于设计能产生更亮光束的高功率芯片。

    "当我们持续增大通过芯片的功率时,发现它正在生成所谓的频率梳,"Lipson实验室前博士后研究员Andres Gil-Molina表示。

    频率梳是一种特殊的光源,其包含多种按有序模式排列的彩色光波,宛若彩虹。当数十种彩色光(即光频)明亮闪耀时,它们之间的间隙仍保持暗场状态。在光谱仪上观察时,这些明亮的光频会呈现为尖峰状图谱,犹如梳齿般排列。这种特性为同时传输数十路数据流创造了巨大机遇——由于不同颜色的光波互不干扰,每根"梳齿"都能作为独立信道传输信息。

    目前要产生强频率梳仍需依赖庞大昂贵的激光器与放大器。在最新发表于《Nature Photonics》的研究中(High-power electrically pumped microcombs,DOI:10.1038/s41566-025-01769-z),电子工程系Eugene Higgins讲席教授、应用物理学教授Lipson与合作团队演示了如何在单一芯片上实现同等功能。

    "数据中心对包含多波长的高效强光源产生了巨大需求,"现任Xscape Photonics首席工程师的Gil-Molina指出,"我们研发的技术能将高功率激光器转化为数十个集成在芯片上的洁净高功率信道。这意味着可用单一紧凑设备取代整机架的独立激光器,显著降低成本与空间占用,为构建更快速、更节能的系统开辟了新路径。"

    "这项研究标志着我们在推进硅光子学使命中又迈出重要一步,"Lipson强调,"随着该技术在关键基础设施和日常生活中日益重要,此类进步对确保数据中心实现极致效率至关重要。"

    净化混沌光束

    这一突破始于一个简单的问题:我们能在芯片上集成多大功率的激光器?

    研究团队选择了一种广泛应用于医疗设备和激光切割工具的多模激光二极管。这类激光器能产生极强的光输出,但其光束过于"混沌",难以应用于精密场景。

    要将这种激光器集成到光路宽度仅数微米(甚至数百纳米)的硅光芯片中,需要极其精密的工程设计。

    "我们采用了一种锁定机制来净化这种强功率但高噪声的光源,"Gil-Molina解释道。该方法依托硅光技术重塑并净化激光输出,生成更纯净、更稳定的光束——这种特性被科学家称为高相干性。

    净化后的光波将在芯片内触发非线性光学效应,将单一强光束分离成数十条等间距的彩色光谱——这正是频率梳的标志性特征。由此诞生的高效微型光源,兼具工业级激光器的原始功率与先进通信及传感所需的精准稳定性。

    现实意义

    这项突破的时机并非偶然。随着人工智能的爆炸式增长,数据中心内部基础设施(如处理器与存储器之间)正面临信息传输速度的极限挑战。目前最先进的数据中心虽已采用光纤链路传输数据,但多数仍依赖单波长激光器。

    频率梳技术将彻底改变这一现状。通过同一根光纤可并行传输数十道数据流,取代传统单一光束承载单一数据流的模式。这正是波分复用技术的基础原理——这项曾在1990年代末将互联网推向全球高速网络的关键技术。

    应用前景

    通过将高功率多波长频率梳微型化至可直接集成于芯片,Lipson团队使现代计算系统最紧凑、成本最敏感的部分也具备了这项能力。除数据中心外,该芯片还可用于便携式光谱仪、超高精度光学原子钟、紧凑型量子设备乃至先进激光雷达系统。

    "这项突破意味着将实验室级光源融入现实设备,"Gil-Molina强调,"若能实现足够的功率、效率与微型化,几乎可将其部署至任意场景。"

相关报告
  • 《北京大学与山西大学研究团队合作,在连续变量光量子芯片领域取得重大突破》

    • 编译者:李晓萌
    • 发布时间:2025-04-29
    • 2025年2月20日,北京大学物理学院现代光学研究所王剑威教授和龚旗煌教授课题组与山西大学苏晓龙教授课题组合作,在国际顶级学术期刊《自然》(Nature)上发表一项以“基于集成光量子频率梳芯片的连续变量多体量子纠缠”(Continuous-variable multipartite entanglement in an integrated microcomb)为题的突破性研究成果。该团队在国际上首次实现了基于集成光量子芯片的连续变量簇态量子纠缠,为光量子芯片的大规模扩展及其在量子计算、量子网络和量子信息等领域的应用奠定了重要基础。研究团队通过创新性地发展超低损耗的连续变量光量子芯片调控技术和多色相干泵浦与探测技术,成功在氮化硅集成频率梳微环腔的真空压缩频率超模上确定性地制备出多比特纠缠簇态,并实现不同簇态纠缠结构的可重构调控。同时,团队利用van Loock-Furusawa判据实验违背和完备的nullifier(零化子)关联矩阵测量,对连续变量簇态的纠缠结构进行了严格实验判定。这一研究成果不仅解决了以往集成光量子芯片面临的扩展性难题,还为未来实现更大尺度的量子纠缠与量子调控提供了新的技术路径。该成果标志着集成光量子芯片技术在量子信息处理领域的重要突破,为量子计算和量子网络的实用化发展提供了关键技术支撑。 量子信息的基本单元是量子比特(qubit)或量子模式(qumode),二者可统称为量子比特。它们可分别通过离散变量和连续变量编码在光量子体系中实现,各具优缺点。例如,基于单光子的离散变量体系能够实现超高保真度的量子比特操作,但其面临的主要挑战是制备量子比特和量子纠缠存在概率性。根据现有技术手段,离散变量量子纠缠的制备成功率随比特数增加呈指数下降,这限制了其可扩展性。相比之下,基于光场正交分量编码的连续变量体系能够确定性产生量子比特和量子纠缠,尽管其操控保真度略低,却为大尺度光量子纠缠态的制备提供了一条极具前景的技术路径。 集成光量子芯片是一种能够在微纳尺度上编码、处理、传输和存储光量子信息的先进平台。自2008年国际上实现首个离散变量集成光量子芯片以来,集成光子芯片材料和技术取得了显著进展,并在离散变量光量子信息领域发挥了重要作用。然而,连续变量集成光量子芯片的发展面临诸多挑战:一方面,集成光学参量放大过程要求芯片具备高光学非线性和低光学损耗等高性能;另一方面,对片上多模压缩光场与纠缠的机理理解不足,多模纠缠调控与验证也存在技术瓶颈。这些因素导致连续变量光量子芯片的研究长期处于起步阶段,其编码与纠缠的比特数仅限于单模或双模压缩态,而多模(多比特)量子纠缠态的片上制备与验证仍极具挑战性。 纠缠簇态作为一种典型的多比特量子纠缠态,在量子信息科学中具有极其重要的地位。簇态不仅是单向量子计算的核心资源,还在量子纠错和容错量子计算中发挥关键作用,同时为量子网络的构建提供了重要支持,并可用于模拟复杂的多体量子系统。尽管簇态纠缠的重要性已被广泛认可,但其大规模制备技术仍面临诸多挑战。此前,光量子芯片上的簇态纠缠研究主要集中在离散变量体系,确定性地制备大规模纠缠簇态面临巨大实验困难,而连续变量簇态的片上制备和验证技术在国际上仍属空白。 在本研究中,研究团队首次在国际上实现了基于集成光量子芯片的连续变量纠缠簇态的确定性制备、可重构调控与严格实验验证。这一突破性成果不仅填补了连续变量光量子芯片领域的关键技术空白,还为大规模量子纠缠态的制备与操控提供了全新的技术路径,对推动量子计算、量子网络和量子模拟等领域的实用化发展具有非常重要的意义。 值得一提的是,当前纠缠模式数目的限制主要来自集成微腔的尺度(即频率间隔)和多色泵浦光的数目。团队已成功解决了基础的科学问题,为未来实现更大规模簇态纠缠及其在量子信息处理中的应用奠定了重要的物理基础。面向大规模扩展主要依赖于工程技术的优化,例如,通过先进芯片加工技术制备更大尺度的微腔,以及利用相位锁定的光学频率梳进行激发等工程手段,可以显著提升纠缠态的规模和复杂度。 论文原文链接:https://www.nature.com/articles/s41586-025-08602-1
  • 《格芯与欧洲微电子中心于AI芯片研发取得突破》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2020-07-13
    • 日前,全球领先的纳米电子及数字技术研究中心IMEC(欧洲微电子中心)和格罗方德共同发布了一种新型AI芯片AnIA的硬件展示。基于IMEC模拟内存计算(AiMC)架构与格芯22FDX技术,新芯片可在模拟域的内存计算硬件上执行深度神经网络计算,帮助低功耗设备实现边缘推理。同时,这项新技术在隐私保护、安全性和延迟性方面的优势,将会对从智能扬声器到自动驾驶汽车等各种边缘设备中的AI程序产生重大影响。 从早期的数字计算机时代开始,处理器已经从存储器中分离出来。在内存容量指数级提升以后,CPU和内存之间的数据传输带宽却成为了瓶颈,这也就是人们所说的冯·诺伊曼瓶颈。这种限制会掩盖实际的计算时间,特别是在依赖于大型向量矩阵乘法的神经网络中。这些计算的执行需要数字计算机的精密度,以及大量的能量支持。然而,如果是采用较低精度的模拟技术执行向量-矩阵乘法,神经网络也可以获得准确的计算结果。 为了应对这一挑战,IMEC及其工业合作伙伴,包括格芯在内,在IMEC的工业合作机器学习计划开发了一种新的体系结构,通过在SRAM单元中执行模拟计算消除了冯·诺依曼瓶颈。由此产生的模拟推理加速器(AnIA)以格芯22FDX半导体平台为基础,具有超高的能效。特性测试显示,AnIA的功率效率最高可达到2900 TOPS/W。通常由数据中心的机器学习驱动的微型传感器及低功耗边缘设备中的模式识别,现在可以在这个节能加速器上进行本地执行。 IMEC机器学习项目主管Diederik Verkest表示:“AnIA的成功流片是验证模拟内存计算架构的重要一步。参考设计的实现不仅表明AiMC在实践中是可能的,且它取得的能效要比数字加速器好10到100倍。在IMEC的机器学习程序中,我们会对现有的和新兴的内存设备进行优化,以更好地进行模拟内存计算。目前看来,这些成果具有良好的前景,这也鼓励我们进一步发展这项技术,朝着10000 TOPS/W的目标迈进。” 格芯计算和有线基础设施产品管理副总裁Hiren Majmudar则表示:“一直以来,格罗方德与IMEC都保持着密切合作。此次双方利用GF低功耗、高性能的22FDX平台成功研发出新的AnIA芯片,也是向业界展示22FDX如何降低能源密集型AI和机器学习应用能耗的关键一步。” 未来,格罗方德将把AiMC芯片融合进22FDX平台,用于开发AI市场的差异化解决方案。目前,搭载AiMC的22FDX正在GF最先进的300mm生产线上进行开发,该生产线位于德国德累斯顿1号工厂。