《前沿 | 光学AI处理器可高效准确分类无线信号》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: 胡思思
  • 发布时间:2025-06-18
  • 据最新一期《科学进展》杂志报道,美国麻省理工学院团队开发出一种专为无线信号处理而设计的全新人工智能(AI)硬件加速器。这种光学处理器能以光速进行机器学习运算,可在数十纳秒内完成无线信号分类,且准确率可达95%。其可广泛应用于高性能计算场景,远胜现有的数字AI加速器。

    传统的数字AI加速器需将无线信号转化为图像,再通过深度学习模型进行分类。这种方法尽管准确率高,但神经网络计算密集,响应速度难以满足微秒级甚至更低的延迟要求。

    团队此次开发了一种专为信号处理设计的光学神经网络架构,利用光信号直接进行数据编码与处理,从而提升了计算效率,降低了能耗。这个称为“乘性模拟频域变换光学神经网络”(MAFT-ONN)的系统,在无线信号被数字化之前,就在频域中完成所有信号编码与机器学习运算,极大提升了可扩展性。

    团队通过“光电乘法”技术,仅用一个设备就可集成1万个神经元并一次性完成所有乘法运算,无需为每个神经元单独配置硬件。同时,该网络可在光路中直接完成所有线性与非线性计算操作。实验显示,MAFT-ONN一次性分类的准确率达85%,结合多次测量后可迅速提升至99%以上。整个过程耗时仅约120纳秒,远快于传统数字射频设备的微秒级AI推理速度。

    该芯片尤其适用于未来6G通信场景,例如认知无线电,可根据无线环境变化自动调整调制方式,从而优化数据传输。此外,它还可为边缘计算设备赋能,如协助自动驾驶汽车实现快速响应,或为智能起搏器提供实时健康监测能力。

    新型光学处理器的艺术概念图

  • 原文来源:https://www.eecs.mit.edu/photonic-processor-could-streamline-6g-wireless-signal-processing/
相关报告
  • 《光学处理器能够处理复杂的机器学习》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-07-27
    • 神经网络为基础的机器学习是一种开发人工智能的当前热点。《应用物理评论》杂志上的一篇论文提出了一种使用光而不是电来执行神经网络所需计算的新方法。在这种方法中,一个光学的张量核心并行执行矩阵的乘法,提高了当前深度学习模式的速度和效率。 在机器学习中,神经网络接受训练从而执行无监督的决策和对未知数据的分类。一旦神经网络进行了数据训练,它就可以生成一个推理来识别和分类目标以及模式,从而在数据中查找标识。以光学为基础的张量处理单元(TPU)并行存储和处理数据,具有光电互连功能,使光学内存能够高效读取和写入,光子 TPU 可与其他架构进行接口。 作者之一 Mario Miscuglio 说,“我们发现,集成的光学平台容纳了高效光存储器可以执行与张量处理单元相同的操作,但它们功耗更小,同时具有更高的吞吐量。如果经过适当培训,可用于以光的速度进行推理。” 大多数神经网络拆解多层相互关联的神经元,旨在模仿人的大脑。实现这些网络的一个有效的方式是将矩阵和向量相乘的复合函数。这种方式可以实现高效的并行计算。科学家可以通过专门用于向量化操作(如矩阵乘法)的体系结构来实现并行计算。但是,如果处理的任务越高级,所需的预测精度越高,神经网络就会变得越复杂。此类网络需要海量的数据用于计算,并需要更多的功耗处理这些数据。 研究结果表明,他们的光学TPU的性能可以高于电学TPU的2-3个数量级。至于像5G网络一样的网络外围,计算端点的分配网络和高吞吐量以及智能任务处理的引擎,光子也可以是一个理想的选择。在网络的外围,数据信号可能已经以光子的形式存在。这些光子来自于监控摄像机、光学传感器和其他源。Miscuglio 说,“光子专用处理器可以节省大量的能源,缩短响应时间并且减少数据中心的流量。” 对于终端用户来说,这意味着数据处理速度要快得多,因为大部分数据是预处理的,这意味着只需要将一部分数据发送到云端或数据中心就可以满足用户的需要。
  • 《全球首款光子AI处理器》

    • 来源专题:新一代信息技术
    • 编译者:张嘉璐
    • 发布时间:2025-07-29
    • 此次合作标志着模拟光子协处理器首次成功集成至实际运行的高性能计算(HPC)环境,使莱布尼茨超级计算中心(LRZ)能够评估光子加速技术在人工智能(AI)和模拟计算任务中的应用,为实现性能显著提升与能耗断崖式下降开辟了新途径。作为欧洲顶级数据中心之一,LRZ凭借其尖端基础设施和开创性研究,持续支持着多学科领域的突破性发现。 Q.ANT与LRZ的合作被视为重新定义数据中心性能、空间占用、能效和系统架构标准的重要尝试,开启了以光子驱动模拟计算解决AI基础设施扩展危机的新篇章。"光子处理器为加速AI和模拟计算任务提供了创新性解决方案,同时大幅降低环境足迹,"LRZ董事会主席Dieter Kranzlmüller教授表示,"Q.ANT的NPS系统可轻松集成至我们现有基础设施,使我们能立即评估其性能表现。" "与LRZ的合作具有决定性意义:这是历史上首次在实际工作负载下于HPC环境中运行光子处理器,"Q.ANT首席执行官Michael F?rtsch博士解释道,"这一进展表明,基于光子的处理器已从研究阶段迈入实际应用。这是到2030年将光子计算融入下一代计算机架构主流的关键一步。" 随着AI对计算需求的不断增长,高性能数据中心在功耗、散热和空间方面都面临极限挑战。而采用光子芯片则无需昂贵的冷却措施——因其完全不产生热量,同时得益于光的独特物理特性,能够在光子处理器上更快、更高效地完成复杂运算。 Q.ANT的光子技术开创了新一代高性能、高能效服务器解决方案:单工作负载功耗降低90倍(无芯片发热+冷却需求减少)数据中心容量提升100倍(计算密度增加+复杂运算加速)芯片所有计算操作均保持16位浮点精度,准确率近100%通过标准PCIe接口和x86软件兼容性无缝集成现有基础设施(支持PyTorch、TensorFlow、Keras等框架)Q.ANT的NPS系统利用光而非电进行复杂计算,可完全兼容现有数据中心硬件和软件环境。凭借x86兼容性,无需调整软件堆栈或改变服务器布局。NPS系统不仅能耗显著降低、芯片零发热,还能实现更高的计算密度。 这项由德国联邦教育及研究部资助的合作,旨在研究未来HPC环境中的数字-模拟混合架构。通过部署Q.ANT的NPS系统,LRZ将光子模拟计算纳入研究范围——这一技术在项目启动时还不具备可行性,如今因Q.ANT在光子学领域的突破而成为现实。LRZ表示,将利用Q.ANT的NPS系统为气候建模、实时医学成像、核聚变材料模拟等应用建立新的性能基准和实际用例。 LRZ的第一阶段评估工作包括:部署多台最新一代Q.ANT NPS系统、选定基准工作负载,并测试实际应用场景——特别是在AI推理、计算机视觉和物理模拟领域。后续阶段将引入第二代和第三代NPS系统进行更深入的评估。