《美国研究团队开发出硅基芯片上光通信技术》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2017-11-28
  • 美国麻省理工学院发布消息称,该校一个研究团队开发出一种新材料,可集成在硅基芯片上进行光通信,从而比导线信号传输具有更高的速度和更低的能耗。该成果发布在最新出版的《自然·纳米技术》期刊上。

    这种新材料为二碲化钼,是近年来引人关注的二维过渡金属硫化物的一种。这种超薄结构的半导体可以集成在硅基芯片上,并可以在电极作用下发射或接收光信号。传统上,砷化鎵是良好的光电材料,但很难与硅基材料兼容。此外,传统的光电材料发出的光信号在可见光频段,易被硅材料吸收;而二碲化钼可发射红外光,不易被硅吸收,因此适合在芯片上进行光通信。

    目前,这一技术处于概念验证阶段,距离实用还有一定距离。研究团队还在关注其它可集成在硅基芯片上的超薄材料(如黑磷等)在光通信领域的应用。通过改变黑磷材料堆积的层数,可以调节其所发射光信号的波长,从而与目前主流的光通信技术兼容。

相关报告
  • 《美国IBM公司开发出新型类脑AI芯片》

    • 来源专题:集成电路
    • 编译者:李衍
    • 发布时间:2023-09-22
    • 我们正处于人工智能革命的开端,这场革命将重新定义人类的生活和工作方式。特别是,深度神经网络 (DNN) 彻底改变了人工智能领域,并随着基础模型和生成式人工智能的出现而日益受到重视。但在传统数字计算架构上运行这些模型限制了它们可实现的性能和能源效率。专门用于人工智能推理的硬件开发已经取得了进展,但其中许多架构在物理上分割了内存和处理单元。这意味着人工智能模型通常存储在离散的内存位置,计算任务需要在内存和处理单元之间不断地整理数据。此过程会减慢计算速度并限制可实现的最大能源效率。 IBM 研究中心一直在研究重塑人工智能计算方式的方法。模拟内存计算,或者简称模拟人工智能,是一种很有前途的方法,可以借用神经网络在生物大脑中运行的关键特征来应对这一挑战。在我们的大脑以及许多其他动物的大脑中,突触的强度(或称“权重”)决定了神经元之间的通信。对于模拟人工智能系统,研究人员将这些突触权重本地存储在纳米级电阻存储设备的电导值中,例如相变存储器(PCM) 并通过利用电路定律并减少在内存和处理器之间不断发送数据的需要来执行乘法累加 (MAC) 操作,这是 DNN 中的主要计算操作。对于模拟人工智能处理,IBM表示需要克服两个关键挑战:这些存储器阵列需要以与现有数字系统相当的精度进行计算,并且它们需要能够与数字计算单元以及数字通信结构无缝连接。 据TechXplore网8月22日消息,美国IBM公司又开发出一种新型类脑AI芯片,基于相变存储器的用于深度神经网络推理的 64 位混合信号内存计算芯片。这种新型混合信号芯片的工作方式与大脑中突触相互作用的方式类似,具有64个模拟内存核心,每个核心都托管一组突触细胞单元。同时,该芯片还具有一个转换器,确保模拟和数字信号之间的平滑转换。据IBM公司称,新型芯片在CIFAR-10数据集的测试中实现了92.81%的准确率。该芯片具有较高的能效比,能效可达传统数字计算机芯片的14倍,可大幅降低AI计算的功耗,未来有望满足低能耗、高算力的场景需求。 面对传统通用处理器(包含图形处理器、中央处理器等)效能低下的问题,IBM研究团队提出“模拟内存计算”的方案,通过在自身的存储器上并行执行矩阵-向量乘法,以提供更强的能效。IBM的研究团队基于该方案开发出了一个 14nm 模拟芯片,利用34个大型相变存储器(PCM)阵列,结合了数模转换输入、模拟外围电路、模数转换输出和大规模并行二维网格路由。每个14nm芯片上可编码3500万个PCM,在每权重对应2-PCMs的方案中,可容纳1700万个参数。将这些芯片组合在一起,便能够像数字芯片一样有效地处理真实AI用例的实验。该芯片是在 IBM 的 Albany NanoTech Complex 中制造的,由 64 个模拟内存计算核心(或块)组成,每个核心包含 256×256 的突触单元格交叉阵列。使用该芯片,IBM对模拟内存计算的计算精度进行了最全面的研究,并在CIFAR-10图像数据集上证明了 92.81% 的准确率,是目前报道的使用类似技术的芯片中精度最高的。8位输入输出矩阵向量乘法密度为400Gop/s/mm,峰值达到63Top/s和9.76Top/W,功耗比之前基于电阻式存储器的多核内存计算芯片高出 15 倍以上,同时实现了可比的能源效率。 相关成果以题名“A 64-core mixed-signal in-memory compute chip based on phase-change memory for deep neural network inference”于8月10日在线发表于《自然-电子》(Nature Electronics)期刊。 参考链接:https://www.163.com/dy/article/IDDS0R940511838M.html https://caifuhao.eastmoney.com/news/20230812113147087316760 https://xueqiu.com/9919963656/149699780 论文链接:https://www.nature.com/articles/s41928-023-01010-1
  • 《硅光半导体芯片开发迅猛,有望大幅提升计算与光通信传输速度》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2022-03-31
    • 当今最先进的微处理器芯片可以包含数百亿个晶体管,它们的铜互连电路在运行时产生大量热量。不过,与光子不同,电子具有质量和电荷——当它们流经金属或半导体材料时,会被硅和金属原子散射,使它们振动并产生热量。因此,提供给微处理器的大部分电力都被浪费了。 未来如果计算机用光子而不是电子来传输数据,它们的性能会更好,消耗的能量也会更少。使用光传输数据在处理器芯片和它们之间的联系,将有望大幅提高计算机的速度(片上速度和到通信速度),并减少需要获得授权的操作步骤流程,有望带来更快、更强大、更高效的计算机。 来自eMarketer的一份最新调研显示,越来越多的公司正在开发硅光子半导体芯片,从而为计算机等设备提供更快的速度、更大的功率并提高运行效率。 据分析,人工智能、自动驾驶汽车和其他需要快速处理大量数据的系统目前需要运行现代先进计算负载,而该技术可以满足日益增长的需求。 光子学领域的一家公司Luminous Computing已经在A轮融资中筹集到了1.05亿美元,投资者中包括比尔·盖茨(Bill Gates)。据the Next Platform公司最近透露,它计划使用基于光的技术建造一台AI超级计算机。当下,超算是机构和国家非常注重的产品,而AI+超算越来越成为一种新的计算趋势。 惠普企业(HPE)与Ayar实验室达成了一项多年战略合作,利用这家初创公司的硅光子技术。据报道,该技术可以达到电子I/O电路带宽的1000倍,而功率只有十分之一,用于HPE Slingshot。 欧洲的研究人员则研发出了一种新的硅锗发光合金,以获得相应的光子芯片,这将给计算机带来革命性的变化。他们的下一步是开发一种硅兼容激光器,它将集成到电子电路中,并成为光子芯片的光源。 去年3月,Lightmatter公司称计划在今年晚些时候推出其首款基于光的人工智能芯片Envise。它将提供包含16个芯片的服务器刀片,适合传统的数据中心。 随着创新的驱动器越来越多地冲破数据瓶颈,光子学可以推进最苛刻的技术领域——如AI、量子计算和自动化。它也可能让我们更接近家庭,以更快的物联网和下载速度和更高的流质量。 据Luminous首席行政官Marcus Gomez称,从十年前的AI型号最多有1亿参数,一小时乘坐一台电脑训练。如今,模型有10万亿参数,每年需要成千上万的机器培养 - 放缓,光子学可以加快训练的几天。 由于光子学期间相较电子产品而言使用的能量较少,因此它也适用于AVS形态的产品,这必须从能量密集的激光雷达、雷达和相机,紧凑的车辆电池以及缩小范围处理大量数据。 这也是哈佛和波士顿大学与Luminous达成合作的一大驱动因素,主要是将其电光计算解决方案应用于自动驾驶方面的问题。 近期,在俄乌冲突以及新冠疫情的双重影响下,半导体与芯片行业也遭受牵连。据悉,这可能会对乌克兰供应半导体生产所需的原材料气体氖、氩、氪和氙的长期能力产生负面影响。预计这场冲突也会影响到光电子行业,不利于它的前景。 Luminous计划在24个月内实现其系统设备上市销售,但这可能会推迟,除非采取措施回收和回收氖气(neon gas)或更有效地使用它。 光子学在芯片与电子行业的应用让人期待。一方面,光子学可能会颠覆电子行业;但另一方面,它的新颖性加上供应链的挑战可能会延缓应用。