• 快讯 日本政府拟出资725亿日元支持日企打造AI超算以提升竞争力

    来源专题:集成电路
    发布时间:2024-04-24
    据日本媒体报道,日本经济产业省(METI)将向5家日本企业提供总额725亿日元(约合4.7亿美元、33.93亿人民币)的补贴,用于打造人工智能超级计算机,旨在减少对美国的技术依赖。目前,日本公司严重依赖AWS和Microsoft Azure等美国云提供商来确保其所需的计算能力。 据悉,樱花互联网公司(Sakura Internet)、日本电信巨头 KDDI、GMO互联网、Rutilea和Highreso将分别获得501亿、102亿、19亿、25亿和77亿日元的政府补贴。接受资助的公司将被要求允许生成式人工智能的开发者使用超级计算机至少三年。这将是KDDI首次为人工智能开发建立大规模计算基础设施。 2020年,日本的Arm超级计算机Fugaku被评为世界500强中速度最快的系统。然而,尽管它仍然是美国以外排名最高的系统,但此后它已下滑至第四位。 2023年7月,METI宣布将在日本产业技术综合研究所(National Institute of Advanced Industrial Science and Technology,AIST)部署一台专门用于生成式人工智能的超级计算机。这台超级计算机被称为人工智能桥接云基础设施(ABCI)2.0,在Top500的最新榜单中,这台超级计算机的Linpack性能峰值为54.34 petaflops。 最初的ABCI系统被大约3000家日本公司和研究人员使用。然而,它无法处理与生成式人工智能相关的大量数据学习过程。 日本还计划开发一台用于量子计算研究的2000-GPU超级计算机。ABCI-Q超级计算机由Nvidia Quantum-2 InfiniBand互连的Nvidia H100组成,遵循ABCI系统,旨在与未来的量子硬件集成。 原文链接: https://www.datacenterdynamics.com/en/news/japanese-government-to-fund-new-ai-supercomputer/ https://www.nippon.com/en/news/yjj2024041900320/
  • 快讯 我国科学家首次研制出氮化镓量子光源芯片

    来源专题:集成电路
    发布时间:2024-04-22
    据SEMI大半导体产业网4月19日报道,电子科技大学信息与量子实验室、天府绛溪实验室量子互联网前沿研究中心与清华大学、中国科学院上海微系统与信息技术研究所合作,在国际上首次研制出氮化镓量子光源芯片,这是电子科技大学“银杏一号”城域量子互联网研究平台取得的又一项重要进展,也是天府绛溪实验室在关键核心技术领域取得的又一创新成果。 据悉,研究团队通过迭代电子束曝光和干法刻蚀工艺,攻克高质量氮化镓晶体薄膜生长、波导侧壁与表面散射损耗等技术难题,在国际上首次将氮化镓材料运用于量子光源芯片。目前,量子光源芯片多使用氮化硅等材料进行研制,与之相比,氮化镓量子光源芯片在输出波长范围等关键指标上取得突破,输出波长范围从25.6纳米增加到100纳米,并可朝着单片集成发展。 此项研究工作得到国家科技创新2030重大项目、国家自然科学基金、四川省科技计划等大力支持。近日,以“Quantum Light Generation Based on GaN Microring toward Fully On-Chip Source”为题,发表在国际著名学术期刊《物理评论快报》上,并被选为“物理亮点”进行重点宣传报道。
  • 快讯 美海军研究实验室发布《未来25年的25项技术》

    来源专题:集成电路
    发布时间:2024-04-22
    据科荟智库4月18日报道,美海军研究实验室在庆祝成立100周年之际,于2024年4月12日发布了《未来25年的25项技术(2023—2048年)》报告。 报告列出了10个领域的25项技术,包括:(1)电磁战:兼具通信功能的雷达阵列;(2)水下战:水下多平台声纳协同自主作战;(3)通信、信息技术和网络战:硅光子学——集成电路的下一次革命,用于定位导航授时的量子传感器,神经形态处理——快速、低功耗、边缘计算系统;(4)战场环境:精确声学海洋环境预报,全大气层预测——连接地面和空间气象,海军战场管理的元优化,快速辐射带修复系统;(5)科技赋能:基于物理学的机器学习——实现下一代多物理场模拟,具有任务实现能力、安全性和可持续性的下一代电池,用于下一代射频和功率微电子的超宽带隙半导体,量子计算——在量子世界中处理信息,微波功率波束;(6)可承受性和可持续性:基于低功耗神经形态计算的舰船维修,生物制造——确保国防部供应链安全,海水燃料;(7)空间研究和技术:卫星的机器人维修,用于国防和太空进入的高超声速系统,利用X射线脉冲星进行空间导航;(8)自主系统:无限续航的无人机系统,无人机协同作战;(9)定向能:作为下一代定向能武器的脉冲激光器;(10)人员防护:用于海上和远征作战的可部署DNA测序,周围爆炸物、化学品、病原体探测与可视化。 报告选出的技术是该实验室认定的当前最有前途、且最有远见的一些领域技术,报告简述了各项技术的基本概念、发展应用背景和影响意义。这项工作为未来海军技术发展奠定了基础,使美海军和联合部队能够发挥强大的新能力。
  • 快讯 英特尔宣布组装完成业界首台商用高数值孔径(High NA)极紫外光刻机

    来源专题:集成电路
    发布时间:2024-04-22
    据官网4月18日报道,英特尔晶圆代工厂(Intel Foundry)宣布组装完成业界首台商用高数值孔径(High Numerical Aperture, High NA)极紫外(EUV)光刻扫描机,在先进半导体制造领域取得了重要里程碑。该来自光刻行业领导者ASML的TWINSCAN EXE:5000高NA EUV光刻机位于英特尔公司俄勒冈州希尔斯伯勒的研发基地,目前正在进行校准步骤,为英特尔未来工艺路线图的生产做准备。通过改变将印刷图案投射到硅片上的光学设计,WINSCAN EXE:5000高NA EUV光刻机能够显著提高下一代处理器的分辨率和特征缩放。 据英国电子周报报道,这台价值3.73亿美元的机器有双层巴士那么大,重达150多公吨,装在43个货运集装箱里的250多个板条箱,通过20辆卡车运往俄勒冈州。英特尔计划在2025年将该机器用于14A代芯片的开发,预计2026年早期生产,2027年全面商业化生产。高NA EUV预计能够印刷比现有EUV光刻机小1.7倍的图案,这将启用二维特征缩放,从而使集成电路密度增加2.9倍。 与0.33NA EUV相比,高NA EUV(或0.55NA EUV)可以为类似特征提供更高的成像对比度,这使得每次曝光量更少,从而减少了每层的印刷时间,并增加了晶片产生量。 原文链接:https://www.intel.com/content/www/us/en/newsroom/news/intel-foundry-opens-new-frontier-chipmaking.html
  • 快讯 英特尔推出迄今世界最大神经形态计算机以实现更可持续的人工智能

    来源专题:集成电路
    发布时间:2024-04-22
    据官网4月17日报道,英特尔公司研制出世界上最大的神经形态计算机Hala Point。它包含11.52亿个人造神经元,分布在1152个Loihi 2芯片上,每秒能进行380万亿次突触操作。英特尔公司希望,这种旨在模拟人脑处理和存储数据方式的计算机能提高人工智能(AI)模型的效率和能力。 这款代号为Hala Point的大型神经形态系统部署在桑迪亚国家实验室,使用英特尔的Loihi 2处理器,旨在支持未来大脑启发式思考的人工智能研究,并应对与当今人工智能的效率和可持续性相关的挑战。Hala Point推进了英特尔第一代大型研究系统Pohoiki Springs的架构改进,使神经元容量增加了10倍以上,性能提高了12倍。 Loihi 2神经形态处理器是Hala Point的基础,它应用了受大脑启发( brain-inspired)的计算原理,如异步计算、基于事件的尖峰神经网络(SNN)、集成内存和计算,以及稀疏和连续变化的连接,以实现能耗和性能的数量级提升。神经元之间直接通信,而不是通过记忆进行通信,从而降低了整体功耗。 Hala Point将1152个Loihi 2处理器封装在一个微波炉大小的六机架数据中心机箱中,这些处理器是在Intel 4工艺节点上生产的。该系统支持分布在140544个神经形态处理核心上的多达11.5亿个神经元和1280亿个突触,最大消耗2600瓦的功率。它还包括2300多个用于辅助计算的嵌入式x86处理器。 Hala Point将处理、内存和通信信道集成在一个大规模并行化的结构中,总共提供了每秒16 PB的内存带宽、3.5 PB的核心间通信带宽和每秒5 TB的芯片间通信带宽。该系统每秒可处理380万亿个8位突触和240万亿个神经元操作。 该系统应用于生物激励的尖峰神经网络模型,其11.5亿个神经元的全容量执行速度是人脑的20倍,在较低容量下执行速度高达200倍。虽然Hala Point不用于神经科学建模,但其神经元容量大致相当于猫头鹰的大脑或卷尾猴的皮层。 基于Loihi的系统可以执行人工智能推理并解决优化问题,使用的能量比传统的CPU和GPU架构少100倍,速度比传统的GPU架构快50倍1。Hala Point的早期结果表明,通过利用高达10:1的稀疏连接和事件驱动活动,该系统可以实现高达15 TOPS/W2的深度神经网络效率,而无需将输入数据分批收集,这是GPU的常见优化,大大延迟了对实时到达的数据(如摄像头视频)的处理。尽管仍在研究中,但未来能够持续学习的神经形态LLM可以通过消除对不断增长的数据集进行定期重新训练的需求,从而节省千兆瓦时的能源。 原文链接:https://www.intel.com/content/www/us/en/newsroom/news/intel-builds-worlds-largest-neuromorphic-system.html