《印度IBM系统开发实验室引领芯片与AI计算引擎创新》

  • 来源专题:新一代信息技术
  • 编译者: isticzz2022
  • 发布时间:2025-05-29
  •       近日,IBM印度系统开发实验室(ISDL)在芯片设计与人工智能计算引擎开发领域取得显著突破,正重塑全球半导体创新格局。位于班加罗尔的ISDL团队正在深度参与IBM前沿项目,包括专为AI优化的Telum II处理器和Spyre AI加速器研发。

          该实验室已超越传统支持中心角色,全面涉足半导体建模、架构设计、后硅验证及定制EDA工具开发等环节。ISDL团队负责IBM下一代处理器的全流程设计,从确定芯片功能、市场定位到产品落地实施,并支持IBM AIX、IBM i和Linux三大操作系统,其中大部分开发工作均在班加罗尔完成。

          ISDL的创新成果不仅体现在硬件层面,更着眼于构建完整的AI就绪系统,满足实时推理、低延迟任务及大规模企业应用需求。其研发的LinuxONE 5 Spyre AI加速器卡等产品,正推动印度在全球半导体与AI技术竞争中迈向新高度,标志着印度从技术追随者向创新引领者的转变。

  • 原文来源:https://www.eetimes.com/systems-development-lab-designs-ai-compute-engines-in-india/
相关报告
  • 《超算创新引领智能产业发展》

    • 来源专题:智能制造
    • 编译者:icad
    • 发布时间:2023-09-08
    • 8月24日至26日,2023全国高性能计算学术年会在山东青岛举行,探讨产业智能化和智能产业化背景下算力的创新与变革,展望新一代人工智能技术的发展趋势。   超级计算又称高性能计算,是通过并行计算提高运算速度,解决大规模科技计算和海量并发的数据处理问题。   当前,建设网络强国、数字中国、智慧社会是党中央、国务院的重大战略部署,推进人工智能、大数据产业发展都需要强大的计算能力。算力作为数字经济时代的生产力,已经成为经济社会高质量发展的重要支撑。    人工智能牵引算力部署   在人工智能的驱动下,算力需求持续增长,高性能计算技术与应用未来的发展和演进引发了广泛关注。   高效的计算能力是越来越复杂和庞大的人工智能应用的基础。反过来,人工智能技术的快速发展、基于大数据训练深度神经网络的需求又推动着算力的进步,新的计算软硬件基础设施不断推陈出新。   最新发布的《智算产业发展白皮书》显示,2022年我国新增算力设施中,智能算力占比已过半;预计2025年智算规模占比将超过85%;到2025年,算力核心产业规模将超过4.4万亿元,关联产业规模可达24万亿元。   当前,国家启动超算互联网部署将突破现有的单体超算中心运营模式,把全国众多的超算中心连接起来,构建一体化算力服务平台。通过超算互联网建设,将形成强大的国家算力底座,有效促进超算算力的一体化运营。   国家高性能计算机工程技术研究中心副主任曹振南指出,当前需要加强全国算力资源统筹协调,以应对算力设施分布不均衡、接口不统一、应用软件自主研发和推广不足等问题。已启动建设的超算互联网旨在连接产业生态中的算力供给、应用开发、运营服务、用户等各方能力和资源,并以互联网的思维运营超算中心,构建一体化超算算力网络和服务平台。曹振南表示,建设超算互联网的目标,不仅希望将超级计算机的设备连接在一起,更希望将所有供需方、整个超算生态链汇聚在一起,通过这个平台提供相应的服务,同时以互联网的思维运营超算,拓展思维与用户。   北京并行科技股份有限公司董事长陈健表示,算力网络是解决当前算力问题的最优模式。只要还有可用的超算算力,算力网络就能支撑用户完成计算任务。    加速突破关键核心技术   通用人工智能兴起直接导致了近期全国乃至全球高端超算算力极度紧缺的情况。而夯实软硬件基础设施,为超算算力的释放提供有力支撑成为当前最紧迫的任务。   我国在顶尖超算系统研制和超算系统部署数量方面处于国际领先行列,但在基础软件生态方面还有待完善。为此,中国工程院院士、清华大学计算机系教授郑纬民提出四点建议:加强超算基础软件研制,提升转化能力;研制统一并行编程模型和编译优化平台;建立国产超算HPDA系统软件栈;深入开展超算算力网络研究。   芯片是提高计算机系统性能的主要驱动力,而晶体管数量与工艺制程直接决定了超算系统的性能。变革当前芯片设计堆叠式技术路线,着眼自上而下构造式芯片设计的新范式,集成芯片为芯片算力突围开辟了新途径。中国工程院院士、中国科学院大学计算机科学与技术学院院长孙凝晖分析了当前计算系统在互联延迟、多核扩展等方面存在的瓶颈,介绍了通过自主工艺构造式设计高性能芯片的新途径。他表示:“当前,超级计算机的架构存在算力天花板,而集成芯片可突破众核芯片的IO带宽制约和多芯片之间的通信延迟制约,并且通过采用多级基板可进一步扩展众核规模,从而实现算力提升。”   据了解,中国科学院计算技术研究所与之江实验室合作开展了面向智能计算的大芯片设计工作,基于集成芯片构建高性能计算系统的思路,在多核扩展架构、多芯粒并行、供电散热扩散性等方面进行了深入研究与开发。   我国高度重视人工智能的发展,特别是在场景和应用创新方面,制定了诸多战略方针,旨在提升我国人工智能的创新能力。得益于AI的能力,高性能计算解决应用问题的能力得到进一步提升。随着HPC+AI融合应用的不断创新,高性能计算的应用开发、系统软件和体系结构正在发生变革。   华为计算产品线集群创新与仿真Lab主任杜云飞表示,华为围绕性能工程的基础软件、性能加速的中间件、应用的自动化优化,以及在新算法的混合精度、AI大模型和超大规模的存储及网络上,做了大量创新性的实践,使得大量的应用生态在超算系统上获得了更好的性能。   欧洲科学院外籍院士、俄罗斯自然科学院外籍院士、西安电子科技大学计算机科学与技术学部主任、人工智能研究院院长焦李成表示:“从最根本上来讲,ChatGPT也要回到核心,就是要回到数学的基础、数理逻辑和计算的能力,而所有这些正是高性能计算的核心技术所在。所以,高性能计算与人工智能是密切相关的。从这个意义上来讲,我们更应该把两者结合起来。对于大数据、互联网、人工智能、云计算来说,高性能计算如何在中间起到连接作用,值得我们去思考。”    多维创新孕育新机   目前,我国算力总规模位居全球第二,并且保持着30%左右的年增长率。预计在2023年,AI算力将首次超过通用算力。AI已成为算力增长的新引擎。如何跟上算力发展的步伐,凸显算力优势,实现算力资本、算力服务的协同互补成为亟须破解的问题。   近几年,我国算力综合供给水平快速提升,算力产业创新能力持续增强,算力赋能千行百业成效显著。从超算行业来看,超算已为汽车制造、气象海洋、基因测序、新药研发、芯片制造、石油勘探等众多行业提供了灵活弹性、快捷高效、安全可靠的算力支持。在AI的驱动下,超算行业未来仍有巨大潜力可挖,新的技术和应用亮点会层出不穷。   Al大模型训练对集群算力的需求正在高速增长,其中的高性能互联系统面临着前所未有的挑战和发展机遇。华为网络技术实验室主任刘冰洋介绍,面对高性能AI训练集群,如何提升其网络通信的性能。华为从两个方面去实现性能的提升:一是物理带宽和物理交换能量,这体现了硬核的实力;二是在硬件基础之上建立拓扑亲和计算的技术体系,通过网络和通信库框架之间的双向协同,充分发挥物理的带宽,从而实现通信效率的最优,并最终达到算效最优化的目标。   数字经济的发展依赖数字化、智能化与网络化的新经济基建开发。“发展数字经济要强调AI,更要强调群体性智能。”香港中文大学(深圳)校长黄铠表示,“面对大数据感知、机器学习认知、生成式AI等新技术、新应用,业界必须重视智能云认知与物联网感知的无缝结合,以及开源大模型在智慧城市、数字经济、远程医疗与全民健保等方面的落地应用,建立与时俱进的生态环境与工业体系,为数字经济的发展保驾护航。”   第十四届全国人大常委会委员、中国科学院院士吴立新指出,数字孪生作为透明海洋技术体系的重要组成部分,将有效深化人类对海洋系统的认知与变化预测,赋能海洋能源、海底矿产、海洋生物资源高效安全开发、海洋高端装备智能制造、海洋航运等产业发展。吴立新表示:“超算与人工智能深度融合的时代已经来临。它必将是一种新的科学范式,有重大的颠覆性创新。这一次,中国不仅要成为全球超算算力的领跑者之一,同时也希望能够成为全球超算应用的领跑者之一。”( 郑大海 ) (来源:中国工业报) 编辑:李芊诺 责编:张永杰 审核:陈雪辉 .
  • 《尖端芯片给AI装上“超级引擎”》

    • 来源专题:人工智能
    • 编译者:袁晨
    • 发布时间:2024-06-21
    •  美国开放人工智能研究中心(OpenAI)首席执行官山姆·奥特曼等人认为,人工智能(AI)将从根本上改变世界经济,拥有强大的计算芯片供应能力至关重要。芯片是推动AI行业发展的重要因素,其性能和运算能力直接影响着AI技术的进步和应用前景。 英国《自然》杂志网站在近日的报道中指出,工程师正竞相开发包括图形处理单元(GPU)等在内的尖端芯片,以满足未来AI的计算需求。 GPU加快机器学习运算速度 GPU是英伟达公司标志性的计算机芯片。传统中央处理单元(CPU)按顺序处理指令,而GPU可并行处理更多指令,因此可分布式训练程序,从而大大加快机器学习的运算速度。 2022年,英伟达公司Hopper超级芯片在MLPerf上击败了包括图像分类和语音识别在内所有类别的竞争对手。MLPerf是国际上最权威、最有影响力的AI基准测试之一,被誉为“AI界奥运会”。 今年3月,英伟达正式展示了性能更优异的新一代AI芯片Blackwell。它拥有2080亿个晶体管,是英伟达首个采用多芯片封装设计的GPU。随着技术发展,GPU变得越来越大,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。Blackwell就是在同一个芯片上集成了两个GPU,新架构将通过芯片与芯片间的连接技术,一步步构建出更大型AI超算集群。 如果要训练一个拥有1.8万亿个参数的GPT模型,需要8000块Hopper芯片,耗能15兆瓦,历时3个月。如果使用Blackwell芯片,只需2000块,耗能4兆瓦,就能在同样的时间内完成任务。 AI芯片市场持续增长,英伟达目前供应了其中80%以上的产品。2023年,该公司售出55万块Hopper芯片。近日,该公司市值首次突破3万亿美元,超越苹果,仅次于微软,成为全球市值第二高的公司。 多种芯片竞相涌现 尽管GPU一直是AI革命的核心,但它们并非是唯一“主角”。随着AI应用的激增,AI芯片的种类也在激增,现场可编程门阵列(FPGA)可谓“一枝独秀”。 FPGA是一种在计算和数字电路领域广泛应用的硬件设备。它以独特的可编程性和灵活性,成为嵌入式系统、高性能计算处理等多种应用的理想选择。 这就像搭建乐高积木,工程师可将FPGA电路一个接一个地构建到他们能想象的任何设计中,无论是洗衣机传感器还是用于引导自动驾驶汽车的AI。不过,与拥有不可调节电路的AI芯片(如GPU)相比,FPGA运行速度相对更慢、效率更低。但FPGA对处理某些任务(如粒子对撞机产生的数据)很有用。英伟达加速计算集团产品营销总监戴维·萨尔瓦托指出,FPGA的易编程性也对原型设计很有帮助。 张量处理单元(TPU)则是谷歌公司专为神经网络机器学习而定制的芯片,旨在执行矩阵计算和张量操作。TPU作为谷歌深度学习框架TensorFlow的加速器于2016年首次推出,其设计目标是提供低功耗、高效能的矩阵运算,以满足大规模机器学习和神经网络训练的需求。TPU在性能与能效之间取得了良好平衡。它们的功耗相对较低,这对于大规模数据中心和在移动设备上的应用至关重要。 此外,元宇宙平台也在独立开发自己的芯片。谷歌、英特尔和高通成立了UXL基金会,用以开发一套支持多种AI加速器芯片的软件和工具,以此对抗英伟达的GPU。 当然,GPU等AI芯片的兴起并不意味着传统CPU的终结,两者互相取长补短已成大势所趋。例如,有一个版本的Blackwell芯片就让GPU与CPU携手;世界上最强大的超级计算机之一、位于美国田纳西州橡树岭国家实验室的“前沿”也依赖CPU和GPU的结合,来执行高性能计算。 考虑到过去十年芯片领域翻天覆地的变化,工程师们可能很难预测芯片的未来。将来可能会研制出使用光而非电子的光学芯片,或量子计算芯片,而进一步提升芯片性能,将加速AI在科学领域的应用。