《英伟达发布性能飙升的下一代AI芯片NVIDIA HGX H200》

  • 来源专题:集成电路
  • 编译者: 李衍
  • 发布时间:2023-12-04
  •     据官网11月13日报道,英伟达发布了下一代人工智能超级计算机芯片NVIDIA HGX H200,这些芯片将在深度学习和大型语言模型(LLM)方面发挥重要作用,比如 OpenAI 的 GPT-4。新芯片相比上一代有了显著的飞跃,将被用于数据中心和超级计算机,处理诸如天气和气候预测、药物发现、量子计算等任务。

        该新型AI芯片是基于英伟达的“Hopper”架构的 HGX H200 GPU,是 H100 GPU 的继任者,也是该公司第一款使用 HBM3e 内存的芯片,这种内存速度更快,容量更大,能以每秒 4.8 TB 的速度提供 141GB 的内存,因此更适合大型语言模型。较前任AI芯片霸主 H100,H200的容量几乎是其两倍,带宽增加了 2.4 倍,性能直接提升了 60% 到 90%。

        在人工智能方面,英伟达表示,HGX H200 在 Llama 2(700 亿参数 LLM)上的推理速度比 H100 快了一倍。HGX H200 将以 4 路和 8 路的配置提供,与 H100 系统中的软件和硬件兼容。它将适用于每一种类型的数据中心(本地、云、混合云和边缘),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,将于 2024 年第二季度推出。


       英伟达还将多个HGX H200 GPU 和基于 Arm 的英伟达 Grace CPU 通过该公司的 NVLink-C2C 互连结合起来 ,打造出一款新型 AI 超级计算机产品NVIDIA DGX? GH200 。经过精心设计,其可处理大型推荐系统、生成式 AI 和图形分析领域的 TB 级模型,为超大 AI 模型提供具备线性扩展能力的大型共享内存空间,官方称其专为超级计算机设计,让科学家和研究人员能够通过加速运行 TB 级数据的复杂 AI 和 HPC 应用程序,来解决世界上最具挑战性的问题。GH200 将被用于全球研究中心、系统制造商和云提供商的 40 多台 AI 超级计算机,其中包括戴尔、Eviden、惠普企业(HPE)、联想、QCT 和 Supermicro。其中值得注意的是,HPE 的 Cray EX2500 超级计算机将使用四路 GH200,可扩展到数万个 Grace Hopper 超级芯片节点。




  • 原文来源:https://nvidianews.nvidia.com/news/nvidia-supercharges-hopper-the-worlds-leading-ai-computing-platform;https://www.nvidia.cn/data-center/dgx-gh200/
相关报告
  • 《ZutaCore为英伟达H100和H200 Tensor Core GPU推出了高达1500W的直接芯片无水液冷》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-18
    •       美国ZutaCore为英伟达H100和H200 Tensor Core GPU推出了高达1500W的直接芯片无水液体冷却。3月中旬波士顿有限公司、Hyve Solutions和和硕将在美国的一次会议上展示H100和H200系统,这些系统带有支持1500W及以上功率的无水电介质冷板。       H200和H100均需要消耗700W的功率,这对已经在努力控制其能耗和占地面积的数据中心设计师提出了挑战。下一代B100和B200 GPU预计将达到1000W,需要更复杂的冷却和电源管理技术。ZutaCore HyperCool直接到芯片无水闭环系统使用两相液体冷却,是为这些高功率水平而开发的,可以使用1500W或更高功率冷却处理器,目前每个机架的计算能力为100kW。        IDC研究副总裁Peter Rutten表示:“两相直接芯片液冷技术具有显著优势,这就是为什么我们已经看到CPU芯片制造商的吸引力越来越大。”。“到2027年,全球人工智能服务器市场预计将达到490亿美元,ZutaCore宣布支持下一代GPU设计是该行业的一个重要里程碑。”        ZutaCore联合创始人兼首席执行官Erez Freibach表示:“下一代GPU具有独特的冷却要求,通过无水、直接到芯片的液体冷却技术最有效地解决了目前1500W的GPU,同时将机架处理密度提高了300%。超大型计算机不仅消除了服务器漏水的风险和巨大费用,而且可以在几乎不修改当前房地产、电力或冷却系统的情况下扩展其冷却需求。这改变了人工智能和HPC的未来。”       ZutaCore与三菱重工(MHI)签订了数据中心应用的合作伙伴关系和白标销售协议,包括提高排热效率、促进节能和脱碳。该系统可以在新的或现有的数据中心中实现,以提供10倍以上的计算能力,降低50%的总拥有成本,100%的热再利用,并减少可持续数据的二氧化碳排放。还有一个不断增长的服务器生态系统,经过认证可以与HyperCool合作,包括戴尔技术公司、华硕、和硕和SuperMicro。      波士顿有限公司首席销售和营销官Dev Tyagi表示:“ZutaCore的HyperCool技术证明了其即使是最苛刻的处理器也能拥有高效冷却的能力。随着我们迎来下一代GPU设计的曙光,HyperCool将成为一个关键的推动者,与我们对可持续人工智能基础设施的承诺保持一致,同时根据能源效率降低成本。”      和硕服务器产品营销经理Andy Lin表示:“正如我们在过去的超级计算大会上所展示的那样,HyperCool已经证明了其冷却运行英特尔第四代至强处理器的和硕服务器的能力。通过增加对NVIDIA GPU的支持,ZutaCore现在正在为更可持续的人工智能未来铺平道路,即将推出的人工智能服务器可以以节能、经济高效和可靠的方式部署。”      TD SYNNEX Corporation全资子公司Hyve Solutions总裁Steve Ichinaga表示:“人工智能将需要具有各种配置的最高性能芯片和服务器,以满足每个客户的特定工作负载。凭借其冷却CPU和GPU的能力,HyperCool将成为一项关键技术,以确保数据中心能够提供所需的可扩展性能,同时继续实现或超过可持续发展目标。”
  • 《英伟达发布新款AI芯片Ampere 相关服务器售20万美元》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-05-22
    • 据国外媒体报道,英伟达当地时间周四宣布推出用于数据中心人工智能处理的新型图形处理芯片Ampere和相应服务器,公司称性能上的飞跃可能有助于巩固其在这一不断增长领域的领先地位。 英伟达周四一个在线技术会议上发布了新产品,公司首席执行官黄仁勋表示,所谓Ampere芯片的设计速度比前几代产品快20倍,在训练和推理这两个人工智能处理关键领域之间进行重定位的灵活性更高。黄仁勋称是英伟达历史上最大的一次飞跃。 英伟达在过去5年里成功打造了价值30亿美元的业务,为人工智能处理提供新解决方案的思路也吸引到竞争对手和初创公司的注意。英伟达曾是最大的个人电脑游戏显卡制造商,已将其技术应用于人工智能。英伟达的产品展示了并行处理数据系统的价值,使得从互联世界中提取海量信息的模式成为可能。 Ampere芯片已经是英伟达所提供服务器的一部分。该公司称这种服务器有能力取代体积更大、价格更高、耗电量更大的基于英特尔芯片的服务器。 英伟达推销的是一种名为DGX的Ampere服务器,每台售价为19.9万美元。据英伟达说,在一个典型的数据中心,五台Ampere电脑的性能将超过600台基于英特尔芯片的服务器。但这一阵列的总成本为1100万美元。 英伟达芯片已经在人工智能训练领域抢占了大量市场份额。黄仁勋认为,新的Ampere芯片设计可以同时处理训练和推理两种任务,并能够根据需要在两种工作模式之间进行切换。在英伟达推出新产品之际,英特尔也即将推出一款基于图形芯片的处理器设计,旨在与英伟达一决高下。英伟达在电脑游戏显卡领域最大的竞争对手AMD也在大力推销数据中心新功能。 英伟达和其竞争对手正在抢夺亚马逊、谷歌以及微软等提供云计算服务的大客户。黄仁勋拒绝讨论具体的客户。但他表示,所有主要的云服务提供商都已经采用了内置Ampere芯片的服务器。