《英伟达发布新款AI芯片Ampere 相关服务器售20万美元》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2020-05-22
  • 据国外媒体报道,英伟达当地时间周四宣布推出用于数据中心人工智能处理的新型图形处理芯片Ampere和相应服务器,公司称性能上的飞跃可能有助于巩固其在这一不断增长领域的领先地位。

    英伟达周四一个在线技术会议上发布了新产品,公司首席执行官黄仁勋表示,所谓Ampere芯片的设计速度比前几代产品快20倍,在训练和推理这两个人工智能处理关键领域之间进行重定位的灵活性更高。黄仁勋称是英伟达历史上最大的一次飞跃。

    英伟达在过去5年里成功打造了价值30亿美元的业务,为人工智能处理提供新解决方案的思路也吸引到竞争对手和初创公司的注意。英伟达曾是最大的个人电脑游戏显卡制造商,已将其技术应用于人工智能。英伟达的产品展示了并行处理数据系统的价值,使得从互联世界中提取海量信息的模式成为可能。

    Ampere芯片已经是英伟达所提供服务器的一部分。该公司称这种服务器有能力取代体积更大、价格更高、耗电量更大的基于英特尔芯片的服务器。

    英伟达推销的是一种名为DGX的Ampere服务器,每台售价为19.9万美元。据英伟达说,在一个典型的数据中心,五台Ampere电脑的性能将超过600台基于英特尔芯片的服务器。但这一阵列的总成本为1100万美元。

    英伟达芯片已经在人工智能训练领域抢占了大量市场份额。黄仁勋认为,新的Ampere芯片设计可以同时处理训练和推理两种任务,并能够根据需要在两种工作模式之间进行切换。在英伟达推出新产品之际,英特尔也即将推出一款基于图形芯片的处理器设计,旨在与英伟达一决高下。英伟达在电脑游戏显卡领域最大的竞争对手AMD也在大力推销数据中心新功能。

    英伟达和其竞争对手正在抢夺亚马逊、谷歌以及微软等提供云计算服务的大客户。黄仁勋拒绝讨论具体的客户。但他表示,所有主要的云服务提供商都已经采用了内置Ampere芯片的服务器。

相关报告
  • 《 谷歌母公司5600万美元首投AI芯片创企》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2018-03-20
    • 谷歌母公司Alphabet下属一家名为GV的风险投资部门,但GV从未投资制造人工智能(AI)处理器的初创企业。日前这一惯例被打破——GV出面牵头,向智能硬件公司SambaNova Systems投资5600万美元,后者是一家生产计算机处理器和AI和数据分析软件的初创企业,首席执行官Rodrigo Liang曾任职于甲骨文公司。 此前,谷歌CEO桑达尔·皮查伊和其他高管经常表示,谷歌是一个“AI至上”的公司。该公司向开发企业销售AI服务,并将它的特色用于消费产品,在2016年和2017年度报告的业务概览部分,Alphabet都提到了人工智能。 然而在过去几年,GV(其前身为谷歌风投公司)并未出手投资AI硬件初创企业,GV普通合伙人戴夫·姆尼切洛(Dave Munichiello)告诉CNBC。 “我认为,按照我们的标准,SambaNova生逢其时,因为我们看过的其他公司仅处于起步阶段,”他说,那些初创企业所生产的产品在市场上未能得到认可。 姆尼切洛表示,更大公司的现有产品未必能够适应未来的AI需要,对此GV拥有独特见解。谷歌使用英伟达公司的显卡来训练AI模型,同时,谷歌本身已经研发出一款定制AI芯片,即张量处理单元(TPU)。谷歌的另一合作伙伴英特尔公司继2016年收购智能芯片初创企业Nervana后,也已为AI开发出芯片。 SambaNova于去年11月成立,现有员工超过50名,来自不同地方。首席执行官Rodrigo Liang曾在甲骨文公司管理过一支由近千名芯片设计师组成的团队。另一些人来自斯坦福大学,包括Christopher Re和Kunle Olukotun教授。Olukotun教授曾与Rodrigo Liang在芯片公司Afara Websystems共事,该公司2002年被太阳公司收入麾下。 Olukotun说,SambaNova的重点领域不仅是培训AI模型:它的基础设施将能够容纳其他类型的计算,包括快速查询数据库。 “各种方法都试过了,但它们都受到摩尔定律的基本限制,”Olukotun说。“为了进一步提高性能,我们需要考虑一种更有效的计算方法。” Rodrigo Liang说,初创公司还未制造出第一代芯片,但已与潜在客户以及公共云提供商进行了商谈。 在本轮融资中,华登国际与GV一道领投,大西洋桥梁风投(Atlantic Bridge Ventures)和红线资本都有参与。
  • 《英伟达的新款 Blackwell GPU 可以训练包含数万亿参数的 AI 模型》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-20
    •       英伟达(Nvidia)目前最新、最快的GPU代号为Blackwell,它将在今年支持该公司的人工智能计划。这款芯片的性能比其前身有所提高,包括炙手可热的H100和A100 GPU。客户要求更高的人工智能性能,GPU正逐渐达到满足对更高性能GPU的需求。       英伟达负责高性能和超大规模计算的副总裁伊恩·巴克在新闻发布会上表示,具有多达576个Blackwell GPU的系统可以配对以训练数万亿参数模型。GPU拥有2080亿个晶体管,采用台积电的4纳米工艺制造。这大约是前代H100 GPU的2.5倍,是性能显著提高的第一条线索。       人工智能是一个内存密集型过程,数据需要临时存储在RAM中。GPU有192GB的HBM3E内存,与去年的H200 GPU相同。英伟达正专注于扩大Blackwell gpu的数量,以承担更大的人工智能任务。Buck表示:“这将使人工智能数据中心的规模超过10万个GPU。该GPU在单个GPU上提供每秒20千万亿次的人工智能性能。”       巴克提供了模糊的性能数字,真实的性能数字是不可用的。然而,英伟达很可能使用FP4 (Blackwell的一种新数据类型)来测量性能并达到20千万亿次的性能数字。前代H100为FP8数据类型提供了4万亿次的性能,为FP16提供了约2千兆次的性能。Buck说:“它的训练性能是Hopper的四倍,推理性能是整体的30倍,能效提高了25倍。”。       FP4数据类型用于推理,将允许以最快的速度计算较小的数据包,并更快地返回结果。AI性能更快,但精度更低。FP64和FP32提供了更精确的计算,但不是为人工智能设计的。GPU由两个封装在一起的芯片组成。它们通过一个名为NV-HBI的接口进行通信,该接口以每秒10tb的速度传输信息。Blackwell的192GB HBM3E内存由8tb /秒的内存带宽支持。       英伟达还创建了带有Blackwell GPU和Grace CPU的系统。首先,它创建了GB200超级芯片,将两个Blackwell GPU与它的Grace CPU配对。其次,该公司创建了一个名为GB200 NVL72的全机架系统,该系统具有液体冷却功能,它有36个GB200超级芯片和72个GPU以网格形式互连。       GB200 NVL72系统提供了720 PB的训练性能和1.4 EB的推理性能。它可以支持27万亿个参数模型大小。GPU通过新的NVLink互连互连,该互连具有1.8TB/s的带宽。GB200 NVL72将于今年向包括谷歌云和甲骨文云在内的云提供商推出。它也将通过微软的Azure和AWS提供。       英伟达正在与AWS合作开发一款名为Project Ceiba的人工智能超级计算机,该计算机可以提供400 EB的人工智能性能。Buck说:“我们现在已经将其升级为Grace Blackwell,支持……20000个GPU,现在将提供超过400 EB的人工智能。该系统将于今年晚些时候上线。”       英伟达还宣布了一款名为DGX SuperPOD的人工智能超级计算机,它有八个GB200系统,即576个GPU,可以提供11.5 EB的FP4人工智能性能。GB200系统可以通过NVLink互连进行连接,该互连可以在短距离内保持高速。此外,DGX SuperPOD可以将数万个GPU与英伟达Quantum InfiniBand网络堆栈连接起来。此网络带宽为每秒1800 GB。       英伟达还推出了另一款名为DGX B200的系统,其中包括英特尔的第五代至强芯片Emerald Rapids。该系统将八个B200 GPU与两个Emerald Rapids芯片配对。它也可以设计成基于x86的SuperPod系统。该系统可提供高达144 PB的AI性能,包括1.4TB的GPU内存和64TB/s的内存带宽。 DGX系统将于今年晚些时候推出。       英伟达DGX系统副总裁Charlie Boyle在接受HPCwire采访时表示,Blackwell GPU和DGX系统具有预测性维护功能,可保持最佳状态。博伊尔说:“我们每秒监测1000个数据点,看看如何以最佳方式完成这项工作。”预测性维护功能类似于服务器中的RAS(可靠性、可用性和可维护性)功能。它是系统和GPU中硬件和软件RAS功能的组合。博伊尔说:“芯片中有一些特定的新功能,可以帮助我们预测正在发生的事情。这个功能并不是查看所有GPU的数据轨迹。”