《英伟达投资50亿美元入股英特尔,联手开发x86 AI超算与集成显卡芯片》

  • 来源专题:新一代信息技术
  • 编译者: 刘飞
  • 发布时间:2025-09-20
  • 英伟达宣布以50亿美元战略投资英特尔,双方将共同开发基于x86架构的数据中心与PC产品。合作重点包括:英特尔为英伟达定制x86 CPU集成至AI基础设施平台,以及开发融合英伟达RTX GPU芯粒的x86系统级芯片(SoC)。

    两家公司将通过Nvidia NVLink连接各自的架构,融合Nvidia的AI和加速计算优势与Intel的领先CPU技术和x86生态系统,为客户提供尖端解决方案。在数据中心领域,Intel将构建定制的x86 CPU,Nvidia则将其集成到AI基础设施平台中。在个人计算市场,Intel将构建并销售集成Nvidia RTX GPU芯片的x86系统芯片(SOC),这些新系统芯片将为需求高性能CPU和GPU整合的PC提供动力。Nvidia创始人兼CEO黄仁勋表示,AI正在推动新的工业革命,重塑从硅到系统到软件的各个层面,并与Intel的CPU和x86生态系统紧密结合。Intel CEO Lip-Bu Tan补充说,Intel的x86架构是现代计算的基础,其领先的数据中心和客户端计算平台将与Nvidia的AI和加速计算相辅相成。

  • 原文来源:https://www.telecoms.com/mobile-devices/nvidia-to-plough-5-billion-into-intel-as-the-firms-look-to-jointly-develop-chips
相关报告
  • 《英伟达发布新款AI芯片Ampere 相关服务器售20万美元》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-05-22
    • 据国外媒体报道,英伟达当地时间周四宣布推出用于数据中心人工智能处理的新型图形处理芯片Ampere和相应服务器,公司称性能上的飞跃可能有助于巩固其在这一不断增长领域的领先地位。 英伟达周四一个在线技术会议上发布了新产品,公司首席执行官黄仁勋表示,所谓Ampere芯片的设计速度比前几代产品快20倍,在训练和推理这两个人工智能处理关键领域之间进行重定位的灵活性更高。黄仁勋称是英伟达历史上最大的一次飞跃。 英伟达在过去5年里成功打造了价值30亿美元的业务,为人工智能处理提供新解决方案的思路也吸引到竞争对手和初创公司的注意。英伟达曾是最大的个人电脑游戏显卡制造商,已将其技术应用于人工智能。英伟达的产品展示了并行处理数据系统的价值,使得从互联世界中提取海量信息的模式成为可能。 Ampere芯片已经是英伟达所提供服务器的一部分。该公司称这种服务器有能力取代体积更大、价格更高、耗电量更大的基于英特尔芯片的服务器。 英伟达推销的是一种名为DGX的Ampere服务器,每台售价为19.9万美元。据英伟达说,在一个典型的数据中心,五台Ampere电脑的性能将超过600台基于英特尔芯片的服务器。但这一阵列的总成本为1100万美元。 英伟达芯片已经在人工智能训练领域抢占了大量市场份额。黄仁勋认为,新的Ampere芯片设计可以同时处理训练和推理两种任务,并能够根据需要在两种工作模式之间进行切换。在英伟达推出新产品之际,英特尔也即将推出一款基于图形芯片的处理器设计,旨在与英伟达一决高下。英伟达在电脑游戏显卡领域最大的竞争对手AMD也在大力推销数据中心新功能。 英伟达和其竞争对手正在抢夺亚马逊、谷歌以及微软等提供云计算服务的大客户。黄仁勋拒绝讨论具体的客户。但他表示,所有主要的云服务提供商都已经采用了内置Ampere芯片的服务器。
  • 《AI持续升温 英特尔/英伟达/谷歌谁会是最终赢家?》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:姜山
    • 发布时间:2017-07-25
    • 人工智能(AI)市场持续升温,但产业对于这些系统应如何建构仍十分分歧,大型科技公司动辄投入数十亿美元购并新创公司或支持研发,各国政府也提供大学和研究机构大笔研究经费,希望在这波AI竞赛中脱颖而出。 据Semiconductor Engineering报导,研究机构Tractica的数据显示,全球AI市场规模将在2025年成长至368亿美元,只不过目前对于AI的定义或是需要分析的数据类型都还没有共识,OneSpin Solutions总裁暨执行长Raik Brinkmann指出,眼下有三个问题需要解决,第一是大量待处理的数据,其次是并行处理和互连技术,第三则是移动大量数据导致的耗能问题。 目前市场首批AI芯片几乎都是以现成的CPU、GPU、FPGA和DSP加以组合而成,尽管英特尔(Intel)、Google、NVIDIA、高通(Qualcomm)和IBM等公司正研发新的设计,最后谁能胜出仍不明朗。无论如何,这些系统仍需有至少一个CPU负责控制,但可能需要不同类型的协同处理器。 AI处理多牵涉到矩阵乘法和加法,使用并行运作的GPU成本较低,但缺点是耗能较高。内建DSP区块和本地存储器的FPGA可获得较佳的能源效率,但价格比较昂贵。Mentor Graphics董事长暨执行长Wally Rhines表示,有些人使用标准GPU执行深度学习,同时也有许多人采用CPU,为了达到使类神经网路行为更像人脑的目标,刺激了新的一波设计浪潮。 视觉处理是目前最受关注的AI区块,目前大部分的AI研究与自动驾驶使用的视觉处理有关,这项技术在无人机和机器人方面的应用也与日俱增。Achronix公司总裁暨执行长Robert Blake指出,影像处理的运算复杂度很高,市场需要5~10年时间沉淀,不过因为变数精度(variable precision arithmetic)运算需要,可程式逻辑元件的角色会更吃重。 FPGA非常适合矩阵乘法,可程式化特性增加了设计上的弹性,用来做决策的数据部分会在本地处理,部分则由数据中心进行,但两者的比例会因应用的不同而改变,并影响AI芯片和软件设计。 目前汽车使用的AI技术主要是侦测和避免物体,这和真正的人工智能还有段差距。真正的AI应该具有一定程度的推理,例如判断如何闪避正在穿越马路的人群。前者的推论为根据传感器输入的大量数据处理和预编程行为得来,后者则能够作出价值判断,思考各种可能后果以找出最佳选择。 这样的系统需要极高的频宽并内建安全机制,此外还必须能保护数据安全,许多根据现成零件开发的设计很难兼顾运算和编程效率。Google试图以专为机器学习开发的TPU特殊应用芯片改变这样的方程式,并开放TensorFlow平台以加快AI发展速度。 第一代AI芯片将重点放在运算能力和异质性,但这就像早期的IoT装置,在不确定市场如何演变的情况下,业者只好把所有东西都加进去,之后再找出瓶颈,针对特定功能设计,取得功率和性能上的平衡。 随着自驾车使用案例的增加,AI应用范围也会逐渐扩大,这也是为何英特尔在2016年8月收购Nervana的原因。Nervana开发的2.5D深度学习芯片利用高性能处理器核心将数据从载板移到高频宽存储器,希望比GPU解决方案缩短100倍的深度学习模型训练时间。 量子运算则是AI系统的另一个选择。IBM研究部门副总裁Dario Gil解释,如果4张卡片中有3张蓝卡1张红卡,使用传统运算猜中红卡的机率为4分之1,使用量子电脑及叠加量子位元的纠缠(entanglement),系统每次都可以提供正确答案。 AI并没有所谓最适合的单一系统,也没有一种应用可以吃遍各种市场,这些进一步的细分市场都需要再精致化、再扩大寻找可用工具,并需要生态系统来支持,但低功率、高吞吐量及低延迟则是AI系统的通用需求。半导体产业经过多年仰赖制程微缩元件以改善功率,性能和成本,如今则需要重新思考进入新市场的方法。