《英伟达推第一款专为机器人计算设计的芯片Xavier》

  • 来源专题:集成电路设计
  • 编译者: shenxiang
  • 发布时间:2018-11-23
  • 11月21日,在英伟达GPU技术大会(GTC China 2018)上,英伟达宣布推出一款专为处理机器人计算业务流而设计的芯片——Xavier。

    英伟达CEO黄仁勋表示,由于机器人系统需要新的AI计算机和一个新型的处理器,Xavier作为第一款专为处理机器人计算业务流而设计的芯片,拥有十分强大的性能。Xavier可以处理高速率传感器、复杂传感器、AI和控制算法的传感器。

    机器人的处理器性能使Xavier具有了功能性、灵活性和安全性。除此之外,Xavier还拥有对机器人所需的每项功能优化的专用处理器。包括图像传感器处理单元ISP、可编程立体视觉加速器(PVA)、视频处理器(VPU)、光流引擎(OFE)、可编程张量处理器(Tensor Core)、并行计算加速器(CUDA)、图像加速器(GPU)、深度学习加速器(DLA)和CPU。

相关报告
  • 《印度研制出第一款RISC-V芯片原型Shakrti》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2018-08-02
    • 据报道,印度研制出了第一款 RISC-V 芯片原型 Shakrti。 RISC-V 是基于精简指令集(RISC)原则的一个开源指令集 架构 。与大多数指令集相比,RISC-V 指令集可以自由地用于任何目的,允许任何人设计、 制造 和 销售 RISC-V 芯片和 软件 。 Shakrti 项目得到了印度政府的资助,包含从微控制器到多核处理器甚至面向 HPC 等应用的多个版本。 Shakrti首个面世的原型是低功耗版本,频率为 400MHz,开发者称该原型是为民用核反应堆的控制系统设计的。中国政府也对 RISC-V 架构 很感兴趣。 RISC-V成为印度国家指令集. 2011年,加州大学伯克利分校发布了开放指令集RISC-V,并很快建立起一个开源软硬件生态系统。很多企业开始将RISC-V集成到 产品 中,例如全球第一大硬盘产商西部数据(Western Digital)将把每年各类存储 产品 中嵌入的10亿个处理器核换成RISC-V。 印度政府则大力资助基于RISC-V的处理器项目,使RISC-V成为了印度的事实国家指令集。 2011年,印度开始实施处理器战略计划,在全国范围资助2-3个研制处理器的项目。印度理工学院马德拉斯分校(Indian Institute of Technology,Madras)的G. S. Madhusudan与V. Kamakoti教授在该计划支持下启动了SHAKTI处理器项目,目标是研制与IBM PowerPC兼容的处理器。为了获得合法授权,SHAKTI项目组与IBM开展了合作谈判,但始终未能达成一致。 与此同时,加州大学伯克利分校推出了一套开放指令集RISC-V,其原型芯片也于2013年1月成功流片。于是2013年SHAKTI项目组毅然放弃PowerPC,全面拥抱RISC-V——将项目目标调整为研制6款基于RISC-V指令集的开源处理器核,涵盖了32位的单核微控制器、64核64位高性能处理器和 安全 处理器等多个应用领域。项目目标的临时调整不仅未受到指责,反而得到了政府更大力度的支持,调整后的SHAKTI项目获得了9000万美元的经费支持。 另一边,2016年1月,曾长期开展超级计算机研究的先进计算发展中心(Centre for Development of Advanced Computing,C-DAC)获得印度电子信息技术部4500万美元的资助,目标研制一款基于RISC-V指令集的2GHz四核处理器。在印度政府支持的另一个关于神经形态加速器(neuromorphic accelerator)项目中,也将RISC-V作为计算主核心。 过去几年,随着印度政府资助的处理器相关项目都开始向RISC-V靠拢,RISC-V成为了印度的事实国家指令集。
  • 《英伟达发布性能飙升的下一代AI芯片NVIDIA HGX H200》

    • 来源专题:集成电路
    • 编译者:李衍
    • 发布时间:2023-12-04
    •     据官网11月13日报道,英伟达发布了下一代人工智能超级计算机芯片NVIDIA HGX H200,这些芯片将在深度学习和大型语言模型(LLM)方面发挥重要作用,比如 OpenAI 的 GPT-4。新芯片相比上一代有了显著的飞跃,将被用于数据中心和超级计算机,处理诸如天气和气候预测、药物发现、量子计算等任务。     该新型AI芯片是基于英伟达的“Hopper”架构的 HGX H200 GPU,是 H100 GPU 的继任者,也是该公司第一款使用 HBM3e 内存的芯片,这种内存速度更快,容量更大,能以每秒 4.8 TB 的速度提供 141GB 的内存,因此更适合大型语言模型。较前任AI芯片霸主 H100,H200的容量几乎是其两倍,带宽增加了 2.4 倍,性能直接提升了 60% 到 90%。     在人工智能方面,英伟达表示,HGX H200 在 Llama 2(700 亿参数 LLM)上的推理速度比 H100 快了一倍。HGX H200 将以 4 路和 8 路的配置提供,与 H100 系统中的软件和硬件兼容。它将适用于每一种类型的数据中心(本地、云、混合云和边缘),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,将于 2024 年第二季度推出。    英伟达还将多个HGX H200 GPU 和基于 Arm 的英伟达 Grace CPU 通过该公司的 NVLink-C2C 互连结合起来 ,打造出一款新型 AI 超级计算机产品NVIDIA DGX? GH200 。经过精心设计,其可处理大型推荐系统、生成式 AI 和图形分析领域的 TB 级模型,为超大 AI 模型提供具备线性扩展能力的大型共享内存空间,官方称其专为超级计算机设计,让科学家和研究人员能够通过加速运行 TB 级数据的复杂 AI 和 HPC 应用程序,来解决世界上最具挑战性的问题。GH200 将被用于全球研究中心、系统制造商和云提供商的 40 多台 AI 超级计算机,其中包括戴尔、Eviden、惠普企业(HPE)、联想、QCT 和 Supermicro。其中值得注意的是,HPE 的 Cray EX2500 超级计算机将使用四路 GH200,可扩展到数万个 Grace Hopper 超级芯片节点。