《智能手机掀起全球AI芯片热潮 IT巨头将加速研发》

  • 来源专题:集成电路
  • 编译者: tengfei
  • 发布时间:2017-11-20
  • 去年“阿尔法狗”战胜韩国棋手李世石,需要耗电数万瓦、依赖体积巨大的云服务器。一年多后,一个小小的人工智能芯片,就可让手机、手表甚至摄像头都能和“阿尔法狗”一样“聪明”。
    随着中国企业率先推出市场化的人工智能(AI)手机芯片,这样的手机之“芯”正掀起全球热潮。
    智能手机需要更强芯片
    2017年柏林国际消费电子展上,华为推出麒麟970人工智能手机芯片,内置神经元网络单元(NPU),通过人工智能深度学习,让手机的运行更加高效。
    芯片又叫集成电路,按照功能可分为很多种,有的负责电源电压输出控制,有的负责音频视频处理,还有的负责复杂运算处理。目前市场上的手机芯片有指纹识别芯片、图像识别芯片、基带芯片、射频芯片等近百种。
    现有芯片种类繁多,为何还要人工智能芯片?
    随着手机智能应用越来越多,传统芯片要么性能不够,要么效率不足,难以支撑人工智能所需的大规模神经网络运转。
    例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。
    与传统的4核芯片相比,在处理同样的人工智能应用任务时,麒麟970拥有大约50倍能效和25倍性能优势。
    IT巨头将加速研发AI芯片
    目前迅猛发展的人工智能,上层的应用都依赖于底层核心能力,而这个核心能力就是人工智能处理器。如果在芯片上不能突破,人工智能应用就不可能真正成功。可以说核心芯片是人工智能时代的战略制高点。
    人工智能目前采用的深度学习算法,有海量的数据运算需求,对传统架构和系统提出了极大挑战。
    深度学习,就是通过算法给机器设计一个神经网络。这个网络的基本特点,是模仿大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。近年来,这种方法已应用于许多领域,比如人脸识别、语音识别等,是人工智能领域的热点研究方向之一。
    用于图像处理的GPU芯片因海量数据并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。
    然而,随着近两年人工智能技术的迅速发展,GPU在三个方面显露出局限性:无法充分发挥并行计算优势,硬件结构固定不具备可编程性,运行深度学习算法能效不足。
    全球科研界和企业于是竞相开发更加适用的人工智能芯片,尤其是适用于移动通信时代的芯片。
    华为公司与中国科学院计算技术研究所“寒武纪”项目团队共同开发的麒麟970人工智能手机芯片,首次集成NPU,将通常由多个芯片完成的传统计算、图形、图像以及数字(数位)信号处理功能集成在一块芯片内,节省空间、节约能耗,同时极大提高了运算效率。
    在新的计算时代,核心芯片将决定基础架构和未来生态。因此,谷歌、微软、超威等全球信息技术和通信制造巨头都投入巨资,加速人工智能芯片的研发。

相关报告
  • 《人工智能需要专门的AI芯片》

    • 来源专题:集成电路
    • 编译者:tengfei
    • 发布时间:2017-11-20
    • 去年“阿尔法狗”战胜韩国棋手李世石,需要耗电数万瓦、依赖体积巨大的云服务器。一年多后,一个小小的人工智能芯片,就可让手机、手表甚至摄像头都能和“阿尔法狗”一样“聪明”。 随着中国企业率先推出市场化的人工智能手机芯片,这样的手机之“芯”正掀起全球热潮。它将带来怎样的影响,传统芯片命运几何? 专“芯”专用 2017年柏林国际消费电子展上,华为推出麒麟970人工智能手机芯片,内置神经元网络单元(NPU),通过人工智能深度学习,让手机的运行更加高效。 芯片又叫集成电路,按照功能可分为很多种,有的负责电源电压输出控制,有的负责音频视频处理,还有的负责复杂运算处理。目前市场上的手机芯片有指纹识别芯片、图像识别芯片、基带芯片、射频芯片等近百种。 现有芯片种类繁多,为何还要人工智能芯片? 随着手机智能应用越来越多,传统芯片要么性能不够,要么效率不足,难以支撑人工智能所需的大规模神经网络运转。 例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。 与传统的4核芯片相比,在处理同样的人工智能应用任务时,麒麟970拥有大约50倍能效和25倍性能优势。 术业有专攻。专业人士指出,普通的处理器就好比瑞士军刀,虽然通用,但不专业。厨师要做出像样的菜肴,就必须使用专业的菜刀,而专门的深度学习处理器就是这把更高效、更快捷的“菜刀”。 “芯”够强 才能走得远 目前迅猛发展的人工智能,上层的应用都依赖于底层核心能力,而这个核心能力就是人工智能处理器。如果在芯片上不能突破,人工智能应用就不可能真正成功。可以说核心芯片是人工智能时代的战略制高点。 人工智能目前采用的深度学习算法,有海量的数据运算需求,对传统架构和系统提出了极大挑战。 深度学习,就是通过算法给机器设计一个神经网络。这个网络的基本特点,是模仿大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。近年来,这种方法已应用于许多领域,比如人脸识别、语音识别等,是人工智能领域的热点研究方向之一。 用于图像处理的GPU芯片因海量数据(40.670, -0.95, -2.28%)并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。 然而,随着近两年人工智能技术的迅速发展,GPU在三个方面显露出局限性:无法充分发挥并行计算优势,硬件结构固定不具备可编程性,运行深度学习算法能效不足。 全球科研界和企业于是竞相开发更加适用的人工智能芯片,尤其是适用于移动通信时代的芯片。 华为公司与中国科学院计算技术研究所“寒武纪”项目团队共同开发的麒麟970人工智能手机芯片,首次集成NPU,将通常由多个芯片完成的传统计算、图形、图像以及数字(数位)信号处理功能集成在一块芯片内,节省空间、节约能耗,同时极大提高了运算效率。 据预测,类脑计算芯片市场将在2022年前达到千亿美元规模,其中消费终端将是最大市场,占据98.17%,其他需求包括工业检测、航空、军事与国防等领域。 在新的计算时代,核心芯片将决定基础架构和未来生态。因此,谷歌、微软、超威等全球信息技术和通信制造巨头都投入巨资,加速人工智能芯片的研发。
  • 《AI芯片巨头争霸时代,华为AI芯片下周将首次亮相》

    • 来源专题:集成电路
    • 编译者:tengfei
    • 发布时间:2017-11-20
    • 近日,华为高级副总裁余承东在微博上发布了一段视频,为自家的人工智能AI芯片造势。他表示,“速度之追求,从不止于想象”,并预告了AI芯片将在9月2日IFA2017上亮相。 在上月的华为年中业绩媒体沟通会上,余承东透露,将于今年秋季发布AI芯片,华为也将是第一家在智能手机中引入人工智能处理器的厂商。此外,在2017年中国互联网大会上,余承东还曾表示,由华为海思制造的芯片将会集CPU、GPU和AI功能于一体,并且有可能基于ARM今年在Computex展会上推出的全新AI芯片设计。 根据今日余承东视频透露,华为的AI处理器有望显著提升麒麟970的数据处理速度。如果AI芯片能用在10月份发布的华为Mate 10手机上,则华为Mate 10的数据处理能力将十分令人期待。 与华为一样,当下英特尔、联想、英伟达、谷歌、微软等全球科技巨头纷纷在积极拥抱AI,对AI芯片的布局成为重中之重。 英特尔 对于AI芯片的重要性,英特尔中国研究院院长宋继强本月接受媒体新智元采访时指出,我们需要用技术去处理大量数据,使其对客户产生价值,在这个过程中无疑芯片是极其重要的: 到2020年,保守估计,全世界会有500亿设备互联。未来的数据来源于各种设备终端。不再靠我们人打电话、玩手机、发邮件这些数据。无人车、智能家居,摄像头等都在产生数据。 以后每一台无人驾驶汽车都是一台服务器,每台车每天会超过4000个GB的数据,这些数据都不可能通过5G来传输,所以一定很多数据是在本地处理和分析然后选择性的往上走,本地你会使用很多技术,超越现代服务器的技术。 作为传统的芯片龙头制造商,英特尔今年7月推出了新一代Xeon服务器芯片,性能大幅提升,深度学习能力是上一代服务器的2.2倍,可接受培训和推理任务。此外,英特尔还展示了将在未来AI领域发挥重大作用的现场可编程门阵列(FPGA)技术,同时,计划推出Lake Crest处理器,旨在深度学习代码。 联想 联想集团总裁杨元庆表示,“AI通用处理器芯片是人工智能时代的战略制高点“,联想集团高级副总裁、联想创投集团总裁贺志强也指出: 智能互联网时代,AI芯片是人工智能的引擎,对于智能互联网的发展将起到决定性作用。 就在上周,联想创投与阿里巴巴创投等顶尖投资方一起,联合投资了有“全球AI芯片界首个独角兽”之称的寒武纪科技。 英伟达 英伟达在过去几年中将其业务重心转移到AI和深度学习领域,今年5月,英伟达发布了一款针对人工智能应用的重量级处理器:Tesla V100。 该芯片拥有210亿个晶体管,性能比英伟达一年前发布的带150亿个晶体管的Pascal处理器强大得多。虽然只有Apple Watch智能手表的表面那么大,但它拥有5120个CUDA(统计计算设备架构)处理核心,双精度浮点运算性能达每秒7.5万亿次。英伟达CEO黄仁勋表示,英伟达花了30亿美元打造这款芯片,售价将会是14.9万美元。 谷歌 宣布战略转向“AI first”的谷歌,在去年就发布了专门为机器学习定制的TPU(张量处理单元),与CPU、GPU相比,TPU效率提高了15-30倍,能耗降低了30-80倍。 今年5月的谷歌开发者大会上,谷歌发布了新款产品——Cloud TPU,它拥有四个处理芯片,每秒可完成180 tflops计算任务。将64个Cloud TPU相互连接可组成谷歌称之为Pod的超级计算机,Pod将拥有11.5 petaflops的计算能力(1 petaflops为每秒进行1015次浮点运算)——这对AI领域的研究来说将是非常重要的基础性工具。 目前,TPU已经部署到了几乎所有谷歌的产品中,包括Google搜索、Google Assistant,甚至在AlphaGo与李世石的围棋大战中,TPU也起到了关键作用。 微软 上月,媒体报道称,微软将为下一代HoloLens加入一款自主设计的AI协处理器,可以在本地分析用户在设备上看到和听到的内容,再也不需要浪费时间把数据传到云端进行处理。这款AI芯片目前正在开发,未来将被包含在下一代HoloLens的全息处理单元(HPU)当中。微软表示,这款AI协处理器将会是微软为移动设备设计的首款芯片。 近几年来,微软一直在致力于开发自己的AI芯片:曾为Xbox Kinect游戏系统开发了一套动作追踪处理器;为了在云服务方面与Google、亚马逊竞争,微软专门定制了一套现场可编程门阵列(FPGA)。此外,微软还从英特尔的子公司Altera处购置可编程芯片,写入定制化的软件来适应需求。 去年,微软曾在一次大会上使用数千个AI芯片,把所有英文维基百科翻译成西班牙语,大概有500万篇文章,而翻译时间不到0.1秒。接下来,微软希望能让使用微软云的客户通过AI芯片来完成任务,比如从海量数据中识别图像,或者通过机器学习算法来预测消费者的购买模型。