《人工智能芯片之争:抢夺智能时代的入场券》

  • 来源专题:声学研究所所级服务
  • 发布时间:2016-08-25
  • 作者: 赵广立 来源:中国科学报 发布时间:2016/8/23 9:23:48 选择字号:小 中大 . . 人工智能芯片之争:抢夺智能时代的入场券. . Xeon Phi芯片 图片来源:百度图片 ■本报记者 赵广立 当地时间8月17日,英特尔数据中心集团执行副总裁戴安·布莱恩特在开发者大会(IDF)上宣布,将在2017年推出专为机器深度学习设计的芯片——Xeon Phi,代号Knights Mill。在此之前,英特尔刚刚以4亿美元收购了一家专注深度学习开发平台研究的初创公司Nervana Systems。 业内人士指出,随着英特尔人工智能(AI)战略的快速推进,人工智能芯片“群雄逐鹿”的格局正在形成。 “无论传统芯片巨头如英特尔、英伟达、高通,还是互联网巨头如谷歌、FaceBook,以及类似于地平线、寒武纪等这样的新锐势力,大家竞争的焦点虽然是针对于人工智能应用的芯片上,但其实都在布局自己在未来智能时代的一席之地。”地平线机器人技术创始人兼CEO余凯在接受《中国科学报》记者...

相关报告
  • 《人工智能需要专门的AI芯片》

    • 来源专题:集成电路
    • 编译者:tengfei
    • 发布时间:2017-11-20
    • 去年“阿尔法狗”战胜韩国棋手李世石,需要耗电数万瓦、依赖体积巨大的云服务器。一年多后,一个小小的人工智能芯片,就可让手机、手表甚至摄像头都能和“阿尔法狗”一样“聪明”。 随着中国企业率先推出市场化的人工智能手机芯片,这样的手机之“芯”正掀起全球热潮。它将带来怎样的影响,传统芯片命运几何? 专“芯”专用 2017年柏林国际消费电子展上,华为推出麒麟970人工智能手机芯片,内置神经元网络单元(NPU),通过人工智能深度学习,让手机的运行更加高效。 芯片又叫集成电路,按照功能可分为很多种,有的负责电源电压输出控制,有的负责音频视频处理,还有的负责复杂运算处理。目前市场上的手机芯片有指纹识别芯片、图像识别芯片、基带芯片、射频芯片等近百种。 现有芯片种类繁多,为何还要人工智能芯片? 随着手机智能应用越来越多,传统芯片要么性能不够,要么效率不足,难以支撑人工智能所需的大规模神经网络运转。 例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。 与传统的4核芯片相比,在处理同样的人工智能应用任务时,麒麟970拥有大约50倍能效和25倍性能优势。 术业有专攻。专业人士指出,普通的处理器就好比瑞士军刀,虽然通用,但不专业。厨师要做出像样的菜肴,就必须使用专业的菜刀,而专门的深度学习处理器就是这把更高效、更快捷的“菜刀”。 “芯”够强 才能走得远 目前迅猛发展的人工智能,上层的应用都依赖于底层核心能力,而这个核心能力就是人工智能处理器。如果在芯片上不能突破,人工智能应用就不可能真正成功。可以说核心芯片是人工智能时代的战略制高点。 人工智能目前采用的深度学习算法,有海量的数据运算需求,对传统架构和系统提出了极大挑战。 深度学习,就是通过算法给机器设计一个神经网络。这个网络的基本特点,是模仿大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。近年来,这种方法已应用于许多领域,比如人脸识别、语音识别等,是人工智能领域的热点研究方向之一。 用于图像处理的GPU芯片因海量数据(40.670, -0.95, -2.28%)并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。 然而,随着近两年人工智能技术的迅速发展,GPU在三个方面显露出局限性:无法充分发挥并行计算优势,硬件结构固定不具备可编程性,运行深度学习算法能效不足。 全球科研界和企业于是竞相开发更加适用的人工智能芯片,尤其是适用于移动通信时代的芯片。 华为公司与中国科学院计算技术研究所“寒武纪”项目团队共同开发的麒麟970人工智能手机芯片,首次集成NPU,将通常由多个芯片完成的传统计算、图形、图像以及数字(数位)信号处理功能集成在一块芯片内,节省空间、节约能耗,同时极大提高了运算效率。 据预测,类脑计算芯片市场将在2022年前达到千亿美元规模,其中消费终端将是最大市场,占据98.17%,其他需求包括工业检测、航空、军事与国防等领域。 在新的计算时代,核心芯片将决定基础架构和未来生态。因此,谷歌、微软、超威等全球信息技术和通信制造巨头都投入巨资,加速人工智能芯片的研发。
  • 《加速人工智能任务,同时保护数据安全》

    • 来源专题:新一代信息技术
    • 编译者:王晓丽
    • 发布时间:2023-11-28
    • 随着计算密集型机器学习应用(如执行实时语言翻译的聊天机器人)的激增,设备制造商通常会采用专用硬件组件来快速移动和处理这些系统所需的海量数据。 为这些被称为深度神经网络加速器的组件选择最佳设计极具挑战性,因为它们可能有大量的设计选项。如果设计者希望增加加密操作以保护数据安全,避免受到攻击,这个难题就会变得更加棘手。 现在,麻省理工学院的研究人员开发出了一种搜索引擎,可以有效识别深度神经网络加速器的最佳设计,在提高性能的同时保护数据安全。 他们的搜索工具被称为 "SecureLoop",旨在考虑增加数据加密和验证措施将如何影响加速器芯片的性能和能耗。工程师可以利用该工具获得针对其神经网络和机器学习任务的最佳加速器设计。 与不考虑安全性的传统调度技术相比,SecureLoop 可以提高加速器设计的性能,同时保护数据。 使用SecureLoop可以帮助用户提高要求苛刻的人工智能应用(如自动驾驶或医学图像分类)的速度和性能,同时确保敏感的用户数据免受某些类型的攻击。 "如果你想在进行计算时保护数据的安全,那么我们以前用来寻找最优设计的规则现在已经被打破了。因此,所有的优化都需要针对这一新的、更复杂的约束条件进行定制。麻省理工学院计算机科学和电子工程实践教授、SecureLoop 论文的共同作者乔尔-埃默(Joel Emer)说:"这就是(第一作者)Kyungmi 在这篇论文中完成的工作。 与埃默共同撰写论文的还有论文第一作者、电气工程与计算机科学研究生李京美(Kyungmi Lee),电气工程与计算机科学霍默-伯内尔职业发展助理教授、计算机科学与人工智能实验室(CSAIL)成员严孟嘉(Mengjia Yan),以及资深作者、麻省理工学院工程学院院长、电气工程与计算机科学范内瓦尔-布什(Vannevar Bush)教授阿南塔-钱德拉卡桑(Anantha Chandrakasan)。这项研究将在 IEEE/ACM 微体系结构国际研讨会上发表。