《人工智能芯片之争:抢夺智能时代的入场券》

  • 来源专题:声学研究所所级服务
  • 发布时间:2016-08-25
  • 作者: 赵广立 来源:中国科学报 发布时间:2016/8/23 9:23:48 选择字号:小 中大 . . 人工智能芯片之争:抢夺智能时代的入场券. . Xeon Phi芯片 图片来源:百度图片 ■本报记者 赵广立 当地时间8月17日,英特尔数据中心集团执行副总裁戴安·布莱恩特在开发者大会(IDF)上宣布,将在2017年推出专为机器深度学习设计的芯片——Xeon Phi,代号Knights Mill。在此之前,英特尔刚刚以4亿美元收购了一家专注深度学习开发平台研究的初创公司Nervana Systems。 业内人士指出,随着英特尔人工智能(AI)战略的快速推进,人工智能芯片“群雄逐鹿”的格局正在形成。 “无论传统芯片巨头如英特尔、英伟达、高通,还是互联网巨头如谷歌、FaceBook,以及类似于地平线、寒武纪等这样的新锐势力,大家竞争的焦点虽然是针对于人工智能应用的芯片上,但其实都在布局自己在未来智能时代的一席之地。”地平线机器人技术创始人兼CEO余凯在接受《中国科学报》记者...

相关报告
  • 《人工智能需要专门的AI芯片》

    • 来源专题:集成电路
    • 编译者:tengfei
    • 发布时间:2017-11-20
    • 去年“阿尔法狗”战胜韩国棋手李世石,需要耗电数万瓦、依赖体积巨大的云服务器。一年多后,一个小小的人工智能芯片,就可让手机、手表甚至摄像头都能和“阿尔法狗”一样“聪明”。 随着中国企业率先推出市场化的人工智能手机芯片,这样的手机之“芯”正掀起全球热潮。它将带来怎样的影响,传统芯片命运几何? 专“芯”专用 2017年柏林国际消费电子展上,华为推出麒麟970人工智能手机芯片,内置神经元网络单元(NPU),通过人工智能深度学习,让手机的运行更加高效。 芯片又叫集成电路,按照功能可分为很多种,有的负责电源电压输出控制,有的负责音频视频处理,还有的负责复杂运算处理。目前市场上的手机芯片有指纹识别芯片、图像识别芯片、基带芯片、射频芯片等近百种。 现有芯片种类繁多,为何还要人工智能芯片? 随着手机智能应用越来越多,传统芯片要么性能不够,要么效率不足,难以支撑人工智能所需的大规模神经网络运转。 例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。 与传统的4核芯片相比,在处理同样的人工智能应用任务时,麒麟970拥有大约50倍能效和25倍性能优势。 术业有专攻。专业人士指出,普通的处理器就好比瑞士军刀,虽然通用,但不专业。厨师要做出像样的菜肴,就必须使用专业的菜刀,而专门的深度学习处理器就是这把更高效、更快捷的“菜刀”。 “芯”够强 才能走得远 目前迅猛发展的人工智能,上层的应用都依赖于底层核心能力,而这个核心能力就是人工智能处理器。如果在芯片上不能突破,人工智能应用就不可能真正成功。可以说核心芯片是人工智能时代的战略制高点。 人工智能目前采用的深度学习算法,有海量的数据运算需求,对传统架构和系统提出了极大挑战。 深度学习,就是通过算法给机器设计一个神经网络。这个网络的基本特点,是模仿大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。近年来,这种方法已应用于许多领域,比如人脸识别、语音识别等,是人工智能领域的热点研究方向之一。 用于图像处理的GPU芯片因海量数据(40.670, -0.95, -2.28%)并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。 然而,随着近两年人工智能技术的迅速发展,GPU在三个方面显露出局限性:无法充分发挥并行计算优势,硬件结构固定不具备可编程性,运行深度学习算法能效不足。 全球科研界和企业于是竞相开发更加适用的人工智能芯片,尤其是适用于移动通信时代的芯片。 华为公司与中国科学院计算技术研究所“寒武纪”项目团队共同开发的麒麟970人工智能手机芯片,首次集成NPU,将通常由多个芯片完成的传统计算、图形、图像以及数字(数位)信号处理功能集成在一块芯片内,节省空间、节约能耗,同时极大提高了运算效率。 据预测,类脑计算芯片市场将在2022年前达到千亿美元规模,其中消费终端将是最大市场,占据98.17%,其他需求包括工业检测、航空、军事与国防等领域。 在新的计算时代,核心芯片将决定基础架构和未来生态。因此,谷歌、微软、超威等全球信息技术和通信制造巨头都投入巨资,加速人工智能芯片的研发。
  • 《中国科学院自主设计首款主打极低比特技术的人工智能芯片原型》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2019-05-31
    • 中国科学院自动化研究所南京人工智能芯片创新研究院AiRiA自主设计的首款主打极低比特技术的人工智能芯片QNPU(Quantized Neural Process Unit)原型,及四路人车识别、车载辅助驾驶ADAS系统,终端AI功能加速器QEngine和人工智能人体骨骼实时识别交互系统,近期在世界智能大会和世界半导体大会上展出,获得了众多专业人士的肯定和赞扬。 QNPU采用国际领先的量化模型压缩处理技术,实现了DDR Free设计,突破了内存墙的世界难题,不但能够满足边缘端设备低功耗、低时延、小体积、低成本的诉求,并能提供其执行AI任务所需的高运算能力。QNPU可应用到智能安防、无人驾驶、智慧医疗、智慧商业、智慧城市等多种IoT的边缘端计算场景,助力各行业“用上AI,用好AI”。 同时,AiRiA还研发了基于QNPU原型的四路人车识别模块,可进行1080P分辨率的视频流实时分析。 AiRiA车载辅助驾驶ADAS系统是基于机器视觉720P双路视频实时处理的人工智能系统。在驾驶过程中能够自动识别道路情况,包括:道路标志线、信号灯、人车距离等,可以实现前向碰撞报警、车距过近报警、车道偏离报警等。同时该系统采用DrivingProbe专利技术,对驾驶员警觉性监测,识别抽烟、喝水、打/看电话、打斗等状态,监控安全驾驶。 AI功能加速器QEngine是适用于终端设备的高性能、轻量级、无依赖的深度学习计算框架。与常用框架相比,QEngine性能高2-4倍,减少65%-85%的内存占用,使AI终端设备待电时间更长,机器视觉识别更加迅速。QEngine支持业内多种开源的深度学习框架,算法移植简易,并兼容多种处理器和硬件。 AiRiA人工智能人体骨骼实时识别交互系统,对人体骨骼姿态进行实时跟踪,识别人体骨骼25个结构点,毫秒级时延,并能支持多人同时检测,对身体部分遮挡部位进行智能预测。该系统可应用于翻越、打斗、摔倒等异常行为的检测,运动及舞蹈的教学矫正,体感游戏,3D试衣等场景。 自动化所南京人工智能芯片创新研究院AiRiA,依托自动化所在芯片开发、计算架构、人工智能、机器视觉等领域数十年的核心技术积累,致力于为行业提供软硬一体化的人工智能解决方案。在成本、功耗、计算结构等方面进行探索,让“高大上”的AI广泛、便利地应用到各行业,普惠公众。