《AI芯片算法加持 智能社会未来已来》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2018-04-08
  • 中国第一场AI芯片产业峰会GTIC 2018上,来自学术界、芯片、安防、智能汽车以及无人驾驶等领域的众多专业人士汇聚一堂,为高涨的AI芯片行情再添一把火。

    而在两周前,2018年世界移动通信大会(MWC2018)在西班牙巴塞罗那举行,人工智能替代手机成为当仁不让的主角,Arm、高通、联发科等都在推各自支持人工智能的AI芯片或者平台架构,吹响了2018年AI芯片井喷式爆发的号角。同时,算法的整合与优化也成为展示重点,各个芯片厂商都在展台上展示合作伙伴的算法用例,并且多家芯片巨头都将诸如虹软公司(ArcSoft)的算法作为AI芯片平台的用例,不难看出嵌入式移动芯片市场将成为巨头们的主战场。

    无论是GTIC的举办,还是MWC2018上的“喧宾夺主”,均为AI芯片发展到一定程度的必然产物,就像风起云涌的海面上,必然涌起某两朵浪花一样。更何况,肇始于2012年的AI芯片,在逐渐成熟的算法的支持下,早已不止于一场浪潮,更接近于一个火爆的风口,一片无垠的蓝海。

    2017:空前火热的“AI芯片元年”

    一般来说,AI芯片是指定制化的、专门为AI算法做了特殊加速设计的芯片。2012年,多伦多大学教授Geoffrey Hinton和他的团队,用基于人工神经网络(ANN)的深度学习算法掀起人工智能的革命。但由于通用芯片并不能很好地适应深度学习算法的要求,各种神经网络算法也需要专用芯片来保证运行效率,因此,当2017年人工智能迎来空前爆发的时刻,AI芯片也随之成为最受关注的行业热点。

    这一年,NVIDIA和Google在云端掀起新一轮人工智能算力竞赛;而在终端侧,不仅苹果、高通、英特尔、华为和Arm等科技巨头加速布局,AI芯片的创新创业更是呈现百花齐放的局面,不少业内人士甚至将去年定义为“AI芯片元年”。

    与此同时,国内AI芯片市场也逐渐升温。据科技媒体智东西报道,仅在2017年10月-11月短短两个月里,就有四家国内AI芯片公司同时宣布获得千万美元以上的大额融资。坊间传闻,仅2017年下半年,在全球最大晶圆代工厂台积电,忙碌的流水线上已积攒了超过30款人工智能芯片等待下线流片,市场竞争达到了前所未有的激烈程度。

    2018:移动终端助力AI芯片突飞猛进

    进入2018年,AI芯片延续了过去一年的火爆势头,特别是在家居和消费电子领域,芯片巨头们大动作不断。

    2月14日情人节这天,Arm打响“双响炮”,不仅公布了软件解决方案项目“Trillium”,还宣布推出两款针对移动终端的AI芯片架构,机器学习ML处理器以及OD处理器,为AI芯片的发展装上了新的助推器。

    Arm相关负责人表示,在传统领域,各厂商会基于Arm的CPU和GPU来做芯片,Arm会围绕CPU为核心来构建子系统;到了AI时代,由于AI系统呈现碎片化特征,Arm将整合算法和硬件公司资源,在通用平台上构建一个更灵活的生态系统。

    2月22日,高通宣布推出基于其枭龙芯片系列的人工智能引擎(AI Engine),将高通手机SoC当中的所有软、硬件AI计算能力打包到这个引擎里,让人工智能在手机上的应用更快速、高效。

    在MWC2018上,联发科技发布了首款AI芯片Helio P60,支持AI和计算机视觉,能够提供精确的人脸识别等功能。据联发科工作人员介绍,在AI领域不同程序调用的情况会不同,有时候会调用CPU,也有可能是GPU,但很多操作如果使用APU则会有更高的效率。

    在移动终端产业的助推下,AI芯片市场规模未来可期。据中信证券测算,2020年全球AI芯片的市场规模可达146.16亿美元;国际权威基金评级机构Morningstar则预测,2021年全球AI芯片市场规模有可能超过200亿美元。

    打通算法,AI芯片爆发倒计时

    不过,在AI芯片突飞猛进的同时,也有若干不和谐的声音。一种观点认为,由于硬件架构的更加复杂和多样,将给软件开发带来新的挑战。

    为解决这一问题,Arm开发了支持人工智能的Arm NN,可在基于Arm的高能效平台上轻松构建和运行机器学习应用程序,开发人员能够继续使用他们首选的框架和工具,经Arm NN无缝转换结果后在底层平台上运行。

    联发科也开发了NeuroPilot AI技术的软件平台,通过该平台可以将专业的算法轻松引入到产品中,让开发者得以更便利地采用联发科芯片,为消费型设备提供AI应用程序与功能。

    而据高通方面介绍,目前人工智能软件开发企业已开始为骁龙移动平台提供专属的用例优化,如虹软(ArcSoft)就为骁龙客户提供基于深度学习的单摄和双摄算法。

    为了展示AI芯片平台的能力,同时快速吸引移动厂商的注意,多家芯片巨头都将全球顶尖图像算法公司虹软(ArcSoft)的算法作为展示用例,表明各芯片厂商已将AI芯片的市场锁定在了智能移动领域。AI芯片最终的目的是提升运用深度学习的算法得到最大的发挥,这就需要让各个算法公司能够快速了解AI芯片的结构以及工作原理,通过算法公司的各类算法也可以佐证AI芯片的能力。当然,这也有利于算法公司快速了解AI芯片的工作原理。对虹软(ArcSoft)来说,与各个芯片厂商的合作,可以在接下来的AI芯片时代,快速实现其双摄、柔光摄影、暗光摄影、智能美颜、人脸识别、智能场景识别等当下热门的手机摄影技术登上AI芯片的舞台。

    可以预料的是,下一代的算法将更契合AI芯片,推动AI芯片产业加速落地,不断取得新的突破。

    对整个AI芯片产业而言,在算法的加持下,2018年将是密集爆发的一年,将以指数级速度向前发展,迅速渗透消费电子、家居、安防、智能驾驶、云计算以及工业、制造、金融、医疗、教育等各个领域。所有搭载芯片的电子设备都将提升AI计算能力,打造一个货真价实的AI社会。未来已来,我们或将进入一个AI新时代。

    .

相关报告
  • 《智能科技:拥抱已来的未来》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2018-05-18
    • “赤橙黄绿青蓝紫各色共享单车成为城市彩虹风景线,机场高铁‘刷脸’进站,足不出户就能买到心仪商品,在天津街头买个煎饼果子也可以直接扫码支付。” 16日至18日在天津举行的第二届世界智能大会上,中国科协主席万钢列举的一串生活场景让人们深切感受到:未来已来! 以人工智能为代表的新一轮科技革命孕育兴起,正以前所未有的速度和方式改变着世界。人工智能如何为经济高质量发展“赋能”?新华社记者现场采访,带您览智能领域新成果、探智能科技新趋势、看智能时代新蓝图。   5月17日,观众在天津梅江会展中心智能科技展上参观深之蓝的水下机器人。新华社记者 李然 摄   智能科技大潮“拍岸” 本届大会上发布的《新一代人工智能科技驱动的智能产业发展》报告显示,截至2017年6月,全球人工智能企业总数达到2542家,中国有592家,居世界第二位。中国累计获得1.57万项人工智能领域的专利,也居世界第二。 “人工智能技术产业发展迈入了新阶段,已成为国际竞争的新焦点。”工信部副部长陈肇雄说,人工智能正全面创造新市场、新机会,全面重塑传统行业发展模式和格局,在推动经济繁荣、民生改善、保障国家安全等方面发挥着越来越重要的作用。 机遇稍纵即逝,抓住了就能乘势而上,抓不住就可能错过整整一个时代。 从明确人工智能为形成新产业模式的11个重点发展领域之一,到发布新一代人工智能发展规划,将人工智能上升至国家战略;从十九大报告强调推动互联网、大数据、人工智能和实体经济深度融合,到促进新一代人工智能产业发展三年行动计划发布……中国对人工智能发展进行战略性部署,明确了人工智能理论、技术与应用总体达到世界领先水平,我国成为世界主要人工智能创新中心的奋斗目标。 近年来,中国快速涌现出寒武纪科技、商汤科技、华为海思、中天微系统、海康威视等一批智能芯片公司。在阿里巴巴、腾讯、百度等开放创新平台的引领下,中国企业在计算机视觉、机器学习、图像识别、生物识别、语音识别和自然语言处理关键技术领域不断取得突破。 与会专家认为,中国新一代人工智能在图像识别、语音翻译、行为分析等方面已经进入了世界前列,在智能机器人、无人商店、机器翻译、共享汽车、自动驾驶等行业的新产品为世人瞩目。在城市规划、智能交通、社会治理、卫生健康、农业科技和国家安全等领域的应用各具特色,形成了中国人工智能发展的独特优势。    5月17日,观众在天津梅江会展中心智能科技展上参观京东物流车。新华社记者 李然 摄   拥抱万亿“蓝海” 京东集团在上海建成B2C全无人仓库,小到一盒口香糖、一支笔,大至彩电、冰箱、机器人,可以让数百种产品精确直抵用户。京东集团董事局主席兼CEO刘强东透露,未来5年,京东在全国的800个物流中心将逐步改造成无人仓。 “到2030年,人工智能将向世界经济贡献16万亿美元。”联合国教科文组织信息与传播知识社会局主任英德拉吉特·班纳吉描绘了一幅人工智能产业万亿“蓝海”。他认为,人工智能正在加速“赋能”产业变革,中国企业正向世界展示着走向未来的新方式。
  • 《摩尔定律谢幕,芯片的未来在哪?》

    • 来源专题:后摩尔
    • 编译者:shenxiang
    • 发布时间:2018-08-29
    • (此文观点来自微软研究院新体验与新技术部杰出工程师Doug Burger) 整整50年来,计算机的底层元件都遵从着“ 摩尔定律 ”: 在价格不变的情况下,集成在芯片上的晶体管数量每隔18到24个月将增加一倍,计算成本呈指数型下降 。摩尔定律成就了各种技术变革,例如互联网、基因组测序等等。 然而现在,摩尔定律的趋势第一次放缓了。芯片行业进入了一个不确定的时代,在同样的投入下,收益变得越来越低。我认为有两个原因。 一是芯片制造商面临的一个经济问题 :相比与芯片体积,大多数人对芯片的价格更敏感,要求芯片要做到经济实用;二是我所认为的真正原因, 随着晶体管尺寸的不断缩小,我们遇到了原子极限 ,先前标准、规则结构的晶体管结构已经无法维系。 在CPU时代,我们一直沿用的范式是在CPU上运行编写好的程序。这一范式的优点在于整个计算系统所有层级都是确定的,它们有限但功能强大。芯片的原理非常简单,无非就是开关、逻辑门、二进制系统等等。但是现在,计算需求正变得越来越复杂和艰难,导致计算机结构也越来越复杂,在一块芯片上集成的电路越来越庞大。 Simon Peyton Jones曾说, 计算机软件和体系架构是人们迄今为止所创造的最令人惊叹的结构 。在计算机体系架构领域,任何一个接口的设计都需要调整芯片底层的架构。做芯片与做软件差别很大。编写软件时的自由度非常高,但在设计硬件时却会面临各种各样的限制: 在一块尺寸有限的硅芯片上要集成各种不同功能的组件,并且要保证以正确的方式相互连接,而且要根据预算在通用性、高效性、速度、软件适配等多个维度中做出权衡 。 FPGA:现场可编程门阵列 在加入微软前,我曾和我的一名博士生Hadi Esmaeilzadeh做过一项关于 “暗硅”(Dark Silicon) 的研究。当时,业界正朝着多核芯片的方向发展,有人认为,只要能编写并行软件,就能将计算机芯片架构扩展到数千核。 我们在2011年发表的研究中发现,由于功耗的限制, 一个多核处理器在同一时刻只能有很少的一部分晶体管能够工作,而其余部分则处于休眠状态 。这项研究获得了相当高的关注度。 受到这一研究的启发,我们认为可以针 对特定的工作使用定制硬件来加速计算,解决“暗硅”问题 。但是对于普通用户来说,定制芯片的经济成本以及大量功能不同芯片的管理成本都很高。为了帮助用户解决这个问题,微软在Azure云平台上部署了FPGA(现场可编程门阵列)。 FPGA全称为“现场可编程门阵列”,之所以称为“现场可编程”,是因为 在做完芯片硬件设计和算法映射之后,我们仍然可以对FPGA芯片进行实时、动态地修改 。我们可以随时把它改写成其它用途的芯片,甚至可以每隔几秒修改一次。为了同时满足性能、成本和灵活性的要求,我们可以使用定制芯片来处理部分长期稳定的计算需求,而使用FPGA来处理剩余计算需求。 FPGA此前就已经广泛应用于通信领域,在处理高速数据流以及测试即将投产的芯片时的表现出色。但在云计算中,FPGA尚未真正成功地大规模使用。 CPU和GPU适合于处理不同的任务。 CPU是一种通用处理器,适合处理少量数据 ; 而GPU是一种单指令、多数据(Single Instruction Multiple Data,SIMD)的并行处理器 ,即一条指令对不同的几组数据执行相同的操作。 FPGA实际上是CPU模型的“倒置” 。在FPGA上,我们不再固定数据、运行指令,而是固定一些指令、运行整批数据。我称之为“结构化计算”,其理念为固定一种计算结构,让数据不断从其中流过。FPGA非常适合这类工作负载,在云中, FPGA可以很好地完成这一使命,对CPU来说也是一种很好的补充。 FPGA每秒能够处理50GB的数据包,同时也可以确保用户的信息安全和网络私密性。面对同样的计算任务,多块CPU才能接近一块FPGA的处理速度。 于是,从2015年底开始,微软通过Project Catapult项目在微软Azure云中对FPGA进行了超大规模的部署,不管与之前相比还是跟竞争对手相比,Azure云的数据处理速度都有明显的提升。目前,微软是全球最大的FPGA使用者之一,各个团队都在使用FPGA强化自己的服务。 Brainwave:为深度神经网络“定制”处理器 在人工智能领域,目前大热的深度学习对计算机硬件和架构都提出了更高的要求 ,只有更好、更快的硬件和架构才能处理日益庞大的训练数据和越来越复杂的深度神经网络模型。机器翻译、语音理解、计算机视觉等经典人工智能领域的不断发展给硅芯产业带来了很大的压力。现在,许多公司都为打造人工智能、机器学习,特别是深度学习的定制架构投入了大量的资金。 因此,我们团队打造了自己的 深度神经网络处理器Brainwave 。我们正与微软必应和Azure团队通力合作,为微软的各项服务提供有力的硬件与架构支持。利用Brainwave,必应团队可以摆脱计算资源的制约,能够部署体量更大的模型,从而为用户提供更好、更快、更高质量的搜索内容。 在今年的微软Build大会上,微软宣布了 Project Brainwave 预览版,并将其整合到Azure机器学习服务中供用户使用。同时,用户也可以自行购买微软推出的Catapult架构主板将之嵌入到生产设备上,这样就可以在边缘设备上直接运行已经在Azure上训练好的模型,从而节省时间成本。 Brainwave非常适合处理推理运算任务 ,对于此类任务,目前大量技术都采用“批处理”的方式。批处理能够提升计算机的处理能力,但却容易增加网络延迟。Project Brainwave可以将实时AI计算的延迟时间降到最小。不同的任务对于“实时”的要求并不相同,对于通过收集网络信息预告紧急情况的任务来说,几分钟的“实时”处理是可以接受的,但对于实时语音互动或者类似于HoloLens这种增强现实任务,“实时”处理则要求做到毫秒级。 在实际的计算任务中,除了处理速度,成本也是需要考虑的一个关键因素。Brainwave系统做到了两者兼顾,在处理速度和成本控制方面都有非常好的表现。 自从冯·诺依曼结构在上世界四十年代被提出之后,我们一直围绕着冯·诺依曼计算机和各种各样的计算机异构加速器进行研究,摩尔定律将要谢幕,我们正处于硅基和冯·诺伊曼时代的尾声。所以,我们应该考虑更深远的东西,为计算机的新的架构探索更深层次的理论。