《基于内存计算技术的人工智能芯片问世》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2018-11-19
  • 人工智能系统的新型计算机芯片问世。

    通过改变计算的基本属性,美国普林斯顿大学研究人员日前打造的一款专注于人工智能系统的新型计算机芯片,可在极大提高性能的同时减少能耗需求。

    该芯片基于内存计算技术,旨在克服处理器需要花费大量时间和能量从内存中获取数据的主要瓶颈,通过直接在内存中执行计算,提高速度和效率。芯片采用了标准编程语言,在依赖高性能计算且电池寿命有限的手机、手表或其他设备上特别有用。

    研究人员表示,对于许多应用而言,芯片的节能与性能提升同样重要,因为许多人工智能应用程序将在由移动电话或可穿戴医疗传感器等电池驱动的设备上运行。这也是对可编程性的需求所在。

    经典计算机体系结构将处理数据的中央处理器与存储数据的内存分离,很多计算机的能耗用于来回转移数据。新芯片考虑在架构级别而不是晶体管级别来突破摩尔定律的局限。但创建这样一个系统面临的挑战是,内存电路要设计得尽可能密集,以便打包大量数据。

    研究团队使用电容器来解决上述问题,电容器可比晶体管在更密集的空间内进行计算,还可非常精确地制作在芯片上。新设计将电容器与芯片上的静态随机存取存储器(SRAM)的传统单元配对。电容器和SRAM的组合用于对模拟(非数字)域中的数据进行计算。这种内存电路可按照芯片中央处理单元的指令执行计算。

    实验室测试表明,该芯片的性能比同类芯片快几十到几百倍。研究人员称,其已将内存电路集成到可编程处理器架构中。“如果以前的芯片是强大的引擎,新芯片就是整车。”

    普林斯顿大学研制的新芯片主要用于支持为深度学习推理算法设计的系统,这些算法允许计算机通过学习数据集来制定决策和执行复杂的任务。深度学习系统可指导自动驾驶汽车、面部识别系统和医疗诊断软件。

  • 原文来源:http://www.xincailiao.com/news/news_detail.aspx?id=337863
相关报告
  • 《中国科学院自主设计首款主打极低比特技术的人工智能芯片原型》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2019-05-31
    • 中国科学院自动化研究所南京人工智能芯片创新研究院AiRiA自主设计的首款主打极低比特技术的人工智能芯片QNPU(Quantized Neural Process Unit)原型,及四路人车识别、车载辅助驾驶ADAS系统,终端AI功能加速器QEngine和人工智能人体骨骼实时识别交互系统,近期在世界智能大会和世界半导体大会上展出,获得了众多专业人士的肯定和赞扬。 QNPU采用国际领先的量化模型压缩处理技术,实现了DDR Free设计,突破了内存墙的世界难题,不但能够满足边缘端设备低功耗、低时延、小体积、低成本的诉求,并能提供其执行AI任务所需的高运算能力。QNPU可应用到智能安防、无人驾驶、智慧医疗、智慧商业、智慧城市等多种IoT的边缘端计算场景,助力各行业“用上AI,用好AI”。 同时,AiRiA还研发了基于QNPU原型的四路人车识别模块,可进行1080P分辨率的视频流实时分析。 AiRiA车载辅助驾驶ADAS系统是基于机器视觉720P双路视频实时处理的人工智能系统。在驾驶过程中能够自动识别道路情况,包括:道路标志线、信号灯、人车距离等,可以实现前向碰撞报警、车距过近报警、车道偏离报警等。同时该系统采用DrivingProbe专利技术,对驾驶员警觉性监测,识别抽烟、喝水、打/看电话、打斗等状态,监控安全驾驶。 AI功能加速器QEngine是适用于终端设备的高性能、轻量级、无依赖的深度学习计算框架。与常用框架相比,QEngine性能高2-4倍,减少65%-85%的内存占用,使AI终端设备待电时间更长,机器视觉识别更加迅速。QEngine支持业内多种开源的深度学习框架,算法移植简易,并兼容多种处理器和硬件。 AiRiA人工智能人体骨骼实时识别交互系统,对人体骨骼姿态进行实时跟踪,识别人体骨骼25个结构点,毫秒级时延,并能支持多人同时检测,对身体部分遮挡部位进行智能预测。该系统可应用于翻越、打斗、摔倒等异常行为的检测,运动及舞蹈的教学矫正,体感游戏,3D试衣等场景。 自动化所南京人工智能芯片创新研究院AiRiA,依托自动化所在芯片开发、计算架构、人工智能、机器视觉等领域数十年的核心技术积累,致力于为行业提供软硬一体化的人工智能解决方案。在成本、功耗、计算结构等方面进行探索,让“高大上”的AI广泛、便利地应用到各行业,普惠公众。
  • 《IBM发布基于内存的人工智能计算架构》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2017-11-28
    • 美国IBM公司发布消息称,该公司研究人员实现了在内存计算技术上的一次重大突破,发明了一种可以运行在100万个相变内存(PCM)上的无监督式机器学习算法,有望比传统计算机在计算速度和能耗利用效率方面提升200倍,非常适合实现人工智能应用中的高密度、低功耗、大规模的并行计算系统。这一成果发表在《自然·通讯》杂志上。 内存计算或可计算储存,是近年来新兴的一个概念,其原理是运用内存设备的物理特性同时进行信息的储存和处理,不采用传统上的内建缓存,并通过总线连接外部内存的阶层式架构,而是省略总线设计,直接把内存和 CPU 核心做在一起,尽最大的可能消除计算过程中因数据迁移所造成的延迟,显著提升计算效率。 IBM此次设计的内存计算架构中使用的相变内存设备由两个电极包夹着一层锗锑碲复合材料构成,微弱的电流可以使其加热,复合材料内部状态随着温度上升而发生改变,从无定形态变成晶态,利用了结晶动力学原理进行运算。这与IBM公司2016年8月发布的人造神经元的工作原理相同。 未来,IBM可能继续将人造神经元与内存计算架构相结合,像大脑一样,使逻辑的产生以及信息的存储都在同一处发生,非常适合于人工智能计算。这一成果也是IBM创造“人工大脑”的又一最新进展。