《英特尔神经拟态研究系统达1亿个神经元计算力》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2020-03-24
  • 英特尔宣布其最新神经拟态研究系统PohoikiSprings可提供1亿个神经元的计算能力。英特尔将向英特尔神经拟态研究社区(INRC)的成员提供这一基于云的系统,以扩展其神经拟态工作来解决更大规模且更复杂的问题。

    英特尔神经拟态计算实验室主任MikeDavies介绍称:“PohoikiSprings将我们的Loihi神经拟态研究芯片扩展了750倍以上,同时以低于500瓦的功率运行。当前,一些工作负载在传统架构(包括高性能计算[HPC]系统)上运行缓慢。而PohoikiSprings系统则让我们的研究合作伙伴能够探索加速处理这些工作负载的方法。”

    PohoikiSprings是一个数据中心机架式系统,是英特尔迄今为止开发的最大规模的神经拟态计算系统。它将768块Loihi神经拟态研究芯片集成在5台标准服务器大小的机箱中。

    Loihi处理器的设计思路来源于人脑。与大脑一样,Loihi能用比传统处理器快1000倍的速度和高10000倍的效率处理特定要求的工作负载。PohoikiSprings是扩展Loihi架构的下一步,可用于评估其解决AI问题以及一系列计算难题的潜力。英特尔研究人员认为,与当今最先进的传统计算机相比,神经拟态系统拥有超级并行性和异步信号传输能力,可以在明显降低功耗的同时显著提升性能。

    在自然界中,即使是一些最小的生物也能解决极为困难的计算问题。例如,尽管很多昆虫大脑的神经元数目远低于100万个,但它们却能实时视觉跟踪物体、导航和躲避障碍物。同样,英特尔最小的神经拟态系统KapohoBay由两个具有262,000个神经元的Loihi芯片组成,支持各种实时边缘工作负载。英特尔和INRC研究人员展示了Loihi的各种能力,包括实时识别手势、使用新型人造皮肤阅读盲文、使用习得的视觉地标确定方向,以及学习新的气味模式。所有这些功能都只需要消耗数十毫瓦的电能。到目前为止,这些小规模示例显示出极好的可扩展性,当运行更大规模的问题时,Loihi比传统解决方案更加快速高效。这模仿了自然界中从昆虫大脑到人类大脑的可扩展性。

    PohoikiSprings拥有1亿个神经元,它将Loihi的神经容量增加到一个小型哺乳动物大脑的大小,这是在向支持更大、更复杂的神经拟态工作负载的道路上迈出的重要一步。该系统为需要实时、动态的数据处理新方法的自主、互联的未来奠定了基础。

    英特尔的PohoikiSprings等神经拟态系统仍处于研究阶段,其设计目的并非取代传统的计算系统,而是为研究人员提供一个工具来开发和表征新的神经启发算法,用于实时处理、问题解决、适应和学习。INRC成员将使用英特尔NxSDK和社区贡献的软件组件,通过云访问在PohoikiSprings上构建应用程序。

    目前正为Loihi开发的算法示例包括:

    约束满足:约束满足问题在现实世界中无处不在,从数独游戏到航班调度,再到快递配送规划。这需要对大量潜在的解决方案进行评估,以找出一个或几个能够满足特定约束的解决方案。Loihi可以通过高速并行探索多个不同的解决方案来加速解决此类问题。

    搜索图和模式:每天,人们都会在基于图的数据结构中进行搜索,以找到最佳路径和紧密匹配的模式,例如获取驾驶方向或识别人脸。Loihi已展示出快速识别图中的最短路径和执行近似图像搜索的能力。

    优化问题:可对神经拟态架构进行编程,使其动态行为能够随时间的推移对特定目标进行数学优化。此行为可应用于解决现实场景下的优化问题,例如最大化无线通信信道的带宽,或分配股票投资组合,以在目标收益率下最小化风险。

    关于神经拟态计算:传统的CPU和GPU等通用处理器特别擅长人类难以完成的任务,如高精度的数学计算。但随着技术的作用和应用范围都在不断扩大,从自动化到人工智能,以及其他更多领域,越来越要求计算机的操作模式趋向于人类,以便实时处理非结构化和有噪声的数据,并不断地适应变化。为应对这一挑战,新的专用架构应运而生。

    神经拟态计算是对计算机架构自下而上的彻底颠覆。其目标是应用神经科学的最新见解,来创造作用方式更类似于人脑的芯片而非传统计算机的芯片。神经拟态系统在硬件层面上复制了神经元组织、通信和学习方式。英特尔认为Loihi和未来的神经拟态处理器将定义一种新的可编程计算模式,可满足世界对普及型智能设备日益增长的需求。

相关报告
  • 《英特尔公司展示最新含800万神经元的类脑芯片系统》

    • 来源专题:集成电路
    • 编译者:shenxiang
    • 发布时间:2019-07-19
    • 正在底特律举办的美国国防部高级研究计划局(DARPA)电子复兴峰会上,英特尔公司展示了其最新的可模拟800多万个神经元的Pohoiki Beach芯片系统。该神经拟态系统的问世,预示着人类向“模拟大脑”这一目标迈出了一大步。 该全新神经拟态系统包含多达64颗Loihi芯片,集成了1320亿个晶体管,总面积3840平方毫米,拥有800多万个“神经元”(相当于某些小型啮齿动物的大脑)和80亿个“突触”。英特尔介绍说,该芯片系统在人工智能任务中的执行速度要比传统CPU快一千倍,能效可提高一万倍。新形态芯片可在图像识别、自动驾驶和自动化机器人等方面带来巨大技术提升。 与人脑中的神经元类似,Loihi拥有数字“轴突”用于向临近神经元发送电信号,也有“树突”用于接收信号,在两者之间还有用于连接的“突触”。英特尔表示,基于这种芯片的系统已经被用于模拟皮肤的触觉感应、控制假腿、玩桌上足球游戏等任务。 对于正在尝试新硬件平台的人工智能研究人员而言,全新神经拟态系统拥有激动人心的前景。除此之外,研究人员正在利用神经芯片来改善假肢适应不平坦地面的方式,并创建可供自动驾驶车辆使用的更准确的数字地图。 英特尔预测,到2019年底,该公司将推出一个能够模拟1亿个神经元和1万亿个突触的系统Pohoki Springs。该系统将包含768颗芯片、1.5万亿个晶体管。
  • 《我国成功研制亿级神经元类脑计算机》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-09-03
    • 9月1日,亿级神经元类脑计算机重大成果新闻发布会在杭州召开。浙江大学校长吴朝晖院士出席并讲话。他表示,人工智能浪潮正加快智能增强时代的到来,类脑计算机将成为未来计算的主要形态和重要平台,将在模拟脑功能、高效实现AI算法、提升计算能力等方面发挥重要的独特作用。面向未来,学科交叉会聚将成为解决重大问题的新方法,基于多学科、多领域的系统创新将成为研制类脑计算机的有效形式。希望今天浙江大学和之江实验室的创新一小步,可以成就人类美好生活的发展一大步。 重大成果新闻发布会现场 1.6米高的三个标准机柜并排而立,黑色的外壳给人酷酷的感觉,红色的信号灯不停地闪烁,靠得近些似乎能听到里面脉冲信号飞速奔跑的声音。 类脑计算机 近日,浙江大学联合之江实验室共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse)。 这台类脑计算机包含792颗浙江大学研制的达尔文2代类脑芯片,支持1.2亿脉冲神经元、近千亿神经突触,与小鼠大脑神经元数量规模相当,典型运行功耗只需要350-500瓦,同时它也是目前国际上神经元规模最大的类脑计算机。 与此同时,团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统(DarwinOS),实现对类脑计算机硬件资源的有效管理与调度,支撑类脑计算机的运行与应用。 类脑计算机 颠覆传统的新型计算模式 对于如今在工作生活各个领域中早已司空见惯的计算机,或许大家已经忘了最初科学家是想通过机器模拟出一个人类大脑。 然而计算机的发展,在当时选择了以数值计算见长的冯·诺依曼架构,也就是以数字加减乘除的方式来进行信息架构。随着摩尔定理逐渐失效,冯·诺依曼架构带来的局限日益明显,存储墙、功耗墙、智能提升等问题,让当前计算机发展面临重大挑战。 比如,存储墙问题是由于现有的冯·诺依曼架构中数据储存和计算的分离产生的,“这就好比信息存储在甲地,要计算的时候就把信息搬到乙地去,计算好了再搬回甲地去。但搬运的速度要远远低于计算的速度,反而让搬运本身成为关键瓶颈。”研究团队负责人、浙江大学计算机科学与技术学院教授潘纲说,这种计算模式制约了以大数据为代表的计算性能提升。而由此带来的数据“跑动”,以及人工智能等高耗能计算又让功耗墙问题冒了出来。同时,数据驱动的智能算法、训练需要海量样本与密集计算,但举一反三、自我学习等高级能力比较差,“现在的机器智能离人的智能差得还很远。” 如何突破现有计算运行方式导致的计算机瓶颈? 全球科学家们再次将目光瞄准到模仿生物大脑这个最初的梦想,通过模拟人脑结构与运算机制来发展新的计算技术,以期实现高能效与高智能水平的计算。 生物大脑在与环境相互作用过程中能够自然产生不同的智能行为,包括语音理解、视觉识别、决策任务、操作控制等,而且消耗的能量非常低。自然界中,很多神经元远低于100万的昆虫就能做到实时目标跟踪、路径规划、导航和障碍物躲避。 潘纲介绍说,用硬件及软件模拟大脑神经网络的结构与运行机制,构造一种全新的人工智能系统,这种颠覆传统计算架构的新型计算模式,就是类脑计算。其特点在于存算一体、事件驱动、高度并行等,是国际学术界与工业界的研究焦点,更是重要的科技战略,“类脑计算已被看作是解决人工智能等计算难题的重要路径之一。” 近年来,浙江大学聚焦人类智能与机器智能等核心领域,实施了简称为“双脑计划”的脑科学与人工智能会聚研究计划,希望借鉴脑的结构模型和功能机制,将脑科学的前沿成果应用到人工智能等研究领域,建立引领未来的新型计算机体系结构。 2015年和2019年浙江大学分别研制成功达尔文1代和达尔文2代类脑计算芯片,用芯片去模拟大脑神经网络的结构与功能机制,在图像、视频、自然语言的模糊处理中具有优势。而这次的成果是将792颗我国自主产权的达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中,形成了一台强大的机架式类脑计算机。 那么,这种高效能低功耗是如何实现的呢?项目研究骨干马德副教授说,大脑神经元的工作机理是钾离子钠离子的流入流出导致细胞膜电压变化,从而传递信息,“可以简单理解为,一个神经元接受输入脉冲,导致细胞体的膜电压升高,当膜电压达到特定阈值时,会发出一个输出脉冲到轴突,并通过突触传递到后续神经元从而改变其膜电压,实现信息的传递。” 这里很重要的一点是异步运行,也就是信号来的时候启动,没有信号就不运行。类脑芯片的工作原理就类似于生物的神经元行为,通过脉冲传递信号,这样就能实现高度并行,效率提升。 真正像脑一样“思考” 有了硬件,还得有软件。 项目研究骨干金孝飞介绍,每颗芯片上有15万个神经元,每4颗芯片做成一块板子,若干块板子再连接起来成为一个模块。这台类脑计算机就是这样像搭积木一样搭起来。 说起来容易,可要让这么多神经元能够互联并且可拓展从而实现高效的联动组合,同时要把杂乱无章的信息流有序分配到对应的功能脑区,可不那么简单。 为此,科研人员专门研发了一个面向类脑计算机的类脑操作系统——DarwinOS。 这款达尔文类脑操作系统面向冯·诺依曼架构与神经拟态架构的混合计算架构,实现了对异构计算资源的统一调度和管理,为大规模脉冲神经网络计算任务提供运行和服务平台。项目研究骨干吕攀介绍说:“目前达尔文类脑操作系统的功能任务切换时间达微秒级,可支持亿级类脑硬件资源管理。” 由此,类脑计算机研究的价值真正得以实现——既可以应用于生活中的智能任务处理,也可以应用于神经科学研究,为神经科学家提供更快更大规模的仿真工具,提供探索大脑工作机理的新实验手段。 目前,浙江大学与之江实验室的科研人员基于Darwin Mouse类脑计算机已经实现了多种智能任务。研究者将类脑计算机作为智能中枢,实现抗洪抢险场景下多个机器人的协同工作,涉及到语音识别、目标检测、路径规划等多项智能任务的同时处理,以及机器人间的协同。同时,还用类脑计算机模拟了多个不同脑区,建立了丘脑外侧膝状核的神经网络模型,仿真了不同频率闪动的视觉刺激时该脑区神经元的周期性反应;借鉴海马体神经环路结构和神经机制构建了学习-记忆融合模型,实现音乐、诗词、谜语等的时序记忆功能;实现了脑电信号的稳态视觉诱发电位实时解码,可“意念”打字输入。 记者在实验现场看到,3台外形相似的机器人,在经过简单的训练后,合作开展抗洪救险任务。只见1号机器人凭借自带摄像头开始在场地巡逻,当发现堤坝缺口后,就呼叫负责工程的3号机器人前来修坝,同时搜寻受伤人员,当发现倒在地上的人体模型后,又呼叫负责救援的2号机器人。3号机器人和2号机器人赶来执行任务,1号机器人又去别的地方巡逻了。 这一幕似乎并不新鲜,现有的机器人也能做到。但最大的不同在于这几个机器人是在类脑计算机的控制下通过语音开展移动指令,并接受任务分配。“不同机器人的任务可以通过指令切换,也就是说它们的功能并不是固定的,而是通过不同脑区来操控的,1号机器人现在干巡逻的活,过会又可以变成负责救援或者工程。”项目研究骨干李莹副教授说。 在另一个实验场景中,课题组成员给计算机演唱一首歌其中的两句,然后,计算机就能通过回想把后续的歌曲内容“唱”出来。 “这是类脑计算机通过模拟海马体记忆机制,实现对大脑内部记忆信息的存取,与我们常用的检索功能不同。”项目研究骨干唐华锦教授说,Darwin Mouse类脑计算机通过借鉴海马体网络结构以及神经机制建立记忆模型架构,可以模拟海马体的记忆-学习功能,通过记忆的脉冲编码,同一模型就可以学习与记忆语音、歌曲、文本等不同类型数据。 类脑计算机将如何“进化” 1946年诞生的世界第一台计算机重达28吨,运算速度为每秒5000次的加法运算,然而在以后的70多年里,计算机技术飞速发展。类脑计算机的发展速度很有可能也会令人惊讶。 别看现在的类脑计算机是个“大块头”,科学家们表示,随着达尔文芯片及其他硬件的不断迭代升级,体积缩小将指日可待。未来类脑计算机或将植入手机、机器人,产生新的智能服务体验。 与硬件上的更新相比,如何让类脑计算机变得更聪明是科学家们下一步研究的重点。 目前,市面上的传感器输入的信号还是以数字为主,在应用到Darwin Mouse类脑计算机上,要加一个编码层,将信号转换为脉冲式的,而在这个过程中,信息有丢失和损伤,会在一定程度上降低计算机的功效。如果能解决这个问题,类脑计算机就能变得更加智能。 当前,类脑计算研究还处于初级阶段,Darwin Mouse类脑计算机,无论从规模还是智能化程度上都与真正的人类大脑还有很大的差距,但其意义在于能够为这种技术路径提供一个重要的实践样例,为研究人员提供一个工具和平台,验证类脑算法,以更强的鲁棒性、实时性和智能化去解决实际的任务。 浙江大学和之江实验室研究员的目标是,希望随着神经科学发展和类脑计算机的系统软件、工具链及算法的成熟,有朝一日能够让类脑计算机像冯·诺依曼架构计算机一样通用化,真正像大脑一样高效工作,与冯·诺依曼架构并存与互补去解决不同的问题。 一位业内人士表示,从加减乘除这样的数值计算方式,到模拟大脑的脉冲计算方式,这是一次重要的计算模式的变革。潘纲说:“我们希望能够像生物进化一样,不断地让达尔文系列类脑计算机朝着人类智能的方向发展,以超低功耗提供更强的人工智能。”