《电子轻型芯片可提供更智能的AI》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2020-11-30
  • 2020年11月19日,一种将成像、处理、机器学习和内存结合在一起的芯片,通过模仿人脑处理视觉信息的方式来增强人工智能。

    该设备受到光遗传学的启发。这种生物技术工具使科学家可以通过用激光刺激和操纵神经元来深入人体的电气系统。它由超薄的黑色磷制成,可根据光的不同波长改变电阻,将不同颜色的光照射到芯片上可以实现诸如成像和内存存储之类的功能。

    由于该设备将多个组件和功能集成到一个类似于人脑的平台上,因此能够显着提高效率和准确性。受神经启发的硬件旨在减少对软件和异地数据处理的依赖。

    图:展示了该技术如何在单个电子设备中结合驱动AI所需的核心软件和图像捕获硬件。

    RMIT副教授Sumeed Walia说:“想象一下集成了这种受神经启发的硬件的汽车中的行车记录仪,它可以识别灯光、标志和物体,并且无需连接到互联网即可做出即时决策。通过将所有功能整合到一个芯片中,我们可以在自主和AI驱动的决策中提供前所未有的效率和速度。”

    该技术基于同一团队推出的早期原型芯片,该芯片使用光创建和修改内存。该芯片当前迭代的新的内置功能使该芯片能够捕获并自动增强图像并分类编号。可以对芯片进行额外的训练,以识别出超过90%的潜在准确率的图案和图像。

    根据研究人员Taimur Ahmed的说法,与现有技术相比,基于光的计算速度更快,更准确,并且所需的能源明显更少。

    他说:“通过将如此多的核心功能打包到一个紧凑的纳米级设备中,我们可以拓宽机器学习和AI集成到较小应用程序中的视野。例如,将我们的芯片与人工视网膜一起使用,将使科学家能够使这一新兴技术小型化并提高仿生眼的准确性。”

    Ahmed说,该原型机是朝着芯片上大脑技术的最终目标迈出的重要一步,该技术能够像人类一样从环境中学习。

    该研究发表在《Advanced Materials》上。

相关报告
  • 《科技巨头抢占AI市场,智能芯片给生活带来怎样变化》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2017-12-25
    • 科技行业的巨头们看似已经完全接受了人工智能革命。苹果、高通和华为已经制造了一种移动芯片,而这些芯片的设计目的是提供机器学习一个更好的平台,而不同公司设计这种芯片都采用了略微不同的方式。华为在今年的IFA上发布了Kirin 970,他们称其为第一款带有专用神经单元处理器(NPU)的芯片组。然后,苹果发布了A11仿生智能芯片,该芯片为iPhone8、8Plus和x提供引擎动力。A11仿生芯片的特点是,它的神经引擎处理器是专门为机器学习而设计的。 上周,高通发布了骁龙845,该芯片能够将人工智能任务发送至最合适处理器的核心系统。这三家公司的设计方法并没有太大的区别——最终归结为每种芯片向开发者提供的访问权限,以及每一种设置所消耗的电量。 在我们讨论这个问题之前,我们先来弄清楚一个人工智能芯片跟现有的cpu有怎样的不同。在业界,你会经常听到叫“异构计算”的有关人工智能的术语。它指的是使用多种处理器的系统,并且每一种处理器都有专门的功能,以获得更高的性能及节省能源。这个术语并不新鲜,而且许多现有的芯片组都使用了它——例如这三款新产品在不同程度上采用了这个概念。 过去三年来,智能手机的cpu使用了ARM的big.LITTLE架构,它能够将相对较慢的节能核心与速度更快、能耗更低的核心结合起来。我们的主要目标是让这款芯片尽可能少占用电能,以获得更好的电池续航时间。首批采用这种架构的手机包括三星Galaxy S4,它只入了其公司自主生产的Exynos5芯片,以及华为的Mate8和荣誉6。 今年的“人工智能芯片”让这一概念更进一步,它通过添加一个新的专用组件来执行机器学习任务,或者可以使用其他低功耗内核来执行机器学习任务。例如,骁龙845可以利用它的数字信号处理器(DSP)来处理需要大量重复计算的长时间运行的任务,比如在一段长对话里通过分析找到一个用户需要的热词。高通的产品管理总监加里布洛特曼告诉Engadget,在另一方面,像图像识别这样的需求可以通过GPU更好地管理,布罗特曼专门负责为骁龙智能平台开发人工智能和机器学习技术。 与此同时,苹果的A11仿生学应用在其GPU上添加了一个神经引擎,以加速人脸识别、动话表情反馈和一些第三方应用的使用。这意味着,当你在iPhoneX上启动这些进程时,A11会打开神经引擎进行计算来验证用户的身份,或者把你的面部表情倒入到“会说话的便便”这款应用中。 在Kirin 970芯片中,NPU会处理一些任务,比如扫描和利用微软翻译来翻译图片里的文字。这是迄今为止唯一针对这款芯片进行优化的第三方应用。华为表示,其“HiAI”异构计算结构将其芯片组的大部分组件的性能最大化,因此它可能会将人工智能任务分配给更多,而不仅仅是NPU。 抛开这些差异不说,这种新的架构意味着过去只能在云端处理机器学习计算,现在可以在设备本体上更高效地运行。通过使用非CPU的部分来运行人工智能任务,用户的手机可以在同一时间处理更多的事情,这样你在等待应用为你翻译或例如寻找宠物狗的图片时就不会遇到延迟的烦恼。 此外,在手机上运行这些程序不用将用户的使用数据发送到云端,这对用户隐私也有了更强的保护,因为这样可以减少黑客获取数据的机会。 这些人工智能芯片的另一大优势是节约能源。因为有些工作是重复的,我们手机电池消耗量需要针对这些重复的进程进行更合理地分配。GPU往往会吸收更多的能量,所以如果取而代之的是更节能的DSP,并且它可以实现与GPU类似的效果,那么最好是选择后者。 需要明确的是,在决定执行某些任务时,芯片本身并不决定使用哪个核心系统作为驱动。“在今天,开发者们和oem厂商都想要运行人工智能芯片,”Brotman说。程序员可以使用像Google的TensorFlow这样的支持数据库(或者更确切地说是它的Lite移动版本)来选择运行他们的模型的核心。高通、华为和苹果都采用了TensorFlow Lite和Facebook的Caffe2等最受欢迎的选项作为他们设计的支持程序。高通也支持新的开放神经网络交换(ONNX)系统,而苹果则通过其核心的ML框架为更多机器学习模式添加了兼容性。 到目前为止,这些芯片都没有在现实世界中带来明显的影响。芯片制造商们将会吹捧他们自己的测试结果和基准,但这些测试结果直到人工智能程序成为我们日常生活中重要的一部分之前都毫无意义。因为我们正处于让设备进行机器学习的发展早期阶段,并且使用新硬件的开发者少之又少。 不过现在很明显的是,竞争已经开始了,竞争者们着重研究如何让机器学习相关的任务在用户设备上运行地更快、更省电。我们只需要等待一段时间,就能看到从传统芯片到人工智能芯片的转变带给我们生活上的帮助。
  • 《Arteris将为AMD AI小芯片设计提供FlexGen智能片上网络IP》

    • 来源专题:新一代信息技术
    • 编译者:张嘉璐
    • 发布时间:2025-08-11
    •   半导体系统IP供应商Arteris宣布,AMD已为其下一代AI小芯片设计授权采用FlexGen片上网络(NoC)互连IP技术。Arteris的智能NoC IP技术FlexGen将为AMD小芯片提供高性能数据传输支持,助力该公司从数据中心到边缘及终端设备的全系列AI产品开发。   Arteris的FlexGen NoC IP与AMD Infinity Fabric互连技术的结合,彰显了现代SoC和基于小芯片架构的复杂性——这类设计如今需要多个高度专业化的互连方案或NoC来有效满足现代电子系统的需求。Arteris总裁兼首席执行官K. Charles Janac表示:"现代小芯片通常需要5到20个互连网络进行数据传输,我们的FlexGen NoC IP将与AMD Infinity Fabric协同工作,      为当前多样化的严苛应用提供所需的性能加速和扩展能力。"该公司的NoC技术被认为将为跨领域下一代芯片解决方案带来变革性影响。   AMD芯片设计工程企业副总裁Mydung Pham阐释道:"通过集成Arteris FlexGen NoC IP技术,我们能够实现互连配置自动化,确保SoC组件间无缝连接,同时强化端到端AI计算产品组合。"作为可配置片上网络IP技术的开发商,Arteris最新推出的FlexGen NoC IP专为提升SoC设计效率而打造,可优化布线长度、降低延迟并提高能效,从而更好地满足复杂多晶粒与小芯片设计的性能需求。该技术既可独立作为互连解决方案使用,也可与专有互连技术结合,加速设计迭代并缩短产品上市周期。