《电子轻型芯片可提供更智能的AI》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2020-11-30
  • 2020年11月19日,一种将成像、处理、机器学习和内存结合在一起的芯片,通过模仿人脑处理视觉信息的方式来增强人工智能。

    该设备受到光遗传学的启发。这种生物技术工具使科学家可以通过用激光刺激和操纵神经元来深入人体的电气系统。它由超薄的黑色磷制成,可根据光的不同波长改变电阻,将不同颜色的光照射到芯片上可以实现诸如成像和内存存储之类的功能。

    由于该设备将多个组件和功能集成到一个类似于人脑的平台上,因此能够显着提高效率和准确性。受神经启发的硬件旨在减少对软件和异地数据处理的依赖。

    图:展示了该技术如何在单个电子设备中结合驱动AI所需的核心软件和图像捕获硬件。

    RMIT副教授Sumeed Walia说:“想象一下集成了这种受神经启发的硬件的汽车中的行车记录仪,它可以识别灯光、标志和物体,并且无需连接到互联网即可做出即时决策。通过将所有功能整合到一个芯片中,我们可以在自主和AI驱动的决策中提供前所未有的效率和速度。”

    该技术基于同一团队推出的早期原型芯片,该芯片使用光创建和修改内存。该芯片当前迭代的新的内置功能使该芯片能够捕获并自动增强图像并分类编号。可以对芯片进行额外的训练,以识别出超过90%的潜在准确率的图案和图像。

    根据研究人员Taimur Ahmed的说法,与现有技术相比,基于光的计算速度更快,更准确,并且所需的能源明显更少。

    他说:“通过将如此多的核心功能打包到一个紧凑的纳米级设备中,我们可以拓宽机器学习和AI集成到较小应用程序中的视野。例如,将我们的芯片与人工视网膜一起使用,将使科学家能够使这一新兴技术小型化并提高仿生眼的准确性。”

    Ahmed说,该原型机是朝着芯片上大脑技术的最终目标迈出的重要一步,该技术能够像人类一样从环境中学习。

    该研究发表在《Advanced Materials》上。

相关报告
  • 《Groq芯片爆火给我国AI芯片产业发展的启示》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-04
    •     近日,硅谷初创企业Groq推出一款全新的AI芯片,声称实现了“地表最强推理”——在Groq上运行大模型的推理速度较英伟达GPU提高10倍甚至更高。该消息一出,迅速攻占了各大科技媒体板块头条。这样的推理速度无疑是AI芯片领域的一次技术飞跃,也为国产AI芯片企业如何突围发展带来一些新启示。 可专注特定场景建立“比较优势”     Groq芯片是一种LPU(语言处理单元),其优越的推理性能,再一次展示了专用AI芯片在特定场景中的应用价值。因此,参考Groq芯片在某个应用场景做到替代或者超过英伟达,将有可能是国产AI芯片现阶段一条行之有效的发展路径。 比如这款推理芯片主打一个“快”。常规生成式AI主要使用英伟达A100、H100芯片来进行训练与推理工作,大模型推理过程中等待是相对比较正常的事情,字符一个个蹦出,半天才能回答完毕。但在Groq的演示平台上,模型收到提示词后,几乎能够立即生成答案。这些答案不仅相对质量较高,还附有引用,长度更是达到数百个单词。更令人惊讶的是,它超过3/4的时间是用于搜索信息,而生成答案的时间却短到只有几分之一秒。     虽然暂时有着种种缺点,但是Groq芯片的优势点太为突出,足以在某些场景下完全替代英伟达,甚至能做得更为优秀,自然而然吸引了大量关注及认可。可以想象,在Groq芯片的成本控制优化至合适区间后,将会有大量实际应用场景前来适配和使用。 需重视应用场景中的“性能匹配”     Groq芯片凭借推理速度脱颖而出,充分说明了其性能与应用场景之间的强相关性,这也再次提醒我们应用场景的重要性。国产AI芯片产业应当重视在实际应用场景中的性能匹配度,并在这一基础上开展芯片的优化和创新。 语言推理赛道上,谁是冠军也尚未一锤定音。目前来看,Groq芯片综合素质仍有相当的不足。比如Groq芯片每张卡的内存是230MB,在运行Llama-2 70B模型时,需要305张Groq卡才足够,而用H100则只需要8张卡。从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。另外,Groq芯片目前只能适配少数几个大模型的推理工作,并且需要大量调试,广泛应用性还相对较差。其中的差距,也是中国企业的创新机会。     最终,一种AI芯片产品能否胜出,和多种因素密切相关,包括芯片本身的技术路线、产品推出的时间点,以及大模型的成熟度,等等。对于大模型来说,目前有观点认为大模型已经开始趋向稳定了,在这个基础上开发芯片是有机会的;也有观点认为大模型变化还很快,过两年大模型一改,所有的投入又得重新开始。这些争论还有待时间检验。 借助第三方评测体系“精准定位”     当前,美国政府对我国芯片出口管制的层层加码对国产AI芯片行业既是挑战又是机遇。从产业发展的整体视角来看,亟需构建一个中立、客观并具有权威性的评测体系,为各种芯片提供一个公平竞技的舞台和场景匹配的渠道。 在2023年世界人工智能大会上,人民日报社传播内容认知全国重点实验室(人民网)与中国电子技术标准化研究院共同发起的“智越计划”提出,要共同推动建立包含人工智能芯片性能评测、场景评测与综合评测的整体评估评测标准体系。其中的场景评测就是测试不同人工智能应用场景中各款芯片的实际使用效果。     “智越计划”将最终形成针对特定应用场景的综合报告和产品推荐目录,从而助力优化市场供需匹配,为政府、企业和研究机构建设智算中心提供芯片选型的重要参考和决策依据。     随着AI技术的飞速进步,市场对芯片产品的性能、稳定性和适用性有了更高要求。一个科学完善的评测体系将有效地指引企业研发方向,推动生态的繁荣发展和行业的整体进步。
  • 《AI芯片可用电场而非电流执行计算》

    • 来源专题:能源情报网信息监测服务平台
    • 编译者:guokm
    • 发布时间:2024-02-05
    • 科技日报北京2月3日电 (记者张梦然)运行生成式人工智能(AI)系统不仅硬件成本高昂,而且会带来惊人的能源消耗。据科技网站TechCrunch最新报道,总部位于德国的初创公司塞姆龙最新开发出一种创新的AI芯片设计方法,率先使用新的神经网络控制设备——忆容器为其3D芯片供电。这有可能彻底改变节能计算技术,使消费电子设备更容易获得先进的AI功能。 不同于处理器中的晶体管,塞姆龙的芯片使用电场而不是电流。这些由传统半导体材料制成的忆容器可存储能量并控制电场,不仅提高了能源效率,还降低了制造成本,使消费电子产品更容易运行先进的AI模型。 塞姆龙芯片是一种多层组织结构,核心原理是电荷屏蔽,通过屏蔽层控制顶部电极和底部电极之间的电场。屏蔽层由芯片内存管理,可存储AI模型的各种“权重”。权重本质上就像模型中的旋钮,在训练和处理数据时操纵和微调其性能。 电场方法最大限度地减少了电子在芯片中的运动,减少了能源使用和热量。塞姆龙旨在利用电场的降温特性,在单个芯片上放置数百层电容器,从而大大提高计算能力。 在《自然·电子学》杂志最近发表的一项研究中,塞姆龙芯片展示出显著的能效提升,其实现了超过3500TOPS/W(每瓦每秒万亿次运算)的卓越能效,超越现有技术35倍至300倍。这一指标表明AI模型训练期间能源消耗将可大幅减少。 尽管还处于早期阶段,但塞姆龙已吸引了著名风投公司的关注,这或对计算资源的未来产生重大影响。 我们在使用电子设备时经常出现“充电焦虑”。这一方面与电池续航不足有关;另一方面也与芯片的能耗较高有关。如今,普通硅基芯片在计算性能、能耗等方面遭遇摩尔定律“天花板”。随着新一代电子产品及各种人工智能设备的不断更新迭代,目前亟待研发出采用新材料、新设计方式的芯片,为消费者提供计算性能更强大、同时更加节能的电子产品。