《中国科学院计算所研究团队提出图神经网络加速芯片设计》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2020-12-24
  • 记者17日从中国计算机学会获悉,来自中国科学院计算技术研究所的研究团队提出图神经网络加速芯片设计“HyGCN”。
    《中国计算机学会通讯》(CCCF)近日刊发了中国科学院计算所特别研究助理严明玉、研究员范东睿以及研究员叶笑春共同撰写的综述文章《图神经网络加速芯片:人工智能“认知智能”阶段起飞的推进剂》。文章披露,该团队提出了图神经网络加速芯片设计“HyGCN”。相关论文也先后在计算机体系结构国际会议上发表。
    严明玉在受访时说,图神经网络在搜索、推荐、风险控制等重要领域有着广泛应用。现有的处理器芯片在执行图神经网络的计算中效率低下,其团队展开面向图神经网络的加速芯片设计,为解决这一难题提供可行方案。
    让机器“会思考”设计中“增引擎”
    图神经网络被认为有望解决深度学习无法处理的关系推理、可解释性等一系列问题,让机器“能理解、会思考”。然而由于图神经网络在图数据处理方面的特殊性,传统用于加速神经网络的芯片难以直接对图神经网络的执行提供高效计算支撑。
    严明玉解释说,以图数据为输入,融合了深度学习算法和图计算算法的图神经网络具有与传统神经网络不一样的执行行为,即“混合执行行为”。这对现有的处理器结构带来巨大挑战,比如GPU在应对不规则执行行为时极为低效。
    “为了应对图神经网络的混合执行行为,我们设计了新的处理器结构,以更高效地加速图神经网络的执行。”严明玉说,HyGCN芯片基于混合结构设计思想,分别为图神经网络的两个主要执行阶段——图遍历阶段和神经网络变换阶段设计相应的加速引擎。
    研究团队实践证明,HyGCN芯片设计能够有效应对图神经网络图遍历阶段的不规则性,并能利用神经网络变换阶段的规则性提高执行效率。
    目前是“无人区”计算所正加快孵化
    “图神经网络加速芯片目前在国际上还是‘无人区’,研究成果发表后得到了业界认可。”严明玉受访时说,目前中国科学院计算所正加快对HyGCN科技成果进行孵化,提升关键核心技术能力,推动各行各业从信息化向智慧化升级。
    展望图神经网络的应用前景,严明玉举例说,在日常交通预测、网约车调度、金融诈骗侦查、运动检测等场景,在助力科研的知识推理、化学研究、宇宙发现等领域,以及在知识图谱、视觉推理、自然语言处理中的多跳推理等学科发展方向上,都有极大应用空间。
    事实上,谷歌地图基于事件树的风险评估、图片社交网站Pinterest的内容推荐、阿里巴巴的风控和推荐、腾讯等公司的视觉和风控等业务中都有图神经网络的影子。有市场研究机构发布报告预测,2022年机器学习芯片市场规模将达到827.2亿美元。图神经网络加速芯片可能将产生300亿美元以上的市场规模。

相关报告
  • 《中国科学院海洋研究所研究团队提出深度学习求解偏微分方程新方法》

    • 来源专题:中国科学院文献情报系统—海洋科技情报网
    • 编译者:熊萍
    • 发布时间:2025-01-12
    • 近日,中国科学院海洋研究所李晓峰研究团队基于深度学习技术,提出了一种高效求解海洋动力学偏微分方程(PDE)的新方法,并成功应用于描述海洋内孤立波的KdV方程组求解。 本研究改进了物理信息神经网络(PINN),引入径向基函数(RBF)代替传统神经网络,提出了PIRBF模型。针对孤立波的强非线性特性,研究团队设计了渐进式学习策略,有效抑制了训练中的误差增长,大幅提升了模型精度和收敛效率,可精准模拟多种形式的孤立波解,包括孤立波解、conidal解和dinodal解,为海洋动力学PDE的高效求解提供了新思路。 该研究的核心亮点在于模型通过自监督学习,仅依赖PDE及初始条件,无需传统数值模型结果作为训练基准,直接利用深度学习技术求解。该方法在求解KdV及其强迫方程(如fKdV方程)时更加灵活,仅需调整偏微分项即可,展现出卓越的精度与效率。同样方法适用于求解薛定谔和Burgers等复杂PDE。模型训练完成后,可在数秒内生成高精度结果,大幅缩短计算时间。研究团队表示,这一技术的成功应用展现了物理驱动深度学习在海洋动力学PDE求解中的广阔前景。 本论文第一作者为李晓峰研究员,第二、第三作者为博士研究生王浩宇和杨艺,通信作者为张旭东副研究员。研究工作得到了中国科学院战略重点研究计划及国家自然科学基金项目等资助。 论文信息: X. Li,H. Wang,Y. Yang,X. Zhang,Deep Learning-Based Solution for the KdV-family Governing Equations of Ocean Internal Waves. Ocean Modelling,102493 (2024).
  • 《中国科学院团队开发并测试了名为QiMeng的AI芯片设计系统》

    • 来源专题:集成电路与量子信息
    • 发布时间:2025-06-12
    • 中国科学院一个由工程师、AI研究人员和芯片设计研究人员组成的研究团队设计、建造并测试了基于AI的芯片设计系统,并在arXiv预印本服务器上发表了一篇描述该系统的论文。这一系统名为QiMeng,它通过多模态架构来理解和生成文本和图数据,并通过双环机制进行反馈驱动推理,包括外部性能反馈环和内部功能正确性反馈环。 在这一新的研究中,中国团队将AI应用于这一问题。工作涉及使用大语言模型(LLM)将用户关于性能标准的要求转化为满足规格的处理器芯片的架构计划,并创建运行在其上的软件。 这项计划是在科学家们面临西方国家不愿与他们分享技术收益的压力下启动的。新系统有三个相互连接的部分:一个是领域特定的芯片模型;另一个是负责大部分设计工作的设计代理;第三个是一组可用的设计应用程序。