《新思科技将生成式人工智能能力扩展至其全线EDA解决方案》

  • 来源专题:新一代信息技术
  • 编译者: 张嘉璐
  • 发布时间:2025-09-08
  •   新思科技宣布计划将其Synopsys.ai Copilot生成式人工智能(GenAI)能力扩展至全线半导体设计解决方案。这家EDA专业公司表示,在行业面临严重人才短缺的背景下,此举旨在帮助半导体工程团队加速开发进程并支持更复杂的设计。

      通过应用强化学习和生成式AI技术,新思科技将人工智能作为现代芯片设计的核心能力,帮助客户优化芯片性能、提升效率并加速产品上市。Synopsys.ai是一套先进的AI驱动解决方案套件,其最新推出的Copilot辅助与创意功能已面向早期访问客户开放。据新思科技透露,这些功能已显著提升设计质量和工程师生产效率,同时缩短工作流耗时。

      "AI正在彻底变革芯片设计的每个层级,推动新一代先进SoC的创新浪潮,"新思科技战略与产品管理高级副总裁Sanjay Bali表示,"通过最新Copilot功能为芯片设计全流程提供辅助与创意支持,我们正助力工程团队提升设计质量,解放时间专注于高价值机会,加速技术创新。"

    生成式AI驱动的Synopsys.ai Copilot功能包括:

      辅助型GenAI能力:客户正在使用该公司的知识助手和新一代工作流助手应用提升效率。实际使用数据显示,知识助手使初级工程师的入门培训时间缩短30%,文档检索和脚本生成任务从数小时压缩至几分钟。以新版工作流助手为例,脚本解决方案生成速度平均提升2倍,与PrimeTime工具配合使用时,脚本生成效率较传统方法提高10-20倍。这些改进甚至能让新工程师独立高效地使用新思工具,同时保持高质量标准。目前知识助手已面向SaaS和自带云(BYOC)模式的所有新思云用户开放,其云SaaS平台现已为100多家初创公司提供生产环境支持,显著加速流片进程。

      创意型GenAI能力:包括形式化断言生成和RTL代码生成在内的创意功能,正帮助早期访问客户大幅缩短设计与验证周期。某领先AI基础设施解决方案提供商在形式验证流程中实现35%的工程效率提升,其自动生成的测试平台在保持语法与功能高准确度的同时,使团队在10天内完成10个设计组件的验证。

      新思科技还将AI能力延伸至仿真分析领域。近期并入的Ansys公司推出工程Copilot多功能虚拟助手,帮助工程师缩短学习周期并提升仿真工具使用效率。同时发布的Ansys SimAI更新集成了optiSLang工具,加速数据集创建和AI训练,助力设计探索与开发周期缩短。

      该公司的生成式AI技术还为芯片设计智能体引擎(AgentEngineerTM)奠定基础,通过构建专门训练的多智能体系统,实现渐进式自主执行以提升工程流程效率。新思科技与微软正在智能体AI时代展开合作,基于微软Discovery平台开发的该技术首款原型已于2025年DAC大会亮相。

      "我们不仅优化现有工作流,更致力于为下一代芯片设计建立创新范式,"微软产品创新副总裁Aseem Datar表示,"结合新思科技的领域专业知识与微软Discovery平台的能力,我们正在重新定义行业可能性。"

      新思科技为智能体引擎技术规划了渐进发展路径:从单智能体执行步骤级操作(L2),到多智能体复杂协作(L3),再到自适应学习的动态流程优化(L4),最终实现自主决策(L5)。

  • 原文来源:https://www.newelectronics.co.uk/content/news/synopsys-to-expand-genai-capabilities-across-its-eda-solutions
相关报告
  • 《阿里与Ceva携手为下一代视频平台提供可扩展的边缘AI解决方案》

    • 来源专题:新一代信息技术
    • 编译者:张嘉璐
    • 发布时间:2025-08-13
    •   随着消费级和工业级智能视频设备需求激增,扬智科技(ALi Corporation)与Ceva宣布达成战略授权合作。根据协议,Ceva先进的NeuPro-Nano和NeuPro-M神经网络处理器(NPU)将集成至扬智新一代视频显示子系统(VDSS)平台。此次合作融合扬智在多媒体系统级芯片(SoC)的技术积淀与Ceva人工智能解决方案,将为智能显示屏、机顶盒等视觉计算设备带来高性能音视频、视觉感知与AI处理能力。   NeuPro-Nano嵌入式AI NPU专为持续工作的音频、语音、视觉及传感场景设计,其超低功耗特性与原生Transformer模型支持能力,可高效执行边缘端小型语言模型(SLM)等新兴AI任务。NeuPro-M NPU IP则提供4至200 TOPS/核的可扩展算力,支持Transformer、视觉Transformer(ViT)及生成式AI等先进模型。   扬智科技首席执行官梁厚谊表示:"此次合作强化了我们进军AI芯片设计的战略布局,扩展了服务能力版图,能更敏捷响应客户日新月异的需求。"通过双NPU集成方案,采用扬智ASIC设计服务的客户将获得更灵活、高效的AI加速解决方案,满足广泛智能边缘应用的深度学习推理需求。   Ceva首席商务官Gweltaz Toquet指出:"我们的NPU与扬智系统级设计能力结合,将为边缘AI创新开辟新路径,打造更智能、迅捷、灵敏的视频系统以应对市场升级需求。"合作将充分发挥扬智的设计专长与全球客户资源,结合Ceva NeuPro-Studio AI SDK等开发工具,共同简化AI SoC开发流程,助力ODM、OEM及半导体合作伙伴加速产品上市。
  • 《生成式人工智能(GenAI)——帮助优化全球功率最密集的计算应用》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2024-08-19
    • 业界需要一种新的供电架构来控制生成式人工智能训练模型的能源消耗          训练生成式人工智能(GenAI)神经网络模型通常需要花费数月的时间,数千个基于GPU并包含数十亿个晶体管的处理器、高带宽SDRAM和每秒数太比特的光网络交换机要同时连续运行。虽然人工智能有望带来人类生产力的飞跃,但其运行时能耗巨大,所以导致温室气体的排放也显著增加。据《纽约时报》报道,到2027年,人工智能服务器每年的用电量将达到85至134太瓦时,大致相当于阿根廷一年的用电量。为了应对日益加剧的能耗挑战,AI处理器的供电网络经历了多代的发展。这种全面的演进发展涉及电路架构、电源转换拓扑、材料科学、封装和机械/热工程方面的创新。           生成式人工智能训练处理器的供电方案负载点模式和分比式模式的演变:         从2020年到2022年,热设计功率(TDP)几乎翻了一番,从400W增加到了700W。TDP指标是指生成式人工智能训练应用中GPU引擎的连续功耗。自2022年起,半导体行业的TDP水平不断攀升,到了2024年3月,市场上甚至出现了一款TDP高达1000W的GPU。    图1:基于GPU的生成式人工智能训练处理器芯片复合体,加速器模块(AM)上安装有高带宽存储器(HBM)        用于生成式人工智能训练的处理器复合体集成了一个GPU或ASIC芯片,以及六到八个高带宽存储器(HBM)芯片。采用4纳米CMOS 工艺的GPU通常以0.65V的内核VDD运行,可能包含1000亿或更多的晶体管。HBM提供144GB的存储容量,其工作电压一般为1.1V或1.2V。该处理器的一个关键供电特性与人工神经网络算法负载有关。对比处于空闲状态的GPU和算法满载状态的GPU,瞬态电流消耗(dI/dt)差别可能非常大,可能达到每微秒2000安培或更多。此外,该处理器不能容忍较大的电源电压下冲或过冲幅值;这些负载阶跃瞬变必须限制在标称VDD的10%以内。设计用于生成式人工智能训练处理器的供电解决方案时,由于这些动态操作条件的原因,峰值电流输送能力通常设计为连续电流输送能力的两倍,峰值事件通常持续数十毫秒(图1)。          对于CPU、FPGA、网络交换机处理器以及现在的AI训练和推理芯片发展最重要的供电架构是负载点(PoL)方法。相较于传统的多相并联电源架构,分比式PoL电源架构实现了更高的功率和电流密度。这种电源架构借鉴了理想变压器的"匝数比"概念,通过分压实现电流倍增。电流倍增的可扩展性使我们能够根据不同的输出电压和电流需求,开发一系列全面的PoL转换器。这对客户来说至关重要,因为高级AI训练处理器的需求正快速变化。                        图2:分比式电源架构可以提供超过1000安培的大电流,并使供电网络的电阻降低到1/20        生成式人工智能电源系统设计面临的主要挑战包括:   ● 很高的电流输送能力,范围从500安培到2000安培   ● 负载需要出色的动态性能   ● PDN的损耗和阻抗较大   ● 48V母线基础架构的标准化使用,需要从48V转换到1V以下的能力          要解决这种大电流和高密度负载点(PoL)问题,需要采用不同的方法。先进的分比式电源架构将稳压和变压/电流倍增功能进行了分解,可将这些供电级放置在最佳位置,从而达到最高的效率和功率/电流密度。当输入电压(VIN)等于输出电压(VOUT)时,稳压器的效率最高,随着输入输出比的增加,效率逐渐降低。在36至60V的典型输入电压范围内,最佳输出母线电压将是48V,而不是中间母线架构(IBA)中常见的传统12V母线电压。48V输出母线所需的电流是12V母线的四分之一(P=VI),而PDN的损耗是电流的平方(P= I2R),这意味着损耗降低至原来的 1/16。因此,先安装稳压器并将其调节至48V输出,可以实现最高的效率。稳压器还必须接受有时低于48V的输入电压,这就需要一个降压-升压的功能来满足这一设计需求。一旦输入电压得到了稳压,下一步便是将48V转换为1V。在需要为1V负载供电的情况下,最佳变压比为48:1。在这种情况下,稳压器将输入电压降压或升压到48V输出,再由变压器将电压从48降至1V。降压变压器以相同的比率加大电流,因此变压器组件也可以称为电流倍增器。在这种情况下,1安培的输入电流将倍增至48安培的输出电流。为了最大限度地减少大电流输出的PDN损耗,电流倍增器必须小巧,以便尽可能靠近负载放置。  PRM稳压器和VTM/MCM模块化电流倍增器结合在一起,构成Vicor分比式电源架构。这两个器件相互合作,各司其职,实现完整的DC-DC转换功能。  PRM通过调制未稳压的输入电源提供稳压输出电压,即"分比式母线电压"。该母线供电给VTM,由VTM将分比式母线电压转换为负载所需的电平。          与IBA不同,FPA不通过串联电感器从中间母线电压降压至PoL。FPA不通过降低中间母线电压来平均电压,而是使用电流增益为1:48或更高的高压稳压和电流倍增器模块,以提供更高的效率、更小的尺寸、更快的响应和1000安培及以上的可扩展性(图2)。 垂直放置PoL转换器减少功耗耗散          在前几代大电流生成式人工智能处理器电源架构中,PoL转换器被放在处理器复合体的横向(旁边)位置。由于铜的电阻率和PCB上的走线长度,横向放置的PoL供电网络(PDN)的集总阻抗相当高,可能达到200μΩ或更高。随着生成式人工智能训练处理器的连续电流需求增加到1000安培,这意味着PCB本身就会消耗掉200瓦的功率。考虑到在AI超级计算机中用于大型语言模型训练的加速器模块(AM)多达数千个,而且几乎从不断电,通常会持续运行10年或更长时间,这200瓦的功率损耗在整体上变得非常庞大。认识到这种能源浪费后,AI计算机设计师已经开始评估采用垂直供电(VPD)结构,将PoL转换器直接放置在处理器复合体的下方。在垂直供电网络中,集总阻抗可能降至10μΩ或更低,这意味着在内核电压域1000安培的连续电流下,只会消耗10瓦的功率。也就是说,通过将PoL转换器从横向放置改为纵向放置,PCB的功耗减少了200-10=190瓦(WPCB)(图3)。          图3 生成式人工智能加速模块从横向(顶部)供电改为纵向(背部)供电,可将PDN损耗降低至1/20        VPD的另一个优点是降低了GPU芯片表面电压梯度,这也有助于节省电力。如前所述,典型的4纳米CMOS GPU的标称工作电压为0.65VDD。使用横向供电时,将电源提供给处理器复合体的四边,由于集成电路的配电阻抗较高(通常使用电阻率高于铜的铝导体),可能需要0.70V的电压,才能确保GPU芯片中心的电压达到标称值0.65V。而采用纵向供电时,可以确保整个芯片表面的电压为0.65V。0.70-0.65=50mV,这个差值乘以1000安培,可额外节省50瓦(WVDD)的功率。在本例中,节省的总功率为190 WPCB + 50 WVDD = 240瓦(图4)。根据未来几年公共领域对加速器模块(AM)需求的预测(2024年超过250万件),以及对电力成本的合理估计(每兆瓦时75美元),每个AM节省240W电力,到2026年将在全球范围内实现太瓦时的电力节省,相当于每年节约数十亿美元的电力运营成本,而且根据可再生能源的使用比例,每年还能永久性地减少数百万吨的二氧化碳排放。       图4:使用VPD时,处理器芯片的表面电压均匀,有助于最大限度地提高计算性能,同时最小化功率损耗 遏制失控的生成式人工智能功耗          Vicor正引领生成式人工智能供电技术的创新浪潮。他们提供的分比式负载点转换器解决方案有助于提升生成式人工智能处理器的功效,使生成式人工智能的功耗与社会层面的环境保护和节能目标相一致。Vicor持续推动电源架构的创新,并开发先进的新产品,致力于解决生成式人工智能模型训练带来的功耗增加问题。通过采用先进的分比式电流倍增器方法进行负载点DC-DC转换,就可以充分发挥生成式人工智能优势,同时有效控制全球范围内的能源消耗。 作者:杨周 Vicor中国应用工程师