《中国AI芯片有可能弯道超车》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 姜山
  • 发布时间:2018-06-29
  • 宽松的数据管理制度会让中国在人工智能芯片产业上占据非常有利的位置,从而达成“弯道超车”的目标

    1

    经过近40年的高速发展,中国已经初步具备了一定规模的微电子人才储备和巨大的市场,正符合发展人工智能芯片的两项基本条件。图/中新

    文|陈怡然 陈逸中

    过去数年之间,信息技术产业曾经接连兴起过几大热门领域,包括大数据(Bigdata)、物联网(IoT)、工业4.0以及增强和虚拟现实(AR/VR)等。但直到以深度学习神经网络模型为基础的人工智能技术出现后,这几大热门领域才第一次被整合进人工智能这一更大的发展框架内。

    当前,人工智能技术仍旧需要海量数据来训练神经网络模型,从而使得计算机能够代替人类从事各种数据处理与判断。飞速发展的物联网技术首先提供了大量的数据来源,经过设计和训练好的人工智能系统则提供了工业4.0最需要的智能控制系统,也为增强和虚拟现实场景的落地提供了数据处理的技术手段。

    芯片是人工智能系统最关键的技术,中国发展人工智能芯片产业的突破口到底在哪?这是人们普遍关心的问题。

    芯片产业是一门具有高集成性和高成本特性的科技产业,进入门槛非常之高。随着芯片制造技术进入“x纳米”(个位数纳米制程)时代,每个晶圆代工厂的造价动辄百亿美元起,运营与折旧成本惊人。

    单个芯片的设计所需要的工程师数目从几十到数百不等,开发成本少则数千万美元,多则上亿美元,周期长达1年-2年。

    但是,一个成功的芯片项目所带来的不仅仅是销售芯片本身的利润,还有伴随芯片设计、制造以及销售整套流程中产生的支撑产业与生态系统,从而带动软硬件发展、行业标准制定、知识产权销售、甚至相关的机械制造和化工等产业发展。

    现代芯片设计,尤其是以“片上系统”(System-on-Chip,SoC)为主体的高端芯片,已经可以影响乃至引领某一产业走向及其战略发展,甚至遏制该产业的正常运行。

    由于人工智能应用的场景千变万化,而所应用的算法更是有相当的差异,可以预期未来各项应用将有不同的定制化芯片,出现人工智能芯片百家争鸣的盛况。

    人工智能芯片的另一大特点在于它所面对的是一个全新的、还未被大公司充分定义的新的业务场景。

    即使是NVIDIA,也只是在云计算这一领域有一定的垄断地位。因此,人工智能芯片发展有着巨大的不确定性和机会。

    人工智能芯片发展很像中国另一新兴芯片产业——比特币矿机上的发展历程:比特币矿机2010年初主要用的还是以CPU为主的芯片,但是从2012年起就逐渐过渡到以图形处理器(GPU)为主,利用其强大的向量计算能力来采矿。两年以后的 2014年,大家开始通过算法优化并导入现场可编程逻辑阵列(FPGA)提升效能功耗比来达到更高挖矿效益。

    时至今日,绝大多数的高采矿效益的矿机均是以定制化芯片为主,如比特大陆的蚂蚁矿机。

    依照这一类似的发展趋势,我们可以期待2018年将是应用导向人工智能芯片开始跃进的一年。

    中国可能弯道超车

    GPU和CPU芯片设计注重通用性,但其高功耗、相对较低的单位效能以及高昂的价格并不适合于类似物联网或工业4.0这样的普及化应用。

    应用导向的人工智能芯片是将抽象的神经网络算法以硬件方式加以固化来达到加速运算的效果。这样的设计有助于提升单位芯片面积上算力的密度,降低功耗和成本,从而有助于将人工智能系统更普遍地运用到各个场景。

    但芯片的开发一般需要高质量的人才基础并有强大市场的需求来摊薄芯片开发的高昂成本:通常一款芯片的生命周期大约为三年,而真正产生利润的时间仅为12个-18个月。芯片企业要在这短短的时间内完成利润积累,进行下一代产品的成功开发与研制,进入新一轮的迭代周期。

    经过近40年的高速发展,中国已经初步具备了一定规模的微电子人才储备和巨大的市场,正符合发展人工智能芯片的两项基本条件。

    除此之外,中国还有一样更为突出的优势:大量使用数字化设备及人口数带来的庞大数据。在以应用为主体的开发概念下,每一个应用都需有各自对应的数据集来训练神经网络,有效数据的采集速度会是影响开发周期长短的最关键的因素之一。海量高质量的训练数据集可以帮助工程人员快速有效地训练神经网络,加速模型的定型,缩短人工智能芯片的设计周期。

    在各国数据采集管理法规日趋收紧,尤其是欧盟最近出台通用数据保护规范(GDPR)的大环境下,宽松的数据管理制度会让中国在人工智能芯片产业上占据非常有利的位置,从而达成“弯道超车”的目标。

    面临多重挑战

    人工智能系统可以粗分为云端和终端两大应用。其硬件系统按照功能则可相应分为训练机和推理机两种。在过去较长一段时间,人工智能应用主要在云端,包括训练与推理两部分。云端系统的人工智能芯片能依算法与数据形态的不同来处理各式应用。

    考虑到海量数据的处理需求,数据中心高昂的建设和运营成本,以及应用的多样性,云端人工智能芯片通常要求具有高集成性、高效能,以及高密度算力等特点,而且需要有一定的通用性。芯片对应各种应用场景所需的软件支持也是一项设计重点。

    云端通用型人工智能芯片主要的开发难点在于如何针对业务所需的神经网络模型做相应的计算体系结构改良并同时考量通用性与应用导向设计之间的取舍。

    这属于芯片开发中门槛较高的项目,而且所设计的人工智能芯片的规模通常较大,技术难度也较高。除了对应用场景有深刻理解之外,设计者也需要有长期芯片设计与流片经验的累积才能够保证拿出成熟的产品。

    国内公司在经验上与国外其他领跑企业如英特尔、高通、NVIDIA等应该说还有一段差距。但国内头部企业的迭代速度非常快,加上与代工厂(比如TSMC)和后端设计服务公司的紧密合作,对于先进工艺流片经验掌握的速度非常之快。国内寒武纪和比特大陆两家公司在未来的表现非常值得期待。预计再经过一两代的开发即能迎头赶上世界最前沿产品,并可望大量使用于数据中心。

    1

    以目前发展趋势来看,终端应用将会在未来2年-3年伴随着5G网络的大量普及有爆炸性成长。终端产品的应用范围非常广,许多从云端延伸至终端的应用将会是首先被导入的产品。

    终端人工智能芯片并不如云端芯片般对通用性有较高需求,而是综合考虑功耗、计算能力、面积(PPA)在终端场景下的平衡。也因为如此,终端人工智能芯片并非一定需要采用最先进的制造工艺,成熟且低成本的工艺可能更适合普及化的应用。

    终端应用中人工智能推理机芯片的应用可以粗略分成影像、声音和判断三大方向。由于应用与算法的碎片化与多样性,人工智能芯片在未来一段时间将会是一个以细分市场为主的产业结构。这一特点将会在商业模式上给传统芯片设计公司带来新的挑战和机会。

    大量的应用需要更多种类,满足不同具体需求的知识产权,或是将知识产权定制化以应付各类不同需求。其中一种可能是走类似ARM的道路,通过提供基本知识产权给客户做针对具体应用场景的二次定制化开发。

    人工智能的广泛应用也带来了庞大产业升级芯片需求,有可能扶植许多新创公司来提供各类应用专属的知识产权。

    终端应用中训练机的需求也日渐增长,其主因是许多应用由于现场特殊性,需要本地训练或是云端训练不能反映时间的要求。无人驾驶系统、先进辅助驾驶系统和智能工厂等都有大量此类需求。

    在终端系统中,训练机既有可能和推理机使用同一组人工智能芯片,有能以单独的芯片形式来达到更高效的训练效率。

    由于终端的训练机将会对功耗和成本有更高的要求,因此终端训练机在通用性和应用导向设计之间的取舍将会更为困难。除了传统的芯片架构分析和设计技巧外,通过神经网络算法的改良与简化来降低设计复杂度也是近些年来研究的重点。

    如前所述,芯片的生态系统是面对开发者最重要的一环,并直接影响工程人员对于芯片的接受度和所应用技术的普及度。

    在软件设计上,编程语言和主流编程框架的支持能提高开发者意愿并能与其他平台接轨。同时,人工智能芯片的开发也是要与软件或算法的进步而同步更新,提供诸如更高效更灵活的知识产权。

    在硬件设计上,未来人工智能芯片将逐步整合其他系统,注重如感测器、通讯和协同处理器等其他相关硬件的系统整合。

    对于终端应用而言,整合后的平台将有可能达到系统各部分的高度协同,提高计算效率,增加产品的通用性。

    此外,建立和维护使用者社群,提供类似于开源社区那样的开放式开发平台会使得整体开发速度提升,加快系统设计的迭代速度。最近有许多新创公司聚焦于降低硬件设计的门槛,以编程语言来取代硬件语言实现芯片设计,或是以软硬件协同设计来降低芯片设计的门槛,也有助于这一目的。

    最后则是知识产权 (IP)的重复使用,尤其是功能和需求验证通过后的知识产权,将会是人工智能芯片在各种应用中快速布局的助力之一。

    站在巨人和独角兽的肩膀上

    人工智能应用对于算力的高要求使得我们在具体实践中必须将算法、数据与计算平台紧密结合,从而设计出针对具体需求的高度优化的计算平台。

    因此,许多拥有数据和算法的传统软件及互联网公司如微软、谷歌、亚马逊等最近都纷纷跨界到芯片设计。

    芯片行业的沙场老将们如英特尔、高通等也都看准了商机,以自身已有的生态系统和知识产权为基础快速布局于各种人工智能芯片应用中。

    雨后春笋般出现的人工智能芯片独角兽更是遍布于各个开发层级,利用创新的科研成果与传统行业相竞争,形成了百家争鸣的局面。

    我们粗略统计整理了国内外著名的人工智能芯片公司的主要技术方案和其所针对的应用场景,绝大多数公司尤其是初创公司纷纷看好在终端应用(尤其是终端推理)上的发展机会,以期待人工智能技术引入传统行业之后所带来的巨大商机。

    在未来数年,人工智能技术的应用场景将会更加明确。赛道上的主流公司及其所代表的各种技术也会随之通过公司收购、兼并等手段逐渐融合至少数高度集成的技术平台。初创公司的重点也将转移至类似终端训练这样的新型应用场景。

    在技术发展上,未来人工智能芯片则可能采用更为先进的制造工艺,甚至是诸如忆阻器或者神经形态计算这样全新的纳米器件和计算架构。这将成为AI芯片下一阶段竞争的风向标。

    (作者陈怡然为美国杜克大学电子计算机工程系教授、陈逸中为美国纽约州立大学教授,编辑:谢丽容)

    本文首刊于2018年6月25日出版的《财经》杂志

相关报告
  • 《中国想要实现机器人产业弯道超车 四大投资领域不可错过》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2018-06-26
    • 17日,苏宁宣布无人车“卧龙一号”已完成上岗测试,将于6月18日进入常态化运营。“卧龙一号”承担苏宁小店周边社区3公里范围内,线上订单1小时生活圈的即时配送服务。 近几年“工作岗位将被机器人蚕食”的话题不断,阐述观点的角度更是层出不穷,单论效率而言,机器人确实能在某些地方做的比人更效率。比如苏宁小店近日还将推出世界杯主题店“深夜加油站”,24小时营业,通宵提供商品和免费服务,2公里1小时配送到家等。这里机器人就比人更有经济性。 机器人产业现状 根据机器人的应用环境,国际机器人联盟(IFR)将机器人分为工业机器人和服务机器人。 其中,工业机器人指应用于生产过程与环境的机器人,主要包括人机协作机器人和工业移动机器人;服务机器人则是除工业机器人之外的、用于非制造业并服务于人类的各种先进机器人,主要包括个人/家用服务机器人和公共服务机器人。 《中国机器人产业发展报告(2017年)》预计,2017年全球机器人市场规模将达到232亿美元,2012~2017年的平均增长率接近17%。其中,工业机器人147亿美元,服务机器人29亿美元。 而2017年中国机器人市场规模将达到62.8亿美元,2012~2017年的平均增长率达到28%。其中,工业机器人42.2亿美元,服务机器人13.2亿美元。 无论是市场规模,还是年均增长率,中国都在全球机器人市场占有较大份额。尤其近几年不断有中国企业对国外技术垄断实现突围,主要是机器人三大核心零部件的生产,即控制器、减速器和伺服电机,加上国内机器人产业旺盛的需求,中国工业机器人迎来爆发式增长。 中国出现同样快速增长的还有服务机器人,相比工业机器人,由于客观原因——服务机器人还不是一个成熟的产业(工业机器人已经是一个成熟的产业)。不成熟意味着无限可能,服务机器人市场依然有着巨大的想象空间,除了对传统机器人领域核心技术的创新突破,结合具体商业场景的智能服务机器人将成为另一个突破口。 智能服务机器人市场 发展智能机器人既是高屋建瓴、另辟蹊径的重要路径,也是实现产业跃迁的新兴增长点。 中国在人工智能技术方面与全球基本处于同一起跑线,特别是在图像识别、语音识别、语义识别等多模态人机交互技术领域,部分已接近和达到全球领先水平。 国内一些企业通过技术推动产品迭代,凭借智能交互和特定场景整合迅速切入人们日常生活,利用市场收益进行技术革新,已经在智能服务机器人领域有所建树,主要集中在医疗、金融、仓储/物流、客服等热点领域。 医疗机器人 医疗行业对机器人感兴趣的原因很多,机器人为行业带来的好处,可能比最专业和最勤奋的医疗工作者更多,主要包括,速度、准确性、可重复性、可靠性和成本效益。一个机器人不管“工作”多久,都不会疲劳。 就目前来说,医疗机器人主要分为以下几类:外科手术机器人、康复机器人、医用服务机器人、辅助机器人等。 据统计,目前手术机器人占比最高,在六成以上。而凭借售价两千万的达芬奇手术机器人,美国公司Intuitive Surgical轻而易举地霸占了当前医疗机器人市场的半壁江山。 国内医疗机器人的发展起步较晚,目前市场活跃企业主要有妙手机器人(第一家临床使用的国产手术机器人)、博实股份(上市公司,推出微创腹腔外科手术机器人系统)、天智航(新三板公司,推出骨科医疗机器人)、钱璟(康复机器人重点企业)等。 金融机器人 金融行业的基础是信息处理,某些以往需要人工参与的金融工作正在自动化,包括运营、理财、算法交易,以及风险管理等。 摩根大通利用AI开发了一款金融合同解析软件。原先律师和贷款人员每年需要360000小时才能完成的工作,这款软件只需几秒就能完成。而且错误率大大降低,还可以24小时工作。 机器人的优势还体现在对投资的完全理性。近些年火起来的量化交易,用数学模型替代人为的主观判断进行开仓和平仓的交易方式。避免了情绪波动对交易的影响,克制了人性中的贪婪、恐惧、侥幸的心理弱点,同时克服了我们主观上的认知偏差,提高投资的理性。 目前金融机器人应用落地的4大场景:智能投顾、风险管理、搜索引擎、智能客服。国内各场景的活跃企业包括:弥财(将经典的投资理论与最前沿的互联网技术相结合,为普通大众提供智能的、高端的定制投资服务)、信而富(基于人工智能技术,通过建立模型,对海量数据进行筛查,来确定对方是否为真实的借款人)、人工智能牛(整合自身独有的金融数据报告资源、大数据、人工智能技术,开创了智能金融搜索先河)、“娇娇”(交通银行2015年推出了智能客服实体机器人)。 仓储/物流机器人 传统仓库里都是靠人手分拣、包装、搬运,为了实现效率,仓库的设计必须满足员工的活动需求,太局促的空间影响效率。而仓库员工,则需要对仓库里的商品位置了如指掌,只有做到瞬间反应,分拣的效率才可能最大化。 物流机器人的出现,解决的不只是工作效率问题,更是将仓库利用率提升一个高度。传统仓库的逻辑是“商品中心化”,也就是人找货;而搭载了物流机器人的仓库的逻辑是“分拣中心化”,实现了货找人。 物流机器人会根据订单信息,直接将商品所在货架移动到分拣工面前,分拣工取走商品后机器人再将货架运回原处,至始至终,分拣工只需待在一处地方等待“商品来找自己”。而以机器人的交互协调,提供比人活动小的多空间就可以了。 物流机器人不只提升了工作效率,更是设计了全新的仓储结构。这方面以美国亚马逊旗下的Amazon Robotics为行业典范,前身是Kiva System,2012年被亚马逊收购后正式更名为Amazon Robotics,这家公司重新定义了仓储。 目前常见的物流机器人可以分为三类:AGV自动导引车、码垛机器人、分拣机器人。国内的物流机器人系统企业基本集中在AGV领域,被广泛应用在工厂内部工序间的搬运、制造系统和物流系统连续的运转以及国际化大型港口的集装箱自动搬运。 客服机器人 在客户致电或在线咨询客服代表的问题中,超过60%的问题都是常见的,也就是说大部分客服人员每天都在应对重复的问题,机械工作消磨着客服人员的工作热情。 标准化服务也是人工客服的一个难点,不同的客服代表可能会给客户不同的答案,这让客户感到恼火。而在统一算法支配下的机器人客服,可以给客户真正意义上的标准化服务。 目前国内智能客服机器人的定位,以辅助客服工作为主,回答客户的常规、重复性的问题,进而提高客服工作效率。 但国内很多商家只是提供机器人给客户,却不考虑机器人问答知识库才是大门槛。具体需要给机器人添加哪些问答、怎么添加识别效果最好、客户的一句话有多种不同的问答要怎么实现......这些都是客户遇到的痛点。从提供客服机器人到提供企业客服机器人解决方案,这将是行业竞争的核心所在。 总结: 机器人似乎取代了一部分工作,从金融行业的交易员,到物流行业的分拣工。但是取代以后,又会给人类带来新的工作,新的更灵活、更有创造性的工作,“等货来”肯定比“满仓库跑”更受分拣工青睐。
  • 《生成式AI,可以设计芯片了》

    • 来源专题:数智化图书情报
    • 编译者:黄雨馨
    • 发布时间:2023-06-17
    • 自从去年开始,以ChatGPT为代表的生成式AI(Generative)站在了整个世界的聚光灯下。ChatGPT可以理解用户基于自然语言的输入,并且产生相应的输出。ChatGPT基于大语言模型技术,通过使用海量的语料训练,可以实现回答用户的各种问题,还可以帮助用户完成一些简单的任务,包括完成文档编写甚至Python代码编写等等。 而在五月十日,谷歌在IO大会上发布了ChatGPT的竞品,即PaLM 2大语言模型。谷歌表示,目前ChatGPT类生成式大语言模型最重要的用户体验之一就是帮助用户编写代码,而PaLM 2的一大特性就是完成20多种编程语言的支持。其中,对于芯片设计工程师来说,最大的亮点就是PaLM 2支持数字电路设计领域最常用的编程语言Verilog。 百闻不如一试,目前PaLM 2已经在谷歌的Bard平台上线开放公测,因此我们也尝试使用Bard去体会了一把PaLM 2生成Verilog代码的能力。在试验中,我们让Bard生成了两段代码,一段代码是生成一个FIFO(数字电路中最常用的模块之一),而另一段代码则是生成一个模块,其中包含了两个前面编写的FIFO,并且让第一个FIFO的输出接入第二个FIFO的输入。生成的方法非常简单,我们只需要给Bard一个基于自然语言的指令(prompt),Bard就能够在几秒钟之内完成相应的代码生成。例如,在第一个实验中,我们使用的指令是“生成一段Verilog代码来实现FIFO”,生成结果如下图: 从结果来看该生成的代码的语法正确,逻辑基本正确,但是在FIFO full和empty的信号逻辑上并没有完全弄对(当然其实FIFO的full和empty的逻辑也是面试中常考的问题,要完全弄对并没那么简单)。在代码风格上,我们还可以在指令中加入更多提示,类似“在代码中加入更多注释”,“使用参数来定义接口宽度”等等。 而在第二个实验中,我们主要看的是Bard能否复用之前生成的模块,并且基于这个来生成新的更大的模块。我们使用的指令是“写一个模块,其中包括两个你前面写的FIFO模块,并且第一个FIFO的输出接入第二个FIFO的输入”。 在这里我们可以看到生成的代码基本正确,因此我们认为PaLM 2基本拥有了能基于自底向上生成复杂代码的能力。 芯片设计领域生成式AI的进化之路 我们从上述实验中可以看到,谷歌的PaLM 2已经具有了基本的Verilog代码生成能力,可以生成基本模块和复合模块,当然其代码生成的质量还有待提高。而除了PaLM 2之外,我们认为其他公司推出的类似ChatGPT的大语言模型也有可能会加入对于Verilog类硬件描述语言的支持。 根据谷歌在IO大会上发布的信息,目前ChatGPT类的大语言模型已经成为许多工程师在代码编写时的重要助手。如果我们参考IT领域软件开发工程师应用ChatGPT类大语言模型协助代码编写的发展的话,我们认为在芯片行业大语言模型也非常有可能会起到重要作用。这里,根据大语言模型在开发流程中起到的角色,我们可以大致分成三种应用。第一种应用是根据用户的指令直接生成代码,即我们在本文前面给出的两个例子。第二种应用是在工程师编写代码的时候,帮助工程师自动补全代码;例如工程师只需要输入一行代码的前几个字符,大语言模型就可以根据代码的上下文自动帮助补全代码,从而节省工程师的开发时间。第三种应用是帮助工程师分析代码和debug,正如ChatGPT可以帮助用户优化Python代码并找到代码中的bug一样,经过相关数据训练的大语言模型也可以在Verilog中实现相似的功能。 展望未来,参考大语言模型在IT行业的应用轨迹,我们认为大语言模型对于芯片设计方面的帮助预计将会从代码自动补全开始,因为这也是大语言模型在IT行业的切入口——目前我们已经看到类似Github co-pilot这样的代码补全产品已经得到了许多IT公司的应用来帮助软件工程师提升编程效率。相对来说,代码补全类应用对于大语言模型的要求相对较低,目前的模型已经能实现相当高的准确率,因此我们预期在芯片设计领域也会有应用在Verilog领域的基于大语言模型的代码补全工具会很快出现帮助工程师提高效率(估计谷歌内部芯片团队已经开始使用类似的工具)。 在代码补全之后,随着大语言模型的进一步发展,根据用户的指令自动生成代码的大语言模型也将会得到越来越多的应用。这类代码直接生成类应用从目前来看还需要和整个项目开发流程进一步磨合——究竟这类代码自动生成的应用最适合使用在底层模块的编写,还是在上层模块间集成的生成上,还需要进一步探索,但是无论如何ChatGPT在自动代码编写领域的潜力惊人,可以把原来人工需要数小时才能编写完的代码在几秒内完成,这样的效率提升无疑将会给整个行业和芯片开发流程带来革命性的变化。 目前来看,ChatGPT类大语言模型在Python等流行编程语言的代码编写方面已经有很不错的效果,这证明了大语言模型实现自动代码编写、补全和debug在理论和工程上都是可以实现的。谷歌的PaLM 2对于Verilog的支持仍然有待进一步完善的主要原因我们认为还是训练的数据量不够。从训练数据数量的角度来说,互联网上有海量的开源Python代码可供训练大语言模型来完成高质量的代码生成,但是互联网上可用于训练大语言模型的Verilog代码的数量比起Python等流行语言来说可能是要少了几个数量级。并不是人类编写的Verilog代码数量不够多,而是绝大多数Verilog代码都不是开源的,而是芯片公司的知识产权,例如谷歌在训练PaLM的时候不太可能获得高通的Verilog代码。未来谁会在开发芯片设计领域的大语言模型方面拔得头筹?我们认为有几个不可忽视的力量: 首先是拥有全栈技术能力的大型技术公司,这些公司既有开发大语言模型的能力,又有成功的芯片业务,包括美国的谷歌和中国的华为等。从技术上来说,这些公司积累了大量的Verilog相关代码可供训练大语言模型,而从业务上来说,这些公司同样也有使用大语言模型来提升芯片设计团队效率的驱动力。 其次是EDA巨头,包括Synopsys、Cadence等。这些EDA公司拥有极强的业务驱动力和紧迫感,因为大语言模型AI确实会成为EDA行业下一个革命性变化,谁在这个领域占领了先机就会在下一代EDA竞争中取得优势;从技术积累上来说,这些公司拥有不错的AI模型能力,同时也有海量的Verilog代码数据量可供训练模型(因为这些EDA公司都有相当成功的IP业务,在开发这些IP的同时积累了足够的高质量代码数据)。 最后,开源社区的力量也不容忽视。从大语言模型角度来看,开源社区在CahtGPT以及开源LLAMA语言模型的基础上做了大量有意义的探索,另外随着RISC-V等开源项目的增加,开源社区拥有的数据量也会越来越多。我们预期开源社区有机会去实现一些小而美的基于大语言模型的新颖应用,从而也能推动整个大语言模型在芯片设计领域的技术发展。 生成式AI会如何影响芯片设计工程师的工作 那么,随着ChatGPT式AI在芯片设计中扮演越来越重要的角色,芯片工程师的日常工作将会发生怎么样的变化?由于这里ChatGPT类生成式AI主要针对代码编写等前端工作,我们这里的讨论范围也主要是前端数字设计工程师。 首先,对于主要工作是前端模块设计和集成的芯片工程师来说,我们预计很快就会有ChatGPT类的工具可以帮助代码补全,从而增加效率。而在未来三到五年的时间范围内,直接使用ChatGPT类生成式AI首先模块代码编写有望获得真正的应用。从这个角度来说,我们并不认为前端工程师的工作会被取代;相反,数字前端工程师的工作可能会越来越多地专注于模块的功能定义,以及如何使用生成式AI能理解的方式来描述这个设计,让AI能产生和工程师设计相符的代码;从这个角度,甚至可能会出现一些标准化的模块功能定义描述语言,从而让AI能产生合理的代码。 此外,芯片验证工程师的工作将会变得越来越重要。生成式AI可以在几秒钟内生成代码,但是其生成质量从目前来看尚需提高。从这个角度,芯片验证一方面需要确保AI生成的代码没有bug,而更重要的是,芯片验证需要能和代码生成形成闭环,例如如何实现一套工作流程,让AI生成的代码可以快速使用testbench来确保功能是否正确,并且有办法告诉AI哪里功能不对来提示AI修改,从而在经过多次迭代后能让AI自动生成正确的代码。虽然可能会需要多次迭代,但是因为每次代码生成需要的时间很短,因此总得来看需要的代码生成时间还是比起手写要快许多。此外,使用生成式AI来自动生成testbench以及验证需要的assertion也将会改变验证工程师的工作流程,工程师将会需要花更多时间教会AI来生成正确的代码,从而大大提升效率。