《三维晶体管阵列有望打破摩尔定律》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2019-11-21
  • 用于计算机处理器的硅集成电路正接近单个芯片上晶体管的最大可行密度,至少在二维阵列中是这样。摩尔定律看似已难以维持。美国密歇根大学一研究团队却另辟蹊径,将晶体管阵列带入三维空间,在最先进的硅芯片上直接堆叠第二层晶体管。这一研究为开发打破摩尔定律的硅集成电路铺平了道路。

      摩尔定律认为,集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。目前硅集成电路的晶体管密度已接近极限。而随着硅晶体管尺寸变得越来越小,它们的工作电压也在不断下降,导致最先进的处理芯片可能会与触摸板、显示驱动器等高电压接口组件不兼容,后者需要在更高电压下运行,以避免错误的触摸信号或过低亮度设置之类的影响。这就需要额外的芯片来处理接口设备和处理器之间的信号转换。

      为解决上述问题,密歇根大学研究人员通过附加器件层的单片三维集成,来提高硅互补金属氧化物半导体集成电路的性能。他们首先使用含锌和锡的溶液覆盖硅芯片,在其表面形成均匀涂层,随后短暂烘烤使其干燥,经过不断重复后制成一层约75纳米厚的氧化锌锡膜。使用该氧化锌锡膜制造的薄膜晶体管可以承受比下方硅芯片更高的电压。

      为了解决两个器件层之间的电压失配问题,研究人员采用了顶部肖特基、底部欧姆的接触结构,在触点添加的肖特基门控薄膜晶体管和垂直薄膜二极管具有优良的开关性能。测试显示,在集成了高压薄膜晶体管后,基础硅芯片仍然可以工作。

      研究人员表示,硅集成电路在低电压(约1伏)下工作,但可以通过单片集成薄膜晶体管来提供高电压处理能力,从而免除了对额外芯片的需求。他们的新方法将氧化物电子学的优势引入到单个硅晶体管中,有助于更紧凑、具有更多功能的芯片的开发。

      相关论文刊发在最新一期《自然·电子学》杂志上。

  • 原文来源:http://digitalpaper.stdaily.com/http_www.kjrb.com/kjrb/html/2019-11/21/content_435214.htm?div=-1
相关报告
  • 《台积电:摩尔定律依然有效 晶体管将能做到0.1纳米》

    • 来源专题:后摩尔
    • 编译者:shenxiang
    • 发布时间:2019-08-31
    • 近日,据台湾地区《经济日报》报道,台积电研发负责人、技术研究副总经理黄汉森表示,毋庸置疑的,摩尔定律依然有效且状况良好,它没有死掉、没有减缓、也没有带病,并透露晶体管将能做到0.1纳米。 1965年提出的摩尔定律(Moores Law)引领半导体发展超过半世纪,这个定律主要是指芯片上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。 但摩尔定律有没有走到极限?走到极限未来会是什么样的发展?这是近几年来全球科技界业讨论相当多的问题。 近几年,互补金属氧化物半导体(CMOS)先进制程中,最新几代纳米节点的功耗改善程度,已出现明显的放缓。科技界观察到,从45纳米到14纳米的节能数据可以看出,虽然每一代制程,芯片的面积变得越来越小,但能够达到的能耗缩减幅度却越来越小,尤其在14纳米初期最为明显。近二、三年进入更先进的10纳米制程,也有类似状况。这不禁让人忧心,摩尔定律是否即将走到尽头? 对此,在本周开幕的第31届HotChips大会专题演讲中,台积电研发负责人、技术研究副总经理黄汉森表示,摩尔定律依然有效且状况良好。 对于未来的技术路线,黄汉森认为像碳纳米管(1.2nm尺度)、二维层状材料等可以将晶体管变得更快、更迷你;同时,相变存储器(PRAM)、旋转力矩转移随机存取存储器(STT-RAM)等会直接和处理器封装在一起,缩小体积,加快数据传递速度;此外还有3D堆叠封装技术。 黄汉森强调,社会对先进技术的需求是无止境的,他还强调,除了硬件,软件算法也需要迎头赶上。
  • 《摩尔定律谢幕,芯片的未来在哪?》

    • 来源专题:后摩尔
    • 编译者:shenxiang
    • 发布时间:2018-08-29
    • (此文观点来自微软研究院新体验与新技术部杰出工程师Doug Burger) 整整50年来,计算机的底层元件都遵从着“ 摩尔定律 ”: 在价格不变的情况下,集成在芯片上的晶体管数量每隔18到24个月将增加一倍,计算成本呈指数型下降 。摩尔定律成就了各种技术变革,例如互联网、基因组测序等等。 然而现在,摩尔定律的趋势第一次放缓了。芯片行业进入了一个不确定的时代,在同样的投入下,收益变得越来越低。我认为有两个原因。 一是芯片制造商面临的一个经济问题 :相比与芯片体积,大多数人对芯片的价格更敏感,要求芯片要做到经济实用;二是我所认为的真正原因, 随着晶体管尺寸的不断缩小,我们遇到了原子极限 ,先前标准、规则结构的晶体管结构已经无法维系。 在CPU时代,我们一直沿用的范式是在CPU上运行编写好的程序。这一范式的优点在于整个计算系统所有层级都是确定的,它们有限但功能强大。芯片的原理非常简单,无非就是开关、逻辑门、二进制系统等等。但是现在,计算需求正变得越来越复杂和艰难,导致计算机结构也越来越复杂,在一块芯片上集成的电路越来越庞大。 Simon Peyton Jones曾说, 计算机软件和体系架构是人们迄今为止所创造的最令人惊叹的结构 。在计算机体系架构领域,任何一个接口的设计都需要调整芯片底层的架构。做芯片与做软件差别很大。编写软件时的自由度非常高,但在设计硬件时却会面临各种各样的限制: 在一块尺寸有限的硅芯片上要集成各种不同功能的组件,并且要保证以正确的方式相互连接,而且要根据预算在通用性、高效性、速度、软件适配等多个维度中做出权衡 。 FPGA:现场可编程门阵列 在加入微软前,我曾和我的一名博士生Hadi Esmaeilzadeh做过一项关于 “暗硅”(Dark Silicon) 的研究。当时,业界正朝着多核芯片的方向发展,有人认为,只要能编写并行软件,就能将计算机芯片架构扩展到数千核。 我们在2011年发表的研究中发现,由于功耗的限制, 一个多核处理器在同一时刻只能有很少的一部分晶体管能够工作,而其余部分则处于休眠状态 。这项研究获得了相当高的关注度。 受到这一研究的启发,我们认为可以针 对特定的工作使用定制硬件来加速计算,解决“暗硅”问题 。但是对于普通用户来说,定制芯片的经济成本以及大量功能不同芯片的管理成本都很高。为了帮助用户解决这个问题,微软在Azure云平台上部署了FPGA(现场可编程门阵列)。 FPGA全称为“现场可编程门阵列”,之所以称为“现场可编程”,是因为 在做完芯片硬件设计和算法映射之后,我们仍然可以对FPGA芯片进行实时、动态地修改 。我们可以随时把它改写成其它用途的芯片,甚至可以每隔几秒修改一次。为了同时满足性能、成本和灵活性的要求,我们可以使用定制芯片来处理部分长期稳定的计算需求,而使用FPGA来处理剩余计算需求。 FPGA此前就已经广泛应用于通信领域,在处理高速数据流以及测试即将投产的芯片时的表现出色。但在云计算中,FPGA尚未真正成功地大规模使用。 CPU和GPU适合于处理不同的任务。 CPU是一种通用处理器,适合处理少量数据 ; 而GPU是一种单指令、多数据(Single Instruction Multiple Data,SIMD)的并行处理器 ,即一条指令对不同的几组数据执行相同的操作。 FPGA实际上是CPU模型的“倒置” 。在FPGA上,我们不再固定数据、运行指令,而是固定一些指令、运行整批数据。我称之为“结构化计算”,其理念为固定一种计算结构,让数据不断从其中流过。FPGA非常适合这类工作负载,在云中, FPGA可以很好地完成这一使命,对CPU来说也是一种很好的补充。 FPGA每秒能够处理50GB的数据包,同时也可以确保用户的信息安全和网络私密性。面对同样的计算任务,多块CPU才能接近一块FPGA的处理速度。 于是,从2015年底开始,微软通过Project Catapult项目在微软Azure云中对FPGA进行了超大规模的部署,不管与之前相比还是跟竞争对手相比,Azure云的数据处理速度都有明显的提升。目前,微软是全球最大的FPGA使用者之一,各个团队都在使用FPGA强化自己的服务。 Brainwave:为深度神经网络“定制”处理器 在人工智能领域,目前大热的深度学习对计算机硬件和架构都提出了更高的要求 ,只有更好、更快的硬件和架构才能处理日益庞大的训练数据和越来越复杂的深度神经网络模型。机器翻译、语音理解、计算机视觉等经典人工智能领域的不断发展给硅芯产业带来了很大的压力。现在,许多公司都为打造人工智能、机器学习,特别是深度学习的定制架构投入了大量的资金。 因此,我们团队打造了自己的 深度神经网络处理器Brainwave 。我们正与微软必应和Azure团队通力合作,为微软的各项服务提供有力的硬件与架构支持。利用Brainwave,必应团队可以摆脱计算资源的制约,能够部署体量更大的模型,从而为用户提供更好、更快、更高质量的搜索内容。 在今年的微软Build大会上,微软宣布了 Project Brainwave 预览版,并将其整合到Azure机器学习服务中供用户使用。同时,用户也可以自行购买微软推出的Catapult架构主板将之嵌入到生产设备上,这样就可以在边缘设备上直接运行已经在Azure上训练好的模型,从而节省时间成本。 Brainwave非常适合处理推理运算任务 ,对于此类任务,目前大量技术都采用“批处理”的方式。批处理能够提升计算机的处理能力,但却容易增加网络延迟。Project Brainwave可以将实时AI计算的延迟时间降到最小。不同的任务对于“实时”的要求并不相同,对于通过收集网络信息预告紧急情况的任务来说,几分钟的“实时”处理是可以接受的,但对于实时语音互动或者类似于HoloLens这种增强现实任务,“实时”处理则要求做到毫秒级。 在实际的计算任务中,除了处理速度,成本也是需要考虑的一个关键因素。Brainwave系统做到了两者兼顾,在处理速度和成本控制方面都有非常好的表现。 自从冯·诺依曼结构在上世界四十年代被提出之后,我们一直围绕着冯·诺依曼计算机和各种各样的计算机异构加速器进行研究,摩尔定律将要谢幕,我们正处于硅基和冯·诺伊曼时代的尾声。所以,我们应该考虑更深远的东西,为计算机的新的架构探索更深层次的理论。