立即下载 知乎日报 每日提供高质量新闻资讯

从 130nm 到 7nm,晶体管制造的技术是如何发展的?

图片:Yestone.com 版权图片库

半导体制程,经历了哪些重大的发展节点?

端点星,学生

这个回答的信息量有点大,供参考。

题主的问题是半导体制造的制程节点,那么也就是指所谓"XXnm"的节点的意思。这里面有多方面的问题,一是制造工艺和设备,一是晶体管的架构、材料。前者我完全不懂,所以不来献丑,后者有不少涉及到一些比较常识的问题,所以可以写一点,供大家参考指正。还有,晶体管的制造只是前端而已,集成电路的后端,包括互联等等,也是每个技术节点都会进步的一大课题,这部分我也完全不懂,所以不涉及。

下面的答案里仅仅讨论晶体管制造的技术节点。

首先回答技术节点的意思是什么。常听说的,诸如,台积电 16nm 工艺的 Nvidia GPU、英特尔 14nm 工艺的 i5,等等,这个长度的含义,具体的定义需要详细的给出晶体管的结构图才行,简单地说,在早期的时候,可以姑且认为是相当于晶体管的尺寸。

为什么这个尺寸重要呢?因为晶体管的作用,简单地说,是把电子从一端(S),通过一段沟道,送到另一端(D),这个过程完成了之后,信息的传递就完成了。因为电子的速度是有限的,在现代晶体管中,一般都是以饱和速度运行的,所以需要的时间基本就由这个沟道的长度来决定。越短,就越快。这个沟道的长度,和前面说的晶体管的尺寸,大体上可以认为是一致的。但是二者有区别,沟道长度是一个晶体管物理的概念,而用于技术节点的那个尺寸,是制造工艺的概念,二者相关,但是不相等。

在微米时代,一般这个技术节点的数字越小,晶体管的尺寸也越小,沟道长度也就越小。但是在 22nm 节点之后,晶体管的实际尺寸,或者说沟道的实际长度,是长于这个数字的。比方说,英特尔的 14nm 的晶体管,沟道长度其实是 20nm 左右。

这里就涉及到三个问题:

第一,为什么要把晶体管的尺寸缩小?以及是按照怎样的比例缩小的?

第二,为什么技术节点的数字不能等同于晶体管的实际尺寸?或者说,在晶体管的实际尺寸并没有按比例缩小的情况下,为什么要宣称是新一代的技术节点?

第三,如何缩小?也就是,技术节点的发展是怎样的?这也是题主所提的真正的问题。在这里我特质晶体管的设计和材料,前面已经说明过了。

下面尽我所能来回答,欢迎指正。

第一个问题,一部分的答案已经说了,因为越小就越快。这个快是可以直接翻译为基于晶体管的集成电路芯片的性能上去的。下面以微处理器 CPU 为例,首先上图,来源是 40 Years of Microprocessor Trend Data

这张图的信息量很大,这里相关的是绿色的点,代表 CPU 的时钟频率,越高当然越快。可以看出直到 2004 年左右,CPU 的时钟频率基本是指数上升的,背后的主要原因就是晶体管的尺寸缩小。

另外一个重要的原因是,尺寸缩小之后,集成度(单位面积的晶体管数量)提升,这有多个好处,一来可以增加芯片的功能,二来更重要的是,根据摩尔定律,集成度提升的直接结果是成本的下降。这也是为什么半导体行业 50 年来如一日地追求摩尔定律的原因,因为如果达不到这个标准,你家的产品成本就会高于能达到这个标准的对手,你家就倒闭了。

还有一个原因是晶体管缩小可以降低单个晶体管的功耗,因为缩小的规则要求,同时会降低整体芯片的供电电压,进而降低功耗。

但是有一个重要的例外,就是从物理原理上说,单位面积的功耗并不降低。因此这成为了晶体管缩小的一个很严重的问题,因为理论上的计算是理想情况,实际上,不仅不降低,反而是随着集成度的提高而提高的。在 2000 左右的时候,人们已经预测,根据摩尔定律的发展,如果没有什么技术进步的话,晶体管缩小到 2010 左右时,其功耗密度可以达到火箭发动机的水平,这样的芯片当然是不可能正常工作的。即使达不到这个水平,温度太高也会影响晶体管的性能。

事实上,业界现在也没有找到真正彻底解决晶体管功耗问题的方案,实际的做法是一方面降低电压(功耗与电压的平方成正比),一方面不再追求时钟频率。因此在上图中,2005 年以后,CPU 频率不再增长,性能的提升主要依靠多核架构。这个被称作“功耗墙”,至今仍然存在,所以你买不到 5GHZ 的处理器,4G 的都几乎没有。

以上是三个缩小晶体管的主要诱因。可以看出,都是重量级的提升性能、功能、降低成本的方法,所以业界才会一直坚持到现在。

那么是怎样缩小的呢?物理原理是恒定电场,因为晶体管的物理学通俗的说,是电场决定的,所以只要电场不变,晶体管的模型就不需要改变,这种方式被证明效果最佳,被称为 Dennard Scaling,提出者是 IBM。

电场等于电压除以尺寸。既然要缩小尺寸,就要等比降低电压。

如何缩小尺寸?简单粗暴:将面积缩小到原来的一半就好了。面积等于尺寸的平方,因此尺寸就缩小大约 0.7。如果看一下晶体管技术节点的数字:

130nm 90nm 65nm 45nm 32nm 22nm 14nm 10nm 7nm (5nm)

会发现是一个大约为 0.7 为比的等比数列,就是这个原因。当然,前面说过,在现在,这只是一个命名的习惯,跟实际尺寸已经有差距了。

第二个问题,为什么现在的技术节点不再直接反应晶体管的尺寸呢?

原因也很简单,因为无法做到这个程度的缩小了。有三个原因是主要的:

首先,原子尺度的计量单位是安,为 0.1nm。

10nm 的沟道长度,也就只有不到 100 个硅原子而已。晶体管本来的物理模型这样的:用量子力学的能带论计算电子的分布,但是用经典的电流理论计算电子的输运。电子在分布确定之后,仍然被当作一个粒子来对待,而不是考虑它的量子效应。因为尺寸大,所以不需要。但是越小,就越不行了,就需要考虑各种复杂的物理效应,晶体管的电流模型也不再适用。

其次,即使用经典的模型,性能上也出了问题,这个叫做短沟道效应,其效果是损害晶体管的性能。

短沟道效应其实很好理解,通俗地讲,晶体管是一个三个端口的开关。前面已经说过,其工作原理是把电子从一端(源端)弄到另一端(漏端),这是通过沟道进行的,另外还有一个端口(栅端)的作用是,决定这条沟道是打开的,还是关闭的。这些操作都是通过在端口上加上特定的电压来完成的。

晶体管性能依赖的一点是,必须要打得开,也要关得紧。短沟道器件,打得开没问题,但是关不紧,原因就是尺寸太小,内部有很多电场上的互相干扰,以前都是可以忽略不计的,现在则会导致栅端的电场不能够发挥全部的作用,因此关不紧。关不紧的后果就是有漏电流,简单地说就是不需要、浪费的电流。

这部分电流可不能小看,因为此时晶体管是在休息,没有做任何事情,却在白白地耗电。目前,集成电路中的这部分漏电流导致的能耗,已经占到了总能耗的接近半数,所以也是目前晶体管设计和电路设计的一个最主要的目标。

最后,制造工艺也越来越难做到那么小的尺寸了。

决定制造工艺的最小尺寸的东西,叫做光刻机。它的功能是,把预先印制好的电路设计,像洗照片一样洗到晶片表面上去,在我看来就是一种 bug 级的存在,因为吞吐率非常地高。否则那么复杂的集成电路,如何才能制造出来呢?比如英特尔的奔腾 4 处理器,据说需要 30 多还是 40 多张不同的设计模板,先后不断地曝光,才能完成整个处理器的设计的印制。

但是光刻机,顾名思义,是用光的,当然不是可见光,但总之是光。

而稍有常识就会知道,所有用光的东西,都有一个本质的问题,就是衍射。光刻机不例外。

因为这个问题的制约,任何一台光刻机所能刻制的最小尺寸,基本上与它所用的光源的波长成正比。波长越小,尺寸也就越小,这个道理是很简单的。

目前的主流生产工艺采用荷兰艾斯摩尔生产的步进式光刻机,所使用的光源是 193nm 的氟化氩(ArF)分子振荡器(这个名称记不清了)产生的,被用于最精细的尺寸的光刻步骤。

相比之下,目前的最小量产的晶体管尺寸是 14nm,已经有了 10 倍以上的差距。

有人问为何没有衍射效应呢?答案是业界十多年来在光刻技术上投入了巨资,先后开发了各种魔改级别的暴力技术,诸如浸入式光刻(把光程放在某种液体里,因为光的折射率更高,而最小尺寸反比于折射率)、相位掩模(通过 180 度反向的方式来让产生的衍射互相抵消,提高精确度),等等,可歌可泣,就这样一直撑到了现在,支持了 60nm 以来的所有技术节点的进步。

那又有人问,为何不用更小波长的光源呢?答案是,工艺上暂时做不到。

是的,高端光刻机的光源,是世界级的工业难题。

以上就是目前主流的深紫外曝光技术(DUV)。业界普遍认为,7nm 技术节点是它的极限了,甚至 7nm 都不一定能够做到量产。下一代技术仍然在开发之中,被称为极紫外(EUV),其光源降到了 13nm。但是别高兴地太早,因为在这个波长,已经没有合适地介质可以用来折射光,构成必须的光路了,因此这个技术里面的光学设计,全部是反射,而在如此高的精度下,设计如此复杂的反射光路,本身就是难以想象的技术难题。

这还不算(已经能克服了),最难的还是光源,虽然可以产生所需的光线,但是强度远低于工业生产的需求,造成 EUV 光刻机的晶圆产量达不到要求,换言之拿来用就会赔本。一台这种机器,就是上亿美元。所以 EUV 还属于未来。

有以上三个原因,其实很早开始就导致晶体管的尺寸缩小进入了深水区,越来越难,到了 22nm 之后,已经无法做大按比例缩小了,因此就没有再追求一定要缩小,反而是采用了更加优化的晶体管设计,配合上 CPU 架构上的多核多线程等一系列技术,继续为消费者提供相当于更新换代了的产品性能。

因为这个原因,技术节点的数字仍然在缩小,但是已然不再等同于晶体管的尺寸,而是代表一系列构成这个技术节点的指标的技术和工艺的总和。

第三个问题,技术节点的缩小过程中,晶体管的设计是怎样发展的。

首先搞清楚,晶体管设计的思路是什么。主要的无非两点:第一提升开关响应度,第二降低漏电流。

为了讲清楚这个问题,最好的方法是看图。晶体管物理的图,基本上搞清楚一张就足够了,就是漏电流 - 栅电压的关系图,比如下面这种:

横轴代表栅电压,纵轴代表漏电流,并且纵轴一般是对数坐标。

前面说过,栅电压控制晶体管的开关。可以看出,最好的晶体管,是那种能够在很小的栅电压变化内,一下子就从完全关闭(漏电流为 0),变成完全打开(漏电流达到饱和值),也就是虚线。这个性质有多方面的好处,接下来再说。

显然这种晶体管不存在于这个星球上。原因是,在经典的晶体管物理理论下,衡量这个开关响应能力的标准,叫做 Subthreshold Swing(SS,不是党卫军...),有一个极限值,约为 60,背后的原因就不细说了。

英特尔的数据上,最新的 14nm 晶体管,这个数值大概是 70 左右(越低越好)。

并且,降低这个值,和降低漏电流、提升工作电流(提高速度)、降低功耗等要求,是等同的,因为这个值越低,在同样的电压下,漏电流就越低。而为了达到同样的工作电流,需要的电压就越低,这样等同于降低了功耗。所以说这个值是晶体管设计里面最重要的指标,不过分。

围绕这个指标,以及背后的晶体管性能设计的几个目标,大家都做了哪些事情呢?

先看工业界,毕竟实践是检验真理的唯一标准。下面是我的记忆,和节点的对应不一定完全准确,但具体的描述应该没错:

65nm 引入 Ge strain 的沟道。

strain 我不知道如何翻译成中文词汇,但是其原理是通过在适当的地方掺杂一点点的锗到硅里面去,锗和硅的晶格常数不同,因此会导致硅的晶格形状改变,而根据能带论,这个改变可以在沟道的方向上提高电子的迁移率,而迁移率高,就会提高晶体管的工作电流。而在实际中,人们发现,这种方法对于空穴型沟道的晶体管,比对电子型沟道的晶体管,更加有效。

45nm 引入了高 k 值绝缘层 / 金属栅极的配置。

这个也是一个里程碑的成果,我在念书的时候曾经有一位帮他搬过砖的教授,当年是在英特尔开发了这项技术的团队的主要成员之一,因此对这一点提的特别多,耳濡目染就记住了。

这是两项技术,但其实都是为了解决同一个问题:在很小的尺寸下,如何保证栅极有效的工作。

前面没有细说晶体管的结构,下面补一张图:

这是一个最基本的晶体管的结构示意图,现在的晶体管早就不长这样了,但是任何半导体物理都是从这儿开始讲起的,所以这是“标配版”的晶体管,又被称为体硅(bulk)晶体管。

gate 就是栅。

其中有一个 oxide,绝缘层,前面没有提到,但是却是晶体管所有的构件中,最关键的一个。它的作用是隔绝栅极和沟道。因为栅极开关沟道,是通过电场进行的,电场的产生又是通过在栅极上加一定的电压来实现的,但是欧姆定律告诉我们,有电压就有电流。如果有电流从栅极流进了沟道,那么还谈什么开关?早就漏了。

所以需要绝缘层。为什么叫 oxide 而不叫 insulator 呢?因为最早的绝缘层就是和硅非常自然地共处的二氧化硅,其相对介电常数(衡量绝缘性的,越高,对晶体管性能来说,越好)约是 3.9。一个好的绝缘层是晶体管的生命线,这个“好”的定义在这里不多说了,但是要说明,硅天然就具有这么一个性能超级好的绝缘层,对于半导体工业来说,是一件有历史意义的幸运的事情。有人曾经感慨,说上帝都在帮助人类发明集成电路,首先给了那么多的沙子(硅晶圆的原料),又给了一个完美的自然绝缘层。所以至今,硅极其难被取代,一个重要原因就是,作为制造晶体管的材料,其综合性能太完美了。

二氧化硅虽好,在尺寸缩小到一定限度时,也出现了问题。别忘了缩小的过程中,电场强度是保持不变的,在这样的情况下,从能带的角度看,因为电子的波动性,如果绝缘层很窄很窄的话,那么有一定的几率电子会发生隧穿效应而越过绝缘层的能带势垒,产生漏电流。可以想象为穿过一堵比自己高的墙。这个电流的大小和绝缘层的厚度,以及绝缘层的“势垒高度”,成负相关。因此厚度越小,势垒越低,这个漏电流越大,对晶体管越不利。

但是在另一方面,晶体管的开关性能、工作电流等等,都需要拥有一个很大的绝缘层电容。实际上,如果这个电容无限大的话,那么就会达到理想化的 60 的那个 SS 指标。这里说的电容都是指单位面积的电容。这个电容等于介电常数除以绝缘层的厚度。显然,厚度越小,介电常数越大,对晶体管越有利。

那么可以看出,这里已经出现了一对设计目标上的矛盾,那就是绝缘层的厚度要不要继续缩小。实际上在这个节点之前,二氧化硅已经缩小到了不到两个纳米的厚度,也就是十几个原子层的厚度,漏电流的问题已经取代了性能的问题,成为头号大敌。

于是聪明绝顶的人类开始想办法。人类很贪心的,既不愿意放弃大电容的性能增强,又不愿意冒漏电的风险。于是人类说,如果有一种材料,介电常数很高,同时能带势垒也很高,那么是不是就可以在厚度不缩小的情况下(保护漏电流),继续提升电容(提高开关性能)呢?

于是大家就开始找,用几乎暴力的方法,找了许多种奇奇怪怪的材料,终于最后经过验证,确定使用一种名为 HfO2 的材料。这个元素我以前听都没有听过,中文念什么我都说不上来。就是这么牛。这个就叫做 high-k,这里的 k 是相对介电常数(相对于二氧化硅的而言)。

当然,这个工艺的复杂程度,远远超过这里描述的这么简单。具备 high-k 性质的材料很多,但是最终被采用的材料,一定要具备许多优秀的电学性质,因为二氧化硅真的是一项非常完美的晶体管绝缘层材料,而且制造工艺流程和集成电路的其它制造步骤可以方便地整合,所以找到这样一项各方面都符合半导体工艺制造的要求的高性能绝缘层材料,是一件了不起的工程成就。

至于金属栅,是与 high-k 配套的一项技术。在晶体管的最早期,栅极是用铝制作,后来经过发展,改用重掺杂多晶硅制作,因为工艺简单,性能好。到了 high-k 这里,大家发现,high-k 材料有一个副作用,就是会莫名其妙地降低工作电流。这个原理不细说了,但是跟它内部的偶极子分布有关。

于是人类又想,就想到了用金属做栅极,因为金属有一个效应叫做镜像电荷,可以中和掉 high-k 材料的绝缘层里的偶极子对沟道的影响。这样一来就两全其美啦。至于这种或这几种金属究竟是什么,很抱歉,除了掌握技术的那几家企业之外,外界没有人知道,是绝对的商业机密。

于是摩尔定律再次胜利。

32nm 第二代的 high-k 绝缘层 / 金属栅工艺。

因为 45nm 英特尔取得了巨大的成功(在很多晶体管、微处理器的发展图上,45nm 这一代的晶体管,会在功耗、性能等方面突然出现一个较大的进步折线),32nm 时候继续在基础上改换更好的材料,继续了缩小尺寸的老路。当然,前代的 Ge strain 工艺也是继续使用的。

22nm FinFET(英特尔成为 Tri-gate),三栅极晶体管。

这一代的晶体管,在架构上进行了一次变革。变革的最早设计可以追溯到伯克利的胡正明教授 2000 左右提出的三栅极和环栅晶体管物理模型,后来被英特尔变为了现实。

FinFET 一般模型长这样。它的实质上是增加了一个栅极。

为什么要这么做呢?直观地说,如果看回前面的那张“标配版”的晶体管结构图的话,在尺寸很短的晶体管里面,因为短沟道效应,漏电流是比较严重的。而大部分的漏电流,是通过沟道下方的那片区域流通的。沟道在图上并没有标出来,是位于氧化绝缘层以下、硅晶圆表面的非常非常薄(一两个纳米)的一个窄窄的薄层。沟道下方的区域被称为耗尽层,就是大部分的蓝色区域。

于是有人就开始想啊,既然电子是在沟道中运动,那么我为何非要在沟道下面留有这么一大片耗尽层呢?当然这是有原因的,因为物理模型需要这片区域来平衡电荷。但是在短沟道器件里面,没有必要非要把耗尽层和沟道放在一起,等着漏电流白白地流过去。

于是有人(IBM)开了一个脑洞:把这部分硅直接拿掉,换成绝缘层,绝缘层下面才是剩下的硅,这样沟道就和耗尽层分开了,因为电子来源于两极,但是两极和耗尽层之间,被绝缘层隔开了,这样除了沟道之外,就不会漏电啦。比如这样:

这个叫做 SOI(绝缘层上硅),虽然没有成为主流,但是因为有其优势,所以现在还有制造厂在搞。

于是有人(英特尔)又想了,既然都是拿掉耗尽层的硅,插入一层氧化层,那么为什么非要放上一堆没用的硅在下面,直接在氧化层底下,再弄一个栅极,两边夹着沟道,岂不是更爽?你看你 IBM,就是没雄心。

但是英特尔还觉得不够,又想,既然如此,有什么必要非得把氧化层埋在硅里面?我把硅弄出来,周围三明治一样地包裹上绝缘层,外面再放上栅极,岂不是爽爆?

于是就有了 FinFET,上面这种。FinFET 牛逼的地方在于,不仅大大降低了漏电流,而且因为有多一个栅极,这两个栅极一般都是连在一起的,因此等于大大地增加了前面说过的那个绝缘层电容,也就是大大地提升了晶体管的开关性能。所以又是一次革命式的进步。

这个设计其实不难想到,难的是,能够做到。为什么呢?因为竖起来的那一部分硅,也就是用作沟道的硅,太薄了,只有不到 10 个纳米,不仅远小于晶体管的最小尺寸,也远小于最精密的光刻机所能刻制的最小尺寸。于是如何把这个 Fin 给弄出来,还得弄好,成了真正的难题。

英特尔的做法是很聪明的,解释起来需要很多张工艺流程图,不多说,但是基本原理是,这部分硅不是光刻出来的,而是长出来的。它先用普通精度的光刻刻出一堆“架子,然后在沉淀一层硅,在架子的边缘就会长出一层很薄的硅,然后再用选择性的刻蚀把多余的材料弄走,剩下的就是这些立着的、超薄的硅 fin 了。当时我听说这套方法的时候,彻底跪了,这智商太碾压人了。

14nm 继续 FinFET。下面是英特尔的 14nm 晶体管的 SEM 横截面图,大家感受一下,fin 的宽度只有平均 9nm:

当然了,在所有的后代的技术节点中,前代的技术也是继续整合采用的。所以现在,在业界和研究界,一般听到的晶体管,都被称作 high-k/metal gate Ge-strained 14 nm FinFET,整合了多年的技术精华。

而在学术界,近些年陆续搞出了各种异想天开的新设计,比如隧穿晶体管啦,负电容效应晶体管啦,碳纳米管啦,等等。

所有这些设计,基本是四个方向,材料、机理、工艺、结构。而所有的设计方案,其实可以用一条简单的思路概括,就是前面提到的那个 SS 值的决定公式,里面有两项相乘组成,因此,改进要么是改善晶体管的静电物理(electrostatics),这是其中一项,要么改善沟道的输运性质(transport),这是另一项。

而晶体管设计里面,除了考虑开关性能之外,还需要考虑另一个性能,就是饱和电流问题。很多人对这个问题有误解,以为饱不饱和不重要,其实电流能饱和才是晶体管能够有效工作的根本原因,因为不饱和的话,晶体管就不能保持信号的传递,因此无法携带负载,换言之只中看,不中用,放到电路里面去,根本不能正常工作的。

举个例子,有段时间石墨烯晶体管很火,石墨烯作沟道的思路是第二项,就是输运,因为石墨烯的电子迁移率远远地完爆硅。但直到目前,压根没有人鸟石墨烯晶体管,因为石墨烯有个硬伤,就是不能饱和电流。

 

希望以上部分回答了题主的问题。

在去年的 IEDM 会议上,台积电已经领先英特尔,发布了 7nm 技术节点的晶体管样品,而英特尔已经推迟了 10nm 的发布。当然,两者的技术节点的标准不一样,台积电的 7nm 其实相当于英特尔的 10nm,但是台积电率先拿出了成品。三星貌似也在会上发表了自己的 7nm 产品。

可以看出,摩尔定律确实放缓了,22nm 是在 2010 左右出来的,到了现在,技术节点并没有进步到 10nm 以下。而且去年,ITRS 已经宣布不再制定新的技术路线图,换言之,权威的半导体国际机构已经不认为,摩尔定律的缩小可以继续下去了。

这就是技术节点的主要现状。

技术节点不能进步,是不是一定就是坏事?其实不一定。28nm 这个节点,其实不属于前面提到的标准的 dennard scaling 的一部分,但是这个技术节点,直到现在,仍然在半导体制造业界占据了很大的一块市场份额。台积电、中芯国际等这样的大代工厂,都是在 28nm 上玩得很转的。为何呢?因为这个节点被证明是一个在成本、性能、需求等多方面达到了比较优化的组合的一个节点,很多芯片产品,并不需要使用过于昂贵的 FinFET 技术,28nm 能够满足自己的需求。

但是有一些产品,比如主流的 CPU、GPU、FPGA、memory 这些,其性能的提升有相当一部分来自于工艺的进步。所以再往后如何继续提升这些产品的性能,是很多人心中的问号,也是新的机会。

扫描二维码下载知乎日报

支持 iOS 和 Android
二维码下载知乎日报
阅读更多 腾讯游戏做得好,一半是自己努力,一半要感谢同行衬托 下载 「知乎日报」 客户端查看更多