IEDM论文巡礼:新兴半导体器件将成为AI支柱

2020-01-20
14:00:03
来源: 半导体行业观察


IEDM(国际电子器件会议)是半导体器件领域最顶尖的会议。最近

IEDM

在美国旧金山召开,汇聚了来自全球的顶尖研究成果。本届

IEDM

的主题是“智能时代的新型器件”,可见人工智能应用已经成为了半导体行业的重要推动力。同时,我们在本届

IEDM

也看到了众多与人工智能相关的器件研究成果。


IEDM论文巡礼:新兴半导体器件将成为AI支柱





摩尔定律还在延续






每届IEDM大家最关心的都是摩尔定律是否还能延续。在今年的

IEDM

上,

TSMC

首先正式发布了下一代

5nm

工艺。

TSMC



5nm

工艺技术平台将继续使用

FinFET

,并且广泛使用

EUV

技术。与

7nm

相比,

TSMC



5nm

工艺的逻辑门密度将提升

1.84

倍,速度提升

15%

,功耗降低

30%

。另外,由于大量使用了

EUV

技术,

TSMC 5nm

使用的掩膜数量将会比

7nm

技术要少。



从TSMC发布的

5nm

工艺性能来看,其相比

7nm

的主要提升在于逻辑密度,而提升最小的是逻辑速度。我们认为类似的趋势将会在接下来的半导体工艺节点演进中继续下去,即工艺节点演进主要提升逻辑门密度,而逻辑门速度的增加将会趋于饱和。因此,半导体芯片未来的性能提升对于半导体工艺节点的依赖度会越来越低,而更多是要依靠芯片结构设计。



IEDM论文巡礼:新兴半导体器件将成为AI支柱


此外,ASML和

Intel

也在本届

IEDM

上发布了未来的技术演进路线。作为光刻机领域的领军企业,

ASML

公布了其未来的高数字孔径(

0.55NA

)光刻机计划,同时还发布了其与

Intel

的合作开发下一代半导体技术的计划。在公布的计划中,

Intel

预计会在

2021

年开始

7nm

技术,同时

Intel



5nm

技术目前正在规格定义阶段,而

3nm

技术正在技术探索阶段。

Intel

预计将于

5nm

节点引入

GAA



gate-all-around

)器件。而

Intel

方面则发布了其在

STT

存储器、

SOT-MRAM

、铁电存储器、

3D

封装等领域的技术发展规划。

Intel

对于摩尔定律的延续显得信心满满,在

IEDM

的主题演讲中表示“摩尔定律的未来一片光明”。









内存内计算









IEDM中,内存内计算得到了非常多的关注。




内存内计算在IEDM得到关注的原因有多方面。首先,

IEDM

作为一个器件方面的会议,与人工智能结合的方向必须和器件紧密相关,而新的存储器是一个能兼顾器件创新和应用创新的方向。其次,存储器的瓶颈已经成为人工智能计算中的重要瓶颈。在芯片上放大量的计算单元来提高峰值算力是很简单的,但是如何保证随时都有足够的数据能送入计算单元来保证计算单元不会一直处于闲置状态则要困难得多。现有的存储器无论是数据带宽还是数据传送的能效比来说都不尽如人意,因此如果能在存储器件上有所创新,则能够大大改善人工智能计算的性能和效率。最后,新的存储器特性甚至能开启新的人工智能计算架构。例如,模仿生物大脑工作方式并能大大提升人工智能计算能效比的神经模态计算中需要用到忆阻器的特性,因此拥有忆阻器特性的新存储器也成为了内存内计算的重要研究方向。






本届

IEDM

中,有至少四个会议议程与内存内计算直接相关,分别是“



Session 6 – Emerging Device and Compute Technology – Neuromorphic Session I-Device Focus


”(神经模态内存内计算器件方向),“


Session 14 – Emerging Device and Compute Technology – Neuromorphic Session II-Architecture Focus


”(神经模态内存内计算架构方向),“


Session 22 – Memory Technology/Emerging Device and Compute Technology – Focus Session: Emerging




AI Hardware


”(常规神经网络内存内计算架构方向)和“


Session 38 – Memory Technology – Memory for Neural Network


”(常规神经网络内存内计算器件方向)。



在神经模态方向中,我们看到了多种新的用作神经模态计算中模仿神经元和神经突触的器件。在人类大脑中,神经网络中包含大量的神经元和神经突触,一个神经元接收脉冲电荷并改变神经元的内部的电势能,当神经元电势能超过一定阈值后将会发射出脉冲,该脉冲一方面清空了发射脉冲神经元内部的电势,另一方面该脉冲会沿着神经突触进入其他神经元,并在其他神经元中积累电荷改变电势能,如此反复。大量神经元和突触之间形成的网络就是神经网络,而脉冲可以认为是神经元之间传递信息的方法。神经模态计算的架构就是模仿生物神经元的工作方法,因此神经模态计算中也需要用能够实现类似功能的神经元和神经突触。实现这些神经元和神经突触最直接的办法是使用数字电路去做数学上等价的电路(例如IBM的

True North

),但是代价太大,能效比很难改善。因此,最终极的解决方案就是利用新的半导体器件来真正模拟神经元和神经突触的工作。忆阻器,作为四种基本电子器件中最后一种被实现的器件(其他的电阻、电容和电感早已被发现且实用化,而忆阻器则是近十年才由

HP Labs

实现),恰恰能实现神经突触的性质,也因此成为了器件领域和人工智能计算结合最热门的方向之一。今年的

IEDM

中,我们就看到了不少用

Crossbar

来做忆阻器实现神经模态计算的论文,且今年的器件关键词还包括了基于铁电的器件,铁电器件不仅可以实现突触,还可以实现神经元,且基于铁电的存储器拥有能效比高且面积紧凑的优点,因此我们在这次的

IEDM

上看到了来自北京大学、清华大学、普渡大学、台湾国立交通大学等多个研究机构关于铁电器件做神经模态的研究。



在常规深度学习的内存内计算相关的议程中,我们看到了Flash和

RRAM

等新存储器用作内存内计算的研究。在今年的

IEDM

上,一个重要的风向是有越来越多的研究开始关注多比特内存内计算。在之前,内存内计算往往针对精度只有

1-bit



binary neural network

,这类神经网络的特点是能效比很高,很适合存储器设计,但是问题是神经网络的准确度会受到计算精度的影响。随着多比特内存内计算的研究出现,我们认为内存内计算在这个时间节点距离真正应用越来越近了。







模拟计算






在IEDM上,另一个器件与人工智能结合的方向是模拟计算。与传统的数字逻辑计算不同,模拟计算处理的是连续的模拟信号,其操作原理也会与器件的原理更紧密结合。



在IEDM今年关于模拟计算的论文中,有两篇论文具有很大的影响力。一篇是来自比利时





IMEC


和鲁汶天主教大学的《


Towards 10000





TOPS/W


DNN Inference with Analog In-Mem Computing



》,该论文提出了一条实现

10000 TOPS


/W


模拟计算能效比的路线图。



如果算上ADC/

DAC

等数据转换的开销,该论文认为内存内模拟计算仍然能实现

10

倍于数字计算的能效比。


IEDM论文巡礼:新兴半导体器件将成为AI支柱


在论文中,作者探讨了几种可能实现超高内存内模拟计算能效比的新存储器器件,包括SOT MRAM,

IGZO 2T1C DRAM



PCM

等等。在计算数值精度的选择上,作者使用了

2-bit

精度,并认为该精度已经足够大部分使用(

ResNet-50

神经网络上相比全精度的准确率损失为

2.9%

)。作者同时设计了一个基于脉宽调制的多比特数值表示方案。在一系列关于存储器读写能量和模数








数模转换的合理假设下,作者认为该方案可以实现


10000 TOPS



/W


的能效比,从而大大超越基于数字逻辑的计算方案。



在具体的存储器实现方式上,作者认为SOT MRAM,

IGZO 2T1C DRAM



PCM

都是合理的存储器实现方案。



另外一篇重要的论文则是来自于MIT的

Vivienne Sze

研究组,该研究组可以说是卷积神经网络的开山始祖,

2016

年发表在

ISSCC

上的

Eyeriss

芯片成为了人工智能芯片的里程碑式研究。在本届

IEDM

中,

Vivienne Sze

从网络和硬件效率的角度分析了模拟计算和内存内计算设计需要考虑的要点。首先,由于模拟计算对于噪声相对于数字计算更敏感,因此在网络设计的时候也必须考虑到这一点。考虑到噪声的影响,事实上经典的

VGG16

网络的精度甚至要好于新一代的神经网络,这可能要归功于

VGG16

的设计中网络层宽度较大,因此存在的冗余较多,对于噪声也较不敏感。另外,对于内存内计算,由于内存内计算的计算阵列往往较大,因此需要每层网络的计算量够大才能保证充分利用内存内计算的计算资源。因此,

Vivienne Sze

的研究表示,考虑到模拟计算对于噪声的鲁棒性以及内存内计算的硬件利用率,最适合内存内模拟计算的神经网络应该是网络较宽,而层数较少的设计。这事实上与现在神经网络设计逐渐较少宽度而增加深度的潮流并不一致,因此我们认为如果内存内模拟计算成为主流硬件解决方案,那么在网络模型设计上还要专门做一些优化来满足硬件的一系列特性。


IEDM论文巡礼:新兴半导体器件将成为AI支柱




Vivienne Sze的这一论文从网络模型的角度探讨了内存内模拟计算。因此,在这次的

IEDM

上,我们看到了从器件层、从电路层和从模型层多个层次对于内存内模拟计算的研究和探讨,我们也认为随着这些研究更深入,内存内模拟计算将距离实用越来越近,最终正式走入真正的电子产品中。



*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第2195期内容,欢迎关注。

推荐阅读




EDA发展历史及现状




美国是如何将华为拒之门外的




CMOS图像传感器厂商开辟新战场


半导体行业观察

IEDM论文巡礼:新兴半导体器件将成为AI支柱



半导体第一垂直媒体




实时 专业 原创 深度


识别二维码


,回复下方关键词,阅读更多

半导体股

|AI|台积电

|华为



晶圆



CMOS|AMD|2019半导体盘点


回复

投稿

,看《如何成为“半导体行业观察”的一员 》

回复

搜索

,还能轻松找到其他你感兴趣的文章!

原创文章,作者:admin,如若转载,请注明出处:http://www.eefans.com/archives/297

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注