2030半导体前沿技术研究系列:模拟芯片设计和智能传感器
作者:顾正书
EET电子工程专辑原创
ASPENCORE《电子工程专辑》分析师团队基于美国半导体行业协会(SIA)与半导体研究公司(SRC)联合发布的《半导体10年计划》报告,挑选出下一个十年的五大半导体前沿技术研究方向,汇编为《2030半导体前沿技术研究系列》专题。本文聚焦于模拟电子设计和智能传感技术,主要分为如下部分:
下一个十年半导体技术挑战和研究方向
模拟电子基础
模拟ICT系统
智能传感器
太赫兹和光电领域的模拟技术
边缘端的模拟机器学习
模拟芯片设计工具和方法论
下一个十年半导体技术挑战和研究方向
现代信息和通信技术 (ICT)系统的软硬件 (HW-SW)协同使得计算无处不在,这得益于企业、大学和科研机构的不断创新,涉及半导体材料、结构和器件的研究;电路设计和系统架构;算法、软件和应用的协同优化。半导体技术是一种跨学科领域的研究和创新,涉及电气工程、机械工程、计算机工程和科学、神经科学、物理、化学、生物和材料科学等。
进入21世纪的第二个十年,ICT和半导体行业面临着前所未有的挑战,主要在于很多沿袭多年的半导体技术接近极限,硅材料、CMOS工艺、物理传感器,以及摩尔定律等。长期可持续的 ICT行业发展将依赖于半导体技术的颠覆性突破,以解决系统、架构、电路、器件结构及相关半导体材料和制造工艺所面临的各种瓶颈问题。为此,美国半导体行业协会(SIA)与半导体研究公司(SRC)联合发布了《半导体10年计划》报告,识别出五大半导体技术研究方向,分别是:
模拟:模拟硬件的根本性突破以实现物理世界与机器交互的智能感知、认知和处理。
存储:创新的数据存储和处理方案来满足指数级增长的海量数据处理需求。
通信:始终联网的通信需要新的技术研究方向来解决通信容量与数据增长不匹配的问题。
安全:高度依赖的互联系统和人工智能需要硬件层面的安全保障。
能效:不断增长的计算应用需要高效能的功率器件和电源管理技术。
模拟电子基础
我们所处的物理世界是模拟的,比如通过视觉、听觉、嗅觉和触觉来感知世界。模拟电路是涉及连续函数形式模拟信号的电子电路,与之相对的是数字电路(通常只关注0和1两个逻辑电平)。“模拟”二字主要指电压(或电流)对于真实信号成比例的再现,模拟电路可以对模拟信号执行放大、滤波、限幅等操作。模拟电子包括物理世界感应和交互、计算、控制、数据转换、通信、供电和测量等环节。
与数字电路相比,模拟电路有如下劣势和挑战:
噪声。在模拟电路中,由于信号几乎完全将真实信号按比例表现为电压或电流的形式,它对噪声比数字电路更加敏感,信号的微小偏差都会表现为相当显著,造成信息损失。而对信息进行量化的数字电路对于噪声的抵御能力比模拟电路要强,只要偏差不大于某一规定值,信息就不会损失。
精度。有很多因素会影响信号的精度,其中最主要的是原始信号中的噪声以及信号处理过程中混入的噪声。模拟信号的分辨率受到器件物理层面限度(例如散粒噪声)的制约。在数字电路中,可以采用增加信号的位数(例如8位分辨率的模数转换器能够将其量程分为8段,其中每一段作为最小分度进行转换)来提高数字信号的分辨率,转换位数是模数转换器(ADC)的一项关键参数。
设计的难度。模拟电路的设计通常比数字电路更为困难,对设计人员的技术水平要求更高。模拟电路通常需要更多的手工操作,其设计过程的自动化程度低于数字电路。然而,数字电子设备要在真实物理世界中得到应用,就必须具有模拟接口,因为自然界的大多数实际信号是模拟的。
针对模拟电子的技术挑战和未来突破方向,SRC邀请来自ADI、TI、NXP、斯坦福大学、加州大学圣塔芭芭拉分校(UCSB)和太平洋西北国家实验室的技术专家进行了在线圆桌讨论。笔者通过ZOOM参加了这场技术论坛,现汇总出来供感兴趣的朋友了解和学习。
在模拟电子领域,有五个研究方向值得我们关注,下面我们逐一介绍。
模拟ICT系统
2016年,传感器采集的数据量已经超过人类能够消耗和处理的数据量。预计到2032年全世界将有45万亿个传感器,采集数据量约为10^20 bit/s,而全部人类可以感应的数据量约为10^17 bit/s。我们的大脑对数据的消化和处理速度只有100bps,专家认为传感器采集的数据需要100,000:1的压缩率才能被人类大脑认知和推理,并从中获取有价值的信息。
一个根本性问题是,模拟电子的创新如何能够帮助当今先进的计算和信息处理系统。这不但要求优良的器件性能、高效的信号处理和电路结构,而且要保持能耗与高增益和低噪声等高精度性能指标的优化平衡。
模拟ICT系统的未来应用研究方向包括:为6G无线网络、数据中心和远程医疗提供更高的带宽;需要更快模数转换器的宽带雷达波束形成器等。例如,未来的模拟设计迭代将在三个方面进行。首先是更好的模数转换,它可以采用过采样和量化技术绕过带宽受限的模拟信号问题。二是通过压缩采样(CS)将稀疏模拟信号中的信息转换为数字数据。三是在机器学习的帮助下,对模拟信号进行特征提取。
对更高存储密度和能效的存储器的应用需求驱动着超大规模系统集成(VLSI)中3D结构的发展。下图示出了存储器晶体管结构从FinFET向GAA结构的转变。
77GHz毫米波雷达在汽车应用中越来越普及,基于DRM的汽车雷达系统需要GHz级别的ADC进行超高速信号处理,而目前主流的DRM收发器采用28nm工艺制造,其性能受到工艺技术的限制。如果能够采用更先进的16nm工艺来生产,就可以获得所期望的ADC性能。目前这一细分领域的研究大都是针对具体应用领域,难以达到大规模生产的经济效益。
电子设备的普及对功率器件和电源管理技术也提出了更高要求,增加功率密度和降低损耗一直是这一领域的技术研究方向。氮化镓 (GaN) 器件具有低栅极电容和低导通电阻,从而可以减少栅极能量损耗。在无线通信传输和自动驾驶应用中,利用氮化镓器件和包络跟踪技术可以提高电源转换器的效率、减少散热,从而降低能源浪费。现在,通过各种集成和封装技术,可以让GaN 器件的集成度更高,比如单片栅极驱动器和开关、片上电源系统(PowerSoC),以及封装电源系统 (PowerSiP) 等。
智能传感器:从感应到行动
大部分传感器都是从物理世界接收模拟输入信号,要将这些信号数字化就会产生大量原始数据。要解决的问题在于如何、何时与何地处理这些数据,以获取有用信息、识别模式、做出决策,并采取行动。
针对这些海量数据,需要考虑两个关键问题:1. 消化和有效利用这些来自传感器的数据以用于智能社会;2. 有效地处理数据以便采取适当的行动。要生成可行的输出结果,就需要系统知识,而且要为所有系统组件添加智能元素,从传感器本身到模拟信号处理,以及可能的模拟和数字域神经处理。
来自UC Berkeley的Jan Rabaey认为我们可以借鉴人体的互联网络和计算模型来构建分布式智能,比如Internet of Actions。本地和分布式处理具有低延迟、高能效、安全/隐私保护、稳固,以及高度自治等优势。这种模式类似人体模型和其它生物形态系统,虽然是分层式的,但却通过多种反馈路径与控制系统紧密相连。这种感应模式的关键是只传输必要的信息,尽可能慢地发送,而且尽量在本地处理。因为通信成本很高,这样在本地处理就可以大大降低处理成本。
来自高通的Rashid Attar展示了一个高度集成的物联网SoC设计示意图,这是针对可穿戴设备的设计,对尺寸和功耗都有很严格的要求。这种集成的视觉传感器和处理器需要“always on”,可以分担主处理器的负载任务,从而可以节省能效。该设计所需要的关键技术包括专为低功耗和目标检测而定制的ML加速器,以及NVM和存内计算等。
从感应到行动的系统流程示意图如下所示,所面临的挑战包括:
万亿级的传感器会产生大量冗余和无用的数据;
云端平台不是解决办法,因为通信是瓶颈,没有足够的电能来处理这些冗余数据,对于本地控制和行动来说延迟太长;
智能传感器需要本地驱动和及时行动。
要关注的研究方向包括:
智能传感器和传感融合—多传感器分布式智能
应用和系统知识的研究
分层和分布式优化
通用性模拟技术的研发—可以应用到其它领域
系统优化方法—跨越传感器、模拟处理、数字处理、ML和检测等技术领域。
太赫兹和光电领域的模拟技术
频率范围从300 GHz到3 THz及以上的电磁波被归类为太赫兹波,其短波长有很多优势可以利用。对通信来说,可以实现更好的空间多路复用和并行信道处理。尤其重要的是,这一频段的超大带宽可用于无线有线通信。对成像应用,可以获得更高的空间分辨率,实现穿墙成像、非破坏性制造缺陷检测、以及在视线不好的环境中实现自动驾驶/导航。但是,高频会引起很多问题,包括器件、互联、功耗、线性度、噪声,以及天线接口、封装、干扰和信号处理等。太赫兹领域的模拟技术研究专注于模拟器件、电路和系统方案,主要包括如下几个方面:
太赫兹芯片和应用。CMOS芯片在100 GHz 到2-3 THz的高频阶段就难以正常工作了,其它材料构建的晶体管研究成为热门,比如SiGe, InP HBT, InP HEMT和GaN。
面向太赫兹成像、感应和通信应用的CMOS平台。要用CMOS技术实现高性能太赫兹电路确实比较困难,采用45nm工艺制造的NMOS晶体管的最高单位电流增益频率(ft)约为280GHz,而其最大单位功率增益频率(fmax)约为320GHz。晶体管顶部金属层的互联会大大降低性能,因为会引入寄生电容、电阻和电感。即便如此,肖特基二极管和MOS变容二极管等器件的非线性特性仍然可以在太赫兹频段使用。
汽车和工业雷达。工作于77GHz频段的汽车雷达的高分辨率现已集成进自动驾驶控制算法,可用于实现盲点检测(BSD)、自适应巡航(ACC)、换道辅助(LCA)、横穿交通告警(CTA),以及自动紧急刹车(AEB)等。虽然高频可以实现小尺寸和高分辨率,但却会降低信噪比(SNR),对输出功率、天线增益和噪声系数等指标都有负面影响。
模拟波束成形天线。5G模拟波束成形天线阵列必须准确设计,以确保从中心馈送点到每个天线的相位和损耗都相同。这就要求必须评估毫米波通信是否值得采用这些相位密集的阵列。相关的技术挑战还有IC制造、测试和封装。
边缘端的模拟机器学习
虽然机器学习将成为提高系统计算性能和运行更复杂算法的主要驱动力,但也将极大增加系统设计的复杂度,机器消耗的电能也会随之上升。例如,神威·太湖之光超级计算机可以获得高达93 petaflops(千万亿次浮点运算)的性能,但却要消耗15371 兆瓦(MW)电能,足够为一座小镇供电了。与此相反,人类大脑却是一种最为高效的计算系统,只需要消耗20W的电能就能获得38 petaflops的计算性能。大脑复杂的结构带有相互交织的记忆单元,可以极为简单的模拟和数字操作形式进行“计算”。因此,在边缘进行训练可以适应本地情况,带来能效、速度和面积等好处。
模拟存储的存内计算技术是边缘计算的主要研究方向。由于通信带宽的局限和安全/隐私的担忧,不能将所有数据都传送到云端,边缘计算可以直接分析传感器在各种边缘位置采集的数据。这些来自传感器的数据在被处理之前必须经过ADC转换,在边缘端利用模拟技术进行机器学习可以解决能效、设计复杂度和尺寸受限等问题。例如,在边缘端进行AI推理可以大大压缩被送往下游的信息量,而边缘端的AI训练也可以带来很多新的功能特性,比如实时适应本地条件,从而大大降低能耗,并极大提升数据传输和处理速度。
任何类脑神经网络,甚至许多机器学习的主要运算就是向量矩阵乘法 (VMM)。这样的操作可以使用模拟电路非常有效地实现,其实就是利用基本的欧姆定律和基尔霍夫定律。这个电路的主要组成就是一个模拟存储单元,它具有可调节的电导率G,用于交叉开关阵列的每个交叉点,可以模仿生物突触。基于这种密集型模拟存储单元的VMM电路可以做到非常紧凑,
达到卓越的速度和能源效率。此外,这种模拟VMM 电路还可以在芯片上就地存储所有数据,从而大大减少数据通信开销。目前典型的数字系统都需要频繁地将数据移入和移出片外存储器,因此许多机器学习/神经拟态计算既是计算密集型的,又是数据密集型的。
如图所示,这种特定的“电流模式”模拟VMM电路可以根据瞬时电压和电流幅值对输入和输出进行编码。其他实现方式还有时序模式的VMM 电路,可以按照固定幅度电压脉冲的持续时间对输入和输出进行编码。
模拟芯片设计工具和方法论
过去半个世纪来,得益于EDA和IP的发展,容纳数十亿晶体管的高性能数字芯片得已实现。然而,模拟芯片和模拟-混合信号(AMS)器件的设计流程(从电路示意图、物理布局、到验证和测试)仍停留在多年前的水平。虽然AMS布局的自动化和计算能力提升了AMS设计的效率,但在抽象和效率方面仍无法跟数字芯片设计相提并论。在复杂的混合芯片IC设计中,AMS模块总是拖延滞后的环节。因此,模拟设计工具技术的研究方向应着重以下方面:
大部分AMS设计都采用65nm工艺,但这些电路设计已经不再有效。要验证和仿真最新的AMS电路,就需要升级到更小的工艺节点(10nm或更小),现阶段这些研究主要局限于学术界。
定义一套AMS电路设计基准以衡量仿真和建模的改善,可以按电路复杂度区分为简单(比如差分对、带隙调节器等)、中等(运放、滤波器、LNA和混频器等)和复杂(连续时序ΣΔ A/D转换器,PLL等)。
定义一套AMS电路设计基准来评估支持分析/对比的全时间工程量。
开发复用/半自动工具来提升设计师的生产率,以及电路设计的可预测性。
新的仿真算法以提升准确度和吞吐量。
针对随机AMS电路的DFT技术。
针对随机AMS电路的自动插入技术。
在适当时间内以适当精度测量AMS缺陷范围的方法。
基于机器学习的方法来优化设计和布局,以及在测试中识别出异常情况。
参考来源:SIA&SRC -- Decadal Plan for Semiconductors -- New Trajectories for Analog Electronics