您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国金证券]:前瞻科技研究:人工智能驱动单芯片PPA提升,背部供电将成为行业新趋势 - 发现报告
当前位置:首页/行业研究/报告详情/

前瞻科技研究:人工智能驱动单芯片PPA提升,背部供电将成为行业新趋势

电子设备2024-03-14刘道明、樊志远国金证券α
前瞻科技研究:人工智能驱动单芯片PPA提升,背部供电将成为行业新趋势

投资逻辑: 半导体行业受AI驱动将步入高速增长时代。2023年,尽管全球半导体销售总额较上一年下降8.23%,至5268亿美 元,但自2023年9月以来同比增速已经回正,2023年12月销售额更是达到518亿美元,同比大幅增长19.12%,显 示出行业复苏的明确信号。同时,在最近的国际固态电路会议(ISSCC,2024年2月18日至2024年2月22日)上, 台积电的高级副总裁张晓强《半导体行业:现状与未来》中也给出了乐观展望:至2030年,半导体市场规模有望突破一万亿美元大关,其中,高性能计算,尤其是与人工智能相关的应用,预计将贡献约40%的收入。AI相关的技术进步和应用需求,成为行业增长的关键因素,将推动半导体行业步入一个高速增长的新阶段。 人工智能算力需求增长速度远超工艺演进速度。进入大型机器学习模型时代后,训练和推理所需算力翻倍的时间周期 分别缩短为7.4与33.8个月,远快于摩尔定律顶一下晶体管48.8个月的翻倍速度。为了满足人工智能爆炸性算力需求,系统摩尔和集群化成为大势所趋。 系统摩尔和集群化面临物理限制,单片PPA(更高性能,更低功耗,更小面积)仍是提升算力的关键。当前技术及工 艺限制下,单芯片性能提升速度不断趋缓,大型集群更多通过系统摩尔及网络并行技术快速提升算力,但边际效应正在递减。通过对特斯拉DOJO和英伟达GH200的性能比较,我们认为对单芯片单位功耗算力的提升仍是满足算力需求的关键。 背部供电创新性地通过结构改变实现晶体管缩放,是单片PPA增长的第二曲线。背部供电能够有效缓解电压降问题, 并节省片上空间以容纳更多晶体管,并且这一结构的实现并不依赖于光刻机性能的提升,我们认为在当今摩尔定律放缓的趋势下,背部供电技术将使单片PPA重回快速增长,并有望成为未来行业发展中确定性极高的技术方向。 众多大厂已布局,英特尔PowerVia技术即将落地,公司有望再度迎来FinFET时刻。当前,台积电,三星电子和英特 尔均披露已布局背部供电技术,台积电和三星预计分别在2026和2025年推出该技术,英特尔最为领先,计划在2024的20A节点中就将其PowerVia技术推向市场。经过深入研究后,我们认为英特尔PowerVia在性能表现,良率以及客户端工程师开发套件生态等方面都有较为优异的完成度,有望借此技术重新夺回半导体制造领域的领先优势。 投资建议 我们认为,背部供电技术将成为未来半导体制造的新趋势。从技术持有者的角度来看,我们看好英特尔公司通过该技术重新获得半导体制造行业的领先优势。竞争格局方面,背部供电技术不再仅仅是依赖DUV或EUV的硬件技术来获得领先的晶体管缩放速率,而是通过DTCO(DesignTechnologyCo-Optimization)从硬件、软件以及设计角度实现晶体管迭代。这一趋势将进一步扩大头部Fab的领先优势。综合考虑,从技术持有者的角度,我们建议关注英特尔公司、台积电和三星电子。另一方面,背部供电技术对上游制造设备提出了新的要求,尤其是在混合键合领域。因此,我们建议重点关注应用材料公司和东京电子公司。 风险提示 背部供电技术进展不及预期;宏观经济景气度不及预期。 内容目录 一、全球半导体市场进入加速增长期,AI将是最大驱动因素4 二、人工智能相关应用驱动算力需求爆发性增长5 1.大语言模型参数量加速增长,所需算力增长速度远超半导体工艺演进速度5 2.传统摩尔定律受到物理定律限制,系统摩尔势在必行6 3.系统摩尔性能增速存在理论极限,仍无法满足人工智能巨大算力需求8 4.网络互联一定程度上突破系统摩尔上限,单片PPA仍为性能提升的关键8 三、背部供电,单片PPA的新路径9 1.认识传统半导体9 2.传统半导体结构使晶体管缩放面临瓶颈,背部供电应运而生10 3.初代背部供电网络能够有效降低电压降低幅度,并帮助提升单位面积晶体管数量12 四、众大厂布局,PowerVia先声夺人14 五、背部供电工艺流程15 六、PowerVia有望成就Intel的下一个FinFET时刻16 七、投资建议18 风险提示18 图表目录 图表1:全球半导体市场规模重回增长区间4 图表2:WSTS五月预期4 图表3:WSTS十一月预期4 图表4:2030年全球半导体市场规模有望达到万亿5 图表5:2030年40%的半导体市场收入将来自于HPC5 图表6:机器学习模型参数量翻倍所需时间在2015年之后显著缩短5 图表7:摩尔定律6 图表8:大模型时代机器学习模型训练端所需算力需求在7.4个月内翻倍6 图表9:大模型时代机器学习模型推理端所需算力需求在33.8个月内翻倍6 图表10:登纳德缩放自2007年开始失效7 图表11:系统性能受限于系统中串行部分的比例7 图表12:系统摩尔在传统摩尔定律放缓的背景下通过系统级的创新保持性能增长7 图表13:系统摩尔存在能力上限8 图表14:MFU随卡数增加下降8 图表15:DOJOTrainingTile9 图表16:DOJOExaPOD9 图表17:半导体制造分为前端流程和后端流程10 图表18:传统半导体采用正面供电10 图表19:正面供电结构带来电压降(IRDrop)问题10 图表20:通孔电阻随着制程下降加速增大11 图表21:电源和信号网络对于电路硬件的要求不同11 图表22:BSBPR结构示意图12 图表23:BSBPR的透射电镜图像12 图表24:BSBPR将电压下降幅度缩减7倍13 图表25:各供电方案关键指标比较13 图表26:通过背部供电可以节省片上空间以容纳更多晶体管13 图表27:PowerVia和BPR结构对比14 图表28:PowerVia降低前段工艺难度14 图表29:PowerVia提升了6%的核心效率14 图表30:背部供电工艺流程15 图表31:PowerVia工艺流程16 图表32:PowerVia有望带来等效于两代晶体管缩放的PPA提升16 图表33:SoIC实现SoC纵向堆叠17 图表34:PowerVia良率接近Intel417 一、全球半导体市场进入加速增长期,AI将是最大驱动因素 对半导体行业而言,经历了两年的下滑之后,最坏的时刻似乎已经过去。世界半导体贸易统计协会(WSTS)的数据显示,行业正在重拾增长势头。2023年,尽管全球半导体销售总额较上一年下降8.23%至5268亿美元,但自9月以来的同比增长率已重新转正并持续增长。到 2023年12月,全球半导体销售额更是同比大幅增长19.12%至518亿美元,显示出行业复苏的明确信号。 图表1:全球半导体市场规模重回增长区间 来源:WSTS,国金证券研究所 展望2024年,世界半导体贸易统计协会(WSTS)于11月进一步上调了其5月的预测,预期 2024年全球半导体销售额将达到5880亿美元,较5月预期上涨124亿美元,同比2023年增长11.62%。预期上调主要受到逻辑芯片和存储芯片行业的驱动,这两个细分领域预计全年销售额较五月预期分别上涨64亿美元和94亿美元,较2023年同比分别增长9.6%和44.8%。逻辑芯片和存储芯片在人工智能领域的广泛应用是支持这一预期增长的主要因素。我们认为,WSTS对预期的上调调整反映出人工智能将成为2024年整体半导体市场的核心驱动力。 图表2:WSTS五月预期图表3:WSTS十一月预期 来源:WSTS,国金证券研究所来源:WSTS,国金证券研究所 在最近的国际固态电路会议(ISSCC)上,台积电高级副总裁张晓强对半导体行业的未来作出展望。在其题为《半导体行业:现状与未来》的报告中,张晓强预测到2030年,半导体市 场规模有望突破1万亿美元大关。其中,高性能计算,尤其是与人工智能相关的应用,预计将贡献约40%的收入。张晓强强调,半导体行业不仅重新进入正增长区间,而且将步入一个高速增长的新阶段,而人工智能相关的技术进步和应用需求将成为推动行业增长的关键因素。 图表4:2030年全球半导体市场规模有望达到万亿图表5:2030年40%的半导体市场收入将来自于HPC 来源:ISSCC,国金证券研究所来源:ISSCC,国金证券研究所 二、人工智能相关应用驱动算力需求爆发性增长 1.大语言模型参数量加速增长,所需算力增长速度远超半导体工艺演进速度 在2021年11月底,随着ChatGPT的发布,大型语言模型(LLMs)在公众视野中取得了突破性进展。这一重大时刻并非偶然发生,而是长期研究和技术进步的积累结果。大型语言模型的核心是大型机器学习模型,其起源可以追溯到20世纪50年代,当时研究主要集中在规则系统和神经网络的实验上。随着时间的推移,研究者们不断探索新的方法,直到2010年代,这些研究成果与崛起的神经网络领域相互交融,为第一个大型语言模型的诞生奠定了坚实的基础。 图表6:机器学习模型参数量翻倍所需时间在2015年之后显著缩短 来源:EPOCH,国金证券研究所 Google在2019年推出的BERT模型是大型语言模型的重要里程碑,它将双向编码、神经网络架构和自监督学习相结合,成为NLP任务的标准工具。随后,OpenAI的GPT系列模型(GPT-2于2019年发布,GPT-3于2020年发布)表现出了更强的性能,但与此同时模型参数也大幅增长,GPT-3的参数量达到了1750亿,成为当时最大的语言模型,而最新的GPT-4据估计参数量达到了1.8万亿。根据EPOCH的机器学习模型数据库,当前人工智能模型参数量的增速已经来到了一个前所未有的新高度。 图表7:摩尔定律 来源:OurWorldinData,国金证券研究所 EPOCH将AI计算划分为三个典型阶段,前深度学习时代(PreDeepLearningEra)、深度学习时代(DeepLearningEra)和超大规模模型时代(LargeScaleEra)。在前深度学习时代,机器学习模型参数在48.8个月即约两年的时间内翻倍,这一速率和摩尔定律一致。 图表8:大模型时代机器学习模型训练端所需算力需求在7.4个月内翻倍 图表9:大模型时代机器学习模型推理端所需算力需求在 33.8个月内翻倍 来源:EPOCH,国金证券研究所来源:EPOCH,国金证券研究所 然而在进入深度学习和如今的大型模型时代后,遵循摩尔定律增长的算力开始显著落后于模型所需的算力水平,无论是在训练端和推理端。大型模型时代,训练端和推理端的算力水平分别在仅7.4个月和33.8个月内就需要翻一倍,远低于晶体管翻倍所需要的时间,这已经足以证明人工智能对计算体系架构的强烈冲击以及对计算架构创新的迫切需求。 2.传统摩尔定律受到物理定律限制,系统摩尔势在必行 在半导体行业,摩尔定律一直是推动技术进步的核心原则之一。自1965年首次提出以来,它预测了单位面积上晶体管数量的指数增长,大约每两年翻一倍。然而,这种增长并不仅仅体现在晶体管数量的增加上。事实上,芯片性能的提升还依赖于能够在保持功耗不变的同时,将更多的晶体管集成到单位面积上,这一原理被称为登纳德缩放(DennardScaling)。 登纳德缩放阐明了一个关键概念:随着晶体管尺寸的缩小,电压和电流也应相应减小,从而维持功耗的稳定。这一原理保证了芯片上可以集成更多的晶体管而不会导致过热问题。然而,这一缩放定律在2007年开始失效,并在2012年彻底瓦解,标志着计算芯片发展的一个重要瓶颈——功耗墙的出现。 面对登纳德定律的失效,芯片设计转向了通过增加核心数来实现并行计算,以此提升性能。这种多核并行计算在一定程度上延续了性能增长的趋势。然而,这种方法最终受到了阿姆达尔定律(Amdahl'sLaw)的限制,该定律指出系统性能的提升受限于系统中串行部分的比例。换句话说,仅靠增加晶体管数量(即并行性)是无法无限制提升性能的,这对摩尔定律的持续发展构成了挑战。 图表10:登纳德缩放自2007年开始失效图表11:系统性能受限于系统中串行部分的比例 来源:SemiconductorEngineering,国金证券研究