您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:电子行业周报:ChatGPT开启行业变革,Chiplet引领破局之路 - 发现报告
当前位置:首页/行业研究/报告详情/

电子行业周报:ChatGPT开启行业变革,Chiplet引领破局之路

电子设备2023-02-22方竞民生证券✾***
电子行业周报:ChatGPT开启行业变革,Chiplet引领破局之路

市场回顾:本周(2.13-2.17)电子板块涨跌幅为-3.3%,相对沪深300指数涨跌幅-1.6pct。年初至今电子板块9.0%,相对沪深300指数涨跌幅+4.8pct。 本周电子行业子板块涨跌幅分别为面板0.87%,安防-1.42%,消费电子设备-2.59%,半导体设备-2.64%,PCB-2.68%,显示零组-2.68%,消费电子组件-3.07%,其他电子零组件Ⅲ-3.24%,被动元件-3.34%,LED-3.55%,半导体材料-4.52%,集成电路-4.53%,分立器件-6.42%。 ChatGPT引领AI技术变革,带动服务器需求增量。ChatGPT是基于OpenAI GPT技术的聊天机器人,其拥有3000亿单词的语料基础,预训练出拥有1750亿个参数的模型,海量的参数与强大的智能交互能力离不开背后算力和服务器的支撑。据我们测算,若未来ChatGPT达到10亿日活,每人平均10000字左右问题,则需新增服务器投入46.30万台。服务器的需求起量为上游的存储/PCB/模拟市场带来新增量。我们预计,单台服务器带来的PCB价值量约为4000元,而AI服务器放量亦将带来DDR5和HBM存储用量的快速提升。 算力芯片采购受阻,Chiplet或成国产破局之路。AI技术蓬勃发展的当下,数据中心对高算力芯片的需求急速增长,当前用于AI模型训练与推理的主流高算力芯片主要有英伟达的V100/A100/H100等。但受限于美国2022年10月7日颁布的出口管制新规,等效8 Int600 TOPS算力的芯片对华出口均受限制。 高算力芯片获取受限,自主制造又面临国内先进制程产能稀缺问题,Chiplet或将成为国产芯片的破局之路。Chiplet技术即将不同功能的小芯粒互联,封装成一个系统芯片,有助于提高良率、降低成本,在相同制程获得更强的性能表现,在AMDCPU/GPU产品,以及苹果M1UltraSOC芯片中均获得量产应用。 2022年12月,中国工信部亦发布Chiplet技术标准,Chiplet技术有望成为国内半导体重点发展方向,带来全产业链的成长机遇。封测端,国内封测厂长电、通富、华天、晶方科技、甬矽电子已有成熟的先进封装技术储备,有望受益于Chiplet带来的先进封装需求;设备端,Chiplet技术使得芯片数量增加带来CP测试需求大幅增长;材料端,Chiplet技术发展增大芯片封装面积,提升ABF载板用量,同时亦带来先进封装芯片黏接材料、包封保护材料等需求增量。 投资建议:我们看好ChatGPT带来的AI应用加速发展,Chiplet则有望成为国产算力芯片的破局之路。建议关注服务器模拟、存储、PCB,以及Chiplet相关的封测、设备、材料赛道投资机遇。 风险提示:疫情反复影响生产经营;下游需求不及预期;研发进展不及预期。 重点公司盈利预测、估值与评级 1ChatGPT引领AI技术变革,带动服务器需求增量 1.1ChatGPT:引领内容生成式AI行业变革 本周科技板块有所调整,但是业界对ChatGPT的热度有增无减。此前微软宣布将在未来向OpenAI投资100亿美元,并将ChatGPT的技术整合到最新版本的必应搜索引擎和Edge浏览器中。微软这一举动拉开了大型科技公司AI竞赛的序幕,谷歌亦宣布推出Bard对抗ChatGPT,国内百度、腾讯等科技巨头亦在加紧推出自己的生成式AI。 从2018年OpenAI开发出GPT-1开始,GPT模型的智能化程度不断提升,ChatGPT是从GPT3.5系列中的模型进行微调而诞生的,此前OpenAI还设计了GPT-1、GPT-2和GPT-3模型。相比于前几代GPT模型,ChatGPT具有类似人类的情境感知和回馈能力,在语言识别、判断和交互层面实现了较好的效果。除此之外,OpenAI旗下还有可生成图片内容的AI应用Dall-E,高智能化的内容生成式AI有望在未来一段时间内改变人类科技发展的格局,让智能化广泛进入人们的日常生活。 图1:OpenAIGPT模型演进 ChatGPT为人类开拓出了训练大语言模型的新道路。ChatGPT在拥有3000亿单词的语料基础上预训练出拥有1750亿个参数的模型(GPT-2仅有15亿参数),预训练数据量从5GB增加到45TB。ChatGPT证明了在高算力的支持下,千亿级参数规模的模型训练+人类反馈,可以使AI融合世界的知识和规则,极大提升模型表现。 图2:各大AIGC模型参数对比 1.2ChatGPT拉动算力需求快速增长 ChatGPT参数量、数据量高度扩张,算力需求剧增。从2018年起,OpenAI就开始发布生成式预训练语言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代码、机器翻译、问答等各类内容,每一代GPT模型的参数量都快速增长:2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。 表1:GPT家族主要模型对比 ChatGPT海量的参数与强大的智能交互能力,离不开算力的支撑。根据Similarweb的数据,23年1月份ChatGPT日活约1300万人,累计用户已超1亿人,创下了互联网最快破亿应用的记录。若ChatGPT日活达至1亿人,每人平均1000字左右的问题,那么需要多大的算力资源支持? 我们建立计算假设如下: 1)假设均采用英伟达DGX A100服务器:该服务器单机搭载8片A100 GPU,AI算力性能约为5PetaFLOP/s,单机最大功率约为6.5kw; 2)ChatGPT日活达至1亿人,每人平均1000字左右问题; 3)自回归语言模型以token作为单位进行数据处理和计算,在英文环境下,一般750个单词等于1000个token。最常见的Transformer类语言模型在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(20年发布的GPT-3拥有1750亿参数,22年谷歌发布的PaLM拥有5400亿参数,假定ChatGPT为3000亿参数); 4)模型的FLOPs利用率为20%; 5)假定访问峰值是一天均值的5倍; 若ChatGPT日活达至1亿人,每人平均1000字左右的问题,初始服务器投入需4630台。粗略估计ChatGPT 1000字左右的问题需要的算力资源为2*3000亿*1000*1.333/20%=4PetaFLOP,而ChatGPT日活约1亿人,若每人平均1000字左右的问题,假设24小时平均分配任务,则所需算力为1亿*4 PetaFLOP/(24*3600s)=4630PetaFLOP/s。考虑访问流量存在峰值,假定访问峰值是一天均值的5倍,而单台英伟达DGXA100系列服务器算力为5 PetaFLOP/s,则需要对应服务器数量为4630PetaFLOP/s*5/ PetaFLOP/s=4630台。 而若未来ChatGPT日活达至10亿人,每人平均10000字左右问题,则有望带动约46.30万台。 图3:ChatGPT日活1亿人,每人平均1000字左右问题时所需服务器增量 且考虑谷歌每日搜索量已达35亿次,长期来看ChatGPT日活有广阔的提升空间,算力需求将持续释放。此外,若考虑ChatGPT嵌入终端应用后,其对算力资源的消耗量或将成数倍级增长,所需服务器数量需求更是成数倍级提升。 文字交互仅是大模型用量的起点,未来图像、视频等多种形态带动算力需求大幅提升。ChatGPT目前仍主要停留在文字交互层面,但图像、视频等领域也可使用Transformer大模型,所需算力规模远大于文字交互。例如OpenAI的绘画AI模型DALL-E2,其可直接根据文字生成逼真的图像,也可以对现有图像上根据文字指令创建新作品。 图4:OpenAI的绘画AI模型DALL-E2模型可根据文字生成宇航员骑马图 1.3上游存储/PCB/模拟受益ChatGPT需求新增量 ChatGPT拉动服务器需求快速增长的同时,将直接拉动算力芯片需求增长,我们于下文中详细对算力芯片需求进行了介绍。此外,服务器需求的增长,也将带动上游存储/PCB/模拟的需求快速增长。 1)ChatGPT新时代,服务器需求带动DDR5和HBM用量快速提升。随着ChatGPT等应用开启AI新时代,全球数据生成、储存、处理量有望呈等比级数增长,而DDR5内存和高带宽存储器(HBM)可支持更高速率的带宽。对于计算-内存而言,DDR5标准的最高速率是DDR4的两倍,而HBM基于TSV和芯片堆叠技术的堆叠DRAM架构,可实现高于256GBps的突破性带宽。深度学习和人工智能的快速发展对数据运算的要求越来越高,随着数据指数式增长,内存墙对于计算速度的影响越来越凸显,而DDR5和HBM技术可以帮助数据中心突破“内存墙”瓶颈。我们看好在ChatGPT的带动下,服务器DDR5和HBM的渗透率有望加速提升。 图5:HBM示意图 2)ChatGPT带动PCB需求新增量。服务器内部涉及PCB的主要部件包括主板、电源背板、网卡、Riser卡、硬盘背板等,PCB在AI服务器应用中对板厚、层数、工艺等有着更高的要求,具有高层数、高密度及高传输速率的特点。 PCB层数越多,设计越灵活,能够对电路起到更好地抗阻作用,更易于实现芯片之间地高速传输,单位价值量也越高。PCIe3.0接口的信号传输速率为8GT/s,对应的服务器PCB板为8-10层;PCIe4.0接口的传输速率为16GT/s,使用的服务器PCB层数为12-14层,目前渗透率在快速提高,如英伟达DGXA100系列服务器就采用了PCIe4.0接口;服务器平台下一步将升级到PCIe 5.0,传输速率为32GT/s,PCB的层数可达18层。随着ChatGPT对算力要求的提升,预计服务器PCB将呈量价齐升的态势,保守估计每台服务器的PCB价值量可达4000元。 图6:服务器中PCB的主要应用部位 3)ChatGPT拉动服务器建设的同时,亦带来大量电源管理芯片需求。从市电输入服务器开始,到电流输入CPU等元器件止,大体上需要经过三次电流的改变。第一次是经过服务器的电源模块,将市电从交流电转换成48V的直流电(AC-DC)。接下来,该直流电会被输送至DC/DC变换器,进一步被转换成12V,提供给中间母线结构(IBA)。最后该12V母线电压将被分配至板上多个负载点(PoL)变换器中,为芯片或子电路提供电源。不过由于主板上CPU等内核器件与风扇等其他器件对功率的要求各不相同,因此需要分开处理。对于CPU等内核器件,往往需要使用多相电源供电,而对于部分功率较小且比较稳定的其他器件,不需要使用多相电源,只需要使用Buck进行降压就可以对其进行供电。具体而言,主板上的电源管理IC主要包括eFuse/热插拔、多相电源、LDO与降压Buck等四类。 图7:服务器电源芯片系统示意图 2算力芯片采购受阻,Chiplet或成国产破局之路 2.1算力芯片采购/制造阻碍重重 AI技术蓬勃发展的当下,数据中心对高算力芯片的需求急速增长。GPU由于具备并行计算能力,可兼容训练和推理,高度适配AI模型构建,目前被广泛应用于加速芯片。随着ChatGPT带来新的AI应用热潮,数据中芯对高算力的GPU芯片需求急速增长。 图8:HPC和AI的实际应用 当前用于AI模型训练与推理的主流高算力芯片主要有英伟达的V100/A100/H100等。其中A100算力达624 TOPS(PCIe,INT8 TensorCore,不采用稀疏技术),H100算力达1513 TOPS(PCIe,INT8 TensorCore,不采用稀疏技术)。A100与V100芯片出口均受限,国内AI产业发展将面临算力芯片采购、生产的重重阻碍。 2022年10月7日,美国商务部发布出口管制新规,对中国半导体进行三方面限制:(1)先进计算领域,限制中国获取等效8 Int600 TOPS算力的芯片,主要影响AI应用;(2)超算领域,限制中国