您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[西南证券]:电子行业2023年中期投资策略:珍惜估值底部的高胜率布局机会,重视AI、MR、低估值和国产化方向 - 发现报告
当前位置:首页/行业研究/报告详情/

电子行业2023年中期投资策略:珍惜估值底部的高胜率布局机会,重视AI、MR、低估值和国产化方向

电子设备2023-07-14西南证券温***
电子行业2023年中期投资策略:珍惜估值底部的高胜率布局机会,重视AI、MR、低估值和国产化方向

珍惜估值底部的高胜率布局机会, 重视AI、MR、低估值和国产化方向 西南证券研究发展中心 电子研究团队 2023年7月 电子行业2023年中期投资策略 核 心 观 点 行业景气萧条期指数在底部多波折,珍惜当前电子半导体估值底部的高胜率布局机会。我们维持预计全球电子产业周期将于23Q3逐步退出萧条进入复苏的判断,截止23Q2,电子产业处于去库存末期。从23Q1全球半导体库存来看,占比全球半导体产值过半的手机、PC等消费电子半导体原厂库存水位有所下滑,但下滑速度不及预期,主要系下游需求相较于预期更弱,导致库存周转天数进一步提升。另外和工业、汽车相关的半导体原厂库存水位继续走高,目前已接近进入供过于求的被动累库阶段。从海外二季报指引以及近期我们针对A股电子Q2收入毛利的测算来看,Q2业绩环比改善明显,虽然同比业绩由于高基数仍然下滑,但下滑幅度收窄实现二阶导拐点,当前PC、手机等消费电子大厂已吹响换机复苏号角,我们预计未来景气度将震荡上行,叠加AI、MR带来的新品放量以及价值量增加,最坏时候已经过去,展望23H2我们维持预计全球电子产业有望实现同比业绩反转的观点,从萧条进入复苏,当前指数处于高胜率布局区间。 成长聚焦AI服务器、MR/空间计算、国产化。相较于2023年初,行业最大的变化莫属Chatgpt带来的AI算力投资激增,以及苹果MR发布对下一代消费电子设备的新期望。基于我们的测算,短中期Chatgpt-4.0训练端算力需求14万张H100,推理端算力需求2.5万张A100,远期多模态模型训练段算力需求72万张H100,推理端算力需求100万张A100。我们认为,随着全球云计算服务器资本开支回暖,以及AI服务器的需求激增,23H2以及2024年服务器相关硬件供应链弹性巨大。苹果MR发布后,我们认为,其视觉体验以及增强现实的场景功能提升有望将XR设备的定位从游戏为主升级为办公/生活为主,成为继PC、手机后的新一代办公、娱乐消费电子设备,我们预计至2025年苹果MR的市场空间将达1000亿元。此外,我们预计安卓厂商亦会跟进XR头显以及增强现实的技术方向,中远期空间计算3D视觉相关硬件市场空间有望达到400亿元。以半导体为主的国产化率提升仍然是2023年电子成长股投资主线之一,我们主要看好模拟IC、半导体零部件、半导体材料、数字IC、存储器和MLCC等领域。 A股电子行业估值处于历史底部区间,未来胜率高。以中信电子指数(CI005025.W)为准,PB加权估值当前约4.72x,历史分位数处于12%附近,由于A股半导体资产占比、ROE相较于上一轮周期底部(2019)有明显上升,因此我们认为PB估值亦处于历史底部区域,展望23H2以及2024年投资胜率高。 相关标的:1、穿越周期AI硬件:生益科技、源杰科技、长光华芯、兴森科技、通富微电;2、MR空间计算推荐:奥比中光、长盈精密、杰普特、兆威机电;3、顺周期困境反转:生益科技、京东方A、乐鑫科技、神工股份;4、国产化:圣邦股份、富创精密、茂莱光学、中瓷电子、华峰测控、兆易创新。 风险提示:中美贸易摩擦加剧;全球宏观需求复苏不及预期。 1 目 录 2 穿越周期的AI投资机会 苹果MR和空间计算行业投资机会 国产化投资机会:半导体设备与零部件、模拟IC、IC载板、MLCC 周期反转低估值投资机会:半导体、PCB、CCL、面板 大模型依赖于大量向量与张量运算。ChatGPT模型主要基于Transformer架构,采用Self-Attention机制对文本单词进行权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。 AI服务器主要采取GPU架构,在矩阵向量运算上进行了加强,大数据集运算上具备较强优势。目前普通服务主要以CPU进行通用逻辑运算处理复杂任务,而AI服务器则通常采用2颗CPU+4/8/16颗GPU/TPU/FPGA的方式来进行运算,在大数据量并行运算层面表现更强。 参数 普通服务器 AI服务器 硬件架构 以CPU为主要算力提供 采用串行计算模式 采用异构形式 CPU+GPU、CPU+TPU、CPU+FPGA等 采用并行计算模式 芯片数量 单卡或双卡 四块以上的GPU卡 可以搭建AI服务器集群 P2P通讯 一般只要求单卡性能 要求多卡间通讯性能 采用PCIe 4.0/5.0、SXM3等协议通信 特有设计 无需特殊设计 针对系统结构、散热、拓扑等做专门设计 专用技术 无需专用技术 支持多种AI技术 如机器学习、自然语言处理、机器视觉等 AI服务器:AI大模型的硬件基石,异构形式增强并行运算能力 数据来源:西南证券整理 3 参数 训练服务器 推理服务器 功能 基于大数据集训练大模型 基于大模型使用新数据进行推理 位置 数据中心 数据中心、边缘应用 精度需求 FP 16(A100) INT 8(T4) 计算量 庞大 较小 功耗 高 低 存储 对存储容量,通讯带宽、时延要求极高 需求低于训练端 GPU数量 4 / 8 / 16 取决于终端应用 训练端与推理端差异:训练注重高精度,推理注重速度与成本 训练端:用于构建神经网络模型,注重绝对的计算能力。训练端通过大数据训练出复杂神经网络模型,通过大量标记过的数据来训练相应的系统,使其能实现特定功能。训练需要较高计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务。目前主流AI训练芯片有A100、H100。 推理端:利用训练好的模型,使用新数据推理出结论,注重能耗算力、时延、功耗成本。借助神经网络模型进行运算,利用输入的新数据来一次性获得正确结论的过程。目前AI推理芯片有T4、A10等。 资料来源:西南证券整理 4 训练端需求测算:GPT-3.0约780块A100加速卡实现每月一次训练 计算方法一: 根据OpenAI在2020年发布的论文《Language Models are Few-Shot Learners》 ,GPT-3.0 训练一次1746亿个参数的GPT-3.0模型需要总算力为3640 PFLOPs-day •单卡算力:目前主流A100 FP16为312 TFLOPs •训练时间:假设单轮训练花费一个月 •算力效率:51.4% 所需卡数量 = 3640*10^3/(312*30*51.4%)=757张 所需服务器台数:757/8 = 95台 计算方法二: 据2023年论文《 The Economics of Large Language Models 》,算力计算公式可参考如下 •预训练所需总算力 = Token * model parameter * 6 FLOPs/Token = 3.15 * 10^23 •A100每日算力峰值:3.12 * 10^14 * 3600 * 24 = 2.70 * 10^19 FLOPs •运算效率:51.4% •A100每日有效算力:1.35 * 10^19 FLOPs •训练时长:30天 所需单卡数量:3.15 * 10^23 / (30 * 1.35 *10^19) = 778块 所需服务器数量:778/8 = 98台 数据来源:OpenAI,西南证券整理 5 基于GPT4.0的训练端需求分析 虽GPT-4.0各项参数均未公开,但我们仍可以对大模型的数据集Token数量和模型参数量级进行大致推测,假设GPT-4.0相较于3.0算力提升了10倍 1)根据Open 2020提出的缩放定律,计算预算增加 10 倍,数据集大小应增加约 1.83 倍,模型大小应增加 5.48 倍。 2)训练集Token数量与参数量级: •训练集Token数量推测:300 billion * 1.83 = 549 Billion Token •模型参数推测:175 billion * 5.48 = 959 Billion 测算过程 •预训练所需总算力 = Token * model parameter * 6 FLOPs/Token = 3.16 * 10^24 FLOPs •H100每日算力峰值:9.89 * 10^14 * 3600 * 24 = 8.54 * 10^19 FLOPs •运算效率:51.4% •H100每日有效算力:4.39 * 10^19 FLOPs •训练时长:30天 所需单卡数量:3.16 * 10^24 / (30 * 4.39 *10^19) = 2400块 所需DGX H100服务器数量:2400/8 = 300台 数据来源:OpenAI,西南证券整理 6 基于GPT4.0的训练端需求敏感性分析 算力倍数 训练天数 2 5 10 20 50 100 3 4784 11960 23920 47840 119601 239203 5 2870 7176 14352 28704 71761 143522 10 1435 3588 7176 14352 35880 71761 20 717 1794 3588 7176 17940 35880 30 478 1196 2392 4784 11960 23920 45 318 797 1594 3189 7973 15946 60 239 598 1196 2392 5980 11960 短期维度: GPT-4.0加速卡需求:基于敏感性测试,假如GPT-4.0算力倍数为3.0的10倍,若20天完成一次训练,对应H100加速卡数量需求约为3588张之间 全球基于GPT-4.0加速卡需求:我们假设全球未来一共有40个厂商(美国20家+中国10家+其他国家10家)开发算力等效于GPT-4.0的大模型,未来H100需求空间为14万张。 中长期维度: 基于GPT-5.0加速卡需求假设:假设远期多模态5.0可实现AGI,假设其性能为GPT-3.0的100倍,基于5-10天训练周期,对应H100加速卡需求在3.6万张。 全球基于GPT-5.0加速卡需求:假设远期全球一共20家厂商开发等效GPT-5.0大模型,对应H100加速卡需求为72万张。 数据来源:OpenAI,西南证券整理 7 推理侧需求测算:当前日活所需AI推理服务器约为1141台 •日访问量:ChatGPT1月为2500万,NewBing 2月发布以来日访问量为3000万,我们假设当前访问量保持平稳 •Token换算:假设每个问题20个词,换算约为27个Token;假设每次回答为300词,对应400Token •日token所需数量:假设每人提5个问题,token = (400+27) * 5 * 55 million = 117.43billion token •日所需算力:117.43 billion *2N *175billion= 4.1 *10^22 FLOPs •算力利用率:假设为80% •T4 算力:130TFLOPs (INT 8精度) •共计所需推理卡T4数量 = 4.1*10^22/(1.3*10^14*80%*3600*24) = 4562块 对应推理服务器数量:4562 / 4 = 1141台 根据以上测算,我们可粗略推断GPT 3.0模型所需推理服务器在1141台左右。 数据来源:OpenAI,西南证券整理 8 基于GPT4.0的推理侧需求推测与敏感性分析 基于前文推算,GPT-4.0参数参照如下 •模型参数推测:175 billion * 5.48 = 959 Billion •日活人数:谷歌当前访问人数约25亿人次,我们假设公司未来访问人数达到谷歌的10% •Token换算:假设每个问题20个词,换算约为27个Token;假设每次回答为300词,对应400Token •日token所需数量:假设每人提5个问题,token = (400+27) * 5 * 0.25billion = 533.8 billion token •日所需算力:533.8 billion *2N * 959 billion= 1.