您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[山西证券]:通信行业2024年投资策略:盼新续旧,兼顾复苏与高分红 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业2024年投资策略:盼新续旧,兼顾复苏与高分红

信息技术2024-02-22高宇洋、张天山西证券芥***
通信行业2024年投资策略:盼新续旧,兼顾复苏与高分红

通信板块近一年市场表现 投资要点: 1、关注新变化,市场一致预期AI光通信和卫星互联网将是通信2024年两大重要主线 1)2024年,GPT5、Gemini等最新多模态大模型训练所需算力进一步提升,推理算力随着AI对互联网应用的渗透算力需求也非常可观。从资本开支角度看,光模块在云厂商资本开支中占比随着AI场景的应用逐年增加,光模 块高弹性将兑现。同时CPO和光IO作为重要技术变革,也将引领产业链 请务必阅读最后一页股票评级说明和免责声明1 行业研究/行业深度分析 2024年2月22日 领先大市-A(维持) 2024年投资策略 盼新续旧,兼顾复苏与高分红 通信 资料来源:最闻 相关报告: 【山证通信】中国移动发出服务器和PON终端集采大标,移动实验星和吉利组网星发射-周跟踪 (20240129-20240204)2024.2.6 【山证通信】山西证券通信行业周跟踪:业绩预告陆续发布,光模块、算力、射频前端等公司不乏亮点2024.1.30 分析师:高宇洋 执业登记编码:S0760523050002邮箱:gaoyuyang@sxzq.com 张天 执业登记编码:S0760523120001邮箱:zhangtian@sxzq.com 出现重要变化。国内方面,工业富联、台企受益AI服务器代工配套需求订单饱满,华为昇腾系列NPU建立全方位算力生态,引领国产替代。 2)当前,Starlink已成为全球规模最大卫星互联网星座,且领先趋势扩大。国内高度重视卫星互联网发展,GW星座和千帆星座加速部署。发展低轨卫星互联网具有抢占空天资源、占领国际市场份额以及卡位通信标准话语权多重意义。我们认为卫星制造上游配套单位业绩有望逐步兑现,2024-2030卫星载荷和平台市场规模快速增长,其中价值量关键的主要是相控阵天线、转发器&通信载荷、激光通信终端以及姿控系统。此外,我们建议关注手机直联卫星发展对手机侧设计的增量以及低轨卫星专用终端研发定型的进展。 2、“老主线”仍有结构性机会,关注运营商、物联网、智能控制器、IDC算力租赁、华为链等。 1)运营商移动用户5G渗透率仍有发展空间、宽带综合经营共同驱动ARPU值稳中有升,云计算综合业务增长继续,同时数据要素带来的变化将落地。2)2023年物联网模组市场承压,但2024年下半年或恢复增长。国内模组厂商积极拓展边缘AI应用场景,AI边缘计算为新蓝海。智能控制器下游白电、新能源汽车等场景持续增长,厂商拓展大模型家电&家居应用场景,多家控制器厂商布局人形机器人控制器。 3)智算中心建设受到政府部门高度重视,《算力基础设施高质量发展行动计划》规划到2025年算力不低于300EFLOPS。智算中心建设将为IDC及算力租赁、DCI、液冷带来新机遇。 4)华为产业链可能迎来积极变化,主线主要在5.5G、昇腾、星闪等。 3、投资建议 整体来看,受益于海外AI算力爆发带来的配套需求、国内智算中心建设、卫星互联网发射从0到1跨越等积极因素,我们维持通信行业“领先大市-A” 评级。 1)高成长业绩兑现策略:光模块、光芯片、卫星通信等。建议关注中际旭创、天孚通信、新易盛、太辰光、长光华芯、海格通信、铖昌科技等。2)高股息率价值策略关注三大运营商、中国铁塔、中国通信服务、工业富联等。 3)低估值底部布局边际改善板块:物联网、连接器、智能控制器、IDC算力等,建议关注移远通信、广和通、和而泰、麦格米特、鼎通科技、润泽科技、润建股份等。 风险提示:海外AI投资增速下滑或GPU进入去库存周期,国内算力发展不及预期,国内卫星互联网发展节奏不及预期,外部科技贸易政策变化影响供应链稳定性,宏观经济复苏节奏不及预期。 目录 1.AI新纪元:多模态大模型算力持续膨胀,算力基础设施增长确定性高7 1.1北美大模型研发高迭代,算力需求继续数量级增加7 1.2光模块在AI基础设施中弹性价值量俱佳,2024市场快速膨胀9 1.3CPO和光IO为重要技术变革,产业链有望看到重要变化12 1.4服务器交换机海外配套需求饱满,国内华为引领算力第二极15 2.卫通新纪元:低轨卫星互联网是移动互联网后重大变革,产业已迈入从0到1阶段17 2.1卫星互联网弥合互联网连接鸿沟,国内准备充分,加速追赶17 2.2产业链投资机会:卫星制造上游配套单位业绩有望逐步兑现19 2.3终端环节持续扩大:手机直联卫星快速渗透,低轨卫星专用终端研发定型22 3.播得云出见日明:出口经济有望逐渐复苏,华为引领高端国产替代,“老主线”仍有结构性机会23 3.1出口修复+边缘AI+具身智能,物联网模组和智能控制器存在双击机会23 3.2算力网络成为重要战略基础设施,关注智算中心、液冷、DCI等细分赛道27 3.3华为链的积极变化:5.5G、昇腾、星闪30 4.投资建议35 4.1高成长业绩兑现策略:光模块、光芯片、卫星通信板块35 4.2高分红价值策略:运营商、中国铁塔、中通服、工业富联等36 4.3低估值底部布局边际改善策略:物联网、连接器、智能控制器、IDC算力36 5.风险提示37 图表目录 图1:近年国内外主要大模型推出时间线7 图2:近年模型参数量变化8 图3:Meta-Transformer考虑12种模态8 图4:大模型参数量及训练需求8 图5:COWOS季度出货量预测10 图6:谷歌交换芯片需求结构预测10 图7:AI光模块占光模块总支出比例提高11 图8:四大云厂商的以太网光模块capex占比11 图9:2024-2025云厂商光模块市场迎来快速增长,并主要以北美top5驱动12 图10:AI光模块是光模块增长主要驱动力12 图11:不同速率光模块在以太网交换机中成本占比13 图12:CPO封装示意图13 图13:光I/O发展路径14 图14:数据中心光模块市场规模预测14 图15:CPO交换机开发流程发生很大变化15 图16:全球AI服务器出货量预测(单位:千台)16 图17:2023-2024主要CSP高端AI服务器需求分布16 图18:华为昇腾计算产业生态16 图19:全球每年新增在轨卫星数量(颗)17 图20:starlink发射已接近全球卫星发射的一半17 图21:ITU我国最新申报卫星情况19 图22:卫星平台与卫星载荷之间成本占比20 图23:卫星平台成本结构20 图24:相控阵架构分类21 图25:创意信息低轨卫星通信载荷产品21 图26:国内手机出货量&船舶数量22 图27:5GNTN汽车2021-2026E数据(万台)22 图28:二代及三代Starlink终端23 图29:23Q3全球物联网蜂窝模组出货量份额24 图30:2023年国内蜂窝物联网用户继续增长24 图31:AI模型优化方向25 图32:国内模组厂商边缘计算相关产品25 图33:智能控制器下游各场景情况25 图34:大数据时代家电产业的发展和演变趋势26 图35:和而泰版本的企业数字人助理应用26 图36:人形机器人零部件成本占比27 图37:人形机器人及控制器市场规模27 图38:东数西算八大枢纽新增机架及带宽预测29 图39:400GOTN关键技术挑战与演进29 图40:2019-2025E液冷数据中心市场规模(亿元)30 图41:2019年冷板式液冷和浸没式液冷数据中心产品市场份额占比30 图42:2025E冷板式液冷和浸没式液冷数据中心产品市场份额占比30 图43:5.5G发展历程31 图44:2022年中国AI加速卡出货占比33 图45:华为星河网络测试性能领先33 图46:星闪与wifi蓝牙对比33 图47:星闪技术典型应用和场景的商用节奏预测33 图48:海思已发布的wifi&BLE&星闪芯片产品系列34 图49:星闪多模SoC芯片Hi825V100关键特性34 表1:云厂商自研芯片梳理9 表2:可插拔光模块、CPO与光I/O对比12 表3:中国GW星座规划18 表4:GW星座市场空间测算20 表5:2023年智算中心建设相关政策节选27 表6:算力租赁合同列举28 表7:电信运营商液冷部署未来三年规划29 表8:高成长策略建议关注标的(单位:亿元)35 表9:高股息价值策略建议关注标的(单位:亿元)36 表10:低估值边际改善策略建议关注标的(单位:亿元)37 1.AI新纪元:多模态大模型算力持续膨胀,算力基础设施增长确定性高 1.1北美大模型研发高迭代,算力需求继续数量级增加 自ChatGPT引发算力革命起来,大模型保持快速迭代升级。从发展历史来看,大语言模型LLM发展共经历了统计学语言模型、神经网络语言模型、预训练语言模型和大型语言模型四个阶段,大型语言模型的参数权重大幅提升,目标是解决真实世界中的各种复杂问题。大型通用语言模型的发展仍将继续,并往原生多模态发展,近年来大模型数量呈现喷井式增加。 图1:近年国内外主要大模型推出时间线 资料来源:《ASurveyofLargeLanguageModels》,山西证券研究所 目前大模型模态种类持续增加和参数量不断增加。模态方面,大模型朝多模态方向演进。多模态大模型是指可以处理来自不同模态(如图像、语音、文本等)的多种信息的人工智能模型,未来的多模态具有更丰富的输入输出维度,并且将远超人脑可以处理的信息类型。香港中文大学多媒体实验室联合上海人工智能实验室提出的Meta-Transformer通过统一的编码方式,以同一套参数处理文本、视频、音频等12种模态,而无需为每种模态设计特定的模型或网络;2023年3月,超大规模多模态预训练大模型GPT-4发布,兼具多模态理解与多类型内容生成能力;12月6日首个原生态大模型谷歌的Gemini发布,其最大的亮点在于模型从一开始就被创建为多模态模型,而非以往将针对不同模态训练单独组件组合起来。随Gemini发布,未来多模态将进一步成为大模型探索的重点方向,算力需求将迎来新一轮攀升。 图2:近年模型参数量变化图3:Meta-Transformer考虑12种模态 资料来源:浪潮《算力集群方案设计与优化》,山西证券研究所 资料来源:腾讯技术工程,山西证券研究所 GPT5/Gemini等最新多模态大模型训练所需算力进一步提升。根据浪潮信息统计,2018-2022年模型参数量从94M增加到530B,增长接近5600倍,并仍保持快速增长,目前千亿级参数规模的大模型成为主流。在下一代的多模态语言模型中,谷歌Gemini和OpenAIGPT5算力需求再次呈数量级提升。根据OPENAI的论文《LanguageModelsareFew-ShotLearners》,GPT-3中最大的模型(1746亿参数)的训练大约需要3.14 *10^5EFLOPs,相当于用1000块H100训练8天(按照50%FP16算力利用率);而GPT4训练所需算力约是GPT3的67倍,Gemini/GPT5训练所需算力继续增长至GPT4的5倍以上。即使主流GPU推陈出新,算力利用率不断提升,所需GPU数量也需要继续增长。 图4:大模型参数量及训练需求 资料来源:《LanguageModelsareFew-ShotLearners》,semianalysis,AI前线,山西证券研究所 推理端,随着大模型不断渗透改造传统互联网应用,所需算力仍然非常可观。我们以ChatGPT为例,这款大型语言模型目前除了app还被以API形态调用用于搜索引擎、内容生产、办公助手等多种场景。若假设ChatGPT日均访问量为10亿次,每次问题+回答按1000汉字计算(约相当于2000个token),LLM日均推理所需FLOPS为参数量*2*每次token数*日均访问次数,大致为7*10^11TFLOPS,这相当于8100块H100以100%的FP16算力利用率连续工作1天。实际上考虑到,算力利用率的不饱和以及用户使用时间的不均匀分布,这一访问实际需要的GPU数量将大大高于这一估计,未来多模态大模型所需数量更将是数量级的提升。 1.2光模块在AI基础设施中弹性价值量俱佳,2024市场快速