您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国信证券]:通信行业2024年3月投资策略:重视国产AI产业链,兼顾高股息 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业2024年3月投资策略:重视国产AI产业链,兼顾高股息

信息技术2024-03-01马成龙、袁文翀国信证券郭***
通信行业2024年3月投资策略:重视国产AI产业链,兼顾高股息

2024年2月行情回顾:板块表现强于市场。2月沪深300指数全月上涨9.3%,通信(申万)指数全月上涨18.4%,跑赢大盘,在申万31个一级行业中排名第1名。各细分领域普遍上涨,光模块光器件板块表现较优。 估值方面,截至2月底,通信板块估值上修,以申万通信为统计对象,2月底PE估值为19.2倍,PB估值为3.0倍,高于近十年估值10分位数水平,通信板块估值接近历史底部区间水平。 全球多模态模型加速推进。应用侧,近期OpenAI发布首个视频模型Sora,可生成60秒视频;Google连发Gemini1.5和Gemma模型,性能优于Llama-2模型。技术侧,硅光加速发展以支持算力带宽提升需求,初创企业Groq发布芯片LPU,推理速度和功耗不亚于英伟达GPU。需求侧,海外云厂持续投入AI。3月主要关注英伟达举办的2024年GTC(GPUTechnologyConference)和2024美国光纤通讯展览会及研讨会,有望推动产业技术新发展。 我国重视AI发展,国产产业链有望受益。过去半年国资委频频发布政策支持AI发展,2月再次强调央企将AI发展列入全局谋划,以运营商为主的央企持续加大算力投入,比如电信已在上海规划布局15000卡(总算力超4500P),其中,单池新建国产算力达万卡。以华为昇腾AI为代表的国产AI芯片已具备较强竞争力,昇腾910B算力是英伟达H20(对华特供版3月接受预定)的一倍。在国产AI芯片有力支持下,我国智算中心部署将得到保障,同时智算中心中的通信设备厂商有望持续受益。 运营商经营稳健,高股息价值凸显。运营商传统业务发展稳健,截止1月底,移动、电信5G业务渗透率持续提升;新兴业务发展快速。在资本开支精准投放、费用管控加强背景下,2024分红比例有望持续提升,高股息价值凸显。 投资建议:持续布局AI产业链,兼顾高股息 (1)短期视角,3月三大运营商将发布2023年财报,运营商经营稳健重视股东回报,分红比例有望提升,高股息价值凸显,建议关注运营商。 (2)中长期视角,全球AI行业持续迎来技术快速变革发展,产业链相关公司2023年业绩表现亮眼,同时我国高度重视AI发展,产业趋势确定,持续关注算力基础设施:光器件光模块(中际旭创、天孚通信等),通信设备(中兴通讯、紫光股份等),液冷(英维克、申菱环境等)。 2024年3月重点推荐组合:中国移动、中际旭创、英维克、华测导航、三旺通信、菲菱科思。 风险提示:宏观经济波动风险、数字经济投资建设不及预期、AI发展不及预期、中美贸易摩擦等外部环境变化。 2月行情回顾:板块表现强于大市 2月通信板块上涨18.4%,跑赢大盘 截至2024年2月29日,2月沪深300指数全月上涨9.3%,通信(申万)指数全月上涨18.4%,跑赢大盘,在申万31个一级行业中排名第1名。 图1:通信行业指数2月走势(截至2024年2月29日) 图2:申万各一级行业2月涨跌幅(截至2024年2月29日) 2月通信板块估值上修 按照申万一级行业分类,以申万通信为统计基础,近10年行业PE( TTM ,整体法,剔除负值)最低达到过13.95倍,最高达到过90.18倍,中位数37.9倍,2月底PE估值为19.2倍,高于近十年10分位数水平。 图3:通信行业近10年PE( TTM ,整体法)估值情况 以我们构建的通信股票池(176家公司,不包含三大运营商)为统计基础,近10年,通信行业PE( TTM ,整体法,剔除负值)最低达到过25.2倍,最高达到过103.0倍,中位数43.6倍,2月底PE估值为33.0倍,处于近十年10分位数水平。通信行业PB(MRQ)最低达到过2.3倍,最高达到8.9倍,中位数3.8倍,2月底估值为3.0倍,低于历史10分位数水平。 图5:通信行业(国信通信股票池)近10年PE/PB 按照申万一级行业分类,申万通信行业的市盈率为19.3倍,市净率为1.8倍,分别位居31个行业分类中的16名和17名。若剔除中国移动、中国电信、中国联通三个对指标影响较大的标的,通信行业市盈率为31.6倍,市净率为2.9倍,处于全行业偏上水平。 图7:申万一级行业市盈率(TTM,整体法)对比 在我们构建的通信股票池里有176家公司(不包含三大运营商),2月份平均涨幅22.6%。2月份通信行业中,细分板块普遍上涨,其中光器件光模块、可视化、IDC、工业互联网、基站设备、5G、北斗、光纤光缆、企业数字化、专网、运营商分别涨29%、19%、19%、18%、18%、15%、14%、13%、11%、11%、1%。 图9:通信行业各细分板块分类 图10:通信板块细分领域2月涨跌幅 从个股表现来看,2024年2月份上涨的个股包括:天孚通信(58.4%)、淳中科技(57.8%)、中际旭创(50.9%)、源杰科技(49.4%)、铭普光磁(45.2%)、紫光股份(42%)、新易盛(41.6%)、中贝通信(41.1%)、华力创通(38.5%)、光迅科技(38.2%)等。 图11:通信行业2月涨跌幅前后十名 2月通信板块重点推荐组合表现 2024年2月份的重点推荐组合为:中国移动、中国铁塔、华测导航、拓邦股份、中际旭创、中天科技、中际旭创。组合收益率跑赢沪深300指数,跑输通信(申万)指数。 表1:国信通信2月组合收益情况(截至2024年2月29日) 3月通信板块重点推荐组合 2024年3月份的重点推荐组合为:中国移动、中际旭创、英维克、华测导航、三旺通信、菲菱科思。 表2:国信通信2024年3月推荐组合 全球多模态模型加速推进,我国重视AI发展 应用方面:OpenAI首发视频模型Sora,Google连发Gemini1.5Pro和Gemma两大模型 OpenAI发布了首个文生视频模型Sora。北京时间2月16日凌晨,OpenAI发布了首个文生视频模型Sora。Sora可以直接输出长达60秒的视频,不仅能准确呈现细节,还能理解物体在物理世界中的存在,并生成具有丰富情感的角色。该模型甚至还可以根据提示、静止图像填补现有视频中的缺失帧来生成视频。 图12:Sora视频演示案例一 图13:Sora视频演示案例二 总体来说,Sora是一个在不同时长、分辨率和宽高比的视频及图像上训练而成的扩散模型,同时采用了Transformer架构,即DiffusionTransformer。 图14:Sora基于Disffusion模型,采用Transformer架构 Sora模型在以下几个方面展现出了显著的优势: (1)多模态输入处理:Sora能够理解和处理文本提示,将用户的描述转化为视频内容,这使得模型能够生成与用户意图高度一致的视频。OpenAI采用了DALL·E 3中引入的一种重新标注技术,将其应用于视频。除了使用描述性强的视频说明进行训练,OpenAI也用GPT来将用户简短的提示转换为更长的详细说明,然后发送给Sora。Sora模型也支持将图片和提示词(Prompt)作为输入参数生成视频。 (2)空间和时间的统一表示:通过将视频分解为时空补丁(SpacetimePatches),Sora模型能够在一个统一的框架下处理不同分辨率、持续时间和宽高比的视频,这大大增强了模型的灵活性和可扩展性。具体来说,模型先将视频压缩到低维潜空间中,然后将它们表示分解为时空补片,从而将视频转换为Patches。 (3)大规模训练数据:Sora模型的训练基于大规模的视频数据集,这使得它能够学习到丰富的视觉和运动模式,从而生成更加逼真和多样化的视频内容。扩散型Transformer同样能在视频模型领域中完成高效扩展,下图展示出随着训练资源的增加,样本质量明显提升。 (4)物理世界模拟:Sora模型展现出了模拟物理世界的能力,例如,它能够生成具有连贯三维空间运动的视频,以及模拟物体之间的物理交互。 (5)长期依赖关系处理:Sora模型能够有效地处理视频中的长期依赖关系,这对于生成连贯且具有逻辑性的视频内容至关重要。 谷歌连发Gemini1.5 Pro和Gemma两种大模型。 2月18日,谷歌宣布推出Gemini 1.5,是一款中型多模态模型,针对多任务扩展进行了优化,性能与Gemini1.0Ultra相似,该模型能够无缝分析、分类和总结大量内容,提供跨模态的复杂理解和推理能力。目前初测版本为Gemini 1.5 Pro,最高可支持100万个Token的上下文窗口。 图15:Gemini 1.5Pro可以支持100万token 图16:Gemini 1.5Pro识别44分钟电影中的场景 谷歌推出全新开源模型系列"Gemma",2月22日谷歌宣布推出全球性能最强大、轻量级的开源模型系列——Gemma。该模型共分为分为2B(20亿参数)和7B(70亿)两种尺寸版本,两个版本都提供了预训练和指令微调版本,用户可以通过Kaggle、谷歌的ColabNotebook或Google Cloud访问这些模型。这一系列模型不仅免费可用,还允许商用,权重也一并开源。Gemma模型在关键基准测试中已经明显超越了更大的模型,如Llama-27B和13B,以及Mistral7B,而且能够直接在开发人员的笔记本电脑或台式电脑上运行。 图17:Gemma模型参数 图18:Gemma7B模型8项基准测试分数超过Llama-27B和13B 技术方面:AI集群带宽和算力持续提升,硅光有望加速应用 带宽和算力提升是网络配置演进趋势。以英伟达的方案为例,从A100到H100再到GH200超级芯片,单卡算力和网络互联带宽保持了快速提升。 图19:英伟达Roadmap A100:40GB的高速HBM显存,NVLINK互联带宽为600GBps,支持8卡互联,网卡和交换机配置为200G,采用200G光模块。 H100:和A100相比,显存提升到160GB,NVLINK互联带宽提升到900GBps,网卡和交换机升级为400G,采用400G和800G光模块。 GH200:1)大内存:256个超级芯片互联得到的GH200超级计算机拥有144TB的内存,可以存储更大规模的模型和数据。 高带宽互联方面,在A100和H100方案中,NVLINK技术只用于服务器内部8张GPU卡之间的互联,其中A100的芯片互联带宽为600GBps,H100为900GBps。在GH200系统中,每张SuperChip可以视为一个服务器,同时芯片之间的互联变为通过NVLINKSWITCH来完成,使得系统中的每个GPU都可以用900GBps的速度访问其他GPU,带宽得到明显提升,推动通信侧速度快速提升。 图20:英伟达H1004SU方案示意图 图21:英伟达GH200示意图 速率持续提升背景下,传统电I/O的性能、功耗等有待改进。随着SerDes速率持续提升,一方面,传统电I/O接口损耗加大,光学I/O有望突破瓶颈;另一方面,SerDes速率提升下,光模块之间的功耗不断升高,随着40G、100G、400G、800G的迭代,相比2010年,51.2T的交换机中,光器件能耗增加26倍,光模块整体功耗大约可占交换机功耗的40%以上。 图22:SerDes速率提升下功耗持续提升 图23:erDes速率提升,电I/O接口损耗加大 AI有望加速硅光和CPO应用。硅光技术正成为AI和高性能计算领域的关键技术方向之一,硅光是CPO光引擎的最佳产品形态。通过将硅光引入封装中,有助于解决高性能计算的功率传递、I/O瓶颈及带宽互连密度问题。 图24:硅光是AI未来的关键技术方向之一 图25:硅光是CPO的最佳选择 图26:CPO能显著降低光模块功耗 图27:硅光模块的CPO封装 硅光模块未来5年市场快速成长。据Yole预测,预计硅光模块2022年市场规模约为12.4亿美元,2028年市场规模合计达72.4亿美元;另据Coherent预测,2023年硅光对应数通光模块市场规模约8亿美元,预计2028年硅光市场规模达25亿美元,2