您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国信证券]:通信行业2024年4月投资策略:关注国产算力与低空经济,重视运营商 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业2024年4月投资策略:关注国产算力与低空经济,重视运营商

信息技术2024-04-01马成龙、袁文翀国信证券静***
通信行业2024年4月投资策略:关注国产算力与低空经济,重视运营商

2024年3月行情回顾:板块表现强于市场。3月沪深300指数全月下跌0.01%,通信(申万)指数全月上涨1.74%,跑赢大盘,在申万31个一级行业中排名第16名。各细分领域普遍上涨,5G板块表现较优。 全球光通信大会(OFC)3月底举行,硅光应用有望加速。(1)全球多家厂商展示了1.6T光模块,光模块迭代加速。博通发布200GEML和VCSEL激光器; 薄膜铌酸锂技术逐步成熟,配套速率升级。(2)硅光应用:旭创、光迅等厂商展示了硅光1.6T光模块,博通演示了200G硅光子CW激光器;此外,硅光是CPO、光互连等场景下最佳光引擎载体,Marvell展示了业界首个3D硅光子引擎,Intel展示了基于硅光的OCI小芯片联合封装其CPU。(3)交换技术方面,博通发布了51.2T的硅光CPO交换机,Coherent发布了300x300端口OCS交换机,字节跳动携手锐捷网络发布了800GLPO交换机和光模块。 三大运营商2023年业绩总体表现良好,分红比例有望继续提升。2023年运营商传统业务稳健增长;云业务增速亮眼,移动云/天翼云/联通云分别增长66%/68%/41%。折旧与摊销占收比持续下行,费用端合理管控,移动/电信/联通全年ROE(摊薄)分别同比提升0.2/0.5/0.4pct。展望未来,移动指引收入和利润实现良好增长,电信指引净利润增速高于收入增速,联通指引2024年利润保持双位数增长。并且,移动和电信指引持续提升分红比率。 5G-A基站和北斗导航赋能低空飞行器网络覆盖。3月28日,四部委联合印发《通用航空装备创新应用实施方案(2024-2030年)》,飞行感知网、数据通信网属于低空智能网联重要环节。(1)飞行感知网负责为无人机、有人机等提供定位、授时、导航和监管服务,我国北斗导航系统已覆盖全球,国产厂商未来发展空间较大。(2)数据通信网负责飞行器各类数据交互,5G-A通感一体技术能精确定位运动物体状态,5G-A基站产业链有望受益。 投资建议:关注国产算力与低空经济发展,重视运营商分红率提升 (1)短期视角,全球AI行业不断变革发展,我国高度重视算力基础设施建设,政府政策频出,产业趋势确定,持续关注算力基础设施:光器件光模块(中际旭创、天孚通信等),通信设备(中兴通讯、紫光股份等),液冷(英维克、申菱环境等)。近期低空经济政策频出,低空网络覆盖至关重要,建议关注北斗导航相关供应商(华测导航等)。 (2)中长期视角,中国移动和中国电信规划2024年起3年内将分红比例提升至75%以上,高股息价值凸显,建议关注三大运营商。 4月推荐组合:中国移动、天孚通信、英维克、华测导航、菲菱科思。 风险提示:宏观经济波动风险、数字经济建设不及预期、AI发展不及预期。 3月行情回顾:板块表现强于大市 3月通信板块上涨1.74%,跑赢大盘 截至2024年3月31日,3月沪深300指数全月下跌0.01%,通信(申万)指数全月上涨1.74%,板块表现强于大市,在申万31个一级行业中排名第16名。 图1:通信行业指数3月走势(截至2024年3月31日) 图2:申万各一级行业3月涨跌幅(截至2024年3月31日) 3月通信板块估值上修 按照申万一级行业分类,以申万通信为统计基础,近10年行业PE( TTM ,整体法,剔除负值)最低达到过13.95倍,最高达到过90.18倍,中位数37.8倍,3月底PE估值为19.8倍,高于近十年10分位数水平。 图3:通信行业近10年PE( TTM ,整体法)估值情况 以我们构建的通信股票池(176家公司,不包含三大运营商)为统计基础,近10年,通信行业PE( TTM ,整体法,剔除负值)最低达到过25.2倍,最高达到过103.0倍,中位数43.6倍,3月底PE估值为33.5倍,处于近十年10分位数水平。通信行业PB(MRQ)最低达到过2.3倍,最高达到10.0倍,中位数3.9倍,3月底估值为3.0倍,低于历史10分位数水平。 图5:通信行业(国信通信股票池)近10年PE/PB 按照申万一级行业分类,申万通信行业的市盈率为20.0倍,市净率为1.8倍,分别位居31个行业分类中的16名和17名。若剔除中国移动、中国电信、中国联通三个对指标影响较大的标的,通信行业市盈率为31.6倍,市净率为3.0倍,处于全行业偏上水平。 图7:申万一级行业市盈率(TTM,整体法)对比 在我们构建的通信股票池里有176家公司(不包含三大运营商),3月份平均涨幅5.7%。3月份通信行业中,细分板块较多上涨,其中5G、北斗、IDC、专网、物联网、工业互联网、光器件光模块、光纤光缆、运营商分别涨12%、10%、10%、6%、5%、4%、3%、2%、2%。 图9:通信行业各细分板块分类 图10:通信板块细分领域3月涨跌幅 从个股表现来看,2024年3月份上涨的个股包括:普天科技(58.1%)、奥飞数据(44.8%)、兆龙互连(39.4%)、星网宇达(31.2%)、司南导航(29.1%)、震有科技(28.4%)、光迅科技(28.3%)、深南电路(27.0%)、鼎通科技(27.0%)、金信诺(26.8%)等。 图11:通信行业3月涨跌幅前后十名 3月通信板块重点推荐组合表现 2024年3月份的重点推荐组合为:中国移动、中际旭创、英维克、华测导航、三旺通信、菲菱科思。组合收益率跑赢沪深300指数,跑赢通信(申万)指数。 表1:国信通信3月组合收益情况(截至2024年3月31日) 4月通信板块重点推荐组合 2024年4月份的重点推荐组合为:中国移动、天孚通信、英维克、华测导航、菲菱科思。 表2:国信通信2024年4月推荐组合 英伟达2024年GTC发布新架构、新产品 NVIDIAGTC2024在美国加利福尼亚州圣何塞会议中心成功启幕。本届大会以“卓越的头脑,突破性发现”为主题,英伟达推出了全新Blackwell架构芯片平台,同时还展示了公司在加速计算、软件服务、医疗、汽车以及机器人等领域的最新进展。 图12:英伟达在过去8年将AI计算能力提升1000倍 图13:Blackwell Blackwell平台成为工业革命新引擎 Blackwell拥有六项革命性的技术,可以支持多达10万亿参数的模型进行AI训练和实时LLM推理: 全球最强大的芯片:Blackwell架构GPU由2080亿个晶体管组成,采用量身定制的台积电4纳米工艺制造,两个reticle极限GPU裸片将10TB/秒的芯片到芯片链路连接成单个统一的GPU。 第二代Transformer引擎 : 结合了Blackwell Tensor Core技术和TensorRT-LLM和NeMo Megatron框架中的英伟达先进动态范围管理算法,Blackwell通过新的4位浮点AI支持双倍的计算和模型大小推理能力。 第五代NVLink:为提高数万亿参数和混合专家AI模型的性能,最新一代英伟达NVLink为每个GPU提供了突破性的1.8TB/s双向吞吐量,确保最复杂LLM之间多达576个GPU之间的无缝高速通信。 RAS引擎:Blackwell架构增加芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI的弹性,使其能连续运行数周甚至数月,并降低运营成本。 安全人工智能:机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。 解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。 图14:Blackwell芯片对比Hopper芯片 图15:Blackwell的6个特性 GB200重磅亮相,算力、Switch、铜连接、液冷等均有突破 GB200架构支持36和72个GPU。每个机架托管18个基于MGX参考设计和NVLink SwitchSystem的计算节点。 GB200NVL36配置在一个机架中配置36GPU和18个单GB200计算节点。 GB200NVL72配置在一个机架中配置72GPU和18个双GB200计算节点,或者在两个机架中配置72GPU和18个单GB200计算节点(Computenode)。 图16:GB200NVL72招标 图17:GB200NVL72(36GraceCPUs+72BlackwellGPUs) 一个计算节点(Computenode)包含2个GB200,也就是2个GraceCPU、4个GPU,支持1.7TBFastMemory。 图18:GB200 NVL72中每compute node配置2个GB200芯片(4个BlackwellGPUs) 图19:GB200芯片由2个BlackwellGPUs和一个GraceCPU组成 BlackwellB200的AI性能可达20PFLOPS,H100为4PFLOPS。BlackwellB200基于台积电的 4nm 工艺打造,采用了将两个die连接成一个GPU的双芯设计,每个GPU芯片上拥有2080亿个晶体管。 图20:BlackwellGPU芯片 图21:BlackwellGPU由2个Blackwell裸片组成 GB200芯片对比GH200芯片性能:在训练方面,之前90天内训练一个1.8万亿参数规模的模型需要8000个Hopper架构的GPU,功率为15兆瓦。现在同样时间内用2000个Blackwell架构的GPU就可以做到,且功率仅为4兆瓦。 在推理方面,基于Blackwell架构的芯片的推理能力大约是此前Hopper架构芯片的30倍。将一个Grace CPU和两个B200GPU组合在一起,就是超级芯片GB200,与H00芯片相比,GB200可以为大模型的推理负载提供30倍的性能提升,并将成本和能耗降低25倍。 图22:GB200NVL72与HGXH100推理性能对比(FP4格式、万亿参数) 图23:GB200NVL72与HGXH100训练性能对比 每个GPU上依然有18个第五代NVLink,单Link双向带宽从H100的第4代NVLink的50GB/s升级到100GB/s。所以B100和B200的GPU-to-GPU带宽上限为1.8TB/s,该速率带宽是PCIeGen5的14倍。 图24:英伟达NVLinkSpec 一个NVL72包含9个NVLink Switchs,总带宽129.6TB/s。第4代NVLink SwitchTray包含2个NVSwitch芯片,144个NVLinkPort,单Port的带宽为100GB/s, 支持的带宽能力为14.4TB/s。一个NVL72内的9个NVLink Switchs包含18个NVSwitch芯片,1296个NVLinkPort,可以完全连接72个GPUs(每个GPUs包含18个NVLinkports),支持带宽能力129.6TB/s。 图25:单机架配置18个NVLinkSwitch 图26:NVLinkSwitch(配置2个/计算卡) 机架的顶部有一台Quantum Infiniband-800交换机,配合第五代NVLink技术,用8个这样的机架就组成了包含576块B200显卡芯片的SuperPOD AI算力集群。这样一个SuperPOD就可提供11.5Exaflops(8x1440PetaFlops)的AI计算性能。 图27:QuantumInfiniBand Switch 图28:GB200NVL72组成SuperPOD,IB或以太网交换机 32000GPUs组成的超大数据中心可以提供645exaFLOPS算力,13PB的Fast Memory,58PB/s的聚合带宽。 图29:32000GPUs集群 GB200互联使用铜连接(copper cabling),并搭载液冷系统。英伟达GB200机架具有2英里长的NVLink布线,共5,000根电缆,节省了20KW