您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国信证券]:通信行业周报2024年第6期:英伟达引领AI加速,硅光和液冷值得关注 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业周报2024年第6期:英伟达引领AI加速,硅光和液冷值得关注

信息技术2024-02-25马成龙、袁文翀、朱锟旭国信证券E***
AI智能总结
查看更多
通信行业周报2024年第6期:英伟达引领AI加速,硅光和液冷值得关注

行业要闻追踪:英伟达算力芯片与网络需求旺盛。四季度,英伟达实现营业收入221亿美元,同比增长265.3%,其中数据中心板块实现收入184.0亿美元,同比增长409.0%。公司计算与网络业务持续高增长,预计下一代B100产品仍供不应求;同时,公司预估数据中心40%的收入来源于推理侧,AI应用正逐步深入释放推理侧需求。AI集群对网络性能要求持续提升,硅光成为AI及高性能计算技术的重要发展方向,有助于解决高性能计算的功率传递、I/O瓶颈及带宽互连密度问题。 国资委重视AI发展,中国电信拟建国产液冷算力集群。国务院国资委召开央企业人工智能专题推进会,强调中央企业要把发展人工智能放在全局工作中统筹谋划,有望带动国内AI算力需求提升,如中国电信计划在上海建设智算集群,支持单池万卡的国产超大规模算力液冷。建议关注国产算力产业链如网络设备及相关芯片、服务器、液冷等细分环节。 行业重点数据追踪:1)运营商数据:据工信部,截至2023年12月,5G移动电话用户达8.05亿户,占移动电话用户的46.6%;2)5G基站:截至2023年12月,5G基站总数达337.7万个;3)云计算及芯片厂商:23Q3,国内三大云厂商资本开支合计156.5亿元(同比+1%,环比+24%);23Q4,海外三大云厂商及Meta资本开支合计432.4亿美元(同比+9%,环比+16%)。2024年1月,信骅实现营收3.62亿新台币(同比+65%,环比+14%)。 行情回顾:本周通信(申万)指数上涨9.1%,沪深300指数上涨5.1%,板块表现强于大市,相对收益4.0%,在申万一级行业中排名第14名。在我们构建的通信股票池里有178家公司(不包含三大运营商),平均涨跌幅为1.5%,各细分领域中,光器件光模块和北斗领涨,涨幅分别为7.1%和6.6%。 投资建议:布局高股息,掘金成长股 (1)短期视角,国资委全面推进市值管理,具备稳增长、高分红属性的运营商具备估值上行空间,建议关注三大运营商及具备相似属性的运营商相关央企如中国铁塔等。 同时,当前部分细分板块估值水平已达历史底部水平,优质公司的长期投资价值凸显,如移远通信、拓邦股份、华测导航、中天科技等。 (2)中长期视角,全球AI算力建设持续,产业趋势确定,持续关注算力基础设施:光器件光模块(中际旭创、天孚通信等),液冷(英维克、申菱环境等)。 2024年2月份的重点推荐组合为:中国移动、中国铁塔、中际旭创、中天科技、华测导航、拓邦股份。 风险提示:AI发展不及预期、资本开支不及预期、宏观环境变化 产业要闻追踪 (1)英伟达公布四季度业绩,国资委重视AI发展,全球AI算力持续推进 事件:四季度,英伟达实现营业收入221亿美元,同比增长265.3%,其中数据中心板块实现收入184.0亿美元,同比增长409.0%;实现净利润122.9亿美元,同比增长768.8%。 2月19日,国务院国资委召开“AI赋能产业焕新”中央企业人工智能专题推进会。会议认为,加快推动人工智能发展,是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力,推进高质量发展的必然要求。中央企业要主动拥抱人工智能带来的深刻变革,把加快发展新一代人工智能摆在更加突出的位置,不断强化创新策略、应用示范和人才聚集,着力打造人工智能产业集群,发挥需求规模大、产业配套全、应用场景多的优势,带头抢抓人工智能赋能传统产业,加快构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。 点评: 亮点一:英伟达公布四季度业绩 英伟达营收持续高增,24Q1收入指引中值为240亿美元。英伟达23Q4实现营业收入221亿美元,同比增长265.3%;实现净利润122.9亿美元,同比增长768.8%。 公司指引FY25Q1收入为240亿美元,对应同比增速为233.7%。 图1:英伟达收入(百万美元)及同比增速 图2:英伟达净利润(百万美元)及同比增速 其中,数据中心板块持续快速增长。23Q4,英伟达数据中心板块实现收入184.0亿美元,同比增长409.0%,环比增长26.8%,占收比达到83%。其中: (1)计算相关产品Q4收入同比增长488%,环比增长27%。预计24Q2将交付H200,同时将在2024年内交付B100产品,根据业绩说明会信息,英伟达预计B100将供不应求,需求持续旺盛。 (2)网络产品Q4收入同比增长217%,环比增长28%;网络年化run rate达到130亿美元,对比上季度为100亿美元。公司IB产品增长迅速,IB解决方案产品全年同比增长超5倍;公司也推出用于AI的以太网产品Spectrum-X。 推理业务收入占比达40%。根据业绩说明会,英伟达预估40%的数据中心板块收入来源于推理侧,反应AI应用逐步落地。 图3:英伟达数据中心收入(百万美元)及增速 图4:英伟达数据中心收入拆分 亮点二:科技巨头持续投资,多模态模型加速推进 资本开支方面,23Q4海外云厂商资本开支同环比回升。2023年四季度,海外三大云厂商及Meta资本开支(非净额口径)合计432.4亿美元(同比+9%,环比+16%)。 其中: 亚马逊(Amazon)23Q4资本开支145.9亿美元(同比-12%,环比+17%),亚马逊资本开支下滑主要由于履约和运输支出减少; 微软(Microsoft)23Q4资本开支97.4亿美元(同比+55%,环比-2%); 谷歌(Google)23Q4资本开支110.2亿美元(同比+45%,环比+37%); Meta(Facebook)23Q4资本开支79.0亿美元(同比-14%,环比+17%)。 图5:海外三大云厂商及Meta资本开支(百万美元) 图6:海外三大云厂商及Meta资本开支yoy(%) 从全年资本开支预期来看,海外科技巨头均基于AI投资视角,计划加大2024年资本开支预期。 表1:海外三大云厂商及Meta资本开支指引 国内视角,23Q3国内三大云厂商资本开支同比提升,腾讯、百度同比大增。根据BAT三大云厂商数据,整体来看,23Q3 BAT资本开支合计156.5亿元(同比+1%,环比+24%)。其中:阿里巴巴23Q3资本开支41.1亿元(同比-62%);腾讯23Q3资本开支80.1亿元(同比+237%);百度23Q3资本开支35.3亿元(同比+61%)。 图7:国内三大云厂商资本开支(百万元) OpenAI发布了首个文生视频模型Sora。根据OpenAI官网上已更新的视频demo,Sora不仅能准确呈现细节,还能理解物体在物理世界中的存在,并生成具有丰富情感的角色。该模型甚至还可以根据提示、静止图像填补现有视频中的缺失帧来生成视频。 图8:Sora视频演示案例一 图9:Sora视频演示案例二 Google发布Gemini 1.5 Pro。Gemini 1.5基于MoE架构,最高可支持100万个Token的上下文窗口,谷歌未来计划推出从128000个token到100万个token不等的定价策略,以适应不同用户的需求。 图10:Gemini 1.5Pro可以支持100万token 图11:Gemini 1.5Pro识别44分钟电影中的场景 亮点三:AI集群带宽和算力持续提升,硅光有望加速应用 带宽和算力提升是网络配置演进趋势。以英伟达的方案为例,从A100到H100再到GH200超级芯片,单卡算力和网络互联带宽保持了快速提升。 图12:英伟达Roadmap A100:40GB的高速HBM显存,NVLINK互联带宽为600GBps,支持8卡互联,网卡和交换机配置为200G,采用200G光模块。 H100:和A100相比,显存提升到160GB,NVLINK互联带宽提升到900GBps,网卡和交换机升级为400G,采用400G和800G光模块。 GH200:1)大内存:256个超级芯片互联得到的GH200超级计算机拥有144TB的内存,可以存储更大规模的模型和数据。 高带宽互联方面,在A100和H100方案中,NVLINK技术只用于服务器内部8张GPU卡之间的互联,其中A100的芯片互联带宽为600GBps,H100为900GBps。在GH200系统中,每张SuperChip可以视为一个服务器,同时芯片之间的互联变为通过NVLINKSWITCH来完成,使得系统中的每个GPU都可以用900GBps的速度访问其他GPU,带宽得到明显提升,推动通信侧速度快速提升。 图13:英伟达H1004SU方案示意图 图14:英伟达GH200示意图 速率持续提升背景下,传统电I/O的性能、功耗等有待改进。随着SerDes速率持续提升,一方面,传统电I/O接口损耗加大,光学I/O有望突破瓶颈;另一方面,SerDes速率提升下,光模块之间的功耗不断升高,随着40G、100G、400G、800G的迭代,相比2010年,51.2T的交换机中,光器件能耗增加26倍,光模块整体功耗大约可占交换机功耗的40%以上。 图15:SerDes速率提升下功耗持续提升 图16:erDes速率提升,电I/O接口损耗加大 AI有望加速硅光和CPO应用。硅光技术正成为AI和高性能计算领域的关键技术方向之一,硅光是CPO光引擎的最佳产品形态。通过将硅光引入封装中,有助于解决高性能计算的功率传递、I/O瓶颈及带宽互连密度问题。 图17:硅光是AI未来的关键技术方向之一 图18:硅光是CPO的最佳选择 图19:CPO能显著降低光模块功耗 图20:硅光模块的CPO封装 市场规模方面,据Yole预测,预计硅光模块2022年市场规模约为12.4亿美元,2028年市场规模合计达72.4亿美元;另据Coherent预测,2023年硅光对应数通光模块市场规模约8亿美元,预计2028年硅光市场规模达25亿美元,2023-2028年CAGR为25.6%,其中AI相关硅光模块市场规模约12亿美元。 图21:数通光模块市场规模预测(十亿美元,按激光器类型) 图22:硅光市场规模预测(百万美元) 亮点四:液冷有望成为算力中心标配,国产算力率先推进 液冷技术有望成为智算中心主流。随着AI计算、HPC计算等高性能计算需求不断提升,CPU、GPU等计算芯片朝高算力、高集成方向演进,同时也导致单颗计算芯片功耗的大幅提升。当前,Intel的多款CPU芯片的TDP已突破350W,Nvidia的H100系列GPU芯片的TDP更高达700W。CPU/GPU等计算芯片在通用服务器功耗中占比约为50%左右,而在AI服务器中,计算芯片的功耗占比高达80%以上,因此计算芯片高功耗造成单服务器功耗显著提高。 图23:CPU/GPUTDP变化趋势 图24:单机柜功率密度与冷却方式演变 展望明年,一方面,运营商白皮书加速液冷应用,2024年开展规模测试。此前,三大运营商联合发布《电信运营商液冷技术白皮书》,加速液冷应用。根据《白皮书》规划,2023年运营商开展技术验证,充分验证液冷技术性能,降低PUE,储备规划、建设与维护等技术能力;2024年开展规模测试(新建数据中心项目10%规模试点应用液冷技术;至2025年,开展规模应用,50%以上数据中心项目应用液冷技术。 近期中国电信计划在上海规划建设可支持万亿参数大模型训练的智算中心集群,其中,单池新建国产算力达10000卡,是首个支持单池万卡的国产超大规模算力液冷。 图25:运营商液冷应用规划 另一方面,国产算力中,昇腾系有望逐步启用液冷。英伟达GPU目前仍不需要标配液冷散热,风冷、液冷应用共存;而华为昇腾系旗舰产品由于制程等因素限制,服务器热密度更高,为满足PUE要求,昇腾服务器有望加速采用液冷。考虑到英伟达加速卡禁运等外部环境,华为昇腾作为国产方案的选择应用有望加速,带动液冷需求提升。 当前液冷方式以冷板式为主。当前主流的液冷技术包括冷板式液冷和浸没式液冷,由于冷板式液冷对于数据中心的改造难度较低,改造所需成本也较为可控,所以目前冷板式液冷的市场应用相对更加普及。根据ID