市场回顾 本周(4月22日-4月26日)电子板块涨跌幅为+5.03%,相对沪深300指数涨跌幅+3.83pct。本周电子行业子板块涨跌幅分别为PCB 8.90%,消费电子组件6.58%,半导体材料6.33%,其他电子零组件Ⅲ6.19%,集成电路6.14%,半导体设备4.90%,显示零组4.68%,LED 4.02%,被动元件3.17%,安防2.50%,面板1.79%,分立器件0.89%,消费电子设备-9.21%。 行业要闻 1、云厂商业绩密集披露,Capex指引AI需求向上。本周北美云厂商陆续披露1Q24财报,当前时点云厂商Capex或是全球AI投资最重要影响因素。Meta和微软在1Q24的Capex均超出市场前期预期,并上修了全年Capex指引,英伟达股价在4月25日和26日连续反弹,两天分别上涨3.71%和6.18%。 2、GB200优势显著,关注算力产业链增量弹性。据集微网,4月23日,广达资深副总经理暨云达总经理杨麒表示,搭载当前“最强AI芯片”英伟达GB200的服务器,预计将于9月量产。 3、从OpenELM到WWDC,苹果AI Phone布局初现。1)4月25日,苹果在Hugging Face平台上发布一个“具有开源训练和推理框架的高效语言模型”,名为OpenELM。2)苹果官方宣布,今年的WWDC24定档在太平洋时间2024年6月10日-14日(北京时间6月11日-15日)。 4、原材料价格持续上涨,关注覆铜板价格传导节奏。近日来铜价持续走高,SHFE铜价自3月1日的69112元/吨一路上行至4月26日的81100元/吨,区间涨幅达17.35%,中国巨石等企业亦宣布上调玻纤价格。铜及玻纤布作为覆铜板制造的主要原材料,近期价格快速上行带来成本端压力,覆铜板企业存在较强的涨价诉求。 本周观点:本周北美云厂商陆续披露1Q24财报,Meta和微软均给出了超市场预期的答卷。我们于上周周报中前瞻提示,本周全球AI板块强力反弹,验证了我们的前期观点。此外,本周诸多A股电子上市公司陆续披露业绩,不少公司业绩录得超预期的同环比增长。建议把握绩优标的布局良机。 展望未来,AI仍是最核心的投资方向:1)GB200引领产业变革,光铜并进,PCB也有全面升级;2)COWOS、HBM作为算力供给侧瓶颈,看好扩产弹性;3)AI Phone呼之欲出,有望成为消费电子全新成长引擎。 不止AI,部分半导体白马业绩底部企稳;PCB、存储和面板则周期成长兼备,孕育着全新机遇。 标的方面,建议关注: GB200:工业富联、立讯精密、沃尔核材、沪电股份、胜宏科技Cowos:ASMPT、芯碁微装、长川科技、兴森科技 AI终端:联想集团、小米集团、华勤技术、鹏鼎控股 芯片设计:韦尔股份、思特威、圣邦股份、艾为电子、晶晨股份、乐鑫科技PCB:生益科技、建滔积层板 存储:澜起科技、聚辰股份、德明利 风险提示:电子行业周期复苏不及预期;行业竞争加剧;汇率波动。 1本周观点 1.1云厂商业绩密集披露,Capex指引AI需求向上 本周北美云厂商陆续披露1Q24财报,我们上周周报前瞻提示关注云厂商Capex,并指出当前时点云厂商Capex或是全球AI投资最重要影响因素。当前美股AI投资仍处于第一阶段,云厂商仍处于大模型训练时期,应用侧尚处于落地早期,伴随诸如Sora等应用落地,推理侧的需求及海量AI场景有望带动新一轮AI应用浪潮。 从本周披露业绩的三家主要云厂商Meta、微软、谷歌来看,Meta和微软在1Q24的Capex均超出市场前期预期,并上修了全年Capex指引,英伟达股价在4月25日和26日连续反弹,两天分别上涨3.71%和6.18%。 复盘云商Capex趋势,1Q24指引全年增长乐观 我们复盘了北美云厂商过去4年的Capex走势,虽增速逐年放缓但整体保持逐年增长趋势,但伴随AI的强势增长,结合已发布1Q24财报三家公司的指引,2024年北美云商资本开支有望重回高速增长态势。云厂商目前已成为英伟达下游加速卡最大的需求来源,由于全球经济疲软,2023年云厂商资本开支增速有所放缓,前三季度Meta、谷歌、亚马逊三家云厂商合计资本开支均为负增长,但受益于AI带来加速卡的大量需求,4Q23开始云厂商快速加大资本开支,据Bloomberg,4Q23北美四大云厂商合计资本开支为483.67亿美元,同比增长23.84%,在2023年前三个季度合计资本开支持续同比下滑的情况下大幅转正。 展望2024年,云厂商Capex有望重回高增。1Q24微软、谷歌的Capex分别同比高增79%和91%,并指引24年后续季度Capex超过Q1,则预计微软和谷歌24年Capex分别超过560亿美金和480亿美金,同比分别增长36%和49%;Meta1Q24的Capex虽然同比略有下滑5%,但公司上调全年Capex至350-400亿美金(前次指引为300-370亿美金),因此Meta 24年Capex指引中值较23年增长33%。 图1:2020-2024年北美云商资本开支(含融资租赁)(亿美元) 我们认为,云厂商Capex超预期并上修资本开支或因GB200的推出。英伟达在3月发布的GB200 NVL72在单卡算力、显存以及片间互联等方面全面提升,而全新的服务器架构则更进一步加强了集群的训练和推理效果,当前英伟达与其他竞争对手的差距被拉开,倒逼云厂商加大Capex参与算力竞赛。 1.2GB200优势显著,关注算力产业链增量弹性 据集微网,4月23日,广达资深副总经理暨云达总经理杨麒表示,搭载当前“最强AI芯片”英伟达GB200的服务器,预计将于9月量产。英伟达在2024年3月18日的GTC大会上推出全新一代Blackwell GPU平台,并推出DGX NVL 72服务器,相较于上一代的H系列加速卡,Blackwell GPU在算力、互联带宽、内存等方面获得了全面的性能提升,并通过DGX NVL 72架构进一步拉大英伟达与其他竞争对手的差距,目前下游微软等云厂商客户采购意愿较强。从算力产业链的上游环节弹性来看,建议关注铜互连、PCB、光模块、液冷等环节的变化。 1.2.1BlackwellGPU与竞争对手拉开差距 在AI算力环节,此前市场呈现一超多强的竞争格局,AMD等厂商对英伟达的追赶力度不容忽视,但此次英伟达推出的Blackwell GPU平台全面强化了英伟达的优势,使得英伟达在AI三要素领域与竞争对手的差距进一步拉开,巩固了英伟达的领先地位。 从算力来看,已经有厂商加速卡算力和英伟达H100的算力旗鼓相当,而B系列加速卡则重新拉开了差距。以AMD为例,AMD的MI300X共计拥有1530亿个晶体管,TF32浮点运算性能为653.7TFlops,FP16和BF16运算性能为1307.4TFlops,FP8和INT8运算性能为2614.9TFlops,均为英伟达H100的1.3倍。而此次Blackwell GPU推出了全新的FP4算力精度并达到了惊人的10PFlops,INT8算力相较H100提升了一倍以上。 从存储容量来看,Blackwell GPU单卡内存容量高达192GB,大大提升了英伟达加速卡的性价比。仍然以AMD为对比,此前MI300X的一大卖点在于提供了192GB的HBM3,相较于英伟达H100 SXM的80GB HBM3具备很高的性价比,而此次Blackwell GPU不仅将内存容量提升至192GB,更升级到了HBM3E,在性价比上全面提升。 从互联带宽来看,NVLink速率升级使得英伟达在片间互联速率相较于其他厂商的竞争优势明显提升。900GB/s的NVLink互联带宽是此前市场上的最高水平,但差距并未明显拉开,AMD的Infinity Fabric带宽也可以达到896GB/s。而此次NVLink升级后,双向互联带宽达到了1.8TB/s,相较市场上其他的厂商拉开了一倍以上的差距。 表1:B200、H100、MI300X参数对比 1.2.2DGX NVL 72显著提升了英伟达的片间互联能力 从AI服务器的架构来看,市场上主流的AI服务器仍然是传统的8卡服务器架构,而伴随Blackwell平台推出的最多可以支持576卡互联,片间互联数量和带宽的提升极大改善了英伟达平台的推理和训练性能。 H100支持8卡900GB/s的NVLink带宽无损互联,而GB200支持72卡1.8TB/s的NVLink带宽无损互联。在传统H100的8卡服务器架构中,单台服务器内的八张加速卡的最大互联带宽为900GB/s,如果一层交换机采用NVLink交换机,则最多可以支持256卡互联,但由于服务器连接到一层交换机的光模块带宽限制,256张加速卡之间的互联带宽实际会下降到100GB/s(按照一台服务器插8张400G光模块计算),而在DGX NVL 72架构中,由于72张加速卡之间采用高速铜缆互联,不受光模块带宽限制,可以支持72卡的1.8TB/s的NVLink带宽无损互联,并且最多可以支持8个Rack之间的576卡互联。 图2:256卡的H100数据中心 图3:英伟达DGX NVL 72参数 凭借架构优势,GB200 NVL72的推理性能达到H100的30倍,相较其他竞争对手领先优势则更为显著。按照每10亿个参数的大模型大约需要占用4GB的显存容量计算,当前GPT4已经达到万亿参数量级,运行时至少需要几十张GPU同时进行推理工作,GB200 NVL72在单个Rack内部可以实现万亿参数量级的大模型推理工作,大大降低了大模型在通信环节的算力资源占用,使得GB200 NVL72的推理性能达到H100的30倍。 图5:GB200 NVL72、72*H100、72*x86 CPU之间的吞吐量对比 图4:GB200的推理实时吞吐量达到H100的30倍 1.2.3关注GB200带来的算力上游产业链增量弹性 从GB200的上游产业链来看,我们建议关注连接领域的光模块、铜缆、PCB等环节,以及HBM、设备、材料等领域的弹性。 GB200 NVL72对光模块环节的用量弹性来自两个方面:首先,光模块的带宽容量增加了一倍。相较于H100服务器主要采用800G光模块,GB200 NVL72主要采用1.6T光模块,并且在大算力集群下的单加速卡用量和DGX H100的单卡用量相同,光模块总带宽的增加幅度和NVLink互联贷款的增加幅度一致。其次,首先,在单个Rack的内部,由于采用铜线互联的方式,不再需要用到光模块。 因此,在大部分情况下,只要英伟达的下游客户仍然以CSP等大客户为主,或者即使AI应用加速落地,算力需求不大的小客户占比快速提升,但只要这些小的算力客户采用租用云商的数据中心为主要方式,则GB200 NVL72对光模块的总带宽将会带来一倍的提升,持续推动光模块市场空间增长。 高速铜缆及连接器成为AI服务器中的全新增量环节。在GB200 NVL72的Rack内部,GPU Tray到SwitchTray的互联采用高速铜缆,主要的优势在于,在传输距离较短的情况下,高速铜缆可以用更低的成本获得更高的互联带宽。而其他的优势还包括:1)功耗低:采用铜互联方案可以节省光电转换产生的能量损耗,单只1.6T光模块的功耗在20W左右,同时也降低了散热问题;2)故障率低:光模块每年有2%-5%的损坏率,而铜连接更加稳定。 高速铜缆此前在GH200服务器架构中也被采用,但由于下游客户的采购意愿问题,GH200并未被大规模推广,而此次英伟达全新推出的GB200 NVL72凭借其优异的性能,有望受到客户追捧,则铜缆及连接器环节有望成为全新的增量。 图6:GB200 NVL72架构 GB200架构中,由于芯片性能的提升及互联方式的改变,对信号传输有着更高的要求,PCB的用量、材质及等级亦有改变。 以英伟达上一代DGX H100服务器为例,由于采用了CPU+GPU的异架构,除了传统服务器中的主板、网卡板之外,主要新增两种类型的高价质量PCB板:承载G