投资逻辑: 以太网是世界最普遍局域网技术,在数据中心主要用于传统云计算当中。我们认为未来以太网有望受益大规模AI集群以及推理需求。非英伟达厂商成立了超以太网联盟,探索以太网AI应用,英伟达也针对AI以太网应用推出了以太网交换芯片。传统云计算带宽升级趋势明确,库存去化结束,带动市场恢复。服务器BMC芯片龙头信骅今年1~9月营收已达43.6亿新台币,同增102.96%。以太网交换机行业有望受益于:1)AI高景气度以及以太网在AI领域份额提升;2)传统数据中心速率升级及市场恢复。根据Arista,数据中心以太网交换机市场有望在25年开始迎来加速增长,其中主要拉动来自北美前五大云厂商(亚马逊、苹果、Meta、谷歌、微软),全球数据中心以太网交换机市场预计2024年约230亿美元,2028年有望达近400亿美元。800G以太网交换机有望迎来快速增长,650Group预计800G交换机的出货量2024年为7.7万台,2028年为180万台,CAGR达120%。 我们看好白盒交换机、交换芯片、PCB以及以太网高速连接方案厂商充分受益数据中心高速以太网交换机放量。1)白盒交换机:数据中心交换机软硬件解耦大势所趋,白盒交换机厂商份额不断增长。龙头厂商Arista23年在100G及更高速以太网交换机市场段门口出货量已经达到45%,是思科市占率2倍更高。白盒交换机厂商客户主要为头部云厂商,24Q1、24Q2微软、亚马逊、谷歌、Meta合计资本开支分别为442.89、528.52亿美元,同比+30.5%、+57.8%。们认为以太网高速交换机龙头厂商Arista份额有望保持,有望受益Meta、微软资本开支高增长,另外白牌交换机厂商也有望受益头部云厂商资本开支高增。2)交换芯片:交换芯片是交换机核心芯片,我们认为商用交换芯片厂商有望充分受益白盒交换机趋势。目前商用交换芯片市场集中度较高,除龙头厂商以外,我们认为Marvell的51.2T交换芯片也具有较强竞争力,有望帮助Marvell实现下游客户导入。国内厂商当中,盛科通信交换芯片进展较快,目前25.6T产品已经送样,未来有望受益国产替代趋势。3)PCB:交换机容量增长带动单块PCB板层数增加,目前交换机主要采用多层PCB。根据阳明电路,采用MarvellTeralynx10的800G交换机的PCB板为12+12+12设计,是PCB当中较高端规格产品。根据沪电股份半年报,18层以上PCB24年全球产值有望较24年增长超20%。我们认为800G交换机快速起量有望打开高端PCB市场空间。4)高速连接方案:交换机速率提升带动新型连接方案渗透率增长,目前传统铜缆DAC的连接方式在高速网络下面临较大的信号衰减问题,我们认为有源电缆AEC有望在高速网络替代DAC。根据Lightcounting,23年AOC、DAC、AEC市场合计12亿美元,28年有望达到28亿美元,AOC、DAC、AEC23~28年CAGR分别为15%、25%、45%,显示AEC更高增速。目前AEC主要厂商Credo的产品已经导入微软、亚马逊,并且与其他北美云厂商已经展开接触,其中一家即将实现批量出货。另外英伟达推出有源铜缆ACC方案,我们认为未来ACC应用领域也有望向以太网扩展。 投资建议与估值 以太网白盒交换机厂商、以太网交换芯片厂商、高多层能力强的PCB厂商以及高速连接厂商有望充分受益。我们看好:Arista、Credo、立讯精密,建议关注Marvell、盛科通信、白牌交换机龙头厂商、以太网交换芯片龙头厂商、在高速通信有深入布局的PCB/CCL及上游原材料厂商、布局高速连接的芯片与连接器厂商。 风险提示 以太网AI组网进展不及预期;行业竞争加剧;下游需求不及预期。 内容目录 一、云计算速率提升+AI以太网组网,数据中心以太网交换机大有可为4 1.1AI集群效率提升关键在于组网,交换机迎来新增量4 1.2云计算传输速率不断提升,带动高速以太网交换机需求7 二、看好白盒交换机、交换芯片、PCB以及以太网高速连接方案厂商8 2.1白盒交换机趋势明显,OEM厂商软件壁垒高,白牌厂商空间逐渐打开8 2.2交换芯片是交换机核心芯片,博通市占率高,国产厂商进展迅速12 2.3交换机PCB价值量提升趋势明确,打开高端PCB市场空间14 2.4AEC以太网应用趋势出现,ACC有望从Infiniband向以太网应用拓展15 三、投资建议17 四、风险提示18 图表目录 图表1:以太网是当前最普遍的局域网技术4 图表2:Arista、AMD、博通等厂商成立超以太网联盟,致力实现以太网在AI组网的部署4 图表3:GPT-4、Gemini1.0Ultra、MistralLarge等模型训练所需要算力超过10^25FLOP5 图表4:AI服务器的网络带宽远远小于显存带宽6 图表5:集群互联占模型训练及实验成本约10%6 图表6:模型训练成本指数级提升6 图表7:以太网可以在同样网络层数下构建更大规模集群7 图表8:全球数据量快速增长,24年有望超153ZB7 图表9:主流以太网速率已经达到400G7 图表10:服务器BMC龙头厂商信骅今年1~9月营收同比增长102.97%8 图表11:全球数据中心交换机市场预计28年达近400亿美元8 图表12:800G以太网交换机有望25年迅速起量8 图表13:白盒交换机解耦上层应用与底层硬件9 图表14:开放与解耦是数据中心网络发展方向9 图表15:Arista数据中心交换机按营收市占率接近思科9 图表16:Arista数据中心交换机按端口数市占率已超思科9 图表17:Arista数据中心高速以太网(100G/200G/400G)端口数出货量已超思科两倍(单位:百万)10 图表18:思科营收增速落后白盒交换机厂商(单位:%)10 图表19:OEM厂商Arista毛利率显著高于白牌厂商(单位:%)11 图表20:北美头部云厂商资本开支高增(单位:百万美元)11 图表21:21年我国交换机市场按销售额主要由华为、新华三、星网锐捷主导11 图表22:21年我国交换机品牌商市场占比68.7%11 图表23:交换机主要芯片为交换芯片12 图表24:交换机当中芯片成本占比达32%12 图表25:博通StrataXGS以太网交换机芯片迭代历程12 图表26:思科以太网交换机芯片迭代历程12 图表27:22年博通全球以太网商用交换芯片市占率达70%13 图表28:目前可以提供Spectrum-X平台的厂商包括戴尔、HPE、联想、超微电脑13 图表29:Marvell51.2T交换芯片Teralynx10具备较强产品竞争力13 图表30:服务器/数据存储领域多层PCB市场增速最高14 图表31:采用MarvellTeralynx10的800G交换机PCB采用12+12+12的设计14 图表32:18层以上PCB24年全球产值有望较23年增长超20%14 图表33:DAC直径、所占空间更大,排线困难15 图表34:AEC直径、所占空间更小15 图表35:AEC在短距离高速率传输优势较DAC和光通信方案明显15 图表36:AOC、DAC、AEC28年市场有望达28亿美元,AEC增速最快16 图表37:Credo客户拓展顺利,FY24三家头部企业成为Credo营收占比超10%客户16 图表38:主要厂商AEC产品进展17 图表39:英伟达ACC产品17 图表40:相关公司估值表(单位:当地货币)18 一、云计算速率提升+AI以太网组网,数据中心以太网交换机大有可为 1.1AI集群效率提升关键在于组网,交换机迎来新增量 以太网是IEEE电气电子工程师协会制订的一种有线局域网通讯协议,应用于不同设备之间的通信传输,具备技术成熟、高度标准化、网络带宽高以及低成本等诸多优势,是当今世界应用最普遍的局域网技术。在数据中心当中,以太网一般用于云计算领域。 目前AI网络主要基于Infiniband协议,但Infiniband相较以太网价格更高,对于英伟达的依赖度较高,同时以太网具备长期在大型数据中心以及远距离传输的部署经验,为了成本以及供应链安全考虑,目前包括英伟达的厂商也在探索以太网AI网络。 23年7月UEC(超以太网联盟)成立,创始厂商包括芯片厂商英特尔、AMD、博通,设备厂商思科、Arista,以及云厂商微软、Meta等。UEC的目标是超越现有的以太网功能,例如远程直接内存访问(RDMA)和融合以太网RDMA(RoCE),提供针对高性能计算和人工智能进行优化的高性能、分布式和无损传输层,将在AI领域与InfiniBand展开竞争。 图表1:以太网是当前最普遍的局域网技术图表2:Arista、AMD、博通等厂商成立超以太网联盟,致 力实现以太网在AI组网的部署 来源:裕太微招股说明书,国金证券研究所来源:UEC网站,国金证券研究所 随着模型参数量的提升,训练模型所需要的算力也不断增加。根据EpochAI,2017年只有两个AI模型的训练所需要算力超过了10^23FLOP,在截至2020年,模型数量提升至4个,截至22年,模型数量提升至31个,在24年1~6月份,训练所需要算力超过了10^23FLOP的新增的模型数量达到了25个。另外,部分模型训练所需要的算力已经超过了10^25FLOP,如GPT-4、Gemini1.0Ultra、MistralLarge等。 图表3:GPT-4、Gemini1.0Ultra、MistralLarge等模型训练所需要算力超过10^25FLOP 来源:EpochAI,国金证券研究所 AI芯片集群的硬件性能主要包括算力、存力、网络传输速度。其中算力是衡量单卡运算能力的指标。而存力和网络传输速度则决定了在一个集群当中,单卡算力所能够发挥的效率。目前通过采用HBM和CoWoS封装,将GPU直接与具备高带宽的HBM连接,存力瓶颈已经逐步改善。但目前交换机当中以太网及Infiniband的带宽仍然较低,同时GPUtoGPU互联的NVLink带宽也较低,因此我们认为未来对于集群的效率边际提升,发挥单卡的最大效率,最为关键的是提升网络传输速度。以英伟达GB200NVL72为例,显存带宽达到了576TB/s,而NVLink带宽为130TB/s。在B200DGX系统当中,系统显存带宽达到了64TB/s,网络带宽当中GPU之间互联的NVLink为14.4TB/s,而对外进行传输的带宽则为800Gb/s,通过两个BlueField-3DPU实现。 图表4:AI服务器的网络带宽远远小于显存带宽 带宽(GB/s) 700 600 500 400 300 200 100 0 GB200NVL72HBMGB200NVL72 NVLink DGXB200HBMDGXB200NVLinkDGXB200Bluefield 来源:英伟达网站,国金证券研究所 我们认为未来集群效率的提升关键在于网络传输带宽提升,集群当中网络硬件价值量有望持续增长。目前来看,根据EpochAI测算,GPT-3175B、OPT-175B、GPT-4、Gemini1.0Ultra的训练以及实验成本当中,集群层面的互联成本分别为13%、11%、12%、9%。而模型的训练成本也指数级提升,根据EpochAI测算,GPT-4训练成本接近1亿美元,Gemini1.0Ultra训练成本已经超过1亿美元。 图表5:集群互联占模型训练及实验成本约10%图表6:模型训练成本指数级提升 研发人员 Gemini1.0Ultra GPT-4 OPT-175B GPT-3175B AI加速器 集群互联 其他服务器零部件能耗 0%20%40%60%80%100%120% 来源:EpochAI,国金证券研究所来源:EpochAI,国金证券研究所 我们认为以太网交换机相关厂商,在AI领域有望受益行业高增速,以及以太网渗透率提升,是AI网络相关最为受益方向。GPU集群组网通常采用Infiniband或以太网,InfiniBand通常比以太网提供更