投资逻辑 公司是高速以太网交换机龙头厂商,自研EOS操作系统,提供交换机白盒方案。公司凭借生态优势导入数据中心客户实现快速增长。我们认为公司有望充分受益AI趋势。以太网有望在AI获得广泛应用。以太网端口速度、线缆带宽更高,在大规模集群较 美元元成交金额百万元 Infiniband有优势。以太网是公开协议,有望受益大规模训练集 群的部署、非英伟达AI芯片训练组网及推理。根据博通24年6月业绩会,网络通信硬件在GPU集群成本占比已从20提升至约13,在年底有望升至40,博通认为25年所有的超大规模集群都将采用以太网。根据Semianalysis,10万H100集群需要超3000个搭载Tomahawk5的交换机。根据公司,24年全球数据中心以太网交换机市场约160亿美元,28年将超210亿美元。 凭借高速交换机市场市占率提升及市场增长,公司营收22、23年同比486、338。公司高速交换机市场已有较高份额,未来提升空间有限,叠加产品换代周期,公司指引24年营收增长 1214,24Q1公司营收157亿美元,同比163。根据博通24年6月业绩会,博通预计24年512T交换芯片Tomahawk5、用于GPU互联的Jericho3出货量将翻倍,交换机迭代有望带动公司增长。公司指引分下游看长期营收中6065来自数据中心,分客户看4045来自超大型云厂商。在EOS系统带来的生态优势下,公司相比竞争对手思科营收增长迅速,1923年,公司营收由2411 亿美元提升至5860亿美元,思科营业收入由51550亿美元提升至57233亿美元。在100G及以上速率数据中心以太网交换机市场,公司逐渐成为行业龙头,23年公司按端口数市场份额达到45, 39100 35100 31100 27100 23100 19100 15100 230724 231024 240124 240424 成交金额AristaNetworksInc 3500 3000 2500 2000 1500 1000 500 0 公司基本情况(美元) 项目 2022 2023 2024E 2025E 2026E 营业收入百万元 4381 5860 6958 8345 9051 增长率() 486 338 187 199 84 EBITDA 1657 2459 2796 3275 3665 归母净利润 1352 2087 2476 2884 3237 增长率() 608 543 186 165 122 每股收益期末股本摊薄 441 668 790 920 1033 每股净资产 1592 2312 2894 3614 4638 市盈率(PE) 8254 5441 4604 3953 3521 市净率(PB) 2285 1573 1257 1007 784 是思科的两倍之多。我们认为公司凭借软件生态优势,以及采用商用芯片具备更快迭代速度,公司有望保持对思科在高速交换机市场竞争优势。同时公司凭借软件硬件形式出货,相比纯硬件出货的白牌交换机厂商具备更强盈利能力。 盈利预测、估值和评级 我们预计公司2426年净利润分别为2476、2884、3237亿美元,参考可比公司估值,我们给予公司2025年50XPE,对应目标价460美元,首次覆盖,予以“买入”评级。 风险提示 以太网AI组网进展不及预期;行业竞争加剧;下游需求不及预期。 来源:公司年报、国金证券研究所 内容目录 一、以太网在AI领域与Infiniband具备差异化优势,看好大规模集群、推理以太网组网4 11以太网是数据中心主流通信协议,传输速率不断提升4 12AI模型高复杂度催生大规模集群需求,应用出现催生推理需求,有望拉动AI以太网组网5 二、立足EOS操作系统,有望保持高速以太网交换机龙头地位8 21EOS操作系统有效实现软硬件解耦,助推公司高速交换机市占率提升822EOS生态优势商用交换芯片,助力公司高速交换机保持优势12 23白牌交换机市占率仍然较低,公司软件硬件方案盈利能力更高15 三、盈利预测与投资建议16 31盈利预测1632投资建议17 四、风险提示18 图表目录 图表1:以太网是当前最普遍的局域网技术4图表2:公司与AMD、博通等厂商成立超以太网联盟,致力实现以太网在AI组网的部署4图表3:全球数据量快速增长,24年有望超153ZB4图表4:主流以太网速率已经达到400G4图表5:模型参数量提升明显,目前已经有万亿参数级别模型5图表6:GPT4、Gemini10Ultra、MistralLarge等模型训练所需要算力超过1025FLOP6图表7:以太网除延时较Infiniband高外,其余性能具备差异化优势7图表8:以太网可以在同样网络层数下构建更大规模集群7图表9:MarvellASIC客户拓展计划8图表10:博通XPU开发计划8图表11:71收敛比的10万卡H100集群需要使用3168个搭载Tomahawk5交换芯片的交换机8图表12:白盒交换机解耦上层应用与底层硬件9图表13:开放与解耦是数据中心网络发展方向9图表14:公司EOS系统具备丰富可编程性,生态系统丰富9图表15:公司营收增速较思科更高(单位:)10图表16:公司净利润增速较思科更高(单位:)10图表17:公司与思科毛利率维持在60以上(单位:)10图表18:公司营业利润率较思科更高(单位:)10图表19:公司指引长期来看营收当中6065来自数据中心与云端10图表20:公司销售费用率较思科更低(单位:)10 图表21:公司数据中心交换机按营收市占率接近思科11 图表22:公司数据中心交换机按端口数市占率已超思科11 图表23:公司数据中心高速以太网(100G200G400G)端口出货量已超思科两倍11 图表24:数据中心以太网交换机市场24年增速下滑,800G交换机预计25年起量(单位:十亿美元)12 图表25:23年公司数据中心高速交换机按端口数市占率已达到4512 图表26:主要云厂商资本开支24Q1同比增长30(单位:百万美元)12 图表27:公司更开放的生态可以方便部署、降低失效13 图表28:EOS可满足任意云网络的搭建需求13 图表29:交换机主要芯片为交换芯片13 图表30:交换机当中芯片成本占比达3213 图表31:博通StrataXGS以太网交换机芯片迭代历程14 图表32:思科以太网交换机芯片迭代历程14 图表33:目前可以提供SpectrumX平台的厂商包括戴尔、HPE、联想、超微电脑14 图表34:公司指引长期来看营收当中4045来自超大型云厂商15 图表35:交换机市场仍然以品牌厂为主,23年白牌(ODMDirect)按销售额市占率约1415 图表36:白牌交换机厂商网络相关业务营收增速与公司基本相当(单位:)16 图表37:公司毛利率显著高于白牌交换机厂商(单位:)16 图表38:公司营业利润率高于白牌交换机厂商(单位:)16 图表39:公司分业务收入、毛利率与费用率预测17 图表40:可比公司估值比较(市盈率法)18 一、以太网在AI领域与Infiniband具备差异化优势,看好大规模集群、推理以太网组网 11以太网是数据中心主流通信协议,传输速率不断提升 以太网是IEEE电气电子工程师协会制订的一种有线局域网通讯协议,应用于不同设备之间的通信传输,具备技术成熟、高度标准化、网络带宽高以及低成本等诸多优势,是当今世界应用最普遍的局域网技术。在数据中心当中,以太网一般用于云计算领域。 目前AI网络主要基于Infiniband协议,但Infiniband相较以太网价格更高,对于英伟达的依赖度较高,同时以太网具备长期在大型数据中心以及远距离传输的部署经验,为了成本以及供应链安全考虑,目前英伟达以外的厂商也在探索以太网AI网络。 23年7月UEC(超以太网联盟)成立,除了公司以外,创始厂商包括芯片厂商英特尔、AMD、博通,设备厂商思科,以及云厂商微软、Meta等。UEC的目标是超越现有的以太网功能,例如远程直接内存访问RDMA和融合以太网RDMARoCE,提供针对高性能计算和人工智能进行优化的高性能、分布式和无损传输层,将在AI领域与InfiniBand展开竞争。 图表1:以太网是当前最普遍的局域网技术 图表2:公司与AMD、博通等厂商成立超以太网联盟,致力实现以太网在AI组网的部署 来源:裕太微招股说明书,国金证券研究所 来源:UEC网站,国金证券研究所 公司作为高速以太网交换机龙头厂商,在数据中心速率升级大背景下,有望充分受益。随着8K、5G、IoT、大数据、AI等系列技术的发展,数据量迎来了爆发式增长。根据IDC的数据,2022年全球数据量已经达到10366ZB,预计2024年有望达到15352ZB,而2027年预计达到28430ZB。 为了应对快速增长的数据量,云厂商数据中心传输速率不断升级。随着生成式AI发展,对于低延时、高速率的数据传输有了更高要求,因此当下北美主要云厂商的AI数据中心速率也向800G、16T开始迭代 图表3:全球数据量快速增长,24年有望超153ZB图表4:主流以太网速率已经达到400G 数据量(ZB)YoY 300 250 200 150 100 50 0 20222023E2024E2025E2026E2027E 24 24 23 23 22 22 21 21 来源:IDC,国金证券研究所来源:裕太微招股说明书,国金证券研究所 12AI模型高复杂度催生大规模集群需求,应用出现催生推理需求,有望拉动AI以太网组网 ScalingLaw是指模型的性能与计算量、模型参数量和数据大小三者之间存在的关系。具体来说,当不受其他因素制约时,模型的性能与这三者呈现幂律关系。这意味着,增加计算量、模型参数量或数据大小都可能会提升模型的性能。根据OpenAI的论文《ScalingLawsforNeuralLanguageModels》,更大的模型将具备更强的性能,同时具备更高的效率。今年以来,已经有上万亿参数的模型推出。 图表5:模型参数量提升明显,目前已经有万亿参数级别模型 来源:《AIIndexReport2024》,国金证券研究所 随着模型参数量的提升,训练模型所需要的算力也不断增加。根据EpochAI,2017年只有两个AI模型的训练所需要算力超过了1023FLOP,在截至2020年,模型数量提升至4个,截至22年,模型数量提升至31个,在24年16月份,训练所需要算力超过了1023FLOP的新增的模型数量达到了25个。另外,部分模型训练所需要的算力已经超过了1025FLOP,如GPT4、Gemini10Ultra、MistralLarge等。 图表6:GPT4、Gemini10Ultra、MistralLarge等模型训练所需要算力超过1025FLOP 来源:EpochAI,国金证券研究所 更大参数的模型带动更大的训练算力需求,带动GPU集群规模的不断提升。大规模集群对于网络通信的性能要求有明显增加,网络通信硬件的成本快速提升。根据博通24年6月举行的FY24Q2业绩会,网络通信硬件在GPU集群的成本占比已经从20提升至接近13,并且在年底有望提升至40。 目前GPU集群组网通常采用Infiniband或以太网,InfiniBand通常比以太网提供更低的延迟,从而实现更快、更高效的数据传输。但对于超大规模GPU集群,由于以太网具备更高兼容性、更高的线缆带宽、更高的端口速率,采用以太网的比例明显更高。根据博通24年6月举行的FY24Q2业绩会,目前八个最大的GPU集群当中,有七个使用以太网,并且博通认为25年所有的超大规模集群都将采用以太网组网。 图表7:以太网除延时较Infiniband高外,其余性能具备差异化优势 Infiniband 以太网 线缆带宽 中 好 端口速度 差 好 大集群网路层数 差 好 动态负载平衡 无 好 完美负载平衡 无 好 优先级流量控制、出口拥塞通知、正向反向拥塞