投资逻辑 公司是高速以太网交换机龙头厂商,自研EOS操作系统,提供交换机白盒方案。公司凭借生态优势导入数据中心客户实现快速增长。我们认为公司有望充分受益AI趋势。以太网有望在AI获得广泛应用。以太网端口速度、线缆带宽更高,在大规模集群较 美元(元)成交金额(百万元) Infiniband有优势。以太网是公开协议,有望受益大规模训练集 群的部署、非英伟达AI芯片训练组网及推理。根据博通24年6月业绩会,网络通信硬件在GPU集群成本占比已从20%提升至约1/3,在年底有望升至40%,博通认为25年所有的超大规模集群都将采用以太网。根据Semianalysis,10万H100集群需要超3000个搭载Tomahawk5的交换机。根据公司,24年全球数据中心以太网交换机市场约160亿美元,28年将超210亿美元。 凭借高速交换机市场市占率提升及市场增长,公司营收22、23年同比+48.6%、+33.8%。公司高速交换机市场已有较高份额,未来提升空间有限,叠加产品换代周期,公司指引24年营收增长 12%~14%,24Q1公司营收15.7亿美元,同比+16.3%。根据博通24年6月业绩会,博通预计24年51.2T交换芯片Tomahawk5、用于GPU互联的Jericho3出货量将翻倍,交换机迭代有望带动公司增长。公司指引分下游看长期营收中60~65%来自数据中心,分客户看40~45%来自超大型云厂商。在EOS系统带来的生态优势下,公司相比竞争对手思科营收增长迅速,19~23年,公司营收由24.11 亿美元提升至58.60亿美元,思科营业收入由515.50亿美元提升至572.33亿美元。在100G及以上速率数据中心以太网交换机市场,公司逐渐成为行业龙头,23年公司按端口数市场份额达到45%, 391.00 351.00 311.00 271.00 231.00 191.00 151.00 230724 231024 240124 240424 成交金额AristaNetworks,Inc. 3,500 3,000 2,500 2,000 1,500 1,000 500 0 公司基本情况(美元) 项目 2022 2023 2024E 2025E 2026E 营业收入(百万元) 4,381 5,860 6,958 8,345 9,051 增长率(%) 48.6% 33.8% 18.7% 19.9% 8.4% EBITDA 1,657 2,459 2,796 3,275 3,665 归母净利润 1,352 2,087 2,476 2,884 3,237 增长率(%) 60.8% 54.3% 18.6% 16.5% 12.2% 每股收益-期末股本摊薄 4.41 6.68 7.90 9.20 10.33 每股净资产 15.92 23.12 28.94 36.14 46.38 市盈率(P/E) 82.54 54.41 46.04 39.53 35.21 市净率(P/B) 22.85 15.73 12.57 10.07 7.84 是思科的两倍之多。我们认为公司凭借软件生态优势,以及采用商用芯片具备更快迭代速度,公司有望保持对思科在高速交换机市场竞争优势。同时公司凭借软件+硬件形式出货,相比纯硬件出货的白牌交换机厂商具备更强盈利能力。 盈利预测、估值和评级 我们预计公司24~26年净利润分别为24.76、28.84、32.37亿美元,参考可比公司估值,我们给予公司2025年50XPE,对应目标价460美元,首次覆盖,予以“买入”评级。 风险提示 以太网AI组网进展不及预期;行业竞争加剧;下游需求不及预期。 来源:公司年报、国金证券研究所 内容目录 一、以太网在AI领域与Infiniband具备差异化优势,看好大规模集群、推理以太网组网4 1.1以太网是数据中心主流通信协议,传输速率不断提升4 1.2AI模型高复杂度催生大规模集群需求,应用出现催生推理需求,有望拉动AI以太网组网5 二、立足EOS操作系统,有望保持高速以太网交换机龙头地位8 2.1EOS操作系统有效实现软硬件解耦,助推公司高速交换机市占率提升82.2EOS生态优势+商用交换芯片,助力公司高速交换机保持优势12 2.3白牌交换机市占率仍然较低,公司软件+硬件方案盈利能力更高15 三、盈利预测与投资建议16 3.1盈利预测163.2投资建议17 四、风险提示18 图表目录 图表1:以太网是当前最普遍的局域网技术4图表2:公司与AMD、博通等厂商成立超以太网联盟,致力实现以太网在AI组网的部署4图表3:全球数据量快速增长,24年有望超153ZB4图表4:主流以太网速率已经达到400G4图表5:模型参数量提升明显,目前已经有万亿参数级别模型5图表6:GPT-4、Gemini1.0Ultra、MistralLarge等模型训练所需要算力超过10^25FLOP6图表7:以太网除延时较Infiniband高外,其余性能具备差异化优势7图表8:以太网可以在同样网络层数下构建更大规模集群7图表9:MarvellASIC客户拓展计划8图表10:博通XPU开发计划8图表11:7:1收敛比的10万卡H100集群需要使用3168个搭载Tomahawk5交换芯片的交换机8图表12:白盒交换机解耦上层应用与底层硬件9图表13:开放与解耦是数据中心网络发展方向9图表14:公司EOS系统具备丰富可编程性,生态系统丰富9图表15:公司营收增速较思科更高(单位:%)10图表16:公司净利润增速较思科更高(单位:%)10图表17:公司与思科毛利率维持在60%以上(单位:%)10图表18:公司营业利润率较思科更高(单位:%)10图表19:公司指引长期来看营收当中60~65%来自数据中心与云端10图表20:公司销售费用率较思科更低(单位:%)10 图表21:公司数据中心交换机按营收市占率接近思科11 图表22:公司数据中心交换机按端口数市占率已超思科11 图表23:公司数据中心高速以太网(100G/200G/400G)端口出货量已超思科两倍11 图表24:数据中心以太网交换机市场24年增速下滑,800G交换机预计25年起量(单位:十亿美元)12 图表25:23年公司数据中心高速交换机按端口数市占率已达到45%12 图表26:主要云厂商资本开支24Q1同比增长30%(单位:百万美元)12 图表27:公司更开放的生态可以方便部署、降低失效13 图表28:EOS可满足任意云网络的搭建需求13 图表29:交换机主要芯片为交换芯片13 图表30:交换机当中芯片成本占比达32%13 图表31:博通StrataXGS以太网交换机芯片迭代历程14 图表32:思科以太网交换机芯片迭代历程14 图表33:目前可以提供Spectrum-X平台的厂商包括戴尔、HPE、联想、超微电脑14 图表34:公司指引长期来看营收当中40%~45%来自超大型云厂商15 图表35:交换机市场仍然以品牌厂为主,23年白牌(ODMDirect)按销售额市占率约14%15 图表36:白牌交换机厂商网络相关业务营收增速与公司基本相当(单位:%)16 图表37:公司毛利率显著高于白牌交换机厂商(单位:%)16 图表38:公司营业利润率高于白牌交换机厂商(单位:%)16 图表39:公司分业务收入、毛利率与费用率预测17 图表40:可比公司估值比较(市盈率法)18 一、以太网在AI领域与Infiniband具备差异化优势,看好大规模集群、推理以太网组网 1.1以太网是数据中心主流通信协议,传输速率不断提升 以太网是IEEE电气电子工程师协会制订的一种有线局域网通讯协议,应用于不同设备之间的通信传输,具备技术成熟、高度标准化、网络带宽高以及低成本等诸多优势,是当今世界应用最普遍的局域网技术。在数据中心当中,以太网一般用于云计算领域。 目前AI网络主要基于Infiniband协议,但Infiniband相较以太网价格更高,对于英伟达的依赖度较高,同时以太网具备长期在大型数据中心以及远距离传输的部署经验,为了成本以及供应链安全考虑,目前英伟达以外的厂商也在探索以太网AI网络。 23年7月UEC(超以太网联盟)成立,除了公司以外,创始厂商包括芯片厂商英特尔、AMD、博通,设备厂商思科,以及云厂商微软、Meta等。UEC的目标是超越现有的以太网功能,例如远程直接内存访问(RDMA)和融合以太网RDMA(RoCE),提供针对高性能计算和人工智能进行优化的高性能、分布式和无损传输层,将在AI领域与InfiniBand展开竞争。 图表1:以太网是当前最普遍的局域网技术 图表2:公司与AMD、博通等厂商成立超以太网联盟,致力实现以太网在AI组网的部署 来源:裕太微招股说明书,国金证券研究所 来源:UEC网站,国金证券研究所 公司作为高速以太网交换机龙头厂商,在数据中心速率升级大背景下,有望充分受益。随着8K、5G、IoT、大数据、AI等系列技术的发展,数据量迎来了爆发式增长。根据IDC的数据,2022年全球数据量已经达到103.66ZB,预计2024年有望达到153.52ZB,而2027年预计达到284.30ZB。 为了应对快速增长的数据量,云厂商数据中心传输速率不断升级。随着生成式AI发展,对于低延时、高速率的数据传输有了更高要求,因此当下北美主要云厂商的AI数据中心速率也向800G、1.6T开始迭代 图表3:全球数据量快速增长,24年有望超153ZB图表4:主流以太网速率已经达到400G 数据量(ZB)YoY 300 250 200 150 100 50 0 20222023E2024E2025E2026E2027E 24% 24% 23% 23% 22% 22% 21% 21% 来源:IDC,国金证券研究所来源:裕太微招股说明书,国金证券研究所 1.2AI模型高复杂度催生大规模集群需求,应用出现催生推理需求,有望拉动AI以太网组网 ScalingLaw是指模型的性能与计算量、模型参数量和数据大小三者之间存在的关系。具体来说,当不受其他因素制约时,模型的性能与这三者呈现幂律关系。这意味着,增加计算量、模型参数量或数据大小都可能会提升模型的性能。根据OpenAI的论文《ScalingLawsforNeuralLanguageModels》,更大的模型将具备更强的性能,同时具备更高的效率。今年以来,已经有上万亿参数的模型推出。 图表5:模型参数量提升明显,目前已经有万亿参数级别模型 来源:《AIIndexReport2024》,国金证券研究所 随着模型参数量的提升,训练模型所需要的算力也不断增加。根据EpochAI,2017年只有两个AI模型的训练所需要算力超过了10^23FLOP,在截至2020年,模型数量提升至4个,截至22年,模型数量提升至31个,在24年1~6月份,训练所需要算力超过了10^23FLOP的新增的模型数量达到了25个。另外,部分模型训练所需要的算力已经超过了10^25FLOP,如GPT-4、Gemini1.0Ultra、MistralLarge等。 图表6:GPT-4、Gemini1.0Ultra、MistralLarge等模型训练所需要算力超过10^25FLOP 来源:EpochAI,国金证券研究所 更大参数的模型带动更大的训练算力需求,带动GPU集群规模的不断提升。大规模集群对于网络通信的性能要求有明显增加,网络通信硬件的成本快速提升。根据博通24年6月举行的FY24Q2业绩会,网络通信硬件在GPU集群的成本占比已经从20%提升至接近1/3,并且在年底有望提升至40%。 目前GPU集群组网通常采用Infiniband或以太网,InfiniBand通常比以太网提供更低的延迟,从而实现更快、更高效的数据传输。但对于超大规模GPU集群,由于以太网具备更高兼容性、更高的线缆带宽、更高的端口速率,采用以太网的比例明显更高。根据博通24年6月举行的FY24Q2业绩会,目前八个