投资逻辑 公司作为可以提供数据中心电源管理、热管理、软件服务等软硬件全方面产品与服务的公司,有望充分受益AI以及双碳战略带动的数据中心电源管理以及热管理产品升级换代。分下游看,公司23年营收约75%来自数据中心;分产品看,公司23年营收约30% 来自热管理。 115.00 3,000 AI服务器较传统服务器,单机芯片数量以及单芯片功耗大幅提升, 99.00 2,500 美元(元)成交金额(百万元) 公司基本情况(人民币) 未来液冷需求有望持续增长。公司测算23年全球数据中心重要基础设施市场为335亿美元,受益AI拉动,云厂商AI相关的基础设施市场23~28CAGR为14~17%。英伟达新推出的GB200NVL系统性能明显提升,NVL系统出货比例有望较GH200大幅增加。根据英伟达24年GTCAnalystCall,英伟达与公司合作液冷系统开发。我们认为随着GB200NVL系统出货提升,公司有望充分受益。另外在双碳战略大背景下,未来传统数据中心也有望采用更多液冷方案。根据ModorIntelligence测算,24年全球数据中心液冷市场为44.8亿美元,2029年有望提升至127.6亿美元。 受益数据中心功率提升带动散热以及电源系统需求增长,公司产品销售持续提升。根据施耐德测算,2023年人工智能目前的电力需求为4.5GW,并预测至2028年将以25%-33%的CAGR进行增长,最终达到14GW至18.7GW,对电源产品需求持续增加。2023年公司重要基础设施与解决方案营收为44.49亿美元,19~23CAGR为14.02%。截至1Q24,公司在手订单已经达到63亿美元,较23Q1的48亿美元明显提升。另外随着公司出货增加,在客户端产品保 有量提升将带动公司服务营收增长。根据公司指引,公司24年销 83.00 67.00 51.00 35.00 19.00 230530 230830 231130 240229 成交金额VertivHoldingsCo.ClassA 2,000 1,500 1,000 500 0 项目 2022 2023 2024E 2025E 2026E 营业收入(百万元) 5,691.5 6,863.2 7,759.6 8,756.6 9,820.1 增长率(%) 13.9% 20.6% 13.1% 12.8% 12.1% EBITDA 476.9 812.6 1,171.0 1,706.3 1,882.9 归母净利润 76.6 460.2 632.8 992.8 1,167.3 增长率(%) -36.0% 500.8% 37.5% 56.9% 17.6% 每股收益-期末股本摊薄 0.20 1.21 1.66 2.60 3.06 每股净资产 3.83 5.30 6.69 8.98 11.64 市盈率(P/E) 522.16 87.70 64.06 40.83 34.72 市净率(P/B) 27.74 20.03 15.86 11.83 9.12 售额预计较23年营收同比增长10.96%;Non-GAAP营业利润较23年增长28.08%。长期看,公司预计Non-GAAP营业利润率有望从23年的约15%提升至超20%。 盈利预测、估值和评级 我们预计公司24~26年净利润分别为6.33、9.93、11.67亿美元,对应PE分别为64、41、35倍。参照可比公司25年平均50倍PE,我们给予公司目标价130.03美元,首次覆盖,予以“增持”评级。 风险提示 AI需求不及预期;英伟达GB200NVL出货不及预期;数据中心资本开支不及预期。 来源:公司年报、国金证券研究所 内容目录 一、AI时代液冷大有可为,绑定英伟达有望充分受益4 1.1AI时代功耗提升,液冷市场大有可为4 1.2从HGX/DGX升级到NVL系统,绑定英伟达有望充分受益6 1.3双碳战略下低PUE大势所趋,传统数据中心散热有望升级换代8 1.4散热方案全面布局,下游客户广泛覆盖,有望充分受益数据中心散热升级10 二、电源产品覆盖全面,服务业务有望稳定增长11 2.1数据中心功耗提升,促进电源管理量价齐升11 2.2产品出货带动服务营收同步增长,硬件、服务全面覆盖拉动盈利能力向上13 三、盈利预测与投资建议15 3.1盈利预测15 3.2投资建议16 四、风险提示17 图表目录 图表1:AI服务器采用更多芯片,电源功率较传统云计算服务器明显提升4 图表2:英伟达AI芯片单卡功耗不断提升4 图表3:AMDAI芯片单卡功耗不断提升4 图表4:普通服务器通常采用风扇风冷5 图表5:采用风冷的AI服务器需要再机柜加装空调5 图表6:机柜功耗达到20kW以上时,采用液冷具备更高效率5 图表7:液冷系统包括室外侧与室内侧,主要部件为CDU、液冷机柜、管网、ICT设备等6 图表8:采用液冷散热的数据中心散热系统更加复杂,带动整体价值量提升6 图表9:Blackwell架构GPU将两片GPU裸片封装为一片GPU7 图表10:GB200将两颗BlackwellGPU以及一颗GraceCPU合封7 图表11:GB200具备更强性能,NVL系统出货有望明显提升7 图表12:英伟达GH200NVL32采用液冷散热,机柜当中有液冷管7 图表13:公司测算23年数据中心营收占比约75%(分下游应用口径)8 图表14:公司测算热管理营收23年占比约30%(分产品口径)8 图表15:整体数据中心基础设施市场23~28年CAGR为9~12%8 图表16:空调、机械、冷却系统在数据中心基础设施开支当中占15~20%8 图表17:制冷系统能耗占比约24%,是数据中心辅助能源当中占比最高部分9 图表18:液冷可以实现PUE小于1.25的极佳节能效果9 图表19:23年全球数据中心PUE约1.5810 图表20:全球数据中心液冷市场29年有望超120亿美元10 图表21:公司提供从风冷到液冷全套数据中心散热解决方案10 图表22:公司数据中心营收占比高于海外其他主要竞争对手11 图表23:公司营收同比增速23年高于主要竞争对手11 图表24:数据中心基础设施中电力系统成本占比最高11 图表25:发电机、电力用户站、UPS成本占比最高11 图表26:AI电力消耗持续增长11 图表27:2N600kW数据中心采用240V供电时,PDU变压器等成本为27万美元12 图表28:UPS市场集中度低12 图表29:公司重要基础设施与解决方案营收稳步增长13 图表30:公司重要基础设施与解决方案营收主要来自美洲13 图表31:公司在手订单稳定增长13 图表32:公司服务营收稳步增长14 图表33:公司毛利率、营业利润率改善(单位:%)14 图表34:公司库存周转天数保持较稳定14 图表35:公司23年Non-GAAP营业利润的增长主要来源于产品量价的提升(单位:百万美元)15 图表36:公司指引24年销售额、营业利润、EPS、自由现金流全面增长15 图表37:公司营业收入、毛利率以及费用率测算16 图表38:可比公司估值比较16 一、AI时代液冷大有可为,绑定英伟达有望充分受益 1.1AI时代功耗提升,液冷市场大有可为 AI等新的应用场景出现,对算力设备和承载算力的数据中心均提出更高的要求。在拉动数据中心需求的同时,伴随着算力密度的提高,算力芯片、算力设备、数据中心机柜的热密度都将显著提高,液冷技术在算力设备散热和数据中心散热的全链条导入将加快。 与传统服务器相比,AI服务器在单服务器芯片数量,以及单芯片的能耗上都有较大提升。从服务器芯片数量来看,传统服务器通常只有两个CPU,而AI服务器除了两个CPU外,还需要搭载GPU,一般训练服务器采用2个CPU+8个GPU的组合。以戴尔的服务器为例,其传统云计算服务器HS5620系列采用2个IntelCPU;面向AI推理的PowerEdgeXE8640采用2个IntelCPU与4个GPU;面向大语言模型训练的PowerEdgeXE9680采用2个GPU与8个GPU。相比传统云计算服务器,随着芯片数量的增加,AI服务器所采用的电源功率有较明显提升,传统云计算服务器电源最低功率700W,最高为1800W;而用于训练与推理的电源功率都为2800W。 图表1:AI服务器采用更多芯片,电源功率较传统云计算服务器明显提升 服务器 应用领域 CPU GPU 电源 PowerEdgeHS5620 云计算 2*Intel第五代Xeon/第四代Xeon,最高32核 无 最低700W,最高1800W PowerEdgeXE8640 AI推理 2*Intel第四代Xeon处理器,最高56核 4*H100 2800W PowerEdgeXE9680 大语言模型训练 2*Intel第四代Xeon处理器,最高56核 8*H100或8*A100 2800W 来源:戴尔网站,国金证券研究所 除了芯片数量的提升外,随着AI芯片的迭代,单芯片的功耗有较明显提升。以英伟达产品为例,首代AI训练芯片V100NVLink版本最高功耗为300W,A100NVLink版本最高功耗为400W,H100NVLink版本最高功耗为700W;B200功耗最高为1000W。AMD的AI芯片也随着产品迭代,功耗不断提升,MI300X功耗最高为750W,MI300A功耗最高为760W。 图表2:英伟达AI芯片单卡功耗不断提升图表3:AMDAI芯片单卡功耗不断提升 1200 1000 800 600 400 200 0 功耗(W) V100A100H100B200 800 700 600 500 400 300 200 100 0 功耗(W) MI100MI250XMI300XMI300A 来源:英伟达网站,国金证券研究所来源:AMD网站,国金证券研究所 未来来看,AI芯片对于算力需求将持续增加,有望进一步带动散热解决方案升级。目前传统服务器由于只搭载两颗CPU,功耗较低,通常采用服务器风扇作为散热方式。而AI服务器由于功耗更高,对散热有更大要求,采用的风冷系统需要增加机柜空调,增加热交换能力。 图表4:普通服务器通常采用风扇风冷图表5:采用风冷的AI服务器需要再机柜加装空调 来源:公司网站,国金证券研究所来源:公司网站,国金证券研究所 根据公司发布的《数据中心液冷解决方案》白皮书,当机架密度达到20kW以上时,风冷的效率减弱,需要采用液冷技术满足高热密度机柜的散热需求。 图表6:机柜功耗达到20kW以上时,采用液冷具备更高效率 来源:《数据中心液冷解决方案》,国金证券研究所 液冷技术分为接触式及非接触式两种,接触式液冷是指将冷却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。其中,冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100%液体冷却,具有更优的节能效果。由于目前服务器功耗未达到必须浸没式液冷的条件,以及浸没式液冷成熟度仍然较初期,目前非接触式液冷仍然是主流方案。 液冷系统通用架构包括室外侧的冷却塔、一次侧管网、一次侧冷却液;室内侧的CDU、液冷机柜、ICT设备、二次侧管网和二次侧冷却液。 图表7:液冷系统包括室外侧与室内侧,主要部件为CDU、液冷机柜、管网、ICT设备等 来源:《中兴通讯液冷技术白皮书》,国金证券研究所 采用液冷后,数据中心散热系统更为复杂,零组件数量有明显提升,带动整体价值量提升。根据公司网站,对于有十列机架的传统云计算数据中心,散热只需要6台工业空调;而对 于同样10列机柜的需要液冷的数据中心,需要10台工业空调、列间管道、以及列间CDU。 图表8:采用液冷散热的数据中心散热系统更加复杂,带动整体价值量提升 来源:公司网站,国金证券研究所 1.2从HGX/DGX升级到NVL系统,绑定英伟达有望充分受