AI智能总结
服务器供电:机柜功率密度提升,大陆厂商逐步突破。高压电从电网进入数据中心后,服务器电源PSU会先将交流电转为直流电,并降压到48伏特;接着主板上的DC/DC转换器,再将电压转换成CPU用的12伏特和GPU用的0.8伏特低电压。随着以英伟达为代表的厂商算力芯片功耗持续提升,机柜功率密度增长,峰值功耗或将由2024-2025年的130-250kw到2026-2027年的250-900kw。当前海外最新的AI服务器使用5.5kw PSU,未来有望升级到10kw及以上,我们测算,在5.5kw PSU单瓦价格为2.5元,2025年GB200 NVL72等效出货量2.5万柜假设下,GB200 NVL72电源的市场规模为165亿元。服务器电源竞争格局集中,台达为AI服务器AC/DC电源龙头,市占率超50%;光宝33KW Power Shelf24Q4陆续出货,预计25Q1放量;麦格米特目前已进入英伟达GB200电源供应链,我们看好公司产品力提升,份额持续提高,带动营收业绩增长。 备用电源:数据中心平稳运行的基石。 1)AIDC带动柴油发电机组供不应求。柴油发电机组在上游电源发生故障时保障数据中心运行,柴油发电机组功率可达到IT总负荷2倍,我们测算2025年全球数据中心柴油发电机市场规模有望达到555亿元。海外厂商占据数据中心柴油发电机组行业主导地位,数据中心多采用康明斯、卡特彼勒、MTU、三菱等产品,进口品牌与国产品牌的主要差异在于发动机部分。国产品牌科泰电源、玉柴、潍柴重机和磐谷等产品目前在数据中心市场已有部分应用案例。 2)UPS稳步增长,HVDC有望引领下一代高压高效平台。UPS填补发电机启动空白,确保数据中心电力供应不中断。2023年全球UPS市场规模为611亿元,预计2029年将达957亿元,CAGR为7.6%,稳步增长。中国市场按销售额排名,华为、科华、维谛技术占据前三位。我们认为未来AI大功率、高密度趋势下,有望推动配电架构向HVDC升级,提高效率、降低损耗的同时可支持不同的有效负载机架配置,有效节省IT rack的空间。2019年阿里巴巴联合台达、中恒电气推出的面向IDC应用的中压供电巴拿马电源。2024年谷歌研发人员在开放计算项目全球峰会发表《适用于人工智能/机器学习应用的±400V直流机架》演讲,认为800V高压直流架构在未来高功率AI数据中心具备高效优势。 3)BBU标配化进一步打开市场空间。BBU能够支持几分钟的工作负载用电,充当了“机架内UPS”。BBU与PSU为1:1关系,功率与PSU匹配,我们认为未来BBU有望实现标配化,跟随PSU需求共同成长,并且由于功率密度的提升,价值量也有望实现增长,推动电源市场规模提升。 投资建议:见第三章内容。 风险提示:技术路线演进风险、研发进展不及预期、地缘政治风险、测算不准确风险。 1、服务器供电:机柜功率密度提升,大陆厂商逐步突破 1.1供配电系统可靠性对数据中心运行至关重要 数据中心的能耗来源于IT设备、照明、空调和供配电系统,电源可靠性对数据中心至关重要。IT设备由服务器、存储和网络通信设备构成,功耗约占数据中心总功耗的45%; 空调系统主要用于为IT设备散热,是数据中心最大的能耗来源之一,也是提高数据中心能源效率的重点环节,功耗占比约为40%;供配电系统由输入变压器、ATS((Automatic Transfer Switching)开关、UPS及配电柜组成,功耗占比约为10%,其中7%来源于UPS及其输出供电系统,3%来源于UPS输入供电系统。全球数字基础设施权威机构Uptime Institute发布的《2022年全球数据中心调查》报告中提到,超过一半(55%)的运营商报告称,他们在过去三年中经历过站点中断,其中供配电系统导致的问题占比39%,供电系统可靠性对数据中心至关重要。 图表1:数据中心能耗构成 图表2:数据中心宕机原因(2022) 数据中心供配电系统将高压转换为中压,再转换为低压给IT设备使用。供电公司提供高电压(>100kV)或中压电力,需要现场变电站和电力变压器将其降压到中压(MV)。 MV开关设备将MV电力安全分配到另一个变压器,该变压器位于数据大厅附近,并将电压降低到低压(415V)。与变压器配对的是一台柴油发电机,它也以415V交流输出,如果电力公司停电,自动转换开关(ATS)将自动切换电力到发电机。从这里开始有两条电力路径:一条通往IT设备,另一条通往冷却设备。IT设备路径首先通过UPS系统流动,该系统连接到一组电池:通常具有5-10分钟的电池存储时间,足够发电机启动(在一分钟内)并避免临时停电;UPS电源通常通过电源配电单元(PDUs)直接供应给IT设备。 最后一步,是通过电源供应单元(PSU)和电压调节器模块(VRM)将电力传输到芯片。 图表3:数据中心供配电系统 1.2 AI驱动服务器电源需求提升 AI服务器需求旺盛,北美四大CSP资本开支上行。从AI服务器出货量来看,2023年高阶AI服务器出货19.96万台,一般AI服务器出货46.98万台。2024年高阶AI服务器预期出货54.3万台,较2023年成长172%;2024年一般AI服务器预期出货72.5万台,较2023年成长54.2%。根据Trendforce,2024年AI服务器占整体服务器出货的比重预估将达12.2%,较2023年提升约3.4个百分点;从产值看,预估2024年AI服务器产值将达1,870亿美元,同比+69%,产值占整体服务器高达65%。从需求方来看,2023年前五大业者出货占总体比重达85.1%,2024年前五大业者占比则降至77%,前四大仍为以代工厂直接销售(ODM-direct)为服务器主要采构模式的大型CSP厂商。 图表4:AI服务器出货量 图表5:CSP与品牌高阶AI服务器出货量与占比预估 gszqdatemark年 月 日 海外CSP持续加码AI投资,2025年资本开支维持高位增长。2024Q4海外四大CSP合计资本开支为697亿美元,同比增长66%,环比增长23%,2024年海外四大CSP合计资本开支为2169亿美元,同比增长56%,CSP持续加码AI服务器及相关投资。展望2025年,meta预计2025年全年资本支出为600-650亿美元,亚马逊2025年资本支出将提高至1000亿美元,以期抓住人工智能(AI)领域千载难逢的商业机遇,上述大部分资本支出用于旗下云计算部门AWS研发AI技术,谷歌预计2025年资本支出为750亿美元,微软FYQ2包括融资租赁在内的资本支出为226亿美元,预计FYQ3和FYQ4的季度支出将维持FYQ2的水平。我们看到2024年各大CSP持续加码AI投资,meta逐季上调资本开支预期,2025年资本开支维持高位增长。 图表6:海外四大CSP资本开支(年度) 图表7:海外四大CSP资本开支(季度) 科技公司紧锣密鼓布局、升级迭代大模型训练,AI算力芯片需求强劲。在加速计算和生成式AI的带动下,算力需求陡增,全球高科技公司纷纷涌入AI领域开展军备竞赛。预计2024年微软有75万-90万块等效H100,25年预计达到250万-310万;谷歌2024年有100万-150万块等效H100,25年预计达到350万-420万;Meta2024年有55万-65万块等效H100,25年预计达到190万-250万;亚马逊2024年有25万-40万块等效H100,25年预计达到130万-160万;xAI2024年有10万块等效H100,25年预计达到55万-100万。 图表8:五大科技公司算力预测 AI需求强劲,为台积电长期增长注入强大动能,公司显著上调未来五年AI收入CAGR中值指引为45%。台积电在2024年4月的24Q1业绩发布会上,预计2024年AI收入占营收比例达到约11-13%((low-teens),预计到2028年占比提升至20%以上,未来五年CAGR达到50%。近期24Q4业绩发布会上,公司表示2024年AI收入(包含AI GPU、AIASIC和HBM控制器)超过三倍增长,占总营收比重中值约15%((mid-teens),预计2025年AI收入还将翻倍。此外,公司显著上调了未来五年AI收入复合增速指引,在已经翻三倍增长的2024年AI收入基础上,公司预计未来五年AI收入CAGR中值达45%(mid-40%),AI将成为HPC平台营收增长的关键驱动力。 图表9:台积电显著上调未来五年AI收入CAGR指引 AI服务器供电分为柜外、rack、tray。高压电从电网进入数据中心后,服务器电源供应器会先将交流电转为直流电,并降压到48伏特,这一步由PSU完成;接着,主板上的DC/DC转换器,再将电压转换成CPU用的12伏特和GPU用的0.8伏特低电压。 UPS:在电网中断时提供临时电力,保护数据免受损失,该设施在柜外,不包括在rack的供电设施中。 AC/DC环节:将电网的交流电转换为适合服务器使用的48V直流电,该电源模块名为PSU,在rack中。 DC/DC环节:进一步将48V直流电降至CPU用的12伏特和GPU用的0.8伏特低电压,该设施在tray中,分为Hot Swap、IBC和Vcore。 英伟达GPU功耗持续提升,带动机柜功率密度增长。英伟达算力芯片额定功率持续提升,A100为400W,H100\H200\B100均为700W,2024年的GTC上英伟达发布的基于Blackwell架构的B200 GPU功耗则首次达到了1000W,超级芯片GB200功耗最高达到2700w。根据Vertiv,从峰值功率密度来看,预期AI GPU机架峰值功耗将随着英伟达AI GPU roadmap的升级持续增长,由2024-2025年的130-250kw到2026-2027年的250-900kw,再到2028-2029+年的900-1000+kw。 图表10:英伟达GPU芯片功耗持续提升 图表11:AI推动机柜功率密度持续提升 当前AI服务器的PSU有望从5.5kw升级为10kw及以上。AI服务器和数据中心的电力需求不断增加,迫使电源设计加速发展,从800W迅速增加到5.5kW。英飞凌表示,目前可以看到需求达到12 kW甚至更高。此外,系统效率要求已上升到97.5%以上,同时增加了更高的功率密度(例如100 W/in³),以满足外形尺寸限制、严格的保持时间要求。根据台达,我们可以看到ORV3 HPR2 PSU从ORV3 HPR PSU的5.5kw升级至10kw,提升82%,但尺寸长度仅从640mm提升至710mm,提升11%,宽度和高度不变,功率密度大幅提升,缓解了机柜功耗提升与有限的机柜空间之间的矛盾。 图表12:英飞凌AC-DC产品路线图 图表13:台达PSU对比(1) 图表14:台达PSU对比(2) 图表15:AI电源功率密度持续提升 图表16:CPU/GPU算力加速提升带动电源需求 机柜功率密度提升推动服务器电源量价齐升。根据安森美,2024年平均每机柜的功耗为40kw,价格约2500美元每机柜,可以计算得到安森美产品(FETs、eFuse、Drivers、controllers、PoL、多相控制器、smart power stage)平均每瓦的单价为0.06美元;预计2025平均每机柜的功耗为120kw,价格为9500美元每机柜,每瓦的单价为0.08美元;预计2026年之后平均每机柜的功耗为200-300kw,单机柜价值量持续提升。我们认为不仅是芯片级,电源模块整体也将随着功率密度的提升而实现量价齐升。 图表17:AI服务器电源量价齐升 GB200 NVL72采用48个5.5kw PSU,1:1冗余+sidecar带动PSU需求提升。在不考虑冗余的情况下,GB200 NVL36机架每个机架有2个power shelf,每个power shelf由6个5.5kw的PSU构成,一共提供66kW的电力,NVL72将有4个power she