行业深度研究|电力设备 AI服务器电源需求增长迅速,市场前景广阔 AI电源行业研究报告 核心结论 证券研究报告 2024年10月08日 行业评级超配 前次评级超配 AI行业高速发展,电力需求大幅提升。算力核心设备逐渐由传统的CPU向 评级变动维持 GPU转移,在提升计算效率、实现复杂的数据处理和深度学习模型的同时也 带来了高能耗。根据国际能源署(IEA)的数据,2023年英伟达芯片的电力消耗已达7.3TWh,预估至2026年,这一数字将升至2023年的十倍。与此同时AI服务器电源需求大幅提升。 AI服务器电源需求同步快速增长。受益于AI大模型快速发展,算力需求快速提升,而AI服务器作为算力承载的核心基础设施,其出货量有望快速增长,根据TrendForce,2022-2026年AI服务器出货量CAGR将达29%。大模型AI训练服务器对算力需求更高,其服务器电源功率和配置数量明显提升 AI服务器电源在其功率密度和效率方面提出了较高要求。功率方面,AI系统在训练过程中需要用到GPU和TPU等加速器,它们可以处理重复性和密集型计算,但却异常耗电,随着计算机性能的升级,功率需求也随之提升。功率密度方面,AI服务器电源在使用时需要插入标准机架中,电源功率随着算力需求的增加而提升,功率密度的提升是最大的难点。AI服务器电源的功率密度可达100W/立方英寸,远超普通服务器电源的50W/立方英寸。转换效率方面,传统服务器电源的转换效率一般在96%,而AI服务器电源则需达到97.5%-98%的高标准,以降低能量损耗并支撑更高功率密度的GPU。 英伟达芯片放量,AI服务器电源产品不断迭代更新。据TechInsights统计英伟达2023年数据中心GPU出货量约为376万块,同比增长42%,市场份额高达98%,英伟达GPU几乎成为数据中心标配。英伟达于24年3月18日在GTC大会上发布新一代AI芯片BlackwellGPU,基于该GPU组成的GB200性能达到了H100的7倍,同时显著降低成本和功耗。据TrendForce预测,GB200将于2024年底以结构相对简单的NVL36率先导入,而NVL72将以主推形式于2025年放量,届时AI服务器电源将成为服务器电源市场新增量,预计2026年AC-DC市场规模有望达53亿美元。 麦格米特深耕电源领域,有望切入AI服务器电源业务。麦格米特多年深耕网络电源业务,始终与国际头部客户保持紧密合作关系,持续获得了爱立信思科、瞻博网络、阿里斯塔、智邦科技等头部国际客户的多项项目需求与订单。此外,麦格米特正与某国际头部公司对接AI服务器电源相关需求,AI服务器电源业务放量值得期待。 投资建议:建议关注国内AI服务器电源相关标的,推荐麦格米特。 风险提示:宏观经济波动风险、国际地缘政治局势紧张的风险、主要原材料结构性价格和供应风险 近一年行业走势 电力设备沪深300 6% 1% -4% -9% -14% -19% -24% -29% 2023-102024-022024-06 相对表现1个月3个月12个月 电力设备28.3029.52-5.82 沪深30024.3418.118.90 分析师 杨敬梅S0800518020002 021-38584220 yangjingmei@research.xbmail.com.cn 胡琎心S0800521100001 18311033802 hujinxin@research.xbmail.com.cn 相关研究 电力设备:电新板块买什么?关注六大主线机会!—电力设备与新能源行业周报20240930-202410062024-10-07 电力设备:多地重视配网发展,海风项目推进顺利—电力设备与新能源行业周报20240916-202409222024-09-22 电力设备:光储行业框架专题报告 2024-09-19 索引 内容目录 一、AI高速发展带来用电需求提升,AI电源市场空间广阔4 1.1AI快速发展带来电力需求增加4 1.2AI服务器电源三大架构各司其职以确保电力供应5 1.3AI服务器电源的功率密度和效率需大幅提升5 1.4AI电源服务器需求快速增长,价值量有望提升6 二、英伟达芯片放量拉动AI服务器电源需求增长8 2.1英伟达GB200有望持续放量8 2.2英伟达放量驱动AI电源需求增长13 推荐标的:麦格米特13 三、风险提示14 3.1宏观经济波动风险14 3.2国际地缘政治局势紧张的风险15 3.3主要原材料结构性价格和供应风险15 图表目录 图1:和CPU相比,GPU可以处理多个并行任务4 图2:AI带来更旺盛的电力需求4 图3:数据中心电源的架构主要分为保障电路UPS、机架电源AC/DC、芯片电源模组DC/DC 三个层级5 图4:AI电源功率密度持续提升6 图5:AI服务器电源需求持续提升7 图6:2024全球服务器出货量有望达约1365万台(单位:万台)8 图7:2026年全球AI服务器出货量有望达237万台(单位:万台)8 图8:英伟达GPU在GPT-3与MoESwitchXXL模型中的表现强劲8 图9:NVIDIAGraceBlackwellGB2009 图10:英伟达在2023年全球数据中心GPU出货中占比约97.66%10 图11:AI推理方面与H100相比,GB200可提供30倍的实时吞吐量11 图12:数据处理方面对比,GB200NVL72展现出明显优势11 图13:基于物理性质的模拟,CadenceSpectreX模拟器在GB200上的运行速度比在x86CPU上的运行速度快13倍11 图14:数据处理方面对比GB200较CPU展现出明显优势11 图15:英伟达芯片性能持续提升12 图16:英伟达BlackwellGPU芯片性能大幅提升13 图17:英伟达GB200功率最高达到2700W(单位:W)13 表1:AI服务器电源较普通服务器电源要求更高的功率密度、更强的转换效率等6 表2:英伟达GPU架构持续升级10 一、AI高速发展带来用电需求提升,AI电源市场空间广阔 1.1AI快速发展带来电力需求增加 GPU开启AI多任务处理的新纪元。在AI训练领域,GPU(图形处理器)相较于笔记本电脑中常见的CPU(中央处理器)展现出了其独特的优势。可以将CPU视为专注于单一任务的处理器,而GPU则以其并行处理大量任务的能力脱颖而出。尽管GPU最初并非专为AI应用设计,但其与生俱来的多任务处理能力使其成为了AI大模型训练的黄金入场券。 图1:和CPU相比,GPU可以处理多个并行任务 资料来源:雪豹财经社,西部证券研发中心 算力比拼加速,能耗日益攀升。算力核心设备逐渐由传统的CPU向GPU转移,不仅带来了计算效率的提升,更使得复杂的数据处理和深度学习模型得以实现。然而,高性能往往伴随着高能耗,GPU的能耗是CPU的10到15倍。大规模AI模型训练需要多张GPU持续工作,模型越大,耗电越多。随着对更快速计算的追求,GPU的能耗急剧增加,对数据中心和服务器的能源需求造成了巨大压力。 图2:AI带来更旺盛的电力需求 资料来源:芯智讯公众号,西部证券研发中心 1.2AI服务器电源三大架构各司其职以确保电力供应 人工智能(AI)技术的飞速发展引发了对计算能力的巨大需求,AI服务器电源的作用越发凸显。数据中心电源的架构主要分为保障电路UPS、机架电源AC/DC、芯片电源模组DC/DC三个层级,用以将电压从1-3万伏特降低至0.5~1伏特,进而使数据中心的电力成功从电网传输到加速器芯片。 UPS(不间断电源):UPS是连接蓄电池和主机的系统装置,可通过逆变电路等模块将直流电转化为市电。当市电正常时,UPS对电压和频率进行在线控制,进而为负载提供稳定电压和频率的优质交流电,同时给蓄电池充电;当市电故障,如发生断电、过/欠压时,逆变电路则将蓄电池的直流电转化为电压和频率稳定的交流电给负载供电,以维持其正常工作并防止数据丢失。 AC/DC:AI服务器功率更高,消耗的电力也更多。传统的电压输出一般为12V,但为了减少电力的损耗,电压输出需要提升至50V,并经过层层降压以达到芯片的工作电压。PDU输入的交流电在AC/DC环节经过降压、整流两个过程最终输出50V直流电。 DC/DC:DC/DC环节进一步将电压调降至芯片可用电压,一般而言分为两步进行:首先是50V降至12V,然后是12V降至0.8V。 图3:数据中心电源的架构主要分为保障电路UPS、机架电源AC/DC、芯片电源模组DC/DC三个层级 资料来源:芝能科技公众号,西部证券研发中心 1.3AI服务器电源的功率密度和效率需大幅提升 AI服务器电源的特殊性主要在于其功率密度和效率。AI服务器电源具有一些特殊性以满足AI服务器在处理大量数据和复杂计算任务时对电源的高要求。 在功率方面,AI系统在训练过程中需要用到GPU和TPU等加速器,它们可以处理重复 性和密集型计算,但却异常耗电,功率大幅提升。如英伟达的DGX-1GPU超级计算机内置8个TeslaP100GPU,每个GPU算力达到21.2TeraFLOP,总共需要3200W的系统总功率;而最新一代的DGX-2超级计算机则内置16个TeslaV100GPU,每个GPU算力达2petaFLOP,所需系统总功率达到10kW。 在功率密度方面,AI服务器电源在使用时需要插入标准机架中,电源功率随着算力需求的增加而提升,功率密度的提升是最大的难点。H100服务器机架的10.2KW的功率需要配备19.8kW的电源,而NVL72机架的120KW功率则要求198KW的电源模块。AI服务器电源的功率密度可达100W/立方英寸,远超普通服务器电源的50W/立方英寸。 在转换效率方面,传统服务器电源的转换效率一般在96%,而AI服务器电源则需达到 97.5%-98%的高标准,以降低能量损耗并支撑更高功率密度的GPU。 AI服务器电源普通服务器电源 表1:AI服务器电源较普通服务器电源要求更高的功率密度、更强的转换效率等 功率密度可达100W/立方英寸50W/立方英寸左右转换效率需要达到97.5%-98%的转换效率以降低能量损耗通常为96% 包括UPS、AC/DC和DC/DC三个层级, 电源架构 - 以确保电力供应的连续性和稳定性。 生产成本可能需要四颗1800W的高功率电源,成本大幅上升只需要两颗800W的电源,较低 市场空间 将成为服务器电源市场新增量,2026年AC-DC 市场规模有望达53亿美元。 增速缓慢,预计2024-2026年市场规模 仅将在40亿美元上下 资料来源:芝能汽车,西部证券研发中心 图4:AI电源功率密度持续提升 资料来源:芝能科技公众号,西部证券研发中心 1.4AI电源服务器需求快速增长,价值量有望提升 AI技术的精进导致电力消耗剧增。据ArtificialIntelligenceIndexReport2023统计,各类先进的AI模型,如DeepMindGopher、HuggingFaceBLOOM、OpenAIGPT-3、MetaOPT 的单次训练耗电量分别高达1066MWh、433MWh、1287MWh和324MWh。根据国际能源署(IEA)的数据,2023年英伟达芯片的电力消耗已达7.3TWh,预估至2026年,这一数字将升至2023年的十倍。 图5:AI服务器电源需求持续提升 资料来源:芝能科技公众号,西部证券研发中心 全球服务器出货回暖,AI服务器需求快速增长。受益于AI大模型快速发展,算力需求快速提升,而AI服务器作为算力承载的核心基础设施,其出货量有望快速增长。根据TrendForce集邦咨询统计,2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,同比增长38.4%,在整体服务器出货量中占比接近9%,2022-2026年AI服务器出货量CAGR将达29%。 AI服务器对电源要求更高,有望提升服务器电源价值