能源与算力的新业态逐渐形成,AI和能源行业的紧密联系变得日益显著。当下AI产业展现了惊人的发展势头,生成式AI和深度学习等高计算密度任务的广泛应用,带来了巨大的能源需求。AI产业的发展与能源行业的深度绑定使得微软、谷歌、META等行业龙头企业承诺在未来实现数据中心100%使用绿电,以应对日益增长的能源需求和碳中和目标,为新能源行业创造了新的需求点。 到2030年,AI产业的发展有望为能源产业开辟超过千亿级别的市场空间:据国际能源署(IEA)预测,到2026年,数据中心的总电力消耗可能会超过1000 TWh。根据我们测算,到2030年,AI产业所能带来的新增用电需求的保守估计值、基准值、乐观估计值分别为747.9、1141.2、1627.2 TWh,对应新增产值分别为398.8、636.8、939.8亿美元。AI产业发展不仅会刺激能源需求的增长,还可能在绿电交易、长时储能和虚拟电厂等领域催生出新的市场机制和应用场景,为能源行业开辟新的发展模式。 风险提示:能源成本的不确定性:若新能源供应不足或电价波动较大,可能对产业运营成本产生重大影响。政策风险和监管压力:需关注各国政策的变化和实施进度,确保产业发展能够符合相关法规要求,政策变动风险对行业有潜在重大影响。技术发展和竞争风险:AI产业和新能源产业都处于快速发展阶段,技术更新迭代速度快,新技术的出现可能导致现有技术迅速过时,投资者需关注技术变革带来的潜在影响。市场需求和盈利不确定性:AI和新能源产业实际市场需求和盈利情况可能受多种因素影响,包括宏观经济环境、市场竞争和客户需求变化等。应警惕市场需求波动和行业竞争加剧对企业盈利能力的影响。 自2022年11月ChatGPT发布以来,人工智能(AI)产业展现出了惊人的发展势头。 随着生成式AI、深度学习等高计算密度任务的广泛应用,AI技术已经成为推动全球经济和科技进步的关键力量。智能算力是AI产业发展的核心,是新质生产力的重要组成部分,据《2020全球计算力指数评估报告》测算,一个国家的算力每提高一个百分点,其GDP会提升1.8‰,数字经济会提升3.3‰。由此可见,未来全球综合国力的竞争将会在算力领域展开,其地位相当于数字领域的机场、高铁、港口,是新一轮工业革命下的经济基础设施,智能算力需求正呈现爆发性增长态势。 AI模型的训练和推理过程需要大量电力,因此AI产业的发展必然会带来巨大的能源需求。据国际能源署(IEA)预测,到2026年,数据中心的总电力消耗可能会超过1,000 TWh,有望为能源行业开辟全新的增长空间。在全球碳中和的背景下,AI行业已与新能源深度绑定,多数领先的科技企业已承诺在2030年之前实现其数据中心100%使用绿电。在政策与市场的双重驱动下,AI产业对能源行业的影响将不仅仅是市场规模的扩大,更有可能在绿电交易、长时储能和虚拟电厂等领域催生出新的商业模式和技术创新。AI行业的迅猛发展为新能源产业带来了前所未有的机遇和挑战,有望促进全行业的绿色转型和可持续发展。 1.AI迅猛发展给能源行业带来新机遇 1.1AI行业的能源焦虑 黄仁勋在2024年2月于迪拜举办的“世界政府峰会”上说:“如果你假设计算机的速度永远不会提高,你可能会得出这样的结论:我们需要14个不同的星球、3个不同的星系和4个太阳来提供所有这些(AI计算所需的)能源,但显然,计算机架构在不断进步。”黄仁勋此话的本意是宣传英伟达全新的、更快速的AI芯片,但也侧面反映了AI计算的能源需求将成为一个不容忽视的问题。在同年的达沃斯世界经济论坛上,奥特曼在与彭博社的采访中直接表示“(在AI计算方面)我们确实需要比预想之中多得多的能源。”“AI算力和能源将成为未来世界最重要的两个“货币”。”“如果(能源行业)没有突破性的进展,我们将不可能达到(AI行业所设想的)目标。我们需要核聚变或者非常廉价的光伏+储能技术,所需能源的规模非常之大,是前人所无法想象的。”对比之下,奥特曼更加直接地表达了AI对新能源的需求。值得一提的是,奥特曼所投资的核聚变公司Helion Energy在2023年5月与微软签署能源采购协议,计划于2028年使用核聚变技术为微软供电,助力其实现碳中和目标。 黄仁勋和奥特曼的诸多观点,无不体现了AI行业对于能源的担忧。AI的迅猛发展,势必会给能源行业带来崭新的业态。 1.2行业共识:算力中心建设将刺激能源需求进一步增长 近年来,多家权威研究机构对AI所能带来的能源需求增长做出了预测,多数预期颇为乐观。国际能源署(IEA)在《电力行业2024-2026分析与展望》里针对发达经济体与中国的电能增长分析当中,将算力中心与交通电气化、民用电气化并列列为刺激电力需求增长的三大因素。国际能源署直接预测:“数据中心、AI和加密货币行业的电力消耗到2026年可能会翻倍。到2026年,数据中心的总电力消耗可能会超过1,000 TWh。这相当于日本一年的电力消耗。” 图表1:IEA对于全球数据中心、AI、加密货币电力需求预测2019-2026 在AI产业最发达的美国,算力中心快速扩张所带来的能源问题已经开始困扰电力行业。 根据波士顿咨询(BCG)预测,到2030年,美国数据中心的电力消耗对比2022年将增长五倍,达到390 TWh,占全国电力需求的7.5%,新的增长主要来自AI技术的发展,特别是生成式AI和深度学习等高计算密度任务对于电力的需求。当下,美国AI产业的快速发展已经对电力系统造成了一定的压力,部分州的电力供应商和监管机构正在应对近几年来最大的电能需求增长所带来的一系列问题。个别电力公司发现,由于新建算力中心数量激增,必须推迟关闭部分燃煤和燃气电厂以满足新的能源需求。以北弗吉尼亚州的数据中心聚集区为例,新建算力中心引发了电力供应的紧张,导致当地电网曾一度暂停算力中心接入电网,并开始大规模投资新的输电线路和风电、光伏、储能等发电资源。电力短缺已然成为限制美国AI产业快速发展的一大瓶颈。 图表2:波士顿咨询对于美国数据中心用电量预测 在中国,据工信部与相关研究机构统计,截至2023年三季度,全国在用数据中心总规模超过760万标准机架,算力总规模达每秒1.97万亿亿次浮点运算(EFLOPS),已成立人工智能企业4,469家,占全球总数的15%,位列全球第二。2023年全国AI算力市场规模达到664亿元,同比增长82.5%,预测到2027年之前,中国智能算力规模年复合增长率将达33.9%。 当前我国AI发展主要受制于贸易摩擦对于AI硬件和模型算法的限制,但其潜在的能源问题已得到行业的广泛关注。2022年,全国数据中心耗电量达2700亿千瓦时,占全社会用电量的约3%,相当于同期三峡电站发电量的两倍以上。根据国际能源署预测,2026年我国数据中心用电量将达到300TWh(3000亿千瓦时)。环保节能领域,在2022年6月工信部发布的《工业能效提升行动计划》中,规定到2025年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于1.3。 随着国内AI行业的进一步发展,高性能算力中心和大规模数据处理需要大量的电力支持,我国电力行业也必将迎来新一轮的机遇与挑战。 2.AI时代算力中心用能新模式 2.1面向AI应用的算力中心用能特征 一个典型的数据中心用电主要来自IT设备运算和散热,各部分的用电占比如图3所示。 与传统的互联网数据中心相比,面相AI应用的算力中心在电能使用方面具有以下特征: 图表3:算力中心能耗占比 AI算力中心的电力消耗显著高于传统数据中心: 虽然AI行业缺乏权威的用电数据,但可通过行业资讯大致了解其能耗情况。以ChatGPT-3为例,训练该模型消耗了大约1,300MWh的电力,相当于1450个美国家庭一个月的电力消耗。一个典型的大型数据中心能耗功率在20~100MW之间,而微软和OpenAI于今年一季度计划新建设的名为“Stargate”的超大规模AI算力中心项目,用电功率则可能高达5GW,可见两者在能耗上有着数量级的差距。 45 从硬件角度来看,AI算力中心使用高性能计算硬件,如GPU和TPU来进行运算,这些硬件的功率远高于传统服务器。以行业主流产品为例,NVID IA A100功耗为400W,NVID IA A100功耗为300W,而传统服务器CPU如Intel Xeon Platinum 8280功耗仅为205W。AI训练服务器的功率密度可以达到20 kW/机架,而传统数据中心的功率密度通常在4-6 kW/机架之间。因此从硬件角度出发,AI算力中心也有着更高的能耗密度,且随着AI硬件的进一步发展,该能耗密度有望进一步提升。 从软件角度来看,算力中心的高耗能主要由生成式AI模型训练造成。根据波士顿咨询统计,未来五年内,每个模型每天将消耗400-1300 kWh的电力来进行训练,且会有越来越多的生成式AI模型被训练和重新训练。从用户角度来看,ChatGPT每次查询的耗电量是谷歌搜索的3-30倍,且通常会引发后续查询,从而增加了整体的运算能耗。 AI算力中心的能耗曲线区别于传统数据中心: 传统数据中心随着互联网行业30多年的发展,已形成了较为稳定的用电模式。数据中心在工作日白天和晚间的用电负荷较高,这是因为企业用户和个人用户通常在这两个时间段使用更多的在线服务和从事娱乐活动,而深夜和凌晨的能耗较低。传统数据中心在每日存在明显的高峰和低谷模式,负荷曲线更容易预测,不会像AI算力中心那样剧烈波动。 AI产业仍处于发展初期,相应的能耗曲线尚未形成固定模式。但根据现有行业信息推断,面向AI的算力中心能耗峰值高且波动大,用能曲线明显区别于传统数据中心。算力中心的能耗波动主要取决于AI大模型训练过程,一个典型的训练过程主要包括初期的数据准 4 5 MIT Linccoln Laboratory《AI models are devouring energy. Tools to reduce consumption are here, if data centers will adopt.》Digital Infrastructure《Da ta Center Power: A Comprehensive Overview of Energy》 备、模型选择和设计,中期的模型训练、评估和调优,以及后期的部署。其中,中期的模型训练、评估和调优耗电量最大且耗时最长,整个过程可能耗时数天甚至数月,而初期和后期的工作则耗电量低且时间短。因此AI算力中心的能耗曲线在很大程度上取决于AI项目的训练计划与日程,不像传统数据中心有固定的模式,更难以预测。 图表4:AI大模型训练过程及各阶段特征 AI算力中心的电力消耗显著高于传统数据中心: 从电网角度出发,AI算力中心还具有以下特征:1)AI算力中心由于其技术先进性和计划灵活性,在电网端是一种非常理想的需求侧响应调节资源。大部分算力中心配备有备用电源以及储能等设施,使其在电网需要灵活性时具备调整用电的能力。2)AI算力中心凭借其强大的计算能力,可优化其自身的用电策略。其作为一个算力平台可赋能区域电网,优化区域整体的用电情况。3)根据欧洲国家经验,新建的算力中心相比其他大型能源用户会更快达到其最大运行负荷。大多数大型能源用户逐渐增加其电力使用,而算力中心则往往迅速达到其最大容量。以上负荷特性给电网调度带来了巨大挑战。 2.2绿色算力与绿电 AI作为“双碳”时代发展起来的产业,其诞生之初便有着浓厚的“绿色基因”。绿色人工智能这一概念,即GreenAI,于2020年前后由学术界和科技企业共同提出,旨在将人工智能技术的发展与可持续性和环境保护相结合,在能源方面便是强调在AI技术的研发和应用过程中注重能效提升和减少碳排放。在碳减排领域,各大AI龙头企业都明确发布了自己的碳中和计划,因此GreenAI在起步阶段便有了明确的发展目标与路径。考虑到AI算力中心巨大的电力消耗,实现上述目标最直接的方式就是使用绿电(可再生能源),而