您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中邮证券]:液冷深度:产业和政策双轮驱动,数据中心液冷进入高景气发展阶段 - 发现报告
当前位置:首页/行业研究/报告详情/

液冷深度:产业和政策双轮驱动,数据中心液冷进入高景气发展阶段

基础化工2024-07-09鲍学博、马强中邮证券故***
AI智能总结
查看更多
液冷深度:产业和政策双轮驱动,数据中心液冷进入高景气发展阶段

11 中邮证券 2024年7月9日 证券研究报告 液冷深度 产业和政策双轮驱动,数据中心液冷进入高景气发展阶段 行业投资评级:强于大市|维持 中邮证券研究所通信团队 投资要点 •液冷利用了液体的高导热、高热容特性替代空气作为散热介质,具有低能耗、高散热、低噪声、低TCO等优势。液冷主要包含冷板式、浸没式和喷淋式等技术路线,目前,冷板式和浸没式是行业共存的两条主流技术路线,考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等方面,当前液冷数据中心仍以冷板式占据主流地位;浸没式在一些超算中心项目上成功实现应用。 •政策端,“双碳”目标下,数据中心向绿色可持续发展。2022年,全国数据中心PUE约为1.57,中央和多地方政策对新建数据中心PUE提出要求。2022年6月,工信部等六部门印发《工业能效提升行动方案》提出,到2025年,新建大型、超大型数据中心PUE优于1.3;2022年1月,国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下。采用液冷技术可以大幅降低数据中心能耗,PUE可降低至1.2以下,满足数据中心绿色可持续发展需求。 •产业端,算力密度提升和低TCO促进液冷快速发展,未来5年复合增速超40%。数据中心算力规模高速增长、高功率单机柜快速普及,预计2025年全球数据中心平均功率达25kW,相较于2020年16.5kW的平均单机柜功率明显提升,液冷技术可以满足高密度数据中心散热需求。根据Omdia数据,2023年数据中心液冷渗透率约为13%,预计在2030年提升至33%左右,获得55亿美元(约合400亿元人民币)的市场规模,2023-2028年CAGR为41%。 •我们认为,随着数据中心算力规模高速增长,液冷技术市场渗透率的持续提升,数据中心液冷进入高景气发展阶段。随着解耦交付的推进,产业生态逐步成熟,液冷将进入标准化、规模化推广和部署期,拥有产业链一体化解决方案的配套商、以及与芯片厂商/服务器厂商/运营商建立稳固合作的配套商具有更强的竞争优势,建议关注英维克、申菱环境、曙光数创、科华数据、飞荣达、高澜股份等。 •风险提示:市场需求不及预期;产业链各环节竞争加剧;技术路线创新产生的风险等。 请参阅附注免责声明 目录 —数据中心向绿色可持续发展,液冷方案空间广阔二液冷包含三种主流技术路线,冷板式液冷最为成熟 三 算力密度提升和低TCO促进液冷快速发展,未来5年复合增速超40% 四相关上市公司 五风险提示 3 —数据中心向绿色可持续发展,液冷方案空间广阔 1.1数据中心液冷始于1964年,近几年我国发展迅速 1.2“双碳”目标下,数据中心向绿色可持续发展 1.3液冷技术低能耗、高散热优势显著 4 4 1.1数据中心液冷始于1964年,近几年我国发展迅速 •数据中心持续运行产生大量热量,冷却系统是数据中心重要组成。根据冷却介质的不同,数据中心冷却系统分为风冷和液冷。数据中心液冷始于1964年,IBM公司推出首款System360冷冻水冷却计算机,开创性地采用了液冷技术。2008年,IBM公司重回液冷后,在其Power575的处理器上首次应用铜水冷板方案。 •我国的液冷行业起步较晚,但发展迅速。2011年,中科曙光率先打破了中国液冷行业的空白,率先开始服务器液冷技术的研究探索,2013年推出了首台冷板式液冷服务器原理机和首台浸没式液冷原理验证机。近几年,英维克、申菱环境、科华数据、飞荣达、高澜股份等公司积极布局液冷,促进国内数据中心液冷快速发展。 图表1:国内外液冷发展大事记 资料来源:《中国液冷数据中心发展白皮书》-赛迪顾问,中邮证券研究所 请参阅附注免责声明5 1.2“双碳”目标下,数据中心向绿色可持续发展 •数据中心算力规模高速增长,大型数据中心成为主流模式。随着各行业数字化转型,以及人工智能、大数据、5G、AIGC等技术推动,我国算力中心建设规模高速增长。截至2023年,我国提供算力服务的在用机架数达810万标准机架,算力规模230EFLOPS。2023年10月,工信部等六部门发布《算力基础设施高质量发展行动计划》,到2025年,中国算力规模将超过300EFLOPS,其中,智能算力占比将达到35%。大型以上算力中心机架数量占比逐年提升,2021年大型规模以上算力中心机架数占比81%。 1000 50% 800 39%810 36% 670 30% 40% 600 27% 520 29% 30% 400 200 401 315 226 166 21%20% 10% 0 0% 2017201820192020202120222023 中国数据中心机架规模(标准机柜,万架)YoY 600 100% 540 500 74% 75% 77% 81% 420 81% 80% 400 50% 60% 300 309 237 40% 200167 100 83 20% 0 0% 201720182019202020212022E 大型规模以上机柜数量(万架) 大型规模以上占比 图表2:算力规模图表3:大型以上算力中心机架数及占比 资料来源:《算力中心冷板式液冷发展研究报告》-中国信通院云计算与大数据研究所,《中国液冷数据中心市场深度研究报告》-科智咨询、中国信通院产业与规划研究所,新京报,中 请参阅邮附证注券研免究责所声明6 1.2“双碳”目标下,数据中心向绿色可持续发展 图表5:国家对于数据中心PUE的相关要求 •2021年7月,工信部印发《新型数据中心发展三年行动计划(2021-2023年)》明确提出,到2023年底,新建大型及以上数据中心PUE降到1.3以下;2022年6月,工信部等六部门印发《工业能效提升行动方案》提出,到2025年,新建大型、超大型数据中心PUE优于1.3。北上广深一线城市对于PUE限制更为严格。需要采用更加高效节能的技术及设备,降低数据中心能耗。 图表4:2022年数据中心PUE与政策要求 时间 部门 文件 相关内容 2021年7月 工信部 《新型数据中心发展三年行动计划(2021-2023年)》 到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区降低到1.25以下 2021年12月 国家发改委等四部门 《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》 到2025年,数据中心和5G基本形成绿色集约的一体化运行格局。全国新建大型超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上 2022年6月 工信部等六部门 《工业能效提升行动计划》 到2025年,新建大型、超大型数据中心PUE优于1.3 2022年8月 工信部等七部门 《信息通信行业绿色低碳发展行动计划(2022-2025年)》 到2025年,全国新建大型、超大型数据中心PUE降到1.3以下,改建核心机房PUE降到1.5以下 资料来源:《中国液冷数据中心市场深度研究报告》-科智咨询、中国信通院产业与规划研究所,中国政府网,国家发改委官网,中邮证券研究所 请参阅附注免责声明7 1.2“双碳”目标下,数据中心向绿色可持续发展 •“东数西算”:2022年1月,国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下。 •长三角一体化示范区执委会会同相关部门联合印发《关于在长三角生态绿色一体化发展示范区加快数字经济发展推进先行先试的若干举措》,提出新建大型、超大型数据中心PUE不超过1.25。 8个算力枢纽和10个集群 “东数”PUE<1.25 “西算”PUE<1.2 图表6:“东数西算”布局图 资料来源:国家发改委官网,《算力中心冷板式液冷发展研究报告》-中国信通院云计算与大数据研究所,上海发布微信公众号,中邮证券研究所 请参阅附注免责声明8 图表8:散热能力对比(2MW机房) 图表7:能耗对比(2MW机房) 风冷冷板式液冷浸没式液冷 1400 1200 1200 1000 841 800 600 400 280 200 196 80 56 0 冷却能耗/kW 冷却电费/万元 1.3液冷技术低能耗、高散热优势显著 •液冷利用了液体的高导热、高热容特性替代空气作为散热介质,具有低能耗、高散热、低噪声、低TCO等优势。 •低能耗:液冷散热技术传热路径短、换热效率高、制冷能效高的特点促成液冷技术低能耗优势。 •高散热:液体的载热能力、导热能力和强化对流换热系数均 远大于空气,相比风冷散热能力更强。 • 低噪声:液冷散热利用泵驱动冷却介质在系统内循环流动, 解决噪声污染问题。 风冷冷板式液冷浸没式液冷 • 低TCO:液冷数据中心PUE可降至1.2以下,每年可节省大量 电费,降低数据中心运行成本。以10MW数据中心为例,液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计约2.2年 收回增加的基础设施初投资。 160 140 120 100 80 60 40 135133 96 60 33 2015 0 功率密度kW/RACK 32 20 机柜数量RACKS 占地面积m² 15 资料来源:《中兴通讯液冷技术白皮书》-中兴通讯,中邮证券研究所 请参阅附注免责声明9 1.3液冷技术低能耗、高散热优势显著 •数据中心制冷能耗占比较高。全国数据中心耗电量约占全国用电量的2%-3%,传统风冷数据中心建成后,电费占运维总成本的60%-70%。根据赛迪顾问统计数据显示,2019年中国数据中心主要设备能耗占比中,制冷耗电占比(约为43%)位居第二,仅次于IT设备自身能耗占比(约为45%)。 •采用液冷可以大幅降低数据中心能耗,提高PUE。以某液冷数据中心为例,液冷设备取代空调设备,耗能占比仅为9%,数据中心PUE降低至1.2以下。 图表9:数据中心能耗分布图表10:某液冷数据中心能耗分布 资料来源:《绿色节能液冷数据中心白皮书》-国家互联网数据中心产业技术创新战略联盟、曙光数据基础设施创新技术(北京)股份有限公司、曙光信息产业股份有限公司,中邮证券研究所 请参阅附注免责声明10 1.3液冷技术低能耗、高散热优势显著 •冷却系统能耗方面,液冷利用液体的高导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,实现了PUE小于1.25的极佳节能效果。 •散热能力方面,不同数据中心冷却方式散热效果存在差异,单机柜功率在20kW以下的数据中心,采用风冷即可满足散热要求,功率超过20kW则需要采用液冷技术。 图表11:数据中心制冷技术对应PUE范围图表12:数据中心不同冷却技术制冷效果 资料来源:《中兴通讯液冷技术白皮书》-中兴通讯,《中国液冷数据中心市场深度研究报告》-科智咨询、中国信通院产业与规划研究所,中邮证券研究所 请参阅附注免责声明11 1.3液冷技术低能耗、高散热优势显著 •液冷有助于服务器充分释放性能,提升安全性和可靠性。相较于传统风冷,液冷带来更好的冷却效果,尤其是对关键电子部件,例如CPU、GPU和内存。当服务器满载运行时,CPU温度为50-65℃,比风冷降低约25℃,完全释放CPU超频性能。 •电子元器件使用故障中,有半数以上是由于温度过高引起的。 图表13:电子元器件故障原因统计 半导体元器件温度每升高10℃,反向漏电流将增加1倍。此外, 在高温的环境下,机件材料、导线绝缘保护层、防水密封胶更 容易老化,造成安全隐患。 • 液冷可以降低部件和元器件的运行温度,收窄部件和元器件随 负载的温度变化幅度,从而避免设备局部热点,使运行可靠性大幅提升。 资料来源:《绿色节能液冷数据中心白皮书》-国家互联网数据中心产业技术创新战略联盟、曙光数据基础设施创新技术(北京)股份有限公司、曙光信息产业股份有限公司,中邮证券研究