您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[信达证券]:运营商力推液冷,中兴液冷技术领先,有望核心受益 - 发现报告
当前位置:首页/公司研究/报告详情/

运营商力推液冷,中兴液冷技术领先,有望核心受益

2023-06-06信达证券晚***
运营商力推液冷,中兴液冷技术领先,有望核心受益

100% 中兴通讯 沪深300 50% 0% -50% 资料来源:万得,信达证券研发中心 蒋颖 通信行业首席分析师 执业编号:S1500521010002 联系电话:+8615510689144 邮箱:jiangying@cindasc.com 相关研究 《中兴通讯深度报告:全面布局智能汽车,多项业务持续落地——智能网联汽车系列(1)》2021.3.21 《中兴通讯:全屏实力全球领先,消费电子王者归来——价值变现系列深度2(消费电子篇)》 2021.8.1 信达证券股份有限公司 CINDASECURITIESCO.,LTD 北京市西城区闹市口大街9号院1号楼邮编:100031 买入 上次评级 买入 投资评级 证券研究报告 公司研究点评报告 中兴通讯(000063.SZ) 运营商力推液冷,中兴液冷技术领先,有望核心受益 2023年6月6日 事件:6月5日,在31届中国国际信息通信展览会上,中国移动、中国电信、中国联通三家基础电信运营企业共同面向业界发布了《电信运营商液冷技术白皮书》。 点评: 运营商力推液冷应用,液冷渗透率有望提升,中兴通讯有望核心受益 为推进电信运营商液冷技术应用,《电信运营商液冷技术白皮书》提出“三年景愿”,即2023年开展液冷技术验证;2024年开展规模测试,新建数据中心项目10%规模试点应用液冷技术,推进产业生态成熟;2025年及以后开展规模应用,50%以上数据中心项目应用液冷技术。 中兴通讯是运营商算力产业链核心合作伙伴,公司连续2年取得国内运营商服务器市场份额第一,2022年运营商市场X86服务器以17.5万台的发货量位居首位,公司已提前深度布局液冷技术: 1)IDC机房侧:公司已完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术攻关,于23年Q1推出全液冷系统解决方案,实现DC液冷数据中心机房、IT液冷服务器设备、CT液冷路由交换设备一体化集成开发、交付,整机能耗预计可降低约5%,液冷数据中心PUE可降至1.2以下; 2)服务器侧:全新G5系列服务器支持不同的冷板式液冷方案,如CPU液冷、CPU+内存条液冷,以及CPU+内存条散热+VR液冷,冷板液冷占比最高可达80%以上,充分满足不同制冷需求,浸没式液冷方案还在研发当中; 3)液冷路由器:中兴通讯与中国电信研究院和中国电信云计算公司联合建设T8000核心路由器的冷板式液冷试验局。试验局实现核心芯片运行温度降低10℃,理论故障率约减少一半;大容量核心机房综合PUE≤1.2,解决了高功率路由器空调散热难的问题。 公司作为全球领先的综合性通信制造业公司和全球通信解决方案提供商,致力于将液冷技术应用到通信领域,我们认为公司作为运营商算力产业链核心合作伙伴,在未来运营商液冷数据中心项目的建设中有望率先受益。 重要财务指标 2021A 2022A 2023E 2024E 2025E 营业总收入(百万) 114,522 122,954 141,942 164,476 190,999 同比(%) 12.9% 7.4% 15.4% 15.9% 16.1% 归属母公司净利润(百万) 6,813 8,080 10,190 12,335 14,990 同比(%) 59.3% 18.6% 26.1% 21.1% 21.5% 毛利率(%) 35.2% 37.2% 37.5% 37.7% 37.8% ROE(%) 13.2% 13.8% 14.2% 14.7% 15.1% EPS(摊薄(元) 1.44 1.71 2.15 2.60 3.16 P/E 23.31 15.17 16.77 13.85 11.40 资料来源:wind,信达证券研发中心预测;股价为2023年6月5日收盘价 运营商服务器市场:服务器产品实力强劲,在多个运营商项目中排名均位列第一 我们认为2023年数字经济建设是国家发展主线之一,算网基础设施建设或将逐步加快, 2023年三大运营商在算力方面的资本开支均保持20%以上增速,中兴通讯有望核心受益。 1)公司在中国电信2022-2023年服务器集中采购中实现全标包入围,总份额第一,其中标包1、4、6中排名第一,标包2、3、7中位列第二。 2)公司在中国联通2022云服务器集中采购中总份额第一,其中标包1排名第一;在2022- 2024年中国联通国际服务器集中采购标段1中排名第二;在2022年中国联通人工智能服 务器集中采购中排名第三;在2022年中国联通通用服务器集采中总份额第二。 3)公司在中国移动2019-2020、2020PC服务器集采、2021-2022PC服务器集采(网络云标包)中均排名第一;在中国移动2021-2022PC服务器集采(第一批次)中总份额位列第二;在中国移动2021-2022PC服务器集采(第二批次,1-6标包)中总份额排名第三;在中国移动2022政企客户算力服务器集采中排名第二;在中国移动集中网络云资源池第三期工程计算型服务器采购中排名第一。 AI服务器:产品性能强劲,成为“文心一言”可靠算力底座 3月16日,据中兴通讯微信公众号,中兴通讯和百度联合宣布,中兴通讯服务器将支持百度“文心一言”,为AI产品应用提供更加强劲的算力支撑,助力AI产业化应用和生态繁荣。“文心一言”是百度基于文心大模型技术推出的生成式AI产品,具备跨模态、跨语言的深度语义理解与生成能力,“文心一言”将通过百度智能云对外提供服务,为产业带来AI普惠。 在服务器产品方面,公司服务器产品全面满足百度定制化要求,针对百度智能云AI、深度学习的需求,中兴通讯服务器产品采用高密度、模块化、精细化设计,具有高性能、高可靠、易扩展、易管理等优势,在AI、云计算、大数据、NFV等领域具有出色的表现,适用于百度大脑、飞桨深度学习平台。目前,公司服务器产品已规模应用于百度智能云,充分满足百度智能云不同业务场景差异化配置需求、资源分配和上云服务。我们认为此次合作体现了公司在提供AI服务器解决方案的强大实力,公司服务器产品可充分满足AI模型所需的蓬勃算力需求和庞大的数据吞吐量需求。未来,随着国产AI模型持续发展,AI下游应用的落地,模型推理算力需求有望带动公司AI服务器持续放量。 截至目前,公司最新的R6500G5GPU服务器可支持20张单宽半长GPU加速卡,具备高密度算力、灵活扩展、异构算力、海量存储、稳定可靠等特性,双路最大支持120核,AI性 能提升10倍,为数字经济发展提供强大算力支持。在中兴通讯2022年年报解读交流会上,公司表示年底有望推出支持Chatgpt的GPU服务器以及高性能交换机,2023年运营商数据中心交换机营收有望倍增,同时公司是全球领先的ICT解决方案提供商,研发实力强劲, 我们看好公司强劲技术研发实力在AI等新应用领域的持续价值变现。 服务器方面:市场份额快速提升,保持较高增速 据IDC数据,2022年中国服务器市场规模为273.4亿美元(1888.37亿人民币),同比增长9.1%,中兴通讯2022年服务器收入已达100.08亿元;根据中兴通讯官网,2022年,中兴通讯服务器及存储营业收入百亿元,同比增长近80%;据IDC2022年第四季度中国服 务器市场跟踪报告,Top8服务器厂商中,浪潮、戴尔、联想份额均出现下滑,超聚变和中兴则取得明显增长,其中中兴通讯市场份额从3.1%提升至5.3%,位居国内第�。公司在今年新产品发布会上表示将快步实现服务器及储存产品国内前三(按照2022年份额超10%以上)、全球前�的经营愿景。 图1:2022年中国服务器市场份额 17.0% 6.1% 4.9% 5.1% 5.3% 6.2% 10.1% 28.1% 17.2% 浪潮信息新华三超聚变 宁畅中兴通讯戴尔 联想ODMDirect其他 资料来源:IDC,信达证券研发中心 谷歌、Meta、百度等深度学习库均已接入中兴Adlik架构,长期需求有望持续释放 2022年12月28日,公司联合英特尔共同发布《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,本白皮书深入介绍了中兴通讯主导的开源项目Adlik如何与英特尔OpenVINO工具结合。为解决购买专用GPU硬件会大幅增加部署成本,而且应用范围有限,灵活度较低的问题,中兴通讯通过硬件创新和软件层面的深度优化,在部分场景中,如果能够直接使用CPU来进行推理,将有助于降低成本,提升灵活度,白皮书指出通过中兴Adlik可以对AI模型进行自动剪枝、蒸馏,实现模型大小的优化,再通过OpenVINO™的量化工具和推理引擎,对模型实现INT8量化,从而实现模型压缩,以降低模型推理所需的计算资源和内存带宽,提高模型的推理性能。通过使用中兴Adlik+第三代英特尔®至强®可扩展处理器+OpenVINO™工具套件的组合,可使已完成训练的高精度AI模型转换成参数较小、结构简单、精度基本不下降的AI小模型,其性能与大模型接近,模型数据吞吐量更高,从而实现在不增加GPU硬件,大幅减少部署成本的情况下,直接使用CPU服务器即可满足模型的日常推理需求,成功实现降本增效,并使得模型更易部署在算力有限的场景下,比如自动驾驶车端场景。我们认为此解决方案能够实现AI模型推理的降本增效,适用各垂直领域的AI小模型有望加速落地,充分满足不同场景需求。 Adlik是用于将深度学习模型从训练完成到部署到特定硬件,提供应用服务的端到端工具链, 其应用目的是为了将模型从研发产品快速部署到生产应用环境。Adlik可以和多种推理引擎协作,支持多款硬件,提供统一对外推理接口,并提供多种灵活的部署方案。目前谷歌TensorFLOW,MetaPyTorch和百度的PP飞桨深度学习库都已能够接入Adlik架构。随着MetaAISAM开源图像分割模型的问世,计算机视觉产业或将加速发展。由于SAM中的图像编码器功能必须在PyTorch中实现,并需要GPU才能进行高效推理,我们认为计算机视觉产业的发展有望进一步带动对Meta深度学习库PyTorch以及其他AI互联网企业深度学习库的需求,公司adlik软硬整体架构的需求有望提升。 图2:Adlik整体架构 资料来源:《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,信达证券研发中心 测试效果如下图所示,在ImageNetval验证数据集上,ResNet50剪枝模型经过蒸馏后精度略有提升,剪枝模型的吞吐量比原始模型提升了2.74倍。INT8量化后的模型的吞吐量比未量化模型提升了2.96倍。经过Adlik剪枝蒸馏和INT8量化等方法优化后的ResNet50模型,在精度无损失的情况下,吞吐量比原始模型提升了13.82倍,效果显著。 图3:ResNet50剪枝+蒸馏后模型吞吐量大幅增长 700078% 600077% 500076% FPS Top-1 400075% 300074% 200073% 100072% 0 Baseline 剪枝 吞吐量 剪枝+蒸馏剪枝+蒸馏+INT8量化 准确性 71% 资料来源:《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,信达证券研发中心 目标检测YOLOv5m模型优化测试结果如下图所示,在COCO2017验证集上,YOLOv5m经剪枝蒸馏和INT8量化后的模型,精度损失在1%以内。优化后的YOLOv5m模型吞吐量比原始模型提升了3.39倍。 图4:目标检测YOLOv5m模型优化测试结果 350 300 250 FPS 200 150 100 50 0 Baseline剪枝剪枝+蒸馏剪枝+蒸馏+INT8量化 吞吐量准确性 45% mAP@0.5:0.95 44% 43% 42% 41% 40% 资料来源:《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,信达证券研发中心 盈利预测与投资评级 公司具有软件、硬件、芯片、操作系统等基础能力,将基础能力外溢赋能更多数字经济应用,有望打开公司第二成长曲线。我们预计公司2023-2025年归母净利润分