您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中泰证券]:AI行业产业研究:算力系列之二,算力租赁产业框架 - 发现报告
当前位置:首页/行业研究/报告详情/

AI行业产业研究:算力系列之二,算力租赁产业框架

信息技术2024-01-23苏仪中泰证券王***
AI行业产业研究:算力系列之二,算力租赁产业框架

中泰证券研究所专业|领先|深度|诚信 |证券研究报告| AI产业研究 算力系列之二:算力租赁产业框架 2024.01.23 分析师:苏仪 执业证书编号:S0740520060001Email:suyi@zts.com.cn 联系人:刘一哲 Email:liuyz03@zts.com.cn 摘要 算力租赁因何而起。1)全球范围内,GPT等一系列生成式大模型推动产业界对算力需求显著增加,但短期内高端GPU产能与交付效率有限,造成GPU供需失衡。2)在国内,国产GPU距离海外先进GPU仍有一定性能差距,且制造工艺短板使得其短期无法大量生产,因此当前国内AI产业发展仍需主要依赖海外英伟达、AMD为代表的先进GPU。但受制于美国科技禁运与封锁,当前国内产业界只能更多利用现有GPU资源,算力租赁产业因此应运而生。 如何理解算力租赁产业。算力租赁是将计算能力或云计算资源以租赁的方式提供给用户使用,这一过程中用户可按需选择使用资源类型和时间,且无需承担运维、升级等工作及相应成本。算力租赁一方面使得下游客户灵活使用算力的门槛降低,更利于众多AI初创公司快速实现产品服务的开发与应用,另一方面也充分利用闲置的算力资源,提升算力资源的利用效率。目前,我国算力租赁的商业模式主要有三种:1)按整台服务器进行租赁;2)按使用算力规模租赁;3)按租用GPU付费租赁。 算力租赁市场的潜在发展方向:运营服务与解决方案。目前国内已有多家公司在算力租赁领域上实现布局,且有相当部分公司已做好未来更大规模扩张的规划。我们认为,算力租赁在短期内可较好应对当前国内算力资源稀缺的问题,但长远来看,若要避免资源过剩与同质化服务带来的激烈市场竞争,算力租赁产业相关从业者或需更多将精力聚焦于算力调度为代表的运营服务、以及AI运营工具与整体解决方案上。海外英伟达、Oracle等公司均已推出在算力租赁基础之上的整体AI服务工具与解决方案,或可以为国内相关产业的发展提供较好指引。 风险提示:国际政治经济变动的风险;AI进展不及预期带来下游算力需求不及预期的风险;算力供给稀缺迅速缓解的风险;市场竞争加剧的风险;研究报告中使用的公开资料可能存在信息滞后或更新不及时的风险。 目录 CONTENTSONTE 中泰所 |领先|深度 1算力租赁因何而起 算力租赁行业的兴起逻辑 全球中国 AIGC产业趋势国内仍需依赖NV GPT等生成式大模型兴起,推动算力需求高增 高端GPU需求高增,GPU交付周期拉长、价格飞涨 国产芯片整体性能仍落后,当前国内仍需NV为代表的高端GPU来搭建算力 制裁之下国内高端GPU严重短缺,现有算力资源租赁成为短期需求爆发方向 GPU供需失衡国内NV资源有限 资料来源:中泰证券研究所 1.1大模型兴起助推算力需求激增 算力是人工智能大模型训练的核心生产力,随着AI大模型的快速发展,智能算力需求正呈现爆发性增长态势。据IDC发布的《2023-2024年中国人工智能计算力发展评估报告》测算,2022年我国智能算力规模达260EFLOPS(每秒百亿亿次浮点运算次数),预计到2027年我国智能算力规模有望突破1117EFLOPS,中国智能算力规模年复合增长率将高达33.9%。预计到2030年,人工智能驱动的全球算力将增长500倍,一个千亿级智能算力蓝海市场已悄然开启。 大模型爆发带来算力需求激增,其成功背后有着万张训练卡的计算资源支撑。当前,热门生成式大模型现阶段训练主要依赖以A100/H100为代表的高性能GPU算力,其不仅能提供高效的数据的传输能力,还可以尽可能减少算力闲置。 图表:热门大模型消耗卡的数量及训练时长 模型 消耗卡的数量 训练时长 LLaMA-65B模型 2048张A10080GB计算需求 21天 GPT3-175B模型 1024张A10040GB 34天 GLM-130B模型 768张A10040GB 两个月 Falcon-40B模型 384张A10040GBGPU 两个月 Inflection模型 3500张H100 - Inflection-2模型 5000张H100GPU - Megatron-Turing(MT-NLP)模型 4480张A100GPU - GPT4-1800B模型 2.5万张A100 90-100天 资料来源:论文《LLaMA(LargeLanguageModelMetaAI)》、《GLM-130B:开源的双语预训练模型》,澎湃新闻,InfoQ,亚马逊云科技,量子位,中国算力发展指数白皮书中泰证券研究所 1.1算力需求暴增加剧高性能GPU价格上涨,交付周期变长 GPT等AI大模型的爆火带动超算集群背后的高性能GPU需求急剧增加,供需失衡导致卡价格大幅上涨,交付周期明显拉长。 •市场需求高涨、产能有限双重驱动导致供需失衡,高性能GPU市场供应持续紧缺,价格不断上涨。据IDC数据显示,英伟达A100价格2022年12月份至2023年4月上半月期间,5个月价格累计涨幅即37.5%,2023年5月A100GPU市场单价达15万元。而A800同期累计涨幅达20%,5月A800GPU市场单价达9.5万元。 庞大的需求量下,英伟达高性能GPU交付周期被迫拉长,未来 交付存在不确定性目前是整个行业普遍面临的状况。 •根据Omdia的统计数据,NVIDIA在2023年Q3售出了约50万块A100和H100计算卡,基于H100构建的服务器交付周期大概需要36周到52周不等。此外,Omdia预计2023年Q4时,A100和H100计算卡出货量将超过50万块,旺盛的需求导致相关服务器的交付周期长进一步延长。 •对AMDMI210型号的GPU需求骤增,目前该GPU产品的交付周期已延长至16周之久。 •根据英伟达官方说法,2024年Q1之前的GPU芯片早已全部售罄。 图表:全球AI芯片市场规模及预测(单位:亿美元) 全球AI芯片市场规模及预测增速 1194 25.66% 20.81% 671 534 442 1400 1200 1000 800 600 400 200 30% 25% 20% 15% 10% 5% 0 2022 2023E 2024E 0% 2027E 资料来源:Gartner,中泰证券研究所 1.2科技封锁政策下中国GPU市场租赁需求激增 由于技术代际差距和使用生态习惯,近年来我国人工智能算力芯片市场仍主要由英伟达主导。据IDC数据,2022年中国AI加速卡出货量约109万张,英伟达以85%市占率保持着较高的竞争优势。然而,在贸易对抗和科技禁运的背景下,包括英伟达A800/H800在内的多款高端芯片被禁止对中国供应,中国AI大模型算力面临缺卡的困难,短期内挑战严峻。 •2023年10月,美国商务部工业和安全局(BIS)发布了一系列出口管制规则,更新了对先进计算集成电路、半导体制造设备以及支持超级计算应用和最终用途的物项向包括中国在内的武器禁运国家的出口管制措施,并将中国的13家实体列入了实体清单。 受美国对华高科技行业逐渐严苛的限制威胁,国内市场算力缺口进一步增大,存量依赖与租赁需求激增。 •英伟达卡进口受限:受科技禁运影响,英伟达高性能GPU进口受到严格限制,国内市场供应趋紧。 •存量资源利用:为应对供应短缺,国内企业纷纷转向利用现有存量资源,包括优化现有设备配置、提升设备利用率等。 •租赁需求爆发:在成本压力和市场需求的双重驱动下,企业“由买转租”的趋势愈发明显,GPU算力租赁需求迎来爆发 式增长。 图表:2023年10月美国出口管制政策及中国GPU芯片企业实体名单 资料来源:AI前线,腾讯新闻,中泰证券研究所7 目录 CONTENTSONTE 中泰所 |领先|深度 2何为算力租赁 2.1算力租赁及与云服务器的区别 算力租赁:将计算能力或云计算资源以租赁的方式提供给用户使用。允许用户通过租用他人的计算设备或云服务器来满足其计算需求,而无需自己购买和维护硬件设备。 •用户只要按需付费,不用承担硬件设备的采购、维护、升级等费用,也不用担心设备闲置或者过时造成浪费; •用户可随时随地通过云端访问所需的算力资源,快速开始训练和应用; •用户可根据需求选择不同算力平台和机型,不受地域或者时间的限制模型、工具等资源,进行更多的尝试和探索。 算力租赁使得下游客户灵活使用算力的门槛降低。 •对算力提供方:优化资源、将自身闲置的计算资源出租; •对算力需求方:可以最大限度地降低使用门槛。 算力租赁云服务器 图表:算力租赁和云服务的区别 实质用户通过租赁计算资源来满足特定的计算需求在云平台上提供的虚拟服务器实例 资源 服务范围侧重于计算能力的租赁,提供的是计算资源服务云服务器提供的是一种全面的云计算服务,包括计算、存储、网络等灵活性灵活性强,可根据实际需求调整租赁时间和配置通常需要购买一定的套餐,对使用时间、配置等有固定的限制 特点 成本可以根据实际使用情况进行计费,有效降低成本。成本相对较高,需要支付固定的套餐费用 租用计算资源的灵活性和定制化注重弹性扩展、易于管理,可根据实际需求快速地增加或减少服务器实例的数量。 资料来源:世外云,中泰证券研究所 9 2.2算力租赁的三种商业模式 AI算力租赁的商业本质为具有大模型训练需求的软件研发厂商向具有GPU资源的厂商租赁GPU算力。出租方利润来源 主要是租金收入减运营成本,其运营成本主要包括固定资产折旧,数据中心日常运营、IDC机房租金以及人员成本等。 AI算力租赁市场中,租金的计量方式因租赁双方的需求和资源状况而异。目前市场上常见的三类租金计量方式如下 (三类计量方式间可相互换算) •按整台服务器租赁:以每台服务器(含8张GPU)为单位进行计量,租金按照每台每月的标准收取,适用于需要长期稳定使用大量GPU资源的客户;提供最新NvidiaGPU卡的同时具备低服务器运维成本。 •按算力规模租赁:租金按每P每年计量,可以根据算力需求选择合适的算力规模,实现更加灵活的资源配置; •按单张GPU租赁:租金按照每GPU每小时计量,适用于短期或临时性的算力需求,可以根据实际需求随时调整卡的租赁数量。 图表:百度智能云高性能H5系列GPU-H5-8NA100-IB01租赁价格 资料来源:百度智能云,中泰证券研究所10 2.3算力租赁的重要性——有望挖掘存量资源潜力,以高性价比缓解当下算力短缺困局 在AIGC时代的大潮中,中国企业亦须紧跟AIGC时代潮流,积极寻求提升自身AI能力的途径,而这对应较大的算力水 平需求。 在当前市场环境下,适用于AI计算的高性能GPU供不应求,许多AI公司无法购买到足够的计算卡来搭建自己的算力集群,而算力租赁可以高性价比缓解当下算力短缺的困局。 算力租赁是当前中小企业解决算力需求的最优解之一。目前,除了少数大型互联网企业自身资金实力充沛,可购买较多的GPU,算力储备较充足之外,剩下中小企业普遍面临算力紧缺,算力租赁需求突出。 •对于规模较小的公司,购买GPU搭建算力集群的投入成本过高,租赁外部算力相对自建算力更合算、灵活。 •自建集群规模固定、可扩展性较弱、可靠性较差,中小企业的算力需求往往难以通过自建算力设施解决,而算力租赁可有效降低除硬件成本外的维护、升级等长期投入,使其直接享受高性能算力的便利,以快速响应市场变化,把握发展机遇。 成本 图表:算力自建与租赁成本对比 自建算力 以175B参数,300Btokens训练集大小作为参照;以DGXA100(5petaFLOPS),45%的训练有效性;训练30天作为中型企业的训练标准,需要55台A100,每台15万美元,共825万美元(近6000万人民币),此外还有机房建设、运维、减值等费用。 算力租赁 4.5×24×30×8×55=142.56万美元(近1000万人民币),没有其他费用,且中小型企业一次训练+更新后一般不用再训练,只