您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[华龙证券]:AI算力行业深度研究报告:智算供给格局分化,国产化进程有望加速 - 发现报告
当前位置:首页/行业研究/报告详情/

AI算力行业深度研究报告:智算供给格局分化,国产化进程有望加速

信息技术2023-12-04孙伯文华龙证券黄***
AI智能总结
查看更多
AI算力行业深度研究报告:智算供给格局分化,国产化进程有望加速

y 证券研究报告 计算机行业 报告日期:2023年12月04日 智算供给格局分化,国产化进程有望加速 ———AI算力行业深度研究报告 100% 80% 60% 40% 20% 0% -20% 沪深300 AI算力指数 请认真阅读文后免责条款 相关阅读 研究员:孙伯文 执业证书编号:S0230523080004邮箱:sunbw@hlzqgs.com 最近一年走势 投资评级:推荐(首次覆盖) 华龙证券研究所 摘要: 国产大模型发展方兴未艾。大模型规模、数据量和数量的全面增长将持续拉动AI算力需求。国内千亿级参数规模大模型持续落地。2023年10月,百度发布万亿参数级大模型文心一言4.0,正式宣布对标GPT-4。近两年国产大模型数量呈爆发式增长态势,仅2023年1到7月,国内大模型就新增64个,短期内增速有望维持。 美国再收紧对华高端芯片出口标准,AI芯片国产化替代成为趋势。近年来,受国际局势影响,国内厂商加快自研芯片速度。华为昇腾AI算力已经为至少30个国产大模型训练提供算力支持,具备大规模商用能力。短期关注华为昇腾和昇思MindSpore产业链,长期关注国产芯片研发的突破性进展。 2022-12-02 2023-02-17 2023-04-28 2023-07-07 2023-09-15 2023-12-01 算力租赁业务模式逐渐清晰,预期强需求下定价将大幅上涨。随着美国对华高端芯片禁令进一步收紧,较早布局AI算力租赁的厂商容易形成资源优势,估算行业成本回收周期约为17个月。算力租赁业务的商业化路径逐渐明晰,加之近期行业频释放提价信号,算力租赁利润空间将进一步增长。 长期关注芯片性能和算力资源调配效率提升。一方面,Chiplet技术有望打破芯片的物理极限,延续、甚至提高摩尔定律中提出的芯片性能增长速度。另一方面,AI算力资源上云有望从资源配置灵活性方面提升算力供给效率。 建议关注:1)开展算力服务的厂商:中贝通信、莲花健康、恒润股份、汇纳科技、鸿博股份;2)具备国产芯片IP设计能力的厂商:寒武纪、海光信息、芯原股份;3)具备云服务能力的厂商:中科曙光、浪潮信息、紫光股份、神州数码;4)芯片封测厂商:长电科技、通富微电、华天科技。 风险提示: 国际紧张局势加剧;国产大模型发展不及预期;国产芯片技术突破速度不及预期;台积电产能恢复不及预期;数据估算风险。 内容目录 1大模型浪潮推动作用下,算力需求缺口将持续扩大1 1.1大模型发展对算力需求的推动作用1 1.1.1国外大模型的发展1 1.1.2国内大模型的发展3 1.2国产大模型AI算力需求测算5 1.2.1通用大模型AI算力需求测算6 1.2.2行业大模型AI算力需求测算7 1.3AI算力供给方面:高端芯片进口受限,国产替代为大势所趋10 1.3.1国际形势:美国进一步收紧芯片对华出口标准10 1.3.2AI芯片国产化替代11 1.3.3AI芯片产能:台积电产能复苏伴随订单激增,供不应求情况仍将持续12 2AI算力租赁行业的内在价值12 2.1AI算力租赁对下游公司:带来成本和时间优势12 2.2对具备算力资源的公司:算力租赁可为公司带来第二业务增长线13 2.2.1AI算力租赁成本回收周期测算13 3AI算力未来发展方向——增质提效14 3.1以云网融合为前提,算力调度成为提高资源配置效率的核心14 3.2芯片数据传输效率:关注Chiplet技术和芯片互联技术15 3.2.1Chiplet技术15 3.2.2芯片互联技术16 4重点关注公司16 4.1寒武纪-U(688256.SH)16 4.2中贝通信(603220.SH)17 5风险提示19 图目录 图1:2018年海外大模型发布数量1 图2:2017-2023年海外大模型参数量演进情况2 图3:国内大模型发布数量3 图4:国产通用大模型与行业大模型分布4 图5:国内部分垂类大模型应用4 图6:国内通用与垂类大模型比例4 图7:华为盘古大模型层级分布5 图8:基于华为昇思MindSpore的医药垂类大模型-鹏程·神农8 图9:Megatron框架下大模型训练规模和算力利用率9 图10:美国2023年10月18日高端芯片出口禁令标准10 图11:寒武纪思元370芯片16 图12:2020-2025年寒武纪营业收入及增长率17 图13:2020-2025年寒武纪归母净利润及增长率17 图14:2020-2025年寒武纪ROE(摊薄)17 图15:2020-2025年中贝通信营业收入及增长率19 图16:2020-2025年中贝通信营业归母净利润及增长率19 图17:2020-2025年中贝通信ROE(摊薄)19 图18:2020-2025年中贝通信PE19 表目录 表1:部分国内外公开数据的通用大模型训练计算量和规模对比6 表2:2023年国产通用大模型训练侧算力需求测算7 表3:2023年国产通用大模型推理侧算力需求测算7 表4:2023年国产垂类大模型算力需求测算9 表5:国内主流AI芯片性能参数对比11 表6:算力租赁行业成本回收周期测算(以H800服务器为租赁产品)14 表7:中贝通信算力租赁业务的成本回收期估算18 1大模型浪潮推动作用下,算力需求缺口将持续扩大 1.1大模型发展对算力需求的推动作用 大模型的训练效果、成本和时间与算力资源有密切的关系。大模型发展浪潮有望进一步增加AI行业对智算算力的需求规模。 1.1.1国外大模型的发展 大模型数量加速增长,算力成为模型竞赛底座。自2018年以来,海外云厂商巨头接连发布NLP大模型。据赛迪顾问2023年7月发布的数据显示,海外大模型 发布数量逐年上升,年发布数量在五年中由2个增长至 48个。且仅2023年1-7月就发布了31个大模型。 自2021年起,海外大模型数量呈现加速增长的趋 势,结合2023年1-7月的情况,该趋势有望延续。 图1:2018年海外大模型发布数量 大模型数量(个) 48 38 31 14 2 5 60 50 40 30 20 10 0 2018年2019年2020年2021年2022年2023年1-7月 资料来源:赛迪顾问,华龙证券研究所 2017-2023年,从各公司发布的公开信息来看,大 模型在7年的时间里实现参数量从千万到万亿级的指数型增长。 2017年,谷歌团队提出Transformer架构,奠定 了当前大模型领域主流的算法架构基础。 2018年6月,OpenAI发布了Transformer模型 ——GPT-1,训练参数量1.2亿。同年10月,谷歌发布了大规模预训练语言模型BERT,参数量超过3亿。 2019年,OpenAI推出15亿参数的GPT-2。2019 年9月,英伟达推出了83亿参数的Megatron-LM。同 年,谷歌推出了110亿参数的T5,微软推出了170亿参数的图灵Turing-NLG。 2020年,OpenAI推出了大语言训练模型GPT-3,参数达到1750亿。微软和英伟达在同年10月联合发布了5300亿参数的Megatron-Turing大模型。 2021年1月,谷歌推出SwitchTransformer模型,参数量达到1.6万亿,大模型参数量首次突破万亿。 2022年,OpenAI推出基于GPT-3.5大模型的 ChatGPT,宣告了GPT-3.5版本的存在。 2023年,OpenAI推出GPT-4,估计参数规模达到 1.8万亿。 模型参数量(十亿) 2,000 1,800 1,600 1,500 1,000 530 600 500 175 0.120.341.58.31117 0 图2:2017-2023年海外大模型参数量演进情况 资料来源:《AttentionIsAllYouNeed》等论文,中国信通院,华龙证券研究所 GPT-1 BERT GPT-2 Megatron-LM T5 T-LNG GPT-3 Megatron-Turing Gshard Switch-Transformer GPT-4 GPU数量与不同量级大模型所需的算力之间的线性关系。根据2021年8月DeepakNarayanan等人发布的论文,随着模型参数增加,大模型训练需要的总浮点数与GPU数量呈现正相关的线性关系。175B参数量级的大模型所需的A100级别芯片数量为1024片(Token数为300B,训练34天情况下)。当参数增长到1T时,大模型训练所需的A100芯片数量为3072片(Token数为450B,训练84天情况下)。 加大成本投入,海外大模型训练周期有望进一步缩 短。从2020年6月OpenAI发布首个千亿参数量级大模型GPT-3到2021年1月谷歌推出首个万亿参数量级的SwitchTransformer模型,大模型实现参数量级从千亿到万亿的跨越只用了不到一年。随着海外大厂商加大对大模型训练的成本投入,预计大模型发布周期将进一步缩短。在商业逻辑上,大模型发布数量指数型增长,意味着市场竞争越来越激烈。厂商更愿意通过使用高性能的芯片缩短大模型训练时间,使大模型更早投入应用为公司带来业务增长。因此,芯片性能的提高并不会削弱厂商对芯片数量的需求意愿。 1.1.2国内大模型的发展 数量增长情况与海外类似,短期内呈现密集发布的特点。自2019年至2023年7月底,国内累计发布130 个大模型,2023年1-7月国内共有64个大模型发布,大模型发布数量呈现加速增长趋势。数量增长趋势与海外情况一致,我国大模型研发起步较晚,随着在大模型领域布局的厂商数量快速增加,大模型发布周期逐步缩短,预期未来两到三年内国产大模型数量将呈现爆发式增长局面。 图3:国内大模型发布数量 64 31 32 1 2 大模型数量(个) 70 60 50 40 30 20 10 0 2019年2020年2021年2022年2023年1-7月 资料来源:赛迪顾问,华龙证券研究所 巨头引领,千亿级参数规模大模型陆续落地。2023年3月,百度发布文心一言1.0;同年4月,阿里发布通义千问大模型、商汤科技发布日日新大模型体系;同年5月,科大讯飞发布星火大模型;同年7月,华为发布面向行业的盘古大模型3.0,千亿级参数规模大模型密集发布。2023年10月,随着百度发布万亿级参数大模型文心一言4.0,国产大模型或将具备对标GPT-4性能的能力。 按类型划分,大模型分为行业大模型和通用大模型。 据赛迪顾问于2023年7月统计的数据显示,我国通用大模型和行业大模型占比分别为40%和60%。行业大模型分布较多的领域为商业(14个)、金融(13个)、医疗(10个)、工业(7个)、教育(6个)和科研(6个)。研究显示,通用大模型在行业领域及行业细分场景的表现一般。但行业模型可以在通用模型的基础上通过行业数据库进一步训练出来。 图4:国产通用大模型与行业大模型分布 发布数量(个) 13 14 7 10 6 6 2 11 1 1 4 1 4 22 1 3 1 4 5046 45 40 35 30 25 20 15 10 5 0 资料来源:赛迪顾问,华龙证券研究所 图5:国内部分垂类大模型应用图6:国内通用与垂类大模型比例 通用大模型垂类大模型 40% 60% 资料来源:中国日报,京报网,中国网科技,各公司官网,华龙证券研究所 资料来源:赛迪顾问,华龙证券研究所 大模型应用向细分场景下沉。华为发布的盘古大模型实际分为L0(基础大模型)L1(行业大模型)L2(场景模型)三个层级。采取5+N+X模式,即5个基础大模型、N个行业大模型和X个细分场景应用模型。目前行业模型主要应用于矿山、政务、气象、汽车、医学、数字人和研发共七大领域,覆盖14个细分场景。这种 通过基础大模型+行业大模型实现大模型商业化落地的模式已经逐渐得到验证,未来行业大模型有望带动大模型本地化部署热潮,在解决行业长尾问题上将发挥更大优势并成为打通大模型“最后一公里”的桥梁。 图7:华