区块链 AI云算力——AIGC的看多期权 在报告《Web3视角下的AIGC算力进化论》中,我们提出,1)AIGC(ArtificialIntelligenceGeneratedContent,人工智能生成内容)产业耗电量可观, 证券研究报告|行业点评 2023年04月07日 增持(维持) 并在快速提升,乐观估计大约会在1.6~3年内超过当前比特币挖矿产业 耗电量,主要驱动因素是GPT类大语言模型在模型参数、日活和模型数量上的高速增长;2)和比特币挖矿类似,AIGC产业由算力驱动的内容处 行业走势 于高强度竞争中,参与者只有持续、快速生产出高质量内容,才能保证自通信沪深300 己获取到的用户注意力不下降。我们将在本篇报告中详细阐述作为AIGC 当前和未来重要业态——云算力平台。 什么是AIGC云算力?AI云算力并非新鲜事物,用户可以通过阿里云、谷歌云等云平台租用英伟达A100、英伟达V100、谷歌TPU等显卡与AI处理器。近日英伟达DGX云的推出,将AIGC云算力推入新阶段。DGX云 是世界上第一台云中的AI超级计算机。DGXAI超级计算机配有8个H100GPU模组,H100配有Transformer引擎,旨在处理ChatGPT类大模型。加密资产挖矿历史上也出现了云算力这一业态,并在海外一直延续至今,云算力是算力生产商在销售算力硬件整机外,将算力推向市场的终极形 32% 16% 0% -16% -32% 2022-042022-082022-112023-03 作者 态。我们认为,云算力采用“化整为零”的方式,赋能产业链各方:1) 对上游算力生产商而言,在算力硬件进入淡季、库存趋增时,能平滑收入的波动,并为旺季储备有生力量,及时满足回弹的市场需求;2)对中游云服务厂商而言,则有助于增加客流;3)对下游算力需求方而言,能最大化降低使用算力的门槛,驱动全民AIGC时代降临。 AIGC云算力赋能长尾客户,具备价格弹性。AIGC大模型所需算力投入巨大,非头部厂商难以承担。单考虑ChatGPT的上一代模型GPT3(1750 分析师宋嘉吉 执业证书编号:S0680519010002邮箱:songjiaji@gszq.com 分析师孙爽 执业证书编号:S0680521050001邮箱:sunshuang@gszq.com 相关研究 亿参数版),自建超算集群及训练的投入在10亿元起,而一旦投入商用, 巨大的推理需求将对算力产生爆发式需求。ChatGPTPlus的停售也反映出即便是OpenAI这样的头部模型厂商,也难以承受用户需求狂飙导致的算力成本。云算力平台通过搭建共享算力池,可提高硬件复用率,对于长尾客户具有较大吸引力。此外,我们看到近期算力GPU供不应求,价格上涨,相应算力价格也具备上行空间,在核心芯片获得难度加大背景下,云算力资源一定程度上成为AIGC的看多期权,具备价格弹性。 AIGC云算力——打造IDC第二增长曲线。以IDC为例,根据我们的统计,投建IDC花费可观,为单个标准机柜募集的投资额约为18万元,项目建设期长达1~5年,投资回收期长达6~8年。在AIGC算力需求爆发 后,我们预计,其有望为IDC运营商缩短投资回收期,提升上架率,深化第二增长曲线。相较于可能新入局的厂商,我们认为,从上游资源看,能获得低价电力、硬件设备、客户等资源的IDC服务商具备优势;从下游看,由于互联网企业、金融企业等都可能参与到AIGC的竞争中来,而这些客群与IDC服务商的高度相似,IDC服务商同样具备优势。 投资建议:该主题下建议配置第三方IDC服务商:光环新网、奥飞数据、数据港、润泽科技、科华数据、宝信软件、世纪华通等。同时关注与之配 套的:1)光模块服务商:新易盛、天孚通信、中际旭创、太辰光等;2)基础电信运营商:中国电信、中国移动、中国联通等;3)云计算服务平台:亚马逊、微软、谷歌、阿里、腾讯等。 风险提示:AIGC技术发展不及预期,全球地缘冲突加剧。 1、《通信:ChatGPT算力告急,“中心+边缘”齐发力 2023-04-05 2、《区块链:Web3.0驱动下的AI和数据要素:开放、安全与隐私》2023-04-03 3、《通信:聚焦光模块,AIGC算力中军》2023-04-02 请仔细阅读本报告末页声明 内容目录 1什么是AIGC云算力?3 1.1英伟达推出DGX云,将AIGC云算力推入新阶段3 1.2曾经走过的路——加密资产挖矿也曾开启云算力时代4 2化整为零,算力平权,云算力赋能腰部模型厂商5 2.1AIGC大模型所需算力投入巨大,非头部厂商难以承担6 2.2化整为零,按需付费,云算力赋能腰部模型厂商7 2.3云算力具备涨价弹性——AIGC的看多期权8 3AIGC云算力展翅,云计算产业链迎第二增长曲线8 4投资建议10 风险提示10 图表目录 图表1:阿里云部分GPU云服务器定价3 图表2:英伟达DGX云是世界上第一台云中的AI超级计算机4 图表3:嘉楠科技开启联合挖矿业务5 图表4:比特小鹿部分云算力套餐5 图表5:部分大语言模型参数及其所需的计算量6 图表6:2012-2018年AI训练算力增长速度7 图表7:微软云OpenAI服务的部分项目的收费情况7 图表8:部分IDC投资预算9 图表9:中国IDC行业产业链9 1什么是AIGC云算力? AIGC算力生产商与云平台的合作由来已久。从阿里云、谷歌云和甲骨文云等云平台的官网可以看出,用户可以通过其租用英伟达A100、英伟达V100、谷歌TPU等显卡与人工智能加速处理器。此类服务一般根据硬件性能或使用时长等方式定价。近日英伟达DGX云的推出,将AIGC云算力推入新阶段。 图表1:阿里云部分GPU云服务器定价 资料来源:阿里云,国盛证券研究所 1.1英伟达推出DGX云,将AIGC云算力推入新阶段 3月,英伟达在其2023年开发者大会上宣布推出DGX云:通过英伟达与微软云(Azure)、谷歌云(GCP)和甲骨文云(OCI)合作,企业通过一个浏览器就可以按月租用英伟达DGXAI超级计算机。DGX云是世界上第一台云中的AI超级计算机。DGXAI超级计算机配有8个H100GPU模组,H100配有Transformer引擎,旨在处理ChatGPT类大模型。8个H100协同工作,效果如同一个巨型GPU。 性能方面,H100可将大型语言模型的处理成本降低一个数量级。 我们认为,通过与云平台合作,将GPU等硬件计算服务以租用的方式,开放给广大企业,英伟达DGX云并非AIGC产业首例,但由于DGXAI超级计算机的杰出性能,DGX云将AIGC云算力产业推向了更高的起点。 图表2:英伟达DGX云是世界上第一台云中的AI超级计算机 资料来源:英伟达,国盛证券研究所 1.2曾经走过的路——加密资产挖矿也曾开启云算力时代 在报告《Web3视角下的AIGC算力进化论》中,我们比较了加密资产挖矿和AIGC产业的异同点,提出: 1)AIGC(ArtificialIntelligenceGeneratedContent,人工智能生成内容)产业耗电量可观,并将快速提升,大约会在1.6~7.5年间超过当前比特币挖矿产业耗电量,主要驱动因素是GPT类大语言模型在模型参数、日活和模型数量上的高速增长; 2)和比特币挖矿类似,AIGC产业由算力驱动的内容处于高强度竞争中,参与者只有持续、快速生产出高质量内容,才能保证自己获取到的用户注意力不下降。 另外,并非巧合,我们发现,加密资产挖矿历史上也出现了云算力这一业态,它代表了算力生产商在销售算力硬件整机外,将算力推向市场的终极形态。 具体来说,除了向客户销售算力硬件整机,算力生产商主要可以通过两种方式售卖算力。 与有限、特定对象联合挖矿。2021年6月,比特币矿机厂商嘉楠科技宣布,开启在哈萨克斯坦的联合挖矿业务。公司董事长兼CEO张楠赓表示相信联合挖矿业务有利于增加公司财务收益,拓展业务范围和客户群,整合行业资源;在比特币下行周期 中,可以盘活公司的矿机库存,减少公司经营的波动风险;在比特币上行周期中,有利于公司拥有库存储备,能够及时满足新增的时长需求。 图表3:嘉楠科技开启联合挖矿业务 资料来源:嘉楠科技,国盛证券研究所 向无限、不特定对象售卖云算力。2018年12月,加密资产矿机厂商比特大陆推出了云算力服务平台“比特小鹿”,用户无需购买矿机硬件,也可以购入挖矿算力,获得挖矿收入。对用户而言,比特小鹿的云算力套餐的性质接近于定期理财产品。 图表4:比特小鹿部分云算力套餐 资料来源:比特小鹿,国盛证券研究所 2化整为零,算力平权,云算力赋能腰部模型厂商 不论是AIGC云算力,还是加密资产云算力,我们认为,它们都是采用了“化整为零”的方式,赋能产业链各方: 1)对上游算力生产商而言,在算力硬件进入淡季、库存趋增时,能通过售卖云算力的方式,平滑收入的波动,并为旺季储备“有生”力量,及时满足回弹的市场需求; 2)对中游云服务厂商而言,则有助于增加客流; 3)对下游算力需求方而言,能最大化降低使用算力的门槛,驱动全民AIGC时代降临。 2.1AIGC大模型所需算力投入巨大,非头部厂商难以承担 ChatGPT所需算力可观。不考虑与日活高度相关的推理过程所需的算力,仅考虑训练过程,根据论文《LanguageModelsareFew-ShotLearners》的测算,ChatGPT的上一代GPT-3(1750亿参数版)所需的算力高达3640PF-days(即假如每秒做一千万亿次浮点 运算,需要计算3640天),已知单张英伟达A100显卡的算力约为0.6PFLOPS,则训练一次GPT-3(1750亿参数版),大约需要6000张英伟达A100显卡,如果考虑互联损失,大约需要上万张A100,按单张A100芯片价格约为10万元,则大规模训练就需要投入约10亿元,非头部厂商难以承担。而GPT4的模型参数更大,训练的标识符更多,所需算力更为可观。 4月5日,ChatGPT官网停止Plus付费项目的购买。在升级界面,OpenAI表示“因需求量太大暂停了升级服务”。这在一定程度上反映出,即便是OpenAI这样的头部模型厂商,也难以承载用户对ChatGPT的狂热需求。 图表5:部分大语言模型参数及其所需的计算量 资料来源:《LanguageModelsareFew-ShotLearners》,国盛证券研究所 AIGC大模型所需算力狂飙。 摩尔定律中,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍, 性能也将提升一倍。 继摩尔定律后,英伟达CEO黄仁勋提出黄氏定律:每12个月GPU性能翻一倍,且不受物理制程约束。 根据OpenAI测算,自2012年至2018年,用于训练AI所需要的算力大约每隔3-4个月翻倍,总共增长了30万倍(而摩尔定律在相同时间只有7倍的增长),每年头部训练模型所需算力增长幅度高达10倍,整体呈现指数级上涨。 图表6:2012-2018年AI训练算力增长速度 资料来源:OpenAI、新智元,国盛证券研究所 2.2化整为零,按需付费,云算力赋能腰部模型厂商 云算力能让AIGC大模型厂商无需购买英伟达A100显卡等硬件,而直接按需租用云算力平台提供的算力,这使得初创企业或非头部模型厂商也能尝试进入AIGC的领域。如果AIGC大模型厂商愿意让渡更多资源,还可以更深入地与云平台合作。这方面的典型案例是微软云与ChatGPT开发商OpenAI的合作,两者的合作没有停留在算力租用上,而深入到了股权与产品的融合上: 股权上,根据《财富》杂志报道,在OpenAI的第一批投资者收回初始资本后,微软将有权获得OpenAI75%利润,直到微软收回投资成本(130亿美元);当OpenAI实现920亿美元的利润后,微软的份额将降至49%。与此同时,其他风险投资者和OpenAI的员工,也将有权获得OpenAI49%的利润,直到他们赚取约1500亿美元。如果达到这些