ChatGPT对算力需求受每日用户数量和模型参数影响,保守估计每日所需算力约为50EFLOPs: 随着ChatGPT模型的不断升级,其参数量和模型规模也不断增大,因此对计算资源的需求也越来越高。尤其是在推理过程中,需要将模型加载到计算节点上进行运算,因此需要高性能的计算设备来支持模型的推理。同时,由于ChatGPT模型需要进行海量的预训练和微调,因此需要大量的算力资源来支持这些任务。ChatGPT的发展将带来算力需求的大幅提升。根据我们的测算,当前每日仅来自使用ChatGPT所需算力约为50EFLOPs,所需服务器约为10000台。而测算结果仅根据4000万日活用户,每日4000字问题计算得出。另外我们考虑到服务器自身算力的提升,对到2024年底算力需求与服务器需求量进行测算。预计到2024年底AI服务器需求量约为23万台(5亿用户数)/46万台(10亿用户数),2022-2024年CAGR分别达51.7%/114.5%。 随着GPT模型在各个领域的应用越来越广泛,对算力的需求也在不断增加。预计未来每日访客数量将有巨大提升空间,算力需求短期内有较大提升空间,AI服务器数量有较大增长空间。 华为预测未来十年人工智能算力需求将增长500倍以上,AI服务器出货量有望深度受益: 根据中国信息通信研究院发布的《中国算力发展指数白皮书(2022年)》,2021年全球计算设备算力总规模达到615 EFlops,同比增长44%,其中智能算力规模为232 EFlops,超级算力规模为14 EFlops; 2021年中国算力总规模达到202 EFlops,其中智能算力规模达104 EFlops,增速85%,占比超过50%;预计2030年全球算力规模达到56 ZFlops,平均年增速达到65%。据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。在2022世界人工智能大会上,华为轮值董事长胡厚崑预测,未来十年人工智能的算力需求将会增长500倍以上。3月29日贵州印发《面向全国的算力保障基地建设规划》,提出到2025年算力总规模到2025年要从现状的0.81 Eflops提高至10 Eflops,提升超11倍。我们认为未来算力需求有较大提升空间,AI服务器数量有较大增长空间。 建议关注:服务器产业链企业紫光股份、中兴通讯、工业富联、烽火通信、锐捷网络、菲菱科思、海光信息、寒武纪;同时关注华为产业链。 风险提示:ChatGPT用户数量不及预期、测算假设不及预期、AI应用落地不及预期。 1.ChatGPT对算力需求受每日用户数量和模型参数影响,保守估计每日所需算力约为50EFLOPs 随着ChatGPT模型的不断升级,其参数量和模型规模也不断增大,因此对计算资源的需求也越来越高。尤其是在推理过程中,需要将模型加载到计算节点上进行运算,因此需要高性能的计算设备来支持模型的推理。同时,由于ChatGPT模型需要进行海量的预训练和微调,因此需要大量的算力资源来支持这些任务。ChatGPT的发展将带来算力需求的大幅提升。 使用ChatGPT带来的算力需求测算: 1)每日用户数量:根据Similarweb统计,OpenAI网站2月总访问量达11亿人,平均每天访客数量约3929万人。我们按目前每日访客数量增长至约4000万人进行测算。 2)每日问题产生的token数量:假设每人每天提出10个问题,每个问题和回答折算成英文约400个单词,每个单词token数约为1.33,每日问题产生的总token数量为4000万*400*10*1.33=2128亿token 3)每秒需处理token数量:2128亿token/(24*60*60) = 246.3万token 4)ChatGPT计算每token所需算力:根据OpenAI论文,Transformer模型推理过程中每token计算所需FLOPs为2N,N为参数数量。GPT-3模型拥有1750亿参数量,是GPT-2的116倍。谷歌在3月推出的视觉语言模型PaLM-E,参数量为5620亿。我们假设ChatGPT所使用的GPT 3.5参数量为4000亿。同时考虑模型的FLOPS利用率,则ChatGPT每token计算所需算力约为4TFLOPS(4*10^12FLOPs)。 5)每秒所需算力:ChatGPT每秒所需算力为246.3万token*4TFLOPs/token=9852 PFLOPs(9.8EFLOPs) 6)每日服务器需求量:我们以英伟达DGX A1OO服务器为测算依据,同时由于ChatGPT的每日访问存在峰谷,考虑峰值时所需算力,经测算需要约10000台英伟达服务器。 通过测算,当前每日仅来自使用ChatGPT所需算力约为50EFLOPs,所需服务器约为10000台。 而测算结果仅根据4000万日活用户,每日4000字问题计算得出。 表1:服务器数量敏感性分析 另外我们考虑到服务器自身算力的提升,对2024年底算力需求与服务器需求量进行测算。 服务器算力:服务器大约三年迭代一次,每次算力提升3-5倍左右,极值可达9倍左右。英伟达A100于2021年5月推出,我们预计2024年将推出迭代产品,假设算力提升4倍左右。 用户数量:ChatGPT仅推出两个月,月活跃用户数预计已达1亿,2月总访问量已达11亿人,用户增长速度惊人。目前微软new bing和Microsoft 365 Copilot已集成最新发布的GPT-4。此外其他金融、教育、绘画、零售等领域也在陆续接入GPT模型。预计新应用终端将带动更快的用户数量增长。根据,Meltwater融文数据,截至2022年底,全球互联网用户数量为51.6亿。我们假设到2024年底ChatGPT在互联网中的渗透率提升至5%或10%,即假设到2024年底每日用户数量增长至5亿人或10亿人,分别进行测算。假设每人每日问题数与对应token数量不变。 模型参数数量:GPT于2018年推出,模型参数数量为1.17亿个;GPT-2于2019年推出,模型参数数量为15亿个,增长约12倍;GPT-3于2020年推出,参数数量为1750亿个,增长约115倍;GPT-4于2022年推出,根据the Decoder报告,GPT-4模型参数数量预计约为1万亿,增长约5倍。我们假设到2024年底最新模型的参数数量为约GPT-4的3倍,即3万亿个 表2:到2024年底所需服务器数量测算 经测算,到2024年底若每日用户数量达5亿人,则需要23万台服务器;若用户数量达10亿人,则需要46万台服务器。根据TrendForce统计,2022年全球AI服务器出货量约13万台,市场以NVIDIA H100、A100、A800以及AMD MI250、MI250X系列为主,其中英伟达与AMD占比为8:2,即英伟达服务器出货量约为10万台。根据我们的测算,预计到2024年底AI服务器需求量约为23万台(5亿用户数)/46万台(10亿用户数),2022-2024年CAGR分别达51.7%/114.5%。 随着GPT模型在各个领域的应用越来越广泛,对算力的需求也在不断增加。一方面,由于GPT模型的参数量越来越大,每次训练需要的算力也越来越大;另一方面,GPT模型的应用场景也在不断拓展,例如自然语言处理、计算机视觉、语音识别等领域,这些领域对算力的需求也越来越高。预计未来每日访客数量将有巨大提升空间,算力需求短期内有较大提升空间,AI服务器数量有较大增长空间。 2.华为预测未来十年人工智能算力需求将增长500倍以上,超算服务器出货量有望深度受益 根据中国信息通信研究院发布的《中国算力发展指数白皮书(2022年)》,2021年全球计算设备算力总规模达到615 EFlops,同比增长44%,其中智能算力规模为232EFlops,超级算力规模为14EFlops;2021年中国算力总规模达到202 EFlops,其中智能算力规模达104EFlops,增速85%,占比超过50%;预计2030年全球算力规模达到56 ZFlops,平均年增速达到65%。 图1.2016-2021年全球算力规模 图2.2016-2021年我国算力规模 据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。在2022世界人工智能大会上,华为轮值董事长胡厚崑预测,未来十年人工智能的算力需求将会增长500倍以上。3月29日贵州印发《面向全国的算力保障基地建设规划》,提出到2025年机架规模从现状的10.8万架提高至80万架,三年时间增长达7倍;算力总规模到2025年要从现状的0.81 Eflops提高至10 Eflops,提升超11倍;大数据交易市场规模从目前的3亿元要提高至2025年的100亿元,增幅达到32倍。我们认为未来算力需求有较大提升空间,AI服务器出货量有望深度受益。 建议关注服务器产业链企业:紫光股份、中兴通讯、工业富联、烽火通信、锐捷网络、菲菱科思、海光信息、寒武纪;同时关注华为产业链。