证券研究报告 2023年03月19日 ChatGPT引发算力革命,AI芯片产业链有望率先受益 ——从ChatGPT看芯片产业机遇 中泰电子王芳团队分析师:王芳 执业证书编号:S0740521120002 分析师:李雪峰 执业证书编号:S0740522080004 分析师:杨旭 执业证书编号:S0740521120001 分析师:游凡 执业证书编号:S07405221200021 目录 一、ChatGPT激起AI浪潮,多场景创新产业链空间广阔 1.1AI创新浪潮兴起,多模态赋能下游行业 1.2算力芯片迎来产业机遇 二、芯片是ChatGPT底层土壤 三、芯片需求增长拉动产业链机会四、投资建议及风险提示 2 ChatGPT快速渗透,AI产业迎发展新机 ChatGPT是由OpenAI公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。根据WorldofEngineering数据显示,ChatGPT达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之相比,TikTok达到1亿用户用了9个月,Instagram则花了2年半的时间。从用户体验来看,ChatGPT不仅能实现流畅的文字聊天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。 ChatGPT爆火的背后是人工智能算法的迭代升级。ChatGPT是基于GPT-3.5微调得到的新版本模型,能够借助人类反馈的强化学习(RLHF)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。从2008年第一代生成式预训练模型GPT-1诞生以来,GPT系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型 (LLM)技术的不断突破,AI相关应用有望加速落地,AI产业或将迎来新一轮发展机遇。 图表:应用程序达到1亿用户量所需时间(月数)图表:GPT模型迭代过程 来源:OpenAI官网,WorldofEngineering,中泰证券研究所3 ChatGPT是生成式人工智能技术(AIGC)的一种,与传统的决策/分析式AI相比,生成式AI并非通过简单分析已有数据来进行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。AIGC的应用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。 AIGC产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能AI芯片、服务器和数据中心为AIGC模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责AI数据的采集、清洗、标注及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、推荐等场景,未来有望在多个行业呈现井喷式革新。 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇 图表:AIGC产业链全景图 来源:甲子光年,中泰证券研究所4 多模态大模型有望成为AI主流,赋能下游行业智能升级。生成式AI主要依赖于人工智能大模型,如Transformer、BERT、GPT系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习,将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。 多模态赋能下游行业智慧化升级 图表:国外部分AIGC预训练模型一览 厂商预训练模型 应用 参数量 领域 BERT 语言理解与生成 4810亿 NLP PaLM 语言理解与生成、推理、代码生成 5400亿 NLP Imagen 语言理解与图像生成 110亿 多模态 Parti 语言理解与图像生成 200亿 多模态 Florence 视觉识别 6.4亿 CV Turing-NLG 语言理解、生成 170亿 NLP Gato 多面手的智能体 12亿 多模态 DeepMindGopher 语言理解与生成 2800亿 NLP AlphaCode 代码生成 414亿 NLP GPT3 语言理解与生成、推理等 1750亿 NLP CLIP&DALL-E 图像生成、跨模态检索 120亿 多模态 OpenAl Codex 代码生成 120亿 NLP ChatGPT 语言理解与生成、推理等 13-1750亿 NLP 谷歌 微软 来源:腾讯《AIGC发展报告2023》,中泰证券研究所5 从GPT-1到ChatGPT,模型参数与训练数据量不断增加,所需算力资源不断提升: GPT-1:最早的GPT模型之一,包含了1.17亿个参数,预训练数据量约为5GB。 GPT-2:参数数量达到了1.5亿个,预训练数据量达40GB。 GPT-3:是目前为止最大的语言模型之一,包含了1750亿个参数,预训练数据量为45TB。 ChatGPT:基于GPT-3模型的变种之一,参数量预计与GPT-3相近。 模型更新升级带动下游行业不断发展 图表:四代GPT模型参数与预训练数据量对比 模型 发布时间 参数量 预训练数据量 预估成本 消耗资源 GPT-1 2018年6月 1.17亿 约5GB —— 在8个GPU上训练一个月 GPT-2 2019年2月 15亿 40GB —— 在256个GoogleCloudTPUv3上训练一周 GPT-3 2020年5月 1750亿 45TB 训练一次460万美元,总成本1200万美元 在355个GPU上训练一年 ChatGPT 2022年11月 未公布 未公布 训练一次成本超过1200万美元 根据参数量而定 来源:OpenAI官网,中泰证券研究所6 多模态模型是实现人工智能应用的关键。3月14日OpenAI发布GPT-4多模态大模型,拥有1)强大的识图能力;2)文字输入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上,GPT-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下GPT-3.5在倒数10%左右。多模态大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快速增长。 AIGC下游市场渗透率低,增长空间广阔。根据Gartner数据,目前由人工智能生成的数据占所有数据的1%以下,预计2023年将有20%的内容被生成式AI所创建,2025年人工智能生成数据占比将达到10%。根据前瞻产业研究院数据,2025年中国生成式商业AI应用规模将达2070亿元,CAGR(2020-2025)为84.06%。 GPT-4性能提升显著,AIGC应用市场空间广阔 图表:AIGC下游应用落地时间预测图表:中国生成式商业AI应用规模 2500 2000 1500 1000 500 应用规模(亿元)规模增速 2070 250% 1606 1077 66393% 343 62% 49% 98 29% 300% 250% 200% 150% 100% 50% 来源:SEQUOIA,OpenAI,前瞻产业研究院,中泰证券研究所 00% 20202021E2022E2023E2024E2025E 7 目录 一、ChatGPT激起AI浪潮,多场景创新产业链空间广阔 1.1AI创新浪潮兴起,多模态赋能下游行业 1.2算力芯片迎来产业机遇 二、芯片是ChatGPT底层土壤 三、芯片需求增长拉动产业链机会四、投资建议及风险提示 8 AI人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路AI芯片。AI的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(YannLeCun)等人一起开发了可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(ConvolutionalNeuralNetwork,CNN)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时AI科技泡沫的破灭。 AI芯片是AI发展的底层基石。英伟达早在1999年就发明出GPU,但直到2009年才由斯坦福大学发表论文介绍了如何利用现代GPU远超过多核CPU的计算能力(超过70倍),把AI训练时间从几周缩短到了几小时。算力、模型、数据一直是AI发展的三大要素,而AI芯片所代表的算力则是人工智能的底层基石。 AI芯片是人工智能的底层基石 图表:AI人工智能与半导体计算芯片发展历程 “学习”的心理研究 突破模型 视觉皮层 海马位置细胞的时间编码 感知器 Hopfield网络 新的DNN算法 第一个晶体管 第一块FPGA 第一块CPU(MCU) 第一块GPU 类脑芯片 19401960198020002020 第一块芯片 神经网络芯片 基于深度学习的AI芯片 来源:《AI芯片:前沿技术与创新未来》,中泰证券研究所9 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇 算力硬件层是构成AIGC产业的核心底座,主要包括AI芯片、AI服务器和数据中心。 AI芯片是算力硬件层的基石。AI芯片主要分为CPU、GPU、FPGA和ASIC四类,CPU是AI计算的基础,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。目前AI芯片主要被国际厂商垄断,根据Counterpoint、IDC数据,Intel和AMD共计占2022年全球数据中心CPU市场收入的92.45%,Nvidia占2021年中国加速卡市场份额的80%以上。 AI服务器是AI芯片的系统集成。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。据IDC数据,在2021H1全球AI服务器市场竞争格局中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。 数据中心的计算服务是承接AI算力需求的直接形式。AIGC的模型训练是通常是通过云计算服务完成的,其本质是AIGC模型厂商借助IDC的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光等,提供云计算的厂商主要有阿里、腾讯等互联网企业。 3% 2% 5% 20% 71% 图表:2022年全球数据中心CPU市场份额图表:2021H1全球AI服务器市场份额 IntelAMDAWS AmpereComputingOthers 来源:智通财经,Counterpoint,IDC,中泰证券研究所10 ChatGPT单次训练所需算力约27.5PFlop/s-day,单颗NVIDIAV100需计算220天。 根据OpenAI数据,GPT-3XL参数规模为13.2亿,训练所需算力为27.5PFlop/s-day。由于ChatGPT是在13亿参数的InstructGPT 基础上微调而来,参数量与GPT-3XL接近,因此预计ChatGPT训练所需算力约为27.5PFlop/s-day。 以NVIDIAV100芯片为例,一颗NVLink版本V100芯片的深度学习算力为125TFlops,则ChatGPT模型的训练至少需要1颗 V100芯片计算220天才能完成。 随着模型参数的不断增加,模型训练所需算力将进一步提升,将进一步拉动对算力芯片的需求。根据OpenAI数据,随着GPT-3系列模型参数规模由1.25亿增加至1746亿,训练所需算力从2.6PFlop/s-day上升至3640PFlop/s-day,规模参