您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[安信证券]:AI算力产业链梳理:技术迭代推动瓶颈突破,AIgc场景增多驱动算力需求提升 - 发现报告
当前位置:首页/行业研究/报告详情/

AI算力产业链梳理:技术迭代推动瓶颈突破,AIgc场景增多驱动算力需求提升

电子设备2023-03-21马良、程宇婷安信证券缠***
AI算力产业链梳理:技术迭代推动瓶颈突破,AIgc场景增多驱动算力需求提升

2023年03月21日 半导体 AI算力产业链梳理——技术迭代推动瓶颈突破,AIGC场景增多驱动算力需求提升 首选股票目标价(元)评级 行业分析 证券研究报告投资评级领先大市-A首次评级 AI大模型引领应用层百花齐放,算力层长期受益: ChatGPT、GPT4.0、Microsoft365Copilot、文心一言等相继发布,以ChatGPT为代表的AI大模型及其初步应用“一石激起千层浪”,其相关技术变革预计将对个体的工作、生活及社会组织方式带来的广泛影响。以海内外IT龙头为代表的企业界也开始深入挖掘此次技术变革对公司经营方式、商业模式的潜在颠覆性变化,并重新评估未来的发展战略。我们认为,AI大模型在参数规模、计算量简化、安全性及多模态融合等方向虽然仍有迭代进步空间,但其迄今展示出的“思维能力”可作为先进生产力工具已是不争事实。随着多模态大模型GPT-4的发布,基于文字、图片等垂直场景的应用步伐有望“从1到10”加速,类似于移动互联网时代各类型APP的百花齐放,其竞争格局也会逐步加剧。而类比19世纪末的美国西部“淘金热”对铲子、牛仔裤的大量需求,我们认为以GPGPU为代表的算力基础设施作为AI大模型底座将长期稳定受益。 ChatGPT算力需求加速增长,基于大算力、先进制程领域的技术创新企业有望受益: 我们根据GPT-4对使用次数的限制推论,目前AI大模型的算力水平显著供不应求。以OpenAI的算力基础设施为例,芯片层面GPGPU的需求最为直接受益,其次是CPU、AI推理芯片、FPGA等。AI服务器市场的扩容,同步带动高速网卡、HBM、DRAM、NAND、PCB等需求提升。同时,围绕解决大算力场景下GPU“功耗墙、内存墙”问题的相关技术不断升级,如存算一体、硅光/CPO产业化进程有望提速;先进制程芯片演进中已有的Chiplet等技术路径也将受益;Risk-V由于开源免费、开发者自由度高、自主可控度高、更适应AIoT处理器架构需求等优势,带动围绕AI场景的参与企业数量提升。 本报告的创新点: 1)以GPT-3模型为例的GPGPU市场测算:预计用于高端GPGPU显卡的训练及推理部分市场空间合计约145亿元,其中训练市场规模 约28亿元,推理市场规模约117亿元。分别对应约3200张和135031张英伟达A100GPU芯片。 2)对GPT-4算力需求及未来趋势的推论:GPT-4由于复杂度提升、图片识别功能加入,我们推测算力需求增至十倍以上。长期看来, 半导体 沪深300 38% 28% 18% 8% -2% -12% -22% -32% 2022-032022-072022-112023-03 行业表现 资料来源:Wind资讯 升幅% 相对收益 绝对收益 1M 5.9 4.0 3M 4.2 4.3 12M -10.2 -16.8 马良分析师 SAC执业证书编号:S1450518060001 maliang2@essence.com.cn 程宇婷分析师 SAC执业证书编号:S1450522030002 chengyt@essence.com.cn 相关报告设备国产化关键环节,半导 2022-09-23 体零部件蓝海起航中芯国际拟再建新厂,持续 2022-08-30 推荐上游设备及材料国产替代渗透率提升+国产 2022-08-26 芯片开发需求增多,掩膜版行业进入高速增长通道晶圆平坦化的关键工艺,CMP 2022-06-10 设备材料国产替代快速推进市场空间广阔,电池管理 2022-05-19 (BMS/BMIC)芯片国产替代进程加速 伴随编译器等软件端技术迭代,新产品推出有望提速。AI大模型有望向小型化、高效化方向发展,对算力需求趋势从单模型所需高性能芯片价值转变为应用端规模增长带来的用量提升。 3)重点技术梳理:存算一体技术、HBM技术、Chiplet技术、CPO技术等技术。 4)系统梳理潜在受益的产业链环节及标的。 投资建议: 我们建议关注国产大算力芯片、英伟达/AMD产业链、上游硬件供应商、下游多模态应用落地等。1)GPU/AI芯片:寒武纪、海光信息、景嘉微、澜起科技;2)英伟达产业链配套:胜宏科技、和林微纳;3)CPU:海光信息、龙芯中科、澜起科技;4)FPGA:紫光国微、复旦微电、安路科技;5)芯片IP:芯原股份、华大九天;6)服务器:浪潮信息、工业富联、中科曙光;7)Chiplet等先进封装相关:通富微电、长电科技、兴森科技、深南电路、生益科技、华正新材;8)光模块:天孚通信、新易盛、中际旭创;9)AIoT:乐鑫科技、恒玄股份炬芯科技;10)SoC:晶晨股份、瑞芯微、全志科技、恒玄科技、富瀚微;11)Risk-V:兆易创新、芯原股份、国芯科技、北京君正;12)存算一体:兆易创新、恒烁股份;13)存储芯片/模组:兆易创新、佰维存储、江波龙、北京君正、聚辰股份;14)CPU/GPU等供电芯片:杰华特、晶丰明源;15)多模态下游应用:海康威视、大华股份、萤石网络、漫步者等 风险提示:技术研发不及预期的风险;应用落地不及预期的风险;中美贸易摩擦的风险。 内容目录 1.ChatGPT浪潮带动算力需求提升,以GPU为核心的硬件市场扩容5 1.1.ChatGPT:基于生成式AI技术的大型语言模型,商业化迅速开启5 1.2.采用GPT-3.5预训练模型,参数量随模型换代呈指数型增长5 1.3.海量参数产生大算力需求,GPGPU等高壁垒AI芯片受益8 1.4.类ChatGPT成本高昂产品涌现,国产大模型方兴未艾9 1.5.以GPT-3为例测算:大算力需求驱动AI硬件市场空间提升12 1.6.GPT-4模型算力需求扩增,架构升级降本增效未来可期15 1.7.英伟达引领硬件端产品升级,国产GPU静待花开16 2.大算力场景遇到的问题及解决途径23 2.1.“内存墙”、“功耗墙”等掣肘AI的算力发展23 2.2.“内存墙”、“功耗墙”等问题解决路径25 2.2.1.存算一体技术:以SRAM、RRAM为主的新架构,大算力领域优势大25 2.2.2.HBM技术:高吞吐高带宽,AI带动需求激增28 2.2.3.Chiplet技术:全产业链升级降本增效,国内外大厂前瞻布局30 2.2.4.CPO技术:提升数据中心及云计算效率,应用领域广泛32 3.投资建议33 4.风险提示34 4.1.技术研发不及预期的风险34 4.2.应用落地不及预期的风险34 4.3.中美贸易摩擦的风险34 图表目录 图1.不同程序实现1亿月活跃用户所花费的时间5 图2.使用ChatGPT撰写博客内容5 图3.ChatGPT预训练和推理过程6 图4.Transformer架构示意图7 图5.RLHF原理示意图7 图6.GPT-4对图片输入的理解8 图7.GPT-4考试表现相较GPT-3.5的提升8 图8.近年主流生成型AI对算力的需求9 图9.GPU与CPU并行运算能力对比9 图10.近年英伟达GPU的FLOPS与带宽速率增长9 图11.Musk和Altman关于ChatGPT对话成本聊天截图10 图12.2018-2022年科技厂商资本支出(亿美元)10 图13.百度AI大底座示意图12 图14.GPT-3模型大小、架构及参数12 图15.不同参数量模型的上下文学习曲线12 图16.用于训练语言模型所需要的算力情况13 图17.下游企业拥有英伟达A100GPU数量(截止至2022)14 图18.VisionTransformer模型对图片进行切割输入15 图19.AI大模型的参数规模持续加速攀升16 图20.小参数模型逐渐有出色表现16 图21.CPU和GPU架构对比17 图22.GPU架构演变历程18 图23.GraceHopper超级芯片示意图18 图24.ROCm5.0生态技术19 图25.英伟达发展历程20 图26.2017-2020年英伟达技术在TOP500超算的占比20 图27.英伟达产品规划图21 图28.存储计算“剪刀差”24 图29.冯诺依曼架构下的数据传输24 图30.AI模型大小增长与GPU内存增长25 图31.AI模型计算量增长速度25 图32.冯诺依曼架构vs存算一体架构26 图33.四种存算一体架构对比26 图34.HBM设计结构29 图35.GDDR5vsHBM29 图36.Chiplet设计结构30 图37.UCIe标准31 图38.共封装光学技术33 表1:ChatGPT预训练相关概念7 表2:各代GPT系列所需要参数量7 表3:各AI芯片性能对比9 表4:ChatGPT对话成本测算10 表5:各科技公司关于类ChatGPT的技术布局概览(统计截止日期:2023.03.19)11 表6:ChatGPT对应A100GPU市场规模14 表7:GPU发展历程17 表8:AMDGPGPU相关产品一览19 表9:英伟达AI相关产品一览21 表10:NvidiaA100GPU和H100GPU规格对比22 表11:Nvidia计算卡进化历程22 表12:国产GPU厂商情况23 表13:国产GPU与国际GPU参数对比23 表14:不同存储器介质对比27 表15:云和边缘大算力企业对比28 表16:端和边缘小算力企业对比28 表17:Chiplet相关公司产品32 1.ChatGPT浪潮带动算力需求提升,以GPU为核心的硬件市场扩容 1.1.ChatGPT:基于生成式AI技术的大型语言模型,商业化迅速开启ChatGPT(ChatGenerativePre-trainedTransformer)是由OpenAI开发的聊天机器人程序,于2022年11月推出。ChatGPT是目前为止最先进的语言生成模型之一,使用基于GPT- 3.5架构的大型语言模型(LLM),并通过强化学习进行训练,拥有语言理解和文本生成能力, 适用于问答、对话、生成文本等多种场景。ChatGPT用户规模扩增迅速,根据SimilarWeb数据,2023年1月期间,ChatGPT平均每天大约有1300万独立访客,数量是2022年12月的两倍多(Similarweb数据);根据瑞银公开报告数据,2023年1月(即上线两个月后)实 现全球1亿月活跃用户,是历史上增长最快的消费者应用程序。 ChatGPT是生成式AI在文字生成领域的应用,创造能力是其核心优势。传统AI依靠逻辑进行分类和判断,而生成式AI的壁垒在于能够创造新内容,可以是多模态的、模仿人类情感的、具有互动和审美性质的。传统的聊天机器人(Chatbot),例如客服机器人,只能根据用 户输入的内容在数据库中查询到对应答案,再机械地以模板的形式反馈给客户;而ChatGPT采取生成式AI技术,并且有工作人员每日优化模型,在应对用户提问时会根据上下文内容调整回答内容,增强互动式、对话式的情感体验,更加智能。 OpenAI开放API,降本90%扩大覆盖用户面。2023年3月1日,OpenAI官网宣布ChatGPT和Whisper(OpenAI去年发行的语音识别生成模型)的API开放使用,开发者可将模型集成到APP和其他产品中。ChatGPTAPI接入的模型为GPT-3.5-turbo,与GPT-3.5相比更加快捷、 准确,成本也更低,定价为每1000个tokens(约750个单词)0.002美元,用户则需要按照输入和输出的tokens总数来付费。OpenAI官方表示自2022年12月以来ChatGPT降低了90%的成本,开放API旨在使更多人受益于生成式AI技术。 图1.不同程序实现1亿月活跃用户所花费的时间图2.使用ChatGPT撰写博客内容 资料来源:YahooFinance,安信证券研究中心资料来源:CSDN,ChatGPT,安信证券研究中心 1.2.采用GPT-3.5预训练模型,参数量随模型换代呈指数型增长 GPT3.5是一种大型语言模型(LLM),参数量大,精准度高。GPT-3.5采用深度学习中的Transformer架构,并通过大规模预训练(pre-trainin