您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国信证券]:算力芯片及AI服务器专题:AI的iPhone时刻到来,电子的AI机遇兴起 - 发现报告
当前位置:首页/行业研究/报告详情/

算力芯片及AI服务器专题:AI的iPhone时刻到来,电子的AI机遇兴起

电子设备2023-03-27胡剑、胡慧、周靖翔、叶子、李梓澎国信证券点***
算力芯片及AI服务器专题:AI的iPhone时刻到来,电子的AI机遇兴起

AI的iPhone时刻到来,微软、英伟达、华为等巨头密集推新。2022年11月底,OpenAI发布ChatGPT,迅速引发全球关注,仅两个月时间,全球独立访问用户过亿。短时间内,全球巨头纷纷推出各自的生成式AI产品:3月2日OpenAI开放API接口,16日百度发布文心一言,17日微软推出Copilot,21日英伟达在其2023GTC推出一系列最新AI硬件和软件,3月24日谷歌推出Bard、OpenAI实现插件支持,25日华为推出“盘古”大模型。ChatGPT兴起被看做AI的“iPhone时刻”,类似于“互联网+”历程,生成式AI有望重塑各行业的传统业态,在此创新浪潮之中,推动科技产业升级的“比尔安迪”定律不再停留于OS层面,AI应用和硬件算力正加速实现螺旋升级。 算力芯片及AI服务器需求激增,AI新基建有望催化电子反攻行情。类似2018-2019年的电子行情,由于市场对智能手机量价成长空间一致性悲观,电子指数在18年下跌超42%,紧接着在19年5G基础设施建设及AIoT终端创新的推动下,电子一年内反弹超73%。如今,对于仍处在历史估值低位的电子板块而言,AI应用的兴起一方面有望带动数据中心、服务器等相关新基建的放量,一方面有望革命消费电子终端的人机交互体验,进而加速各类终端电子化、智能化的进程,行业“短期景气复苏”与“中期AI创新成长”之间的逻辑共振正得以强化,“AI的iPhone时刻”为电子估值修复提供了有力的市场情绪支撑,建议重点关注算力芯片及AI服务器相关产业链。 大模型AI对算力、存储需求大,推动芯片设计、制造升级。在大模型训练对数据总量的带动下,需要性能更高、功耗成本更低的算力芯片和大容量存储芯片。全球AI芯片市场预计由18年的51亿美元增至25年的726亿美元,CAGR达46.14%。当前主流的AI算力芯片主要包括GPU、FPGA、ASIC、NPU等,GPU在训练负载中具有绝对优势,多场景趋势下AI芯片将更加细分和多元,以寒武纪、海光信息等为代表的本土AI芯片企业正迎来国产替代机遇期。与此同时,由于受美国对我国半导体制裁影响,Chiplet异构集成等先进封装有望成为本土IC企业应对制程和算力瓶颈的解决方案;存储芯片方面,3DNAND堆叠层数提升和DRAM微缩化进程也有望提速。产业链推荐先进封装长电科技、通富微电,ChipletIP公司芯原股份,存储芯片兆易创新,AIGC或开启人机交互新模式、激发AIoT升级,端侧芯片有望受益。2011年Apple推出Siri,使语音助手成为当时人工智能竞赛热门赛道,但是由于智能化较低,全球语音助理、智能音箱及其他语音交互AIoT行业发展经过初期高速成长期后陷入沉寂。AIGC在大语言模型和高算力支持下,自然语言理解能力迅速进化,有望拓展语音交互的能力空间,从而激发AIoT行业再次升级。与此同时,智慧视觉、工业自动化、智能交互平板、智能可穿戴、VRAR等同样受益于ChatGPT等AI大语言模型所推进的场景数字化趋势,相关产业链推荐晶晨股份、裕太微、视源股份、海康威视、康冠科技、创维数字等。 随AI应用多元化带来数据量指数型增长,AI服务器应运而生。AI服务器是采用异构形式的服务器,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。而普通的服务器是以CPU为算力的提供者,采用的是串行架构。在大数据、云计算、人工智能等应用渗透,数据呈现几何倍数的增长,CPU的核心数已经接近极限,但数据还在持续增加,因此必须提升服务器的数据处理能力,AI服务器应运而生。根据IDC数据,2022年全球AI相关支出1193亿美元,同比增长28.0%;预计2026年全球AI服务器市场规模将达到355亿美元,对应22-26年CAGR为15.1%。 传输效率及运行功率提升,AI服务器硬件全方位升级。服务器平台升级要求PCB层数增加、介电损耗降低,对应ASP显著提升,Prismark预计24年全球服务器PCB将达67.65亿美元,5年CAGR为6.4%,增速远高于其他下游; 而服务器数据传输速率的提升、端口数量的增加,亦将拉动以太网物理层芯片用量的增长;同时,为CPU,GPU供电所使用的多相电源需求量大幅增加。 在此基础上,据英飞凌数据,AI服务器系统功率将提升至原来的3倍,因此需要对服务器整机结构、散热方案等进行升级才能满足AI服务器长期稳定运行的目的,相应的,功率半导体用量显著提升且器件品类向超结MOS、GaN器件过渡。AI服务器产业链推荐:1)代工:工业富联、环旭电子、闻泰科技; 2)PCB:沪电股份、深南电路、东山精密、鹏鼎控股;3)电源及安全芯片:国芯科技、杰华特、东微半导、新洁能、扬杰科技。 风险提示:AI应用推广低于预期,AI投资规模低于预期,AI服务器渗透率提升低于预期,AI监管政策收紧等。 大模型AI东风已至,AI服务器芯片乘风启航 发布针对AIGC训练GPU,英伟达掀起AI服务器芯片市场争夺 围绕生成式人工智能,英伟达发布一系列加速模型训练和推理的软硬件新品。 2023年3月22日,英伟达在GTC大会上发布一款新的GPU——带有双GPUNVLink的H100NVL,以支持ChatGPT类大型语言模型推理。基于NVIDIAHopper架构的H100配有一个Transformer引擎,H100NVL拥有188GBHBM3内存(每张卡94GB),是目前英伟达发布的内存最大的显卡。与用于GPT-3处理的HGXA100相比,配备四对H100与双GPUNVLink的标准服务器的速度最高可达10倍。 图1:配备四对H100与双GPUNVLink的标准服务器的速度较HGXA100最高可达10倍 ChatGPT引领全球AI浪潮,预训练大模型参数提升对数据中心算力提出更高要求。 从2018年起,OpenAI开始发布生成式预训练语言模型GPT,当时参数量只有1.17亿个。2020年,OpenAI发布GPT-3预训练模型,参数量为1750亿个,使用1000亿个词汇的语料库进行训练,在文本分析、机器翻译、机器写作等自然语言处理应用领域表现出色。2022年12月,OenAI发布基于GPT-3.5的聊天机器人模型ChatGPT,具有出色的文字聊天和复杂语言处理能力。从运算规格来看,ChatGPT主要以NVIDIAA100为主,独家使用Microsoft Azure云服务资源。 表1:初代GPT至GPT-3对比 “云-边-端”高算力网络基本形成,通过构建泛在部署架构满足大算力需求。云端智能芯片及加速卡是云服务器、数据中心等进行人工智能处理的核心器件,算力由GPU、NPU等芯片产生,通过虚拟平台调度服务器设备进行复杂数据处理,支持高复杂度和数据吞吐量高速增长的人工智能处理任务。边缘计算在终端和云端之间的设备上配备适度的计算能力,算力由CPU、FPGA等芯片产生,可云计算场景下数据安全、隐私保护、带宽与时延等潜在问题,保障数据传输的稳定性和低延时性。终端智能处理器是终端设备中支持人工智能处理运算的核心器件,算力主要由CPU、DSP等芯片产生,使终端设备拥有更流畅的用户体验。 图2:“云-边-端”算力架构 云计算为人工智能提供了基础架构,云端是承载海量数据处理和大规模计算的重要载体。目前,“云、边、端”应用场景尚无标准划分界,人工智能技术在云、边、端设备中均有广泛应用,不同应用场景对芯片算力和功耗要求亦不相同。其中,数据中心侧对芯片要求更高,一般要求具有高性能、高存储容量、高计算密度、兼有推理和训练任务的特点;其典型计算能力大于30TOPS,典型功耗大于50瓦,主要应用于云计算数据数据中心等领域。 表2:云、边、端三种应用场景对芯片的要求 AIGC训练引入海量数据负载,AI服务器市场规模有望大幅提升 全球数据总量及数据中心负载任务量大幅度上涨,服务器算力需求呈指数级增长。随着人工智能、数据挖掘等新技术发展,海量数据产生及对其计算和处理成为数据中心发展关键。据IDC数据,全球数据总量预计由2021年的82.47 ZB上升至2026年的215.99ZB,对应CAGR达21.24%。其中,大规模张量运算、矩阵运算是人工智能在计算层面的突出需求,高并行度的深度学习算法在视觉、语音和自然语言处理等领域上的广泛应用使得算力需求呈现指数级增长。据Cisco数据,全球数据中心负载任务量预计由2016年的241.5万个上升至2021年的566.7万个,对应CAGR达18.60%;其中,云数据中心负载任务量CAGR预计达22%。 图3:2021-2026年全球数据总量及预测 图4:2016-2021年全球数据中心负载任务量及预测 随着云计算的不断发展,全球范围内云数据中心、超级数据中心的建设速度不断加快。据Cisco数据,全球超级数据中心数量预计由2016年的338座增长至2021年的628座,对应CAGR为13.19%;占数据中心比例预计由2016年的27%上升至2021年的53%。在云端,服务器及数据中心需要对大量原始数据进行运算处理,对于芯片等基础硬件的计算能力、计算进度、数据存储和带宽等都有较高要求。 传统数据中心存在着能耗较高、计算效率较低等诸多发展瓶颈,因此数据中心中服务器的智能化将是未来发展趋势。 图5:2016-2021年全球超级数据中心数量及比例 大算力AI加速芯片由海外垄断,制裁加强下国产替代空间大 AI芯片又称AI加速器或计算卡,是专门用于处理人工智能应用中大量计算任务的模块。随着数据海量增长、算法模型趋向复杂、处理对象异构、计算性能要求高,AI芯片能够在人工智能的算法和应用上做针对性设计,高效处理人工智能应用中日渐多样繁杂的计算任务。 当前主流的AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、神经拟态芯片(NPU)等。其中,GPU、FPGA均是前期较为成熟的芯片架构,属于通用型芯片。ASIC属于为AI特定场景定制的芯片。另外,中央处理器(CPU)是计算机的运算和控制核心,是信息处理、程序运行的最终执行单元,是计算机的核心组成部件。 表3:不同技术架构AI芯片比较 当前CPU市场主要被国际厂商垄断 ,Intel、AMD合计市场份额超九成 。据Counterpoint数据,2022年全球数据中心CPU市场份额中,Intel占比达70.8%,保持市场领先地位;AMD占比达19.8%,前两大巨头合计市场份额超过90%。 GPU在训练负载中具有绝对优势,未来AI芯片将更加细分和多元。据IDC数据,1H21中国AI芯片市场份额中,GPU占比高达91.9%,依然是实现数据中心加速的首选;NPU、ASIC、FPGA占比分别为6.3%、1.5%、0.3%。随着非GPU芯片在各个行业和领域中被越来越多采用,高算力、低能耗且适应各类复杂环境的芯片将更受关注,IDC预计到2025年其他非GPU芯片整体市场份额占比将超过20%。 图6:2022年全球数据中心CPU市场份额 图7:1H21中国AI芯片市场份额(按加速卡类型) 随着人工智能技术进步及应用场景多元化,全球及中国AI芯片市场将得到进一步发展。据Tractica数据,全球AI芯片市场规模预计由2018年的51亿美元增长至2025年的726亿美元,对应CAGR达46.14%。据前瞻产业研究院数据,中国AI芯片市场规模预计由2019年的122亿元增长至2024年的785亿元,对应CAGR达45.11%。 图8:2018-2025年全球AI芯片市场规模及预测 图9:2019-2024年中国AI芯片市场规模及预测 GPU作为图像处理单元,其能够并行计算的性能优势满足深度学习需求。GPU最初承担图像计算任务,目标是提升计算机对图形、图像、视频等数据的处理性能,解决CPU在图形图像领域处理效率低的问题。由于GPU能够进行并行计算,其架构本身较为适合深度学习算法。因此,通过对GPU的优化,能够进一步满足深度学习大量计算的需求。 表4:数据中心GPU典型公司及产品