行业研究|动态跟踪 看好(维持) 英伟达AI芯片再升级,全球算力需求仍居高不下 计算机行业 国家/地区中国 行业计算机行业 报告发布日期2023年08月10日 核心观点 英伟达推出下一代AI超级芯片GH200。美国当地时间8月8日早上,英伟达创始人、CEO黄仁勋在世界计算机图形会议SIGGRAPH2023上进行了主题演讲。在 本次演讲中,英伟达宣布推出了下一代NVIDIAGH200GraceHopper超级芯片,并配备了全球首发的HBM3e内存。GH200由72核GraceCPU和4PFLOPS的HopperGPU组成,内存容量高达141GB,提供每秒5TB的带宽。通过将两个GH200芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的3.5倍,带宽是之前的3倍。GH200芯片有望于2024年Q2末投入生产。 芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU为主的数据中心有很大提升。在过去60年里,通用计算是相对主流的,用1亿美元可以 打造8800块x86CPU组成的数据中心,功耗是5MW。而在当下以及未来的加速计算和AI计算时代,用同样的1亿美元,可以打造由2500块GH200芯片组成的数据中心,功耗仅有3MW,并且其AI推理性能将达到上述CPU系统的12倍,能效达到20倍。如果要达到和1亿美元的x86CPU数据中心相同的AI性能,仅需要210块GH200组成的计算平台即可,功耗仅为0.26MW,成本也只需800万美元。 英伟达仍旧牢牢占据AI基础设施领域的主导地位。自ChatGPT引领生成式AI浪潮以来,NVIDIAGPU已成为支持生成式AI和大模型训练的大算力AI芯片首选。随 着此次GH200超级AI芯片的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI基础设施领域的绝对主导地位。 英伟达持续拓展AI生态,与HuggingFace合作、推出AIWorkbench和AIEnterprise4.0。英伟达将为HuggingFace上构建大型语言模型和其他高级AI应用 程序的开发人员提供生成式AI的超级计算能力,通过HuggingFace平台可以直接在NVIDIADGXCloud上训练模型。AIWorkbench是一个统一易用的工作空间,帮助开发人员快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIADGXCloud上。NVIDIAAIEnterprise4.0新支持了多款软件和工具,有助于简化生成式AI部署。 英伟达成为AI大模型开发的首选,GPU短缺问题短期难解决。英伟达在AI芯片领域的长期积累使其在生成式AI浪潮中占据了主导地位,英伟达的GPU也成为了各大科技公司争相采购的对象。但GPU的供应瓶颈限制了人工智能领域的快速发展, 投资建议与投资标的 NVIDIAH100正面临有史以来最严重的缺货。根据GPUUtils的测算,目前市场上对H100的需求在43.2万张左右,这个数字还没有包括中国区特供的H800,国内各家大模型厂商对H800的需求也居高不下。英伟达目前也在积极提升产能,预计算力供应短缺的情况可能还会持续一段时间。 我们认为,算力板块有望维持较高景气度,算力产业链值得重视。建议关注海光信息(688041,买入)、浪潮信息(000977,未评级)、中科曙光(603019,买入)、拓维信息(002261,未评级)、优刻得-W(688158,未评级)、亚康股份(301085,未评级)等。 风险提示 技术落地不及预期;政策监管风险;芯片产能不足风险 证券分析师浦俊懿 021-63325888*6106 pujunyi@orientsec.com.cn 执业证书编号:S0860514050004 证券分析师陈超 021-63325888*3144 chenchao3@orientsec.com.cn 执业证书编号:S0860521050002 证券分析师谢忱 xiechen@orientsec.com.cn 执业证书编号:S0860522090004 联系人杜云飞 duyunfei@orientsec.com.cn 联系人覃俊宁 qinjunning@orientsec.com.cn 联系人宋鑫宇 songxinyu@orientsec.com.cn 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 目录 一、SIGGRAPH2023召开,英伟达AI布局持续演进4 1.1AI芯片再度升级,英伟达巩固AI算力领域主导地位4 1.2AI生态持续拓展,助力生成式AI开发与多领域应用7 二、全球算力需求居高不下,算力板块仍具潜力9 投资建议与投资标的10 风险提示10 图表目录 图1:生成式AI是AI的“iPhone时刻”4 图2:英伟达推出下一代AI超级芯片GH2004 图3:由两个GH200芯片组成的计算平台4 图4:由256张GH200组成的DGXGH200系统5 图5:同等预算下GH200数据中心的能效是x86CPU数据中心的20倍5 图6:同等性能下GH200数据中心的成本为x86CPU数据中心成本的1/126 图7:英伟达推出基于RTX6000的RTXWorkstation6 图8:英伟达推出基于L40SGPU的OVX服务器6 图9:英伟达与HuggingFace达成合作7 图10:NVIDIAAIWorkbench工作流程7 图11:英伟达升级AIEnterprise4.08 图12:英伟达Omniverse采用OpenUSD标准,提供多种API服务8 图13:ChatUSD9 图14:DeepSearch9 图15:中国AI芯片市场规模及增速10 图16:2021年中国AI加速卡市场份额占比(出货量口径)10 一、SIGGRAPH2023召开,英伟达AI布局持续演进 1.1AI芯片再度升级,英伟达巩固AI算力领域主导地位 英伟达推出下一代AI超级芯片GH200,配备全球首发的HBM3e内存。美国当地时间8月8日早上,英伟达创始人、CEO黄仁勋在世界计算机图形会议SIGGRAPH2023上进行了主题演讲。本次演讲重点仍旧是人工智能,在黄仁勋眼中,生成式AI是AI的“iPhone时刻”。他谈道,自然语言是新的编程语言,我们已经使计算机科学民主化,现在每个人都可以成为程序员。大语言模型是新的计算平台,这个新计算平台将赋能各种新的应用,并让以前的所有计算平台都能够受益,例如Office和Copilot。在本次演讲中,英伟达宣布推出了下一代NVIDIAGH200Grace Hopper超级芯片,并配备了全球首发的HBM3e内存。 图1:生成式AI是AI的“iPhone时刻”图2:英伟达推出下一代AI超级芯片GH200 数据来源:SIGGRAPH,东方证券研究所数据来源:SIGGRAPH,东方证券研究所 GH200芯片将于2024年Q2投产,性能较H100GPU大幅提升。在2022年3月,英伟达就推出了GraceHopper的超级芯片,首次将CPU和GPU融合在一块主板上,直到今年5月才正式 量产,本次推出的是采用了HBM3e的新型芯片。GH200芯片专为高性能计算和生成式AI时代打造,将于今年年底左右进行样片测试,并于2024年Q2末投入生产。GH200由72核GraceCPU和4PFLOPS的HopperGPU组成,通过NVLinkC2C技术连接,HBM3e内存容量高达141GB,提供每秒5TB的带宽。其每个GPU的容量达到NVIDIAH100GPU的1.7倍,带宽达到H100的 1.55倍。通过将两个GH200芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的3.5倍,带宽是之前的3倍。 图3:由两个GH200芯片组成的计算平台 数据来源:SIGGRAPH,东方证券研究所 GH200具备极强的可扩展性,最多支持256张芯片连接形成DGXGH200计算平台。通过NVLinkSwitch技术,可以将256块GH200组成DGXGH200SuperPod,提供高达1EFLOPS的算力和144TB的高速内存。再通过NVIDIAQuantum-2InfiniBandSwitch技术,用高速、低延时的网络连接多个DGXGH200SuperPod,进而搭建出面向生成式AI时代的GraceHopperAI超级计算机。 图4:由256张GH200组成的DGXGH200系统 数据来源:SIGGRAPH,东方证券研究所 芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU为主的数据中心有很大提升。在过去60年里,通用计算是相对主流的,用1亿美元可以打造8800块x86CPU组 成的数据中心,功耗是5MW。而在当下以及未来的加速计算和AI计算时代,用同样的1亿美元,可以打造由2500块GH200芯片组成的数据中心,功耗仅有3MW,并且其AI推理性能将达到上述CPU系统的12倍,能效达到20倍。如果要达到和1亿美元的x86CPU数据中心相同的AI性能,仅需要210块GH200组成的计算平台即可,功耗仅为0.26MW,成本也只需800万美元。黄仁勋表示,在AI时代,英伟达的技术可以替代传统数据中心,“这就是数据中心在向加速计算转变的原因。你买得越多,越省钱。” 图5:同等预算下GH200数据中心的能效是x86CPU数据中心的20倍 数据来源:SIGGRAPH,东方证券研究所 图6:同等性能下GH200数据中心的成本为x86CPU数据中心成本的1/12 数据来源:SIGGRAPH,东方证券研究所 针对生成式AI和大模型开发、内容创作、数据科学等场景,英伟达更新桌面级AI工作站GPU系列。英伟达推出了4款桌面级AIGPU新品:RTX6000、RTX5000、RTX4500和RTX4000,基于最强的RTX6000,英伟达还打造了提供给企业级用户的一站式解决方案RTXWorkstation,支持最多4张RTX6000GPU,可以在15小时内完成8.6亿token的GPT3-40B的微调,还能让StableDiffusionXL每分钟生成40张图片,比RTX4090快5倍。 图7:英伟达推出基于RTX6000的RTXWorkstation 数据来源:SIGGRAPH,东方证券研究所 面向数据中心,英伟达推出OVX服务器,采用L40SAdaGPU。NVIDIAOVX服务器针对图形、计算、存储和网络进行了优化,每台服务器上可以启用多达8个L40SGPU,每个GPU配备 48GBGDDR6内存,提供1.45PFLOPS算力。OVX服务器仅用7小时就可以完成8.6亿token 的GPT3-40B的微调,性能表现是A100的1.7倍。 图8:英伟达推出基于L40SGPU的OVX服务器 数据来源:SIGGRAPH,东方证券研究所 英伟达仍旧牢牢占据AI基础设施领域的主导地位。自ChatGPT引领生成式AI浪潮以来,NVIDIA GPU已成为支持生成式AI和大模型训练的大算力AI芯片首选,亦当之无愧是推动生成式AI普及的核心功臣。随着此次GH200超级AI芯片的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI基础设施领域的绝对主导地位。 1.2AI生态持续拓展,助力生成式AI开发与多领域应用 英伟达与HuggingFace合作,通过HuggingFace平台可以直接在NVIDIADGXCloud上训练模型。HuggingFace是当前最受AI开发者喜爱的平台之一,拥有200万用户、超25万个模型,以及5万个数据集,英伟达将为构建大型语言模型和其他高级AI应用程序的开发人员提供生成式AI的超级计算能力。DGXCloud的每个实例有8个NVIDIAH100或A10080GBTensorCoreGPU,