人工智能行业点评 英伟达GPU、DGX云、AI工厂三驾马车发布,AI算力和应用再迎跃迁 超配 行业研究·行业快评计算机投资评级:超配(维持评级) 证券分析师: 熊莉 021-61761067 xiongli1@guosen.com.cn 执证编码:S0980519030002 证券分析师: 库宏垚 021-60875168 kuhongyao@guosen.com.cn 执证编码:S0980520010001 事项: 英伟达本周举办GTC大会,围绕AI、量子计算、芯片等前沿科技发布了一系列产品:如用于量子计算、光刻等领域的加速库;面向AI、数据中心等领域的CPU、DPU加速芯片;面向AI超级计算集群出租的DGX云用于生成式AI的大模型“代工厂”;面向AI视频、ChatGPT等应用的推理芯片平台;面向智能制造的Omniverse虚拟工厂。对于当前发展火热的AI产业,英伟达发布会成为市场关注焦点。 国信计算机观点:1)ChatGPT在AI问答上的优秀表现引爆网络,GPT-4能力更加卓越,OpenAI面临的访问流量呈现快速增长态势。最新的GPT-4访问价格已上涨数倍,其算力消耗和成本必然也有较大提升。AI大规模的应用和普及,算力是瓶颈之一,英伟达发布产品有望助力AI产业跃迁;2)芯片端,英伟达H100NVL专门针对生成式AI语言模型设计,可以将大型语言模型的处理成本降低一个数量级;3)云端,公司DGX云服务更方便快捷的出租AI超级计算集群算力,对于AI创业公司将大幅降低投入成本,有望繁荣AI生态;4)应用端,公司已推出语言、视觉、和生物学三大模型,AI模型“代工厂”的角色,让各类行业客户更加容易训练并使用针对自身的AI应用模型,将进一步普及AI应用;5)英伟达为AI产业,从算力到应用均带来跃迁,将加速AI的应用和落地。参考国内产业对比,以百度文心大模型发布来看,国内也会逐步复制国外AI产业的发展路径,且当前已具备一定的应用案例,我们持续看好国内AI产业的发展,重点关注AI算力、算法、应用相关产业和标的;5)风险提示:AI等应用发展和落地情况不及预期;国内AI产业发展不及预期;国内算力、芯片等基础环节进展缓慢等。 评论: 英伟达发布ChatGPT专用GPU,算力基础大幅提升 英伟达再发重磅GPU产品,AI的“iPhone时刻”来临。英伟达本次发布会展示了多项产品和技术,其中GPU性能的持续提升一直是大会焦点。英伟达发布了全新的GPU推理平台,该平台包括4种不同配置,针对不同工作负载进行优化: L4:针对AI视频工作负载。L4在视频解码和编码、视频内容审核、视频通话功能等领域做了较大优化,其在AI视频加速方面比CPU高120倍的性能。一台8-GPUL4服务器将取代一百多台用于处理AI视频的双插槽CPU服务器。Google云已与其合作推出了新的云硬件产品L4平台。 L40:针对Omniverse、图形渲染等生成式AI。L40推理性能是英伟达的云推理GPUT4的10倍;L40是英伟达元宇宙Omniverse的引擎。当前火爆的AI图片生成平台Midjourney、StableDiffusion等未来均是L40的潜在的可能应用场景。 H100NVL:针对ChatGPT等LLM大语言模型的HopperGPU。该产品是基于去年已经发布的H100的改进版本:配备双GPUNVLink,将两张拥有94GBHBM3显存的PCIeH100GPU拼接在一起。H100可处理拥有1750亿参数的GPT-3,还可支持商业PCIE服务器扩展。英伟达宣称H100NVL提供的GPT3-175B推理吞吐量是上一代HGXA100的12倍(8个H100NVL对比8个A100)。H100NVL卡将于今年下半年开始发货,以满足当前对大语言模型训练的强烈需求。 GraceHopper:针对推荐系统和大型语言模型AI数据库设计的超级芯片。该芯片可以通过900GB/s的高速一致性芯片到芯片接口连接英伟达GraceCPU和HopperGPU,非常适合处理大型数据集。 图1:NVIDIA推理平台 资料来源:英伟达官网,国信证券经济研究所整理 算力瓶颈制约AI大规模应用和普及,英伟达助力算力跃迁。近期OpenAI对于Plus付费用户的GPT-4访问连续下降阈值,已由最初的150msg/4hr下降至25msg/3hr;其理由主要是为了控制成本。由于ChatGPT在AI问答上的优秀表现引爆网络,GPT-4能力更加卓越,OpenAI面临的访问流量呈现快速增长。根据最新的GPT-4访问价格,其每1000个token的价格数倍于原GPT-3和GPT-3.5-turbo,因此其算力消耗和成本必然也有较大提升。英伟达最新产品即是解决算力瓶颈的关键,H100NVL专门针对生成式AI语言模型设计,可以将大型语言模型的处理成本降低一个数量级。根据公司演示,训练Transformer模型从5天缩短到了19小时,而在结合了英伟达多项尖端软硬件条件下,整个模型训练从7天缩短到了20小时,效率足足提升9倍。算力性价比的提升,将帮助AI在各种应用下迅速普及。 英伟达推出DGX云,AI即服务再次降低行业门槛 DGXCloud云服务问世,让AI使用更简单。英伟达DGXCloud是未来公司重点计划,公司提供了专用的NVIDIADGXAI超级计算集群,搭配NVIDIAAI软件,向每家企业出租AI算力。英伟达的AI计算集群强大而昂贵,企业以云租赁的方式采购将更快、更方便的实现自身的AI训练和应用。目前英伟达已经和微软云、谷歌云、OracleOCI开展合作,其首个NVIDIADGXCloud是与Oracle合作的云服务,每个实例每月36,999美元起。每个实例包括八个NvidiaH100或A10080GBGPU,每个GPU节点内存高达640GB。计算资源是专用的,不与云中的其他租户共享,网络也在租户之间隔离。 参考IaaS到SaaS的发展逻辑,DGX云有望推动AI生态更加繁荣。以OpenAI大语言模型GPT3为例,其1750亿个参数,需要庞大成本投入和算力支持,一般企业难以涉足。目前在AI大模型领域持续投入的主要是互联网大厂,如谷歌、百度、阿里等;OpenAI的迅速发展也离不开微软等巨头的持续投资。因此,类似于2000年后云计算的兴起,IaaS让各类企业创业和发展更加容易,催生B端SaaS和C端互联网生态。可以预期,英伟达DGX云的推出,让AI创业更为方便,不再只是巨头游戏,未来AI应用和生态有望快速发展。 图2:英伟达推出DGXCloud云服务 资料来源:英伟达官网,国信证券经济研究所整理 英伟达AI代工厂再向前端迈进一步,模型应用值得期待 生成式AI不断取得突破,英伟达进一步推出模型制作服务。ChatGPT、Midjourney等生成式AI应用让整个世界为之振奋,也彰显了大模型极强的应用能力和价值。英伟达发布AIFoundations,旨在为用户提供定制化的LLM和生成式AI解决方案。英伟达希望扮演AI模型“代工厂”的角色,帮助客户构建、改进和操作自定义大型语言模型,这些模型和生成AI使用其专有数据和特定领域的任务进行训练。英伟达AI大模型包含语言、视觉和生物学三大模型: NEMO:语言模型。NEMO是用于自然语言文本的生成式模型,可以提供80亿、430亿、5300亿参数的模型,且会定期更新额外的训练数据,英伟达AI专家也可以提供全程指导合作。根据NEMO模型,企业可以生成自己的大模型,实现客服、聊天机器人、撰写电子邮件等功能。NEMO模型是一个基于PyTorch的开源工具包,允许开发者快速构建、训练和微调会话式人工智能模型。NeMo由NeMoCore和NeMoCollection组成,在NeMo的SpeechCollection中,可以找到用于语音识别、命令识别、说话人识别、说话人验证和语音活动检测的模型和各种构建模块。NeMo的NLPCollection(nemo_nlp)包含了诸如问题回答、标点符号、命名实体识别等任务的模型。本次发布会,公司还发布了NVIDIATAOToolkit5.0,借助NVIDIATAO(训练、适应、优化)工具包,开发人员可以利用迁移学习的强大功能和效率,通过适应和优化在创纪录的时间内实现最先进的准确性和生产级吞吐量,可以促进对话AI模型的培训和微调。 Picasso:视觉模型。Picasso用于训练包括图像、视频和3D应用的生成式AI模型。公司宣布gettyimages、Shutterstock将采用英伟达Picasso服务,Adobe将与英伟达共同打造新一代的生成式AI模型。以Shutterstock为例,其是一家面向创新品牌和媒体公司的领先创作平台。Shutterstock使用NVIDIAPicasso生成式AI云服务,使这些模型能够根据简单的文字提示创建生成式3D资产,同时将训练的3D模型转换为高保真的3D内容,创作时间可以从数小时缩短至数分钟。 Bionemo:生物学模型。Bionemo专门为用户提供创建、微调、提供自定义模型的平台,可用于蛋白质结构预测、蛋白质生成、蛋白质性质预测、分子生成、分子对接等各个流程。在数百家新的AI制药初创公司之中,英伟达已经积累了至少7家公司,作为Bionemo大模型的早期用户。 英伟达AI模型向产业前端再迈进一步,形成全产业链AI能力输出。英伟达再提供芯片、AI算力云服务后,也向产业提供自己的大模型能力,让客户能最简化定制自身需要的AI能力。AI“代工厂”可以类比为云计算中PaaS及SaaS层服务,实现AI全生命周期能力输出,更进一步推动AI的应用普及。目前英伟达推出了三大模型,且已在业内有所应用,未来有望进一步推出更多模型。除此之外,英伟达“工业元宇宙”OmniverseCloud也是PaaS平台,旨在建设虚拟工厂,让各个行业在投入实际生产之前先以数字化方式设计、建造、运营和优化物理产品和工厂。 图3:英伟达语言模型NEMO 资料来源:英伟达官网,国信证券经济研究所整理 投资建议: 以ChatGPT、Midjourney为代表的生成式AI应用席卷全球,对AI算力、算法、应用的需求已形成快速增长趋势。即使单个GPT-4的应用,算力和成本已呈现暴涨之势。英伟达近期发布的一系列产品对于AI产业形成较大的利好:芯片端,H100NVL专门针对生成式AI语言模型设计,可以将大型语言模型的处理成本降低一个数量级。云端,公司DGX云服务更方便快捷的出租AI超级计算集群算力,对于AI创业公司将大幅降低投入成本,有望复制云计算催生B端SaaS和C端互联网生态,同样繁荣AI生态。应用端,公司已推出语言、视觉、和生物学三大模型,AI模型“代工厂”的角色,让各类行业客户更加容易训练并使用针对自身的AI应用模型,将进一步普及AI应用。因此我们认为英伟达为AI产业,从算力到应用均带来跃迁,将加速AI的应用和落地。参考国内产业对比,以百度文心大模型发布来看,国内也会逐步复制国外AI产业的发展路径,且当前已具备一定的应用案例,我们持续看好国内AI产业的发展: 算力端:重点关注中科曙光、海光信息等。算法端:重点关注科大讯飞、三六零等。 应用端:重点关注金山办公、同花顺、凌志软件、彩讯股份等。 风险提示: AI等应用发展和落地情况不及预期;国内AI产业发展不及预期;国内算力、芯片等基础环节进展缓慢等。 相关研究报告: 《人工智能行业点评-OpenAI访问限流,GPT-4算力测算》——2023-03-20 《人工智能行业点评-Microsoft365Copilot发布,国内外AI应用有望加速落地》——2023-03-19 《国央企ERP专题报告:数字化转型下的新机遇》——2023-03-10 《计算机行业2023年3月投资策略暨年报前瞻-2022行业业绩承压,关注ChatGPT引发的AI+应用表现》 ——2023-03-06 《人工智能行业点评-ChatGPT开放API接口,应用侧有望迎来