您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国信证券]:电子AI+系列专题报告(二):复盘英伟达的AI发展之路 - 发现报告
当前位置:首页/行业研究/报告详情/

电子AI+系列专题报告(二):复盘英伟达的AI发展之路

电子设备2023-05-29胡剑、胡慧、周靖翔、李梓澎国信证券绝***
电子AI+系列专题报告(二):复盘英伟达的AI发展之路

证券研究报告|2023年05月29日 电子AI+系列专题报告(二) 复盘英伟达的AI发展之路 行业研究·行业专题电子 投资评级:超配(维持评级) 证券分析师:胡剑 证券分析师:胡慧 证券分析师:周靖翔 证券分析师:李梓澎 联系人:詹浏洋 021-60893306 021-60871321 021-60375402 0755-81981181 010-88005307 hujian1@guosen.com.cnS0980521080001 huhui2@guosen.com.cnS0980521080002 zhoujingxiang@guosen.com.cnS0980522100001 lizipeng@guosen.com.cnS0980522090001 zhanliuyang@guosen.com.cn GPU是人工智能时代下满足深度学习大量计算需求的核心AI芯片。 过去五年,大型语言模型的参数规模以指数级增长;从2018年起,OpenAI开始发布生成式预训练语言模型GPT以来,GPT更新换代持续提升模型及参数规模;2022年12月,OpenAI发布基于GPT-3.5的聊天机器人模型ChatGPT,参数量达到1750亿个。ChatGPT引领全球人工智能浪潮,人工智能发展需要AI芯片作为算力支撑。据Tractica数据,全球AI芯片市场规模预计由2018年的51亿美元增长至2025年的726亿美元,对应CAGR达46.14%;据前瞻产业研究院数据,中国AI芯片市场规模预计由2019年的122亿元增长至2024年的785亿元,对应CAGR达45.11%。AI芯片中由于GPU通用型强,满足深度学习大量计算的需求,因此GPU在训练负载中具有绝对优势。以GPT-3为例,在32位的单精度浮点数数据下,训练阶段所需GPU数量为1558个,谷歌级应用推理阶段所需GPU数量为706315个。 英伟达开辟GPGPU加速计算格局,GPU架构演进及产品布局赋能AI时代。 英伟达(NVIDIA)成立于1993年,总部位于美国加利福尼亚州圣克拉拉,是一家人工智能计算公司。据JPR数据,4Q22英伟达独立GPU出货量占比为82%,位居市场第一。公司股价经历2016-2018年、2020-2021年、2022年9月以来三轮快速增长;其中2022年9月至今,受AI驱动下针对芯片算力需求提升,公司股价呈现大幅度反弹;截至2023年4月30日,公司市值为6854.00亿美元。回顾历史,1999年,公司发明了图形处理器,定义了现代计算机图形学;2006年,公司推出用于通用GPU(GPGPU)计算的CUDA平台。自2015年以后,随着AI浪潮迅猛推进,公司业务不断多元化,向数据中心、游戏、移动设备、汽车电子等市场发展。公司GPU产品能够并行计算的性能优势满足深度学习需求,通过对GPU架构升级不断推出新产品,其运算性能得到显著提升,广泛用于数据中心等计算密集领域。 构建加速计算平台、完善“三芯片”产品布局,重点发力AI及数据中心领域。 英伟达业务模式拟打造成类似于计算堆栈或神经网络,包含硬件、系统软件、平台软件和应用四层,公司结合芯片、系统和软件的全栈创新能力构建加速计算平台,并且完善针对AI加速计算及数据中心的GPU、CPU、DPU三种芯片产品结构。AI布局方面,早在生成式AI变革初期就已参与并与OpenAI、微软合作。2023年3月,英伟达在GTC大会上推出4个针对各种生成式AI应用程序进行优化的推理平台,其中发布带有双GPUNVLink的H100NVL加速计算卡,以支持ChatGPT类大型语言模型推理。与适用于GPT-3处理的HGXA100相比,配备四对H100与双GPUNVLink的标准服务器的速度最高可达10倍。 计算与网络事业部收入占比提升,数据中心超过游戏成为收入主要来源。 FY23,公司收入为269.74亿美元,同比增长0.22%,主要由于数据中心及汽车领域收入的高速增长抵消了游戏及专业可视化领域所带来的收入减少;净利润为43.68亿美元,同比减少55.21%,主要由于运营费用同比增长50%所致,包括与Arm交易相关的13.5亿美元收购终止费用。公司业务部门包括计算与网络事业部和图形事业部,FY23收入占比分别为55.86%、44.14%。公司的平台及产品主要应用于数据中心、游戏、专业可视化、汽车等四大领域,FY23占比分别为55.63%、33.61%、5.72%、1.69%。分地区来看,FY23来自美国地区的收入占比最高,达30.7%。公司FY1Q24实现收入71.92亿美元(YoY-13.2%,QoQ18.9%),FY2Q24收入指引为107.8-112.2亿美元(YoY60.8%至67.4%,QoQ49.9%至56.0%)。 产业链相关公司:算力:英伟达、海光信息、寒武纪、全志科技;服务器:工业富联、国芯科技、环旭电子、闻泰科技、易德龙;PCB:沪电股份、胜宏科技、东山精密、鹏鼎控股;AI终端:晶晨股份、瑞芯微;先进封装:长电科技、通富微电、芯原股份;存储:深科技、江波龙、佰维存储、兆易创新。 风险提示:宏观AI推广不及预期,AI投资规模低于预期,AI服务器渗透率提升低于预期,AI监管政策收紧等。 目录 01GPU与人工智能 02 03 英伟达的AI发展之路英伟达业绩实现与拆解 04 风险提示 一、GPU与人工智能 图:2021-2026年全球数据总量及预测 图:2016-2021年全球数据中心负载任务量及预测 全球数据总量及数据中心负载任务量大幅上涨,数据中心算力需求快速增长。随着人工智能等新技术发展,海量数据的产生及其计算处理成为数据中心发展关键。 据IDC数据,全球数据总量预计由2021年的82.47ZB上升至2026年的215.99ZB,对应CAGR达21.24%。其中,大规模张量运算、矩阵运算是人工智能在计算层面的突出需求,高并行度的深度学习算法在视觉、语音和自然语言处理等领域上的广泛应用使得算力需求呈现指数级增长。 据Cisco数据,全球数据中心负载任务量预计由2016年的241.5万个上升至2021年的566.7万个,对应CAGR达18.60%;其中,云数据中心负载任务量CAGR预计达22%。 250 200 150 100 50 0 数据总量(ZB)YoY 20212022E2023E2024E2025E2026E 23% 22% 22% 21% 21% 20% 20% 19% 600 500 400 300 200 100 0 负载任务量(万个)YoY 201620172018201920202021E 30% 25% 20% 15% 10% 5% 0% 资料来源:IDC,国信证券经济研究所整理资料来源:CiscoGlobalCloudIndex,国信证券经济研究所整理 以模型中的参数数量衡量,大型语言模型的参数在过去五年中以指数级增长。随着参数量和训练数据量的增大,语言模型的能力会随着参数量的指数增长而线性增长,这种现象被称为ScalingLaw。但当模型的参数量大于一定程度的时候,模型能力会突然暴涨,模型会突然拥有一些突变能力 (EmergentAbility),如推理能力、无标注学习能力等。例如GPT之前的大语言模型主流是深度神经网络驱动,参数在数十亿水平,而ChatGPT达到1750亿参数。 图:模型参数规模大幅上涨带来算力需求提升图:简单任务中不同参数模型上下文学习性能 资料来源:英伟达官网,国信证券经济研究所整理资料来源:《LanguageModelsareFew-ShotLearners》,国信证券经济研究所整理 表:GPT-1至GPT-3模型参数 版本 GPT-1 GPT-2 GPT-3 时间 2018年6月 2019年2月 2020年5月 参数量 1.17亿 15.4亿 1750亿 预训练数据量 5GB 40GB 45TB 训练方式 Pre-training+Fine-tuning Pre-training Pre-training 序列长度 512 1024 2048 #ofDecoderLayers 12 48 96 SizeofHiddenLayers 768 1600 12288 图:AlexNet网络结构示意图 随着互联网时代对于数据量的积累,大数据背景下神经网络成为机器学习的重要方法。2012年,深度卷积神经网络AlexNet凭借在图像分类识别领域中性能的大幅提升及错误率的大幅降低,成为人工智能的标志性事件。 在此过程中,其训练者AlexKrizhevsky创新性地使用英伟达GPU成功训练了性能有突破性提升的深度神经网络AlexNet,从而开启了新的人工智能时代。英伟达GPU伴随着深度学习模型训练和推理所需要的大量算力成为了人工智能时代的新基础设施。 资料来源:AI有道,国信证券经济研究所整理 ChatGPT引领全球人工智能浪潮,人工智能发展需要AI芯片作为算力支撑。从2018年起,OpenAI开始发布生成式预训练语言模型GPT以来,GPT更新换代持续提升模型及参数规模,当时GPT-1参数量只有1.17亿个。 2020年,OpenAI发布GPT-3预训练模型,参数量为1750亿个,使用1000亿个词汇的语料库进行训练,在文本分析、机器翻译、机器写作等自然语言处理应用领域表现出色。 2022年12月,OpenAI发布基于GPT-3.5的聊天机器人模型ChatGPT,具有出色的文字聊天和复杂语言处理能力。ChatGPT的发布引爆AI领域,海内外科技公司纷纷宣布发布大语言模型,而用户爆发式增长对大语言模型的算力需求同样带来挑战,AI芯片成为算力提升关键。 资料来源:腾讯云开发者,国信证券经济研究所整理 表:国内外科技企业发语言模型发布情况 公司产品(拟)发布日期阶段链接 OpenAlChatGPT2022年11月30日开放注册https://chat.openai.com/GoogleBard2月8日公开测试http://bard.google.com/复旦大学Moss2月21日公开测试(目前升级中)https://moss.fastnlp.top/澜舟科技孟子3月14日已发布https://www.langboat.com/portal/mengzi-model百度文心一言3月16日企业用户内测https://yiyan.baidu.com/达观数据曹植3月21日可申请使用http://www.datagrand.com/products/aigc/清华大学ChatGLB-6B3月28日已开源https://github.com/THUDM/ChatGLM-6B阿里巴巴通义千问4月7日企业用户内测https://tongyi.aliyun.com/360360智脑4月10日企业用户内测http://www.360dmodel.com/商汤科技日日新4月10日即将邀请内测https://www.sensecore.cn/昆仑万维天工3.54月17日即将邀请内测http://tiangong.kunlun.com/科大讯飞1+N认知智能大模型5月6日即将发布-网易有道子曰近期即将发布-华为盘古NLP模型近期即将发布-腾讯混元助手近期未开放-京东言犀今年未开放- 资料来源:金十数据,国信证券经济研究所整理 图:2018-2025年全球AI芯片市场规模及预测 图:2019-2024年中国AI芯片市场规模及预测 AI芯片又称AI加速器或计算卡,是专门用于处理人工智能应用中大量计算任务的模块。随着数据海量增长、算法模型趋向复杂、处理对象异构、计算性能要求高,AI芯片能够在人工智能的算法和应用上做针对性设计,高效处理人工智能应用中日渐多样繁杂的计算任务。 随着人工智能技术进步及应用场景多元化,全球及中国AI芯片市场得到进一步发展。据Trac