您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[华创证券]:电子行业深度研究报告:人工智能风起云涌,算力芯片需求升温 - 发现报告
当前位置:首页/行业研究/报告详情/

电子行业深度研究报告:人工智能风起云涌,算力芯片需求升温

电子设备2023-05-25华创证券九***
AI智能总结
查看更多
电子行业深度研究报告:人工智能风起云涌,算力芯片需求升温

ChatGPT揭开AI发展大幕,算力芯片迎来黄金发展期。ChatGPT一经问世便得到了广泛关注,成为史上用户数增长最快的消费者应用。国内外巨头纷纷推出生成式AI产品加入大模型竞赛,微软发布Microsoft 365Copilot,打破了传统办公软件的方式。Meta相继发布其大语言模型LLaMA,和针对机器视觉领域的通用图像分割模型SAM,AI视觉有望飞跃式提升。而国内巨头如百度、华为、阿里、商汤等企业亦于近期纷纷发布AI大模型,AI商业化进程提速,将为更多行业和应用领域赋能,一场席卷全球科技领域的AI变革时代正在悄悄拉开序幕。而随着GPT-4的发布,AI大跨步进入多模态发展时代,所需要处理、训练的数据从单纯的文本数据转为图像、文字、语音、视频在内的多媒体数据,所需要算力也呈指数级增长。根据OpenAI发布的报告《AI and Compute》,自2012年以来,AI训练应用的算力需求每3-4个月就会翻倍,至今AI算力增长超过了30万倍,算力芯片作为硬件基础,迎来黄金发展期。 GPU领衔追求卓越算力性能,HBM突破存力瓶颈为AI保驾护航。作为用于加速人工智能训练和推理任务的专用硬件,AI算力芯片既包括CPU、GPU、FPGA等传统芯片,也包括以TPU、VPU为代表的专门针对人工智能领域设计的ASIC芯片,GPU擅长并行计算且具有大量核心和高速内存,能够极大缓解计算层面的瓶颈,已经成为了当今主流的AI推理计算不可或缺的一部分,约占国内AI芯片市场份额的90%(IDC,2021H1数据),其他非GPU芯片亦扮演越来越重要的角色,预计到2025年合计占比将超过20%。主流算力芯片外,芯片存取能力亦是决定AI运算效果的重要一环,处理器和存储器间鸿沟日益拉大,“内存墙”问题亟待解决。HBM突破了内存容量与带宽瓶颈,被视为新一代DRAM解决方案,成为AI时代不可或缺的关键技术。 AI浪潮带动算力芯片市场持续扩容,国产替代势在必行,本土厂商加速成长。 市场空间方面:“云+边+端”应用场景协同发力,共同驱动上游AI芯片行业成长。根据WSTS数据,全球AI芯片市场规模将从2019年的110亿美元增长至2025年的726亿美元,CAGR为37%。未来随着“AI+”应用场景的逐步落地,AI芯片需求有望持续提升。竞争格局方面:目前全球AI芯片市场几乎由英伟达等海外大厂垄断,国内陆续涌现出寒武纪、燧原科技、壁仞等优质AI芯片公司,其中寒武纪作为国内AI芯片领域的先行者,目前产品可全面覆盖云边端应用场景,其中公司在云端方面推出的思元290/370系列芯片,已成功导入至阿里云等多家头部互联网客户中。英伟达H100和A100型号芯片进口受限,将倒逼高端AI芯片国产替代进程加速,展望未来,在行业加速发展叠加自主可控需求背景下,国内AI芯片龙头厂商有望持续受益。 投资建议:AI行业蓬勃发展带动算力芯片需求激增,国际贸易形势变换推动国产替代加速,国内优质算力/存力芯片公司将迎来发展机遇,建议关注:海光信息、寒武纪、龙芯中科、晶晨股份、兆易创新、北京君正、深科技、江波龙等。 风险提示:国际贸易形势变换;下游需求不及预期;代工产能不及预期;行业技术迭代不及预期;产品迭代不及预期。 投资主题 报告亮点 本报告从产业链角度阐述了AI芯片行业的发展机会,以ChatGPT问世掀起的算力潮为背景,分析人工智能技术创新对底层算力/存力芯片需求的影响。 报告主体主要分为三个章节,第一章节介绍了本轮由ChatGPT爆火带来的AI产业变革,梳理AI发展所需的底层算力/存力芯片产业链,并复盘英伟达等海外大厂在AI芯片方面的产品布局情况;第二章节从行业规模及驱动力和市场竞争格局两个维度对当前AI芯片行业进行分析,指出在“云-边-端”下游多维度协同发力叠加国产替代的背景下,国内AI芯片产业链公司迎来了新的发展机遇,后续有望持续受益;第三章节主要阐述产业链重点公司情况。 投资逻辑 ChatGPT问世引爆新一轮AI浪潮,云端计算/存储数据量激增,带动上游AI算力/存力芯片快速增长承接新增需求;同时受益于工业互联网、车联网/自动驾驶、移动互联网等产业的蓬勃发展,边缘计算的数据量和算力需求也在不断扩大,未来将协同云计算共同驱动AI芯片行业成长。目前全球AI芯片市场仍由英伟达、Intel等海外大厂主导,而英伟达H100和A100型号芯片进口受限,在行业加速扩容叠加国产替代的背景下,国内AI芯片厂商迎来新的发展机遇,未来成长空间广阔。建议关注国内优质算力/存力芯片公司海光信息、寒武纪、龙芯中科、晶晨股份、兆易创新、北京君正、深科技、江波龙等。 一、ChatGPT揭开AI发展大幕,算力芯片逐浪前行 (一)ChatGPT横空出世,AIGC商业化蓄势待发 ChatGPT是由OpenAI开发的自然语言生成模型,主要应用之一是聊天机器人。ChatGPT于2022年11月正式推出,基于GPT-3.5架构语言模型利用对话形式,通过大量语料库和人工反馈的强化学习(RLHF)进行模型训练,最终模型可以理解并针对各类主题生成类似于人类的响应。得益于强大的性能和舒适的用户体验,ChatGPT问世以来便得到了广泛关注,用户规模迅速扩张,上线不到一周就突破100万用户,2023年一月末用户数突破1亿,成为史上用户数增长最快的消费者应用。 图表1 ChatGPT用户数量增速惊人 GPT-4多模态模型强化明显,代际版本升级效果显著。2023年3月14日OpenAI推出了GPT-4多模态大模型,进一步提升了数据处理能力和安全性等。与GPT-3.5相比,GPT-4的表现有较大的提升,GPT-4拥有更可靠、更有创意的表现,同时处理细微指令的能力更强。此外,GPT-4能够接收来自图像的信息,可以利用文本和图像的综合信息生成稳步输出。实验表明,GPT-4在各种专业测试和学术基准上的表现与人类水平相当。 图表2各代GPT对比 图表3 GPT-4在不同年龄段不同类别考试中名列前茅 图表4多模态模型与单模态模型对比 新一代Microsoft365Copilot惊艳亮相,AI商业化热潮蓄势待发。随着GPT系列模型在商业AI中的广泛应用和迭代升级,有望带动越来越多的应用场景实现效率提升。以与OpenAI合作紧密的微软为例,北京时间2023年3月17日,微软重磅宣布由GPT-4驱动的Microsoft 365 Copilot,将大模型(LLM)与Microsoft Graph和Microsoft 365应用中的数据相结合,打破了传统办公软件的方式,能自动生成文档、电子邮件、PPT,让Word、Excel、PowerPoint、Outlook、Teams等办公软件的效率得以提升。国内外科技巨头纷纷下场进行AI模型商业化尝试,除微软、谷歌外,另一互联网龙头企业Meta在AI领域也有持续性投入。2023年2月,Meta发布其大语言模型LLaMA,4月又推出针对机器视觉领域的通用图像分割模型SAM。而国内巨头如百度、华为、阿里、商汤等企业亦于近期纷纷发布AI大模型,AI商业化进程提速,将为更多行业和应用领域赋能。 图表5 Copilot在Excel中的应用 图表6 Copilot在PPT中的应用 GPT系列属于生成式人工智能(AIGC)的范畴。传统AI大多属于分析式AI,通过对输入数据进行分析和推理,实现感知、认知及决策。而生成式AI使用各种机器学习算法,从数据中提取和理解要素,使机器能够创建全新的数字视频、图像、文本、音频或代码等内容。它创建出的内容与训练数据保持相似,而非复制。对抗生成网络GAN (Generative adversarial networks)是AIGC领域早期使用最多的算法模型之一,其核心是AI内部的两个程序互相对比,从而生成最接近人类心目中的正确形象,因此被广泛应用于生成图像和音视频领域,随后不断涌现的包括Transformer、Diffusion等在内的诸多模型在AIGC技术路线上进行了演进及迭代,使得学习的分布变得更加全面和接近现实,从而呈现出更真实和高质量的内容,大型模型在AIGC中变得越来越重要。 图表7 AIGC赋予AI人类生产“内容”的特权 (二)多模态催生高算力需求,AI芯片迎来黄金发展期 多模态AI驱动新一轮算力需求爆发。随着AI从单模态演变为多模态,所需要处理、训练的数据从单纯的文本数据转为图像、文字、语音、视频在内的多媒体数据,所需要的算力也呈指数级增长。根据OpenAI发布的报告《AI and Compute》,自2012年以来,AI训练应用的算力需求每3-4个月就会翻倍,至今AI算力增长超过了30万倍。而随着多模态AI的逐步落地,边缘端需求上升将会导致算力需求进一步爆发。另一方面,谷歌、百度、阿里巴巴等科技行业纷纷计划推出类ChatGPT的情况下,将会加剧算力供需的不平衡。根据IDC与浪潮信息联合发布《2022-2023中国人工智能计算力发展评估报告》,2022年我国智能算力规模已达268百亿亿次/秒(EFLOPS),超过通用算力规模,预计到2026年中国智能算力规模将达到1271.4EFLOPS,未来五年复合增长率达52.3%,同期通用算力规模的复合增长率为18.5%。 图表8中国智能算力规模及预测(2019-2026E) 算力、模型、数据是AI发展的三大要素,芯片是AI算力的源泉。根据承担任务的不同,AI芯片可以分为训练和推理芯片。训练,即通过输入大量数据来构建神经网络模型,使之可以适应特定的功能。训练芯片对算力、精度、通用性有较为苛刻的需求,需要能够处理海量数据以及适应各种不同的学习任务;推理,即借助现有神经网络进行运算,通过新输入的数据来获得推理结论。推理芯片对性能和精度的要求相对较低,更注重对成本、功耗、时延等指标的综合考量。 图表9华为Ascend910 AI训练芯片构架图 图表10德州仪器TIDEP-01004机器学习推理设计 “云-边-端”泛在算力架构趋势已定。在算力未来需求持续增加的情况下,网络带宽和时延限制(性能)和网络带宽成本限制(成本)导致的算力需求错配需要通过在边缘端部署算力进行支撑,构成“云-边-端”泛在算力部署方案。云端,即数据中心,依靠强大算力利用海量数据进行模型训练,云端AI芯片具有性能高、算力强的特点,能够对深度学习算法模型进行训练与推理,云端的算力是由GPU或NPU等芯片产生的,通过在虚拟平台调度服务器上处理复杂的数据来实现合理使用;边端的算力由CPU、FPGA等芯片产生,通过边端服务平台的实时数据过滤和响应,可以保证网络的稳定性且降低延迟; 终端,即手机、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备,通常使用训练好的模型进行推理,终端AI芯片具有体积小、耗电少的特点,算力是由CPU、GPU\DSP或带有AI核的SoC等芯片产生的。 图表11“云-边-端”泛在算力架构 人工智能技术在云端(云)、边缘端(边)和终端(端)设备中均有广泛应用,三种场景对于芯片的运算能力和功耗等特性有着不同要求。云端主要部署训练芯片和推理芯片,进行智能数据分析和模型训练,以及处理部分对传输带宽要求比高的推理任务;边缘和终端主要部署推理芯片,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。 图表12云、边、端对于芯片的要求不同 作为用于加速人工智能训练和推理任务的专用硬件,AI算力芯片既包括CPU、GPU、FPGA等传统芯片,也包括以TPU、VPU为代表的专门针对人工智能领域设计的ASIC芯片,此类芯片通常拥有高度并行计算能力和优异的低功耗高效计算性能。IDC研究发现,2021年上半年中国AI芯片中,GPU占有90%以上的市场份额,稳居第一,而ASIC、FPGA、NPU等其他非GPU芯片也在各个行业和领域被越来越多地采用,整体市场份额接近10%,预计到2025年其占比将超过20%。 图表13各类AI芯片特征对比 CPU为AI提供算力和数据管理功能,帮助实现复杂的模型训练、预测和决策