国内深度合成服务算法备案发布,进一步催化算力环节确定性增长。6月20日,国家互联网信息办公室发布深度合成服务算法备案信息公告,其中包含智谱科技、科大讯飞、腾讯、美团、百度文心一格、抖音、阿里巴巴等公司在AI模型深度合成服务算法布局备案,政策端助力国内AI大模型及深度合成算法加速推进发展,国内AI算力建设有望进入快速上行通道。AI大模型在训练及推理过程中需要海量数据及算力支撑,其中数据主要由服务器/交换机和光模块等算力基础设备进行存储和运输。我们认为,当前随着国内外大模型及各行各业垂类行业模型也逐渐加速推出,持续赋能千行百业智慧升级。 在此背景下,AI大模型及垂类模型的训练及应用驱动算力侧网络架构的升级与变革,服务器/交换机有望受益下游需求迎来快速提升。 算力需求增长与芯片计算能力增长存在剪刀差,AI发展对存储提出更高要求。算力是AI发展的生产力,AI大模型所需的算力支撑主要依赖于底层算力芯片;其中,AI芯片是用于加速人工智能训练和推理任务的专用硬件,具有高度并行性和能够实现低功耗高效计算的特点。随着大模型对于算力需求的持续增长,对于数据存储的AI芯片也提出了更高的要求。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍;而摩尔定律认为处理器芯片计算性能约每两年翻一番,同时伴随着半导体制程节点的不断演进,芯片纳米级别最终将达到极致后导致摩尔定律失效,因此大模型模型所需算力需求增长与芯片计算能力摩尔定律出现不匹配。我们认为,随着AI大模型的加速发展和算力需求的不断扩张,算力需求与芯片存储能力将出现不匹配现象,有望直接催化AI算力芯片加速发展。 算力芯片国产化替代势在必行,AI芯片迎来产业发展机会。1)AI芯片市场空间广阔:2023年全球人工智能芯片市场规模将达到490亿美元,到2026年增长至920亿美元,复合增速为23.37%;预计2023年,我国AI芯片市场规模将达到427亿元,到2026将达1206亿元,市场空间广阔。2)行业龙头以欧美日等为主,国产替代化势在必行:目前,全球人工智能芯片行业前十以欧美韩日等企业为主,其中前三为Nvidia、Inter及IBM,国内芯片企业如华为海思排12位,寒武纪排23位,地平线机器人排24位。我们认为,当前竞争格局下,随着国内外大模型的加速发展及垂类融合,国内AI算力芯片厂商国产化替代势在必行,AI芯片迎来产业发展机会。 相关标的:AI服务器/交换机:中兴通讯、紫光股份、工业富联、浪潮信息、锐捷网络、星网锐捷、菲菱科思;AI芯片:寒武纪、中科曙光、景嘉微、龙芯中科、海光信息、澜起科技、裕太微、创耀科技;PCB:兴森科技、沪电股份、深南电路、奥士康、世运电路、崇达技术、胜宏股份、景旺电子、鹏鼎控股。 风险提示:市场竞争加剧风险;关键技术突破不及预期风险;下游需求不及预期;原材料价格波动风险。 1.国内深度合成服务算法备案发布,进一步催化算力环节确定 性增长。 1.1国内深度合成服务算法备案发布,助力AI算力建设进行快速上行通道。 6月20日,国家互联网信息办公室发布深度合成服务算法备案信息公告,其中包含智谱科技、科大讯飞、腾讯、美团、百度文心一格、抖音、阿里巴巴等公司在AI模型深度合成服务算法布局备案,政策端助力国内AI大模型及深度合成算法加速推进发展,国内AI算力建设有望进入快速上行通道。 图表1:部分境内深度合成服务算法备案清单 1.2从英伟达产业传导看AI算力发展逻辑。 5月28日,在COMPUTEX 2023大会上,NVID IA宣布NVID IA DGX GH200,标志着GPU的又一突破——加速计算,专为巨型人工智能工作负载提供动力。 据英伟达官网称,NVID IA NVID IA Grace Hopper Superchip与NVLink交换系统,在NVID IA DGX GH200系统中集成多达256 GPU。在DGX GH200系统中,GPU共享内存编程模型可以通过NVLink高速访问144 TB的内存。 GPU内存的跨代显著提高了受GPU内存大小限制的AI和HPC应用程序的性能。许多主流AI和HPC工作负载可以完全驻留在单个NVID IA DGX H100对于此类工作负载,DGX H100是性能效率最高的培训解决方案。 其他工作负载,如具有数TB嵌入式表的深度学习推荐模型(DLRM)、数TB规模的图形神经网络训练模型或大数据分析工作负载,使用DGX GH200可实现4到7倍的加速。 这表明DGX GH200是更先进的AI和HPC模型的更好解决方案,这些模型需要大量内存用于GPU共享内存编程。 图表2:GPU NVLink进程带来的内存增益 图表3:巨型内存AI工作负载的性能比较 据英伟达官网称,NVLink交换系统形成了一个两级、无阻塞、fat-tree NVLink结构,可在DGX GH200系统中完全连接256个Grace Hopper超级芯片。DGX GH200中的每个GPU都可以以900GBps访问所有NVID IA Grace CPU的其他GPU和扩展GPU存储器。 图表4:NVIDIA DGX GH200系统架构 托管Grace Hopper超级芯片的计算基板使用第一层NVLink结构的自定义线束连接到NVLink交换机系统。LinkX电缆扩展了NVLink结构第二层的连接。 AI大模型在训练及推理过程中需要海量数据及算力支撑,其中数据主要由服务器/交换机和光模块等算力基础设备进行存储和运输。我们认为,当前随着国内外大模型及各行各业垂类行业模型也逐渐加速推出,持续赋能千行百业智慧升级。在此背景下,AI大模型及垂类模型的训练及应用驱动算力侧网络架构的升级与变革,服务器/交换机有望受益下游需求迎来快速提升。 2.算力需求增长与芯片计算能力增长存在剪刀差,AI发展对 存储提出更高要求。 算力是AI发展的生产力,AI大模型所需的算力支撑主要依赖于底层算力芯片;其中,AI芯片是用于加速人工智能训练和推理任务的专用硬件,具有高度并行性和能够实现低功耗高效计算的特点。 随着大模型对于算力需求的持续增长,对于数据存储的AI芯片也提出了更高的要求。 据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍;而摩尔定律认为处理器芯片计算性能约每两年翻一番,同时伴随着半导体制程节点的不断演进,芯片纳米级别最终将达到极致后导致摩尔定律失效,因此大模型模型所需算力需求增长与芯片计算能力摩尔定律出现不匹配。 图表5:大模型时代算力需求 我们认为,随着AI大模型的加速发展和算力需求的不断扩张,算力需求与芯片存储能力将出现不匹配现象,有望直接催化AI算力芯片加速发展。 3.算力芯片国产化替代势在必行,AI芯片迎来产业发展机会。 3.1AI芯片作为算力底座支撑,未来市场空间广阔。 图表6:2020-2026年全球人工智能芯片市场规模及增速 图表7:2020-2026年我国人工智能芯片市场规模及增速 根据观研天下报告称,2023年全球人工智能芯片市场规模将达到490亿美元,到2026年增长至920亿美元,复合增速为23.37%;预计2023年,我国AI芯片市场规模将达到427亿元,到2026将达1206亿元,市场空间广阔。 图表8:AI芯片应用领域 我们认为,随着人工智能技术日趋成熟,数字经济算力基础设施不断完善,人工智能商业化应用将加速落地,下游应用场景广泛布局于“云+边+端”侧多维度发展,有望共同持续推动AI芯片市场高速增长。 3.2行业龙头以欧美日等为主,国产替代化势在必行。 我国的AI芯片产业发展较晚,与国际先进水平存在一定差距,成为目前制约我国人工智能行业发展的重要因素。中国人工智能芯片起步相对较晚,发展较快,主要得益于政策的大力支持以及产学研结合的模式,2017年人工智能推理芯片助力推出世界首款搭载寒武纪高性能机器学习处理器芯片的推理服务器;到2022年,中国AI芯片在性能、处理速度、利用率上实现单点突破。截止到目前,我国人工智能芯片与国际先进水平相比还有一定距离。 图表9:中国人工智能芯片行业发展历程 在社会发展快速转向智能化发展的同时,AI芯片的市场需求快速上涨,但由于我国AI芯片产业发展相对较晚,2021年我国芯片仅占全球市场份额的7%。从上世纪九十年代以来,美国的芯片市场份额一直占据着世界首位,占比将近一半,到2021年美国在全球的芯片市场份额占比为46%。 图表10:2021年全球芯片市场份额占比 图表11:全球人工智能芯片行业企业排名 行业龙头以欧美日等为主,国产化替代势在必行:根据中研普华产业研究院数据显示,目前,全球人工智能芯片行业前十以欧美韩日等企业为主,其中前三为Nvidia、Inter及IBM,国内芯片企业如华为海思排12位,寒武纪排23位,地平线机器人排24位。我们认为,当前竞争格局下,随着国内外大模型的加速发展及垂类融合,国内AI算力芯片厂商国产化替代势在必行,AI芯片迎来产业发展机会。