您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[源达信息]:人工智能专题研究系列二:AI大模型开展算力竞赛,打开AI芯片、光模块和光芯片需求缺口 - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能专题研究系列二:AI大模型开展算力竞赛,打开AI芯片、光模块和光芯片需求缺口

信息技术2023-08-03吴起涤源达信息市***
人工智能专题研究系列二:AI大模型开展算力竞赛,打开AI芯片、光模块和光芯片需求缺口

证券研究报告/行业研究 AI大模型开展算力竞赛,打开AI芯片、光模块和光芯片需求缺口 ——人工智能专题研究系列二 投资评级:看好 分析师:吴起涤执业登记编号:A0190523020001wuqidi@yd.com.cn 芯片产业指数与沪深300指数走势对比 40%20% 0% -20%-40% 2022-08-032023-02-032023-07-31 000300.SHH30007.CSI 资料来源:同花顺iFinD,源达信息证券研究所 相关报告:1.《人工智能专题研究系列一:大模型推动各行业AI应用渗透》2023.08.02 投资要点 AI大模型对算力需求大,推动AI基础设施建设 AIGC行业进入高速发展期,AI大模型性能持续提升的背后是千亿级以上的参数训练,带来对算力的高额需求,有望推动新一轮AI基础设施建设。根据IDC数据,预计2023年全球AI支出增速有望达27.9%,而中国智能算力规模将达427EFlop/s,同比增长59%。我们认为AI基建产业链中的核心部件供应公司有望充分受益行业发展机遇。 AI芯片是算力的底层核心,自主可控加快国产芯片发展 AI芯片的数量决定AI大模型的算力。以NvidiaH100为例,在我们测算下一个日均访问量在12亿次(3亿人访问×访问4次)的AI大模型对GPU的需求在13889台;2022年10月7日美国商务部发布的《BIS条例》将NvidiaA100和H100列入对华出口管制名单。在自主可控趋势下国内芯片厂商有望受益AI发展浪潮。目前寒武纪等国内公司的下一代人工智能芯片研发进展顺利,或能在未来填补部分人工智能芯片需求缺口。 高算力需与高速网络架构匹配,光模块/光芯片需求提升 AI大模型中东西向流量大幅增加,更适配叶脊网络架构,将会显著增加 400G/800G等高端光模块的用量。以NvidiaDGXH100网络架构为例,一个 4-SU单元的NvidiaDGXH100网络架构中GPU、800G光模块和400G光模块的用量比约是1:1.5:1。目前国产光模块已在全球市场中占有较高份额,中际旭创已实现800G光模块批量出货。光芯片作为决定光模块性能的核心部件,未来国产化率上升空间可观。 投资建议 1)AI芯片:人工智能芯片是构成AI模型算力的关键,在美国对华出口管制和自主可控背景下,国产芯片公司有望迎来发展机遇,建议关注:寒武纪等; 2)光通信模块:AI时代的网络架构对400G/800G等高端光模块用量有望大幅提升,建议关注:中际旭创、光迅科技等; 3)光芯片:光芯片的性能决定光通信效率和稳定性,25G及以上光芯片国产化率仍有较大提升空间,建议关注:源杰科技、长光华芯等。 风险提示 AI技术发展不及预期,AI商业化推进不及预期,中美贸易摩擦加剧,国产产品研发及市场开拓不及预期。 请阅读最后评级说明和重要声明 目录 一、AI大模型发展如火如荼,算力需求缺口大3 二、AI芯片:算力核心构成,自主可控推动国产化4 三、光模块:新型网络架构对高端光模块用量增加6 四、光芯片:光模块核心部件,国产化空间开阔10 五、投资建议12 六、风险提示13 图表目录 图1:大模型训练所需算力呈指数级增长趋势4 图2:预计2022-2024年全球AI支出年增速高于20%4 图3:预计2023年中国智能算力规模同比增长59%4 图4:NvidiaGPUH100芯片示意图5 图5:H100较A100相比在性能上有大幅提升5 图6:AI大模型中东西向流量显著增加7 图7:叶脊网络架构适用于东西向流量传输7 图8:NvidiaDGXH100架构示意图9 图9:光芯片在光模块内部通过光电转换实现信号传输10 图10:光芯片分为激光器芯片和探测器芯片10 图11:国内公司在25G及以上光芯片的全球市场中仍有较大提升空间12 图12:2021年全球2.5G以下DFB/FP芯片市场格局12 图13:2021年全球10GDFB芯片市场格局12 表1:相关公司在AIGC领域布局进展3 表2:语言大模型访问量对GPU需求量测算5 表3:国产AI芯片性能指标仍与国际顶尖水平存在较大差距6 表4:BIS禁令限制高性能AI芯片向中国出口6 表5:叶脊网络架构对光模块数量需求大幅提升7 表6:NvidiaDGXH100架构所需GPU、交换机数量8 表7:中际旭创在2022年全球光模块企业排名中位居第一9 表8:光芯片具有多种型号适用于不同应用场景11 2 一、AI大模型发展如火如荼,算力需求缺口大 AIGC产业化推进加速。2022年12月OpenAI推出人工智能语言编辑模型ChatGPT。截至2023年1月底,该软件月活用户已突破1亿,刷新移动APP用户增长速度记录,标志AIGC已跨过规模化商用节点。目前微软、谷歌及百度、华为等国内外科技巨头均已在AIGC领域开展军备竞赛。 地区公司名称相关布局 表1:相关公司在AIGC领域布局进展 谷歌2023年5月10日谷歌发布大语言模型PaLM2,并将AI对话功能接入谷歌搜索 国外 微软与OpenAI深度合作,将GPT-4接入自家搜索引擎推出NEWBing, 并计划将AI功能推广至Office等其他产品。 百度2023年3月16日百度推出大语言模型“文心一言”,训练参数达 2600亿,超过GPT-3的1750亿参数 国内阿里巴巴2023年4月11日阿里巴巴推出大语言模型“通义千问”,并表示未来将把旗下所有产品接入“通义千问” 华为2023年7月8日华为推出盘古大模型3.0,并计划应用于金融、政务、制造、矿山、气象等多个行业 资料来源:各公司公告,源达信息证券研究所 大模型性能优化需要更高算力,打开智能算力缺口。AI大模型训练运算量呈指数级增长趋势,根据OpenAI官网,AI模型训练计算量自2012年起每3.4个月就增长一倍。以GPT- 3模型为例,根据lambdalabs数据,该模型参数规模达1750亿,完整训练运算量达3640PFlop/s-days(以3640PFlop/s速度进行运算,需要3640天)。模型完成单次训练约需要355个CPU年并耗费460万美元(假设采用NvidiaTeslaV100芯片)。 图1:大模型训练所需算力呈指数级增长趋势 资料来源:AI前线,源达信息证券研究所 高算力需求迫切,推动AI基础设施建设。高训练算力需要与相应基础设施匹配,根据《2022-2023中国人工智能计算力发展评估报告》预计,2023年全球AI支出增速有望达27.9%,而中国智能算力规模将达427EFlop/s,同比增长59%。 图2:预计2022-2024年全球AI支出年增速高于20%图3:预计2023年中国智能算力规模同比增长59% 40% 30% 29.0%26.6%27.9%26.3% 17.6% 1500 1000 1271.4150% 922.8 640.7 31.775.0155.2268.0 427.0 100% 20% 10% 0% -10% 16.9% 10.6% -3.3% 16.9% 5.7% 17.0%16.2% 2.9%3.0%3.0% 500 0 50% 0% 202020212022E2023E2024E AI支�增幅DX支�增幅GDP增幅 中国智能算力规模(EFlop/s) YOY(%,右轴) 资料来源:IDC,世界银行,源达信息证券研究所资料来源:IDC,源达信息证券研究所 二、AI芯片:算力核心构成,自主可控推动国产化 人工智能芯片是AI算力的核心构成。目前主流的AI芯片中GPU占据绝对百分比,根据IDC数据,2022年GPU在中国人工智能芯片市场中占有率为89%。根据我们测算,假设国内每日访问单个语言大模型的人数达到3亿的情况下,对GPU需求台数为13889块。 基本假设: 1)假设每日人均访问次数为4次/人,单个问题的运算量为2PFlop/s; 2)假设采用的AI芯片为NvidiaH100,根据Nvidia官网资料,该芯片在FP32/FP16 精度工况下的算力为2PFlop/s; 3)假设芯片每日工作24小时,折算下为86400s。 表2:语言大模型访问量对GPU需求量测算 访问人数(亿人) 1 2 3 4 5 访问次数(次/人) 4 4 4 4 4 访问量(亿次) 4 8 12 16 20 单个问题运算量(PFlop/s) 2 2 2 2 2 所需算力(E+8PFlop/s) 8 16 24 32 40 芯片算力(PFlop/s) 2 2 2 2 2 每日工作时间(s) 86400 86400 86400 86400 86400 GPU需求量(块) 4630 9259 13889 18519 23148 资料来源:Nvidia官网,OpenAI,源达信息证券研究所测算 NvidiaH100是目前最先进的人工智能芯片。2023年3月22日Nvidia推出新款人工智能芯片GPUH100,与公司上一代产品A100相比性能得到大幅提升,在主流AI和HPC模型中,采用InfiniBand互连技术的H100性能最高可达A100的30倍。 精度工况 A100 H100SXM5 FP32/FP16 312/624 1000/2000 图4:NvidiaGPUH100芯片示意图图5:H100较A100相比在性能上有大幅提升 FP16/FP16 312/625 1000/2001 FP32/FP8 / 2000/4000 资料来源:Nvidia,源达信息证券研究所资料来源:Nvidia,源达信息证券研究所 国产AI芯片短板明显,下一代产品推进顺利。我们通过对国内寒武纪、华为昇腾和沐曦等国产公司旗下的AI旗舰芯片与NvidiaH100SXM的性能指标对比,可以看到国产AI芯片与NvidiaH100在性能上仍存在较大差距。同时国产芯片公司仍在加快研发推进下一代AI芯片产品,并有望在未来对标NvidiaH100,如寒武纪在研的思元590、沐曦在研的MXC500等。 表3:国产AI芯片性能指标仍与国际顶尖水平存在较大差距 公司 Nvidia 寒武纪 华为 沐曦 产品型号 H100SXM 思元370 昇腾910 曦思N100 FP32 67TFlop/s 24TFlop/s / / FP16 1979TFlops/s 96TFlop/s 320TFlop/s 80TFlop/s INT8 3958Top/s 256Top/s 640Top/s 160Top/s 资料来源:各公司公告,源达信息证券研究所 美国对AI芯片出口管制,自主可控要求下国产芯片需求迫切。2022年10月7日美国商务部工业安全局(BIS)发布《美国商务部对中华人民共和国(PRC)关于先进计算和半导体实施新的出口管制制造》细则,其中管制物项3A090、4A090包含高性能AI芯片产品,而NvidiaA100和H100均符合管制要求。在此背景下,Nvidia推出性能阉割的中国特供版芯片A800和H800。我们认为在国内自主可控大背景下,国内AI产业对国产芯片需求迫切,或加大对国产芯片公司支持力度,国产AI芯片有望迎来技术进步和市场机遇。 表4:BIS禁令限制高性能AI芯片向中国出口 管制物项 管制范围 3A090 1、输入输出(I/O)双向传输速度高于600GB/s;2、算力性能与精度指令比特长度乘积超过4800 4A090 1、含有超过3A090技术指标芯片的计算机、电子组件和相关部件 资料来源:美国商务部,源达信息证券研究所 三、光模块:新型网络架构对高端光模块用量增加 高算力需要与高效传输架构相匹配。AI大模型通常由多个服务器作为节点,并通过高速网络架构组成集群合作完成模型训练。因此在模型中东西向流量(数据中心服务器间的传输流量)大幅增加,而模型训练过程中南北向流量(客户端与服务器间的传输流量)较少,由于叶脊网络架构相较传统三层架构更适用于东西向流量传输,成为现代