行业研究|动态跟踪 看好(维持) AI系列报告之接口:AI大算力需求加速新技术渗透 电子行业 国家/地区中国 行业电子行业 报告发布日期2023年04月18日 核心观点 AI模型数据量和算力需求大。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T,在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。据OpenAI 测算,2012年以来全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍。 AI服务器快速增长,内存技术同步升级。根据TrendForce,预计2022年搭载 GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年ChatGPT相关应用有望再度刺激AI相关领域,预计2023年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。为提升服务器性能,AI服务器需搭载多个CPU处理 器,同时服务器CPU性能不断升级,要求内存技术同步升级。DDR5、HBM、 CXL、NVLink等内存技术将加速渗透,有望充分受益于AI带来的算力需求增长。 DDR5需要使用更多内存接口芯片。DDR5的内存接口缓存芯片RCD价格远高于 DDR4,内存接口芯片有望迎来量价齐升。DDR5芯片需要搭载更多的SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套芯片。 HBM为大算力芯片提供支撑。如今搭载于新兴AI应用的内存芯片亟待升级,而 HBM是一种基于3D堆叠工艺的DRAM内存芯片,被安装在GPU、网络交换设备、AI加速器及高效能服务器上。HBM作为一种带宽远超DDR/GDDR的高速内 存,将为大算力芯片提供能力支撑,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。TrendForce预估2023-2025年HBM市场年复合成长率有望成长至40-45%以上。 CXL兼容性强、可实现内存一致性。CXL为英特尔于2019年推出的一种开放性互联协议,能够让CPU与GPU、FPGA或其他加速器之间实现高速高效的互联,从 而满足高性能异构计算的要求。在AMD、ARM、IBM以及英特尔等主要CPU供应商的支持下,CXL已经成为领先的行业标准。美光科技在22年5月与投资者交流 时曾预测CXL相关产品的市场规模,到2025年预计将达到20亿美金,到2030年 可能超过200亿美金。 NVLink可最大化提升系统吞吐量。第四代NVIDIA®NVLink®技术可为多GPU系统配置提供高于以往1.5倍的带宽,以及增强的可扩展性。单个NVIDIAH100Tensor CoreGPU支持多达18个NVLink连接,总带宽为900GB/s,是PCIe5.0带宽的7倍。第三代NVIDIANVSwitch™基于NVLink的高级通信能力构建,可为计算密集型工作负载提供更高带宽和更低延迟。NVIDIADGX™H100等服务器可利用NVLink技术来提高可扩展性,进而实现超快速的深度学习训练。 投资建议与投资标的 我们看好服务器带来的接口芯片技术升级趋势,建议关注澜起科技、聚辰股份、裕太微、龙迅股份。 风险提示 服务器需求拉动不及预期、新技术渗透率不及预期。 蒯剑021-63325888*8514 kuaijian@orientsec.com.cn 执业证书编号:S0860514050005香港证监会牌照:BPT856 李庭旭litingxu@orientsec.com.cn 执业证书编号:S0860522090002 杨宇轩yangyuxuan@orientsec.com.cn韩潇锐hanxiaorui@orientsec.com.cn张释文zhangshiwen@orientsec.com.cn薛宏伟xuehongwei@orientsec.com.cn 大模型增加存储需求,行业景气底部反暖2023-04-17 AI系列报告之PCB:AI算力需求增长,服2023-04-07 务器PCB厂商受益 算力需求提升,光芯片正扬帆2023-03-26 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 AI大算力需求加速新技术渗透 AI模型数据量和算力需求大。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T,在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。据OpenAI测算,2012年以来全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,远超摩尔定律的增长速度。随着算力的不断进步,所需存储的数据量在以指数级的增长速度攀升。得益于人工智能、物联网、云计算、边缘计算等新兴技术在中国的快速发展,中国数据圈正在迎来快速增长。据此前IDC预测,预计到2025年,中国数据圈将增长至48.6ZB,占全球数据圈的27.8%,成为全球最大的数据圈。美光首席商务官萨达纳表示,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍。 图1:2017-2021我国存储容量增量(EB)图2:2017-2023E中国数据存储市场规模及增速 350 300 250 200 150 100 50 0 存储容量增量(EB) 10000 8000 6000 4000 2000 0 3494 4624 市场规模(亿元)YoY 32% 7000 527054345983 14% 10% 3% 8500 17% 35% 30% 25% 21%20% 15% 10% 5% 0% 20172018201920202021 201720182019202020212022E2023E 数据来源:中国信通院、东方证券研究所数据来源:观研报告网、东方证券研究所 AI服务器快速增长,内存技术同步升级。根据TrendForce,在自动驾驶汽车、AIoT与边缘运算等新兴应用的带领下,自2018年起诸多大型云端业者开始大量投入AI相关的设备建设,预计2022年搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年ChatGPT相关应用有望再度刺激AI相关领域,预计2023年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。内存接口芯片是高端服务器中CPU与内存之间进行数据传输的核心部件,其主要作用是提升高速内存数据访问的速度及稳定性,满足服务器CPU对内存模组日益增长的高性能及大容量需求。为提升服务器性能,AI服务器需搭载多个CPU和GPU处理器,同时服务器CPU性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink等内存技术将加速渗透,有望充分受益于AI带来的算力需求增长。 图3:2022-2023E全球AI服务器出货量(千台)图4:不同类型服务器成本构成 250 200 150 100 全球AI服务器出货量(千台) 20222023E2024E2025E2026E 100% 80% 60% 40% 20% 0% CPUGPU内存硬盘其他 20-25% 2-5% 5-10% 5-10% 15-20% 25-30% 25-30% 27-30% 70-75% 30-35% 20-25% 5-10% 20-25% 基础型高性能型机器学习型 数据来源:TrendForce、东方证券研究所数据来源:行行查研究中心、东方证券研究所 表1:服务器型号对比 浪潮普通服务器 浪潮AI服务器 英伟达AI服务器 英伟达AI服务器 服务器型号 NF5280M6 NF5688M6 DGXA100 DGXH100 CPU型号 英特尔第三代Xeon处理器 英特尔第三代Xeon处理器 AMD第二代Epyc处理器Rome7742 英特尔第四代Xeon处理器SapphireRapids CPU数量 1-2 2 2 2 CPUDDR 最大支持32根内存条,支持RDIMM类型 支持32条DDR4RDIMM/LRDIMM内存 2TB 2TB GPU型号 / NVIDIAA800 A100TensorCore H100TensorCore GPU数量 / 8 8 8 GPU内存 / 每个对应HBM2e 80GB 每个对应HBM2e 80GB 每个对应HBM2e 80GB 硬盘NAND 最大支持20块3.5英寸硬盘或39块2.5英寸硬盘 8块2.5英寸NVMeSSD/16块2.5英寸SATA/SASSSD 操作系统:2个1.92TBNVMeM.2驱动器内部存储:8个3.84TBNVMeU.2驱动器 操作系统:2块1.9TBNVMeM.2硬盘内部存储:8块3.84TBNVMeU.2硬盘 数据来源:浪潮信息官网、英伟达官网、东方证券研究所 DDR5对比DDR4性能全面提升,需要使用更多内存接口芯片。1)性能:DDR5内存频率从3200MHz起跳(一般都会在4800MHz以上)、最高可达8400MHz;2)核心容量密度:SK海力士给出8Gb、16Gb、24Gb、32Gb、64Gb丰富的选择,DDR5单条内存最大可到128GB;3) 功耗:DDR5支持1.1V电压,进一步降低了功耗。另外,DDR5搭载DQS间隔振荡器,具备错误检查与清理能力,具备更强的抵抗环境变化的能力和更强的可靠性。DDR5性能全面提升,要求新一代内存接口芯片支持高速、低功耗、系统扩展等要求。DDR5模组需要搭载SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套芯片。此外,在LRDIMM模组中,相比DDR3只采用1颗寄存缓存芯片、DDR4最多采用“1+9”个内存芯片,DDR5对内存接口的需求进一步提升,最多达到“1+10”个(1RCD+10DB),内存接口芯片有望迎来量价齐升。 表2:内存接口芯片随着内存升级使用量增加 接口协议标准 内存模组 内存接口芯片 内存模组配套芯片 DDR2 FBDIMM AMB DDR3 RDIMM 1RCD 1TS LRDIMM 1MB 1TS DDR4 RDIMM 1RCD 1TS LRDIMM 9DB、1RCD 1TS DDR5 RDIMM 1RCD 1SPD、2TS、1PMIC LRDIMM 10DB、1RCD 1SPD、2TS、1PMIC 数据来源:澜起科技官网、IDT、东方证券研究所 HBM为大算力芯片提供支撑。ChatGPT依赖更高算力,且更多是趋向于矩阵类和卷积类的计算,其对内存的需求也体现在训练和推理AI芯片,或是加速模块里的内存带宽,而HBM是一种基于3D堆叠工艺的DRAM内存芯片,被安装在GPU、网络交换设备、AI加速器及高效能服务器上。 HBM能大幅提高数据处理速度,每瓦带宽比GDDR5高出3倍还多,且HBM比GDDR5节省了94%的表面积。HBM作为一种带宽远超DDR/GDDR的高速内存,将为大算力芯片提供能力支撑,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。TrendForce预估2023-2025年HBM市场年复合成长率有望成长至40-45%以上。 图5:HBM的立体结构图6:HBM与GDDR5对比 数据来源:AMD、东方证券研究所数据来源:AMD、东方证券研究所 CXL兼容性强、可实现内存一致性。CXL全称为ComputeExpressLink,是由英特尔于2019年3月在InterconnectDay2019上推出的一种开放性互联协议,能够让CPU与GPU、FPGA或其他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。在AMD、ARM、IBM以及英特尔四个主要CPU相关供应商的支持下,CXL已经成为领先的行业标准。CXL构建于PCI-e逻辑和物理层级之上,所以其兼容性很高,更容易被现有支持PCI-e端口的处理器(绝大部分的通