ChatGPT带动算力需求飙升,存算侧带动硬件全面受益。据NVIDIA估算,训练GPT-3,假设单个机器的显存/内存容量足够的前提下,8张V100显卡训练时长预计达36年,1024张80GBA100显卡完整训练GPT-3的时长为1个月,算力侧硬件需求全面增长。此外,大模型训练需要海量数据传输,由此将对以服务器交换机为代表的数据传输设备产生更多需求,相关高算力芯片需求量将相应增长。整体来看,ChatGPT将从算力侧和数据传输端全面带动显卡及高算力芯片需求,进而对算力芯片、应用端、存算一体、先进封装、封装设备、IC载板等多个领域硬件产生增量需求。 国产化存储产业链迎来布局时刻。1)AI服务器带来存力硬件需求上行:根据美光数据测算,人工智能服务器中DRAM内容是普通服务器的8倍,NAND内容将是普通服务器的3倍,而大容量存储器将是算力数据迭代运算的重要基础。2)库存边际改善,价格修复在即:美光2023年Q2会计期末库存约为81.29亿美金,同比下降2.75%,有望持续改善。AI服务器有望带动存储行业景气度及需求快速提升,加速存储行业库存进一步清出。根据TrendForce数据,美光及SK海力士在内的部分供应商已启动DRAM减产计划,2023年第二季度DRAM价格跌幅将收窄至10%到15%。 3)国产化存储产业链迎来布局时刻:国内存储产业链多元化布局,2023年有望完成产品结构快速升级。 存储行业公司市场广阔,行业近期有望触底回升。根据IC Insight数据,2011年全球DRAM市场规模为296亿美金,而2022年全球DRAM市场规模将达758亿美金,CAGR达8.9%,其中DDR4需求疲软之下价格一路下行。根据中金企信统计数据,预计到2025年全球NAND Flash市场规模有望达到931.9亿美元,2021年至2025年CAGR增速7.4%,其中三星依旧占领较大的市场份额,但还未形成绝对的寡头地位。国内储存行业链公司有望持续发展,国产化替代空间广阔。 DRAM&NANDFlash强周期属性,人工智能需求增长有望带动行业快速修复。DRAM是存储器第一大产品,占比全球储存市场53%的市场份额。当前以三星、海力士和美光三大家为主。看DRAM产品迭代,DDR4系当前主流,DDR5接力入场。NANDFlash供给端,呈现CR6市场规模占比约99%,寡头市场持续集中。价格方面,我们认为主流及利基型产品价格2022年以来下跌跌幅将逐步趋缓。需求端,车规级储存受汽车智能化发展速度加快,AI等高算力设备推动巨量数据存储或将有望成为新的快速增长点。 人工智能算力及数据量增长,带动存储行业技术迅速发展。1)HBM:截至2021年,SK海力士和Rambus已发布了数据传输速率为5.2Gbps和8.4Gbps的HBM3产品,每个堆叠将提供超过665GB/s和1075GB/s的传输速率,有望快速在AI服务器中替代。2)存算一体:目前存算一体大致分为近存计算(PNM)、存内处理(PIM)、存内计算(CIM)。特斯拉、阿里达摩院、三星等大厂所选择的便是近存计算(PNM),未来技术成熟度或将快速提高,突破算力存力中间壁垒。3)3DNAND堆叠:3D NAND将成为主流方向,可突破存储容量限制瓶颈。3D NAND将解决方案从提高制程工艺转变为多层堆叠,解决了2D NAND在增加容量的同时性能出现下降的问题,实现容量、速度、能效及可靠性等多方位的提升。 风险提示:下游需求不及预期,新品迭代不及预期。 一、AI带动存力芯片用量快速提升 1.1AI带动算力及存力需求快速提升 ChatGPT是OpenAI开发的一款聊天机器人,能够更高层次理解人类需求并解决复杂问题。ChatGPT基于Transformer架构算法,可用于处理序列数据模型,通过连接真实世界中大量的语料库来训练模型,可进行语言理解并通过文本输出,做到与真正人类几乎无异的聊天场景进行交流。 ChatGPT应用场景广泛,海外已有龙头落地成功案例: 1)文字创意的生成:快速生成文章段落结构。 2)客服系统:与客户更流畅的交流。 3)虚拟人物对话:传统虚拟人物会设定对话标准答案,ChatGPT能够更自然真实地与人对话。 4)结合Office软件:生成文档、表格、PPT等。 5)搜索:替代部分搜索需求。 6)咨询领域:提供值得思考或探索的方向。 ChatGPT海外已有应用方案落地:为BuzzFeed提供个性化测试服务以及为Amazon解决工程师技术难题等。 图表1:ChatGPT模型训练之路 图表2:ChatGPT所需数据量 ChatGPT带动算力需求飙升,存算侧硬件全面增量需求。据NVIDIA估算,训练GPT-3,假设单个机器的显存/内存容量足够的前提下,8张V100显卡训练时长预计达36年,1024张80GBA100显卡完整训练GPT-3的时长为1个月,算力侧硬件需求全面增长。 图表3:3072张80GBA100训练GPT,最大规模模型参数量是GPT-3原版规模的5倍 ChatGPT4多模态演绎,算力需求进一步激增。ChatGPT4为多模态模型,使用图像、视频等多媒体数据进行训练,文件大小远超文字,进一步驱动算力需求飙升。以LAION-5B图文数据集为例,其包含58.5亿个CLIP过滤的图像文本数据集,我们认为图像、视频类训练数据将驱动算力需求进一步飙升。此外,大模型训练需要海量数据传输,由此将对以服务器交换机为代表的数据传输设备产生更多需求,相关高算力芯片需求量将相应增长。 图表4:GPT-3VSGPT-4 高算力时代,Chiplet助力突破芯片制程瓶颈。在速度方面,采取3D封装技术的chiplet缩短了线路传输距离,指令的响应速度得到大幅提升,寄生性电容和电感也得以降低,此外,更多更密集的I/O接点数,电路密度提升将提高功率密度。3D封装由于采用更细小、更密集的电路,信号传输不需要过多的电信号,从而功耗也会相应降低。 图表5:3D堆叠封装显著降低成本 图表6:先进封装提升性能及效率 整体来看,ChatGPT将从算力侧和数据传输端全面带动显卡及高算力芯片需求,由此将从算力芯片、应用端、存算一体、先进封装、封装设备、IC载板等多个领域带动硬件市场增量需求。 1.2AI服务器需求快速增长,有望带动存储行业困境修复 根据中商产业研究院数据,2021年全球服务器出货量达1315万台,同比增长7.8%,对应全球市场规模达995亿美元。根据Counterpoint预计,2022年全球服务器市场规模有望达到1117亿美元,同比增长17.0%。预计云服务提供商数据中心扩张增长驱动力主要来自于汽车、5G、云游戏和高性能计算。 图表7:全球服务器出货量(万台)及增速(%) 图表8:全球服务器市场规模预测(亿美元)同比(%) AI服务器渗透率依旧较低,增长空间巨大。根据TrendForce数据,截止2022年全球搭载GPGPU的AI服务器(推理)出货量占整体服务器比重约1%,同时TrendForce预测2023年伴随AI相关应用加持,年出货量增速达到8%,2022~2026年CAGR为10.8%。 根据TrendForce数据,2022年全球AI服务器采购中,Microsoft、Google、Meta、AWS为前四大采购商,合计占比66.2%。中国地区ByteDance(字节跳动)采购比例最高,达到6.2%。 图表9:AI服务器(推理)出货量预测及复合增速(千台,%) 图表10:2022年采购AI服务器占比(%) 人工智能已成为解决艰巨业务挑战的首选解决方案。AI正在为各行各业的企业组织开辟创新之路,从改善客户服务、优化供应链、获取商业智能,到设计新产品和服务等。NVIDIA作为AI基础架构的先行者,NVIDIA DGX系统可提供更强大、完整的AI平台,将企业组织的核心想法付诸实践。目前AI大规模训练方面,NVIDIA推出的最新DGX系统包括A100、H100、BasePOD、SuperPOD四款产品,其中,DGX A100、DGX H100为英伟达当前服务于AI领域的服务器产品。 图表11:英伟达DGXA100产品 图表12:英伟达DGXH100产品 H100采用先进工艺芯片采用台积电4N工艺+台积电CoWoS 2.5D封装,有800亿个晶体管对比A100有540亿个晶体管,同时搭载了HBM3显存,可实现近5TB/s的外部互联带宽。H100是首款支持PCIe 5.0的GPU,也是首款采用HBM3标准的GPU,单个H100可支持40Tb/s的IO带宽,实现3TB/s的显存带宽。 图表13:H100/A100/V100产品算力对比 DGXH100带来性能的快速飞跃,通过全新张量处理格式FP8实现。其中FP8算力是4PetaFLOPS,FP16达2PetaFLOPS,TF32算力为1PetaFLOPS,FP64和FP32算力为60TeraFLOPS。在DGXH100系统中,拥有8颗H100GPU,整体系统显存带宽达24TB/s,硬件上支持系统内存2TB,及支持2块1.9TB的NVMeM.2硬盘作为操作系统及8块3.84TBNVMeM.2硬盘作为内部存储。根据官网信息,NVIDIA DGX H100对比上一代产品具有6倍的性能及2倍的网络速度和高速可扩展性,同时英伟达表示目前新款DGX H100已经全面投入生产。 图表14:DGXH100vsDGXA100平台升级 国内华为的昇腾Atlas800(型号9010)训练服务器是基于昇腾910+IntelCascadeLake的AI训练服务器,具有高计算密度、高能效比与高网络带宽易拓展、易管理等特点,该服务器广泛应用于深度学习模型开发和AI训练服务场景,适用于公有云、互联网、运营商等需要大算力的行业领域。AI处理器昇腾910是一款具有超高算力的AI处理器,其最大功耗为310W,华为自研的达芬奇架构大大提升了其能效比。八位整数精度(INT8)下的性能达到640TOPS,16位浮点数(FP16)下的性能达到320 TFLOPS。 图表15:华为Atlas800型号9010训练服务器 Atlas800(型号9010)训练服务器从配置来看,拥有8个昇腾910模组,单模组支持HBM2e技术,且拥有32GB容量及1228GB/s传输速度,AI算力达2.24 PFLOPS FP16/1.76 PFLOPS FP16。本地存储支持2个2.5 SATA+8个2.5 SAS/SATA或2个2.5 SAS/SATA+6个2.5 NVMe。 AI服务器带来存力硬件需求快速扩展。根据美光数据测算,人工智能服务器中DRAM内容是普通服务器的8倍,NAND内容将是普通服务器的3倍,而大容量及高速率存储器将是算力数据迭代运算的重要基础。我们认为,人工智能计算量日益增加,对于AI服务器硬件需求将进一步提升。从服务器硬件配置角度,HBM技术将快速在AI服务器中普及,其价格远高于现有基础服务器配置,未来AI服务器需求将带领存储芯片出现量价齐升的趋势。 1.3海外龙头减产缩支,国产化存储产业链或将加快布局 1.美光科技 公司最新发布2023年Q2财报披露。2023年Q2公司总收入约36.93亿美元,环比下降约9.6%,同比下降约52.6%,营业利润亏损22.13亿美金。2023年Q2会计期末库存约为81.29亿美元,较上一季度环比回落2.75%,有望持续改善。2023年Q2财年的非GAAP每股亏损为1.91美元,低于上一季度的每股亏损0.04美元和上一年的每股收益2.14美元,其中Q2财政每股收益包括约1.34美元的库存减记损失。 2023年Q2财政的公司分存储芯片业务收入: a.DRAM:收入为27亿美元,占总收入的74%。DRAM收入环比下降4%,出货量在预期范围内微增,其中价格下降约20%。 b.NAND收入为8.85亿美元,占总收入的24%。NAND收入环比下降20%,价格下降在20%范围内。 图表16: