证券研究报告|公司深度报告 2024年1月25日 AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量 —算力系列报告(一) 太平洋证券电子组张世杰博士 分析师登记编号:S1190523020001 太平洋证券电子组李珏晗 分析师登记编号:S1190523080001 请务必阅读正文后的重要声明 报告摘要 •HBM助力AI服务器向更高带宽、容量升级。HBM即高带宽存储,由多层DRAMdie垂直堆叠,每层die通过TSV穿透硅通孔+μbumps技术实现与逻辑die连接,使得8层、12层die封装于小体积空间中,从而实现小尺寸于高带宽、高传输速度的兼容,成为高性能AI服务器GPU显存的主流解决方案。目前迭代至HBM3的扩展版本HBM3E,提供高达8Gbps的传输速度和16GB内存,由SK海力士率先发布,将于2024年量。 •需求端:HBM成为AI服务器标配,催化其市场规模超50%增长。HBM主要应用场景为AI服务器,最新一代HBM3e搭载于英伟达2023年发布的H200。根据Trendforce数据,2022年AI服务器出货量86万台,预计2026年AI服务器出货量将超过200万台,年复合增速29%。AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。 •供给端:三大厂产能供不应求,核心工艺变化带来新增量。HBM供给厂商主要聚集在SK海力士、三星、美光三大存储原厂,根据Trendforce数据,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。HBM在工艺上的变化主要在CoWoS和TSV,配套供应链及国产替代厂商有望受益:1)封测:通富微电、长电科技、太极实业、深科技;2)设备:赛腾股份、中微公司、拓荆科技;3)材料:雅克科技 、联瑞新材、壹石通、华海诚科。 •风险提示:下游服务器需求不及预期风险;行业竞争加剧风险;技术发展不及预期风险。 Ⅰ HBM助力AI服务器向更高带宽、容量升级3 Ⅱ 需求端:HBM成为AI服务器标配,催化其市场规模超50%增长9 Ⅲ 供给端:三大厂产能供不应求,核心工艺变化带来新增量14 Ⅳ 主要公司分析20 •HBM(HighBandwidthMemory)即高带宽存储器,用于GPU与CPU之间的高速数据传输,主要应用场景集中在数据中心高性能服务器的GPU显存,小部分应用于CPU内存芯片。HBM同样为3D结构,由多层DRAMdie垂直堆叠,每层die通过TSV(ThroughSiliconVia)穿透硅通孔+μbumps技术实现与逻辑die连接,再通过中阶层与GPU/CPU/SoC连接,使得4层、8层、12层等数量die封装于小体积空间中。 图表:HBM原理示意图6图表:HBM原理示意图 资料来源:AMD、太平洋证券研究院资料来源:AMD、太平洋证券研究院 •HBM经多次处理速度迭代,现至HBM3的扩展版本HBM3E,助力服务器推理性能提升。HBM1最早于2014年由AMD与SK海力士共同推出,作为GDDR竞品,为4层die堆叠,提供128GB/s带宽,4GB内存,显著优于同期GDDR5。HBM2于2016年发布,2018年正式推出 ,为4层DRAMdie,现在多为8层die,提供256GB/s带宽,2.4Gbps传输速度,和8GB内存;HBM2E于2018年发布,于2020年正式提出,在传输速度和内存等方面均有较大提升,提供3.6Gbps传输速度,和16GB内存。HBM3于2020年发布,2022年正式推出,堆叠层数及管理通道数均有增加,提供6.4Gbps传输速度,传输速度最高可达819GB/s,和16GB内存HBM3E由SK海力士发布HBM3的增强版,提供高达8Gbps的传输速度,24GB容量,计划于2024年大规模量产。 图表:HBM演进路径 资料来源:SK海力士官网,美光官网,太平洋证券研究院 图表:4层Dramdie到8层Dramdie 资料来源:Sk海力士、太平洋证券研究院 图表:三大存储原厂HBM演进路径 资料来源:Trendforce,太平洋证券研究院 •目前主流显卡使用的显存为GDDR5,但在应用中仍存在痛点:1)消耗大量PCB面积:GPU核心周围分布12/16颗GDDR5芯片,而GDDR芯片尺寸无法继续缩小,占据更大空间,同时也需要更大的电压调节模块,2)GDDR5的功耗提升达到了对GPU性能提升产生负面影响的拐点:由于平台和设备需要在逻辑芯片与DRAM之间的实现功耗平衡,而当前GDDR进入功能/性能曲线的低效区,不断增长的内存功耗在未来会阻碍GPU性能提升。 图表:GDDR5与HBM面积对比图表:内存能耗与逻辑ic能耗平衡拐点 资料来源:AMD、太平洋证券研究院资料来源:AMD、太平洋证券研究院 •相较于传统GDDR解决方案,HBM在低功耗、超带宽、小尺寸等方面优势显著。 图表:GDDR5与HBM对比 资料来源:AMD,太平洋证券研究院 Ⅰ HBM助力AI服务器向更高带宽、容量升级3 Ⅱ 需求端:HBM成为AI服务器标配,催化其市场规模超50%增长9 Ⅲ 供给端:三大厂产能供不应求,核心工艺变化带来新增量14 Ⅳ 主要公司分析20 •HBM因其高带宽、低功耗、小体积等特性,广泛应用于AI服务器场景中。HBM的应用主要集中在高性能服务器 ,最早落地于2016年的NVP100GPU(HBM2)中,后于2017年应用在V100(HBM2)、于2020年应用在A100(HBM2 )、于2022年应用在H100(HBM2e/HBM3),最新一代HBM3e搭载于英伟达2023年发布的H200,为服务器提供更快速度及更高容量。 图表:最新一代HBM3E应用于NVH200 资料来源:英伟达官网、太平洋证券研究院 图表:HBM迭代为AI服务器带来的带宽提升 带宽(TB/s) 6 5 4 3 2 1 0 P100V100A100H100H200 资料来源:英伟达官网、太平洋证券研究院 图表:HBM在AI服务器的应用 资料来源:NVIDIA官网,AMD官网,太平洋证券研究院 •AI服务器出货量增长催化HBM需求爆发,经测算,HBM2025年市场规模将超过150亿美元,增速超50%。全球服务器增虽长较为稳健,但随着大数据模型训练需求AI服务器出货量呈爆发式增长,2022年AI服务器出货量86万台,渗透率不断提升,AI服务器在整体服务器占比10%左右,预计2026年AI服务器出货量将超过200万台,预计年复合增速29%。同时,主流AI服务器HBM容量需求从40GB向80GB、141GB升级,带动平均HBM容量提升。我们测算,2025年HBM全球市场规模将达到150亿美元,同比增速68%。 图表:AI服务器出货量年化增速预计约29%图表:HBM规模年化增速预计约31% 全球AI服务器出货量(万台)yoyHBM规模测算(亿美元)yoy 250 45% 2503 200 40% 35% 200 2.5 150 100 30% 25% 20% 15% 150 100 2 1.5 1 5010%50 5% 0.5 0 2022 2023E 2024E 2025E 0% 2026E 0 2022 2023E 2024E 0 2025E 资料来源:TrendForce、太平洋证券研究院 资料来源:太平洋证券研究院 图表:HBM规模测算 2022 2023E 2024E 2025E 全球AI服务器出货量(万台) 85.50 118.30 150.40 189.50 yoy 38% 27% 26% 平均HBM容量(GB) 40.0 56.00 86.10 110.50 AI服务器HBM需求增量(GB*万台) 13680.0 26499.2 51797.8 83759.0 yoy 94% 279% 512% 单价(美元/GB) 20.0 35.0 30.0 25.0 HBM规模测算(亿美元) 27.36 92.75 155.39 209.40 yoy 239% 68% 35% 资料来源:太平洋证券研究院 Ⅰ HBM助力AI服务器向更高带宽、容量升级3 Ⅱ 需求端:HBM成为AI服务器标配,催化其市场规模超50%增长9 Ⅲ 供给端:三大厂产能供不应求,核心工艺变化带来新增量14 Ⅳ 主要公司分析20 •HBM供给厂商主要聚集在SK海力士、三星、美光三大厂,SK海力士领跑。三大存储原厂主要承担DRAMDie的生产及堆叠,展开技术升级竞赛,其中SK海力士与AMD合作发布全球首款HBM,23年率先供应新一代HBM3E,先发奠定市场地位,主要供应英伟达,三星供应其他云端厂商,根据TrendForce数据,2022年SK海力士市占率50% 、三星市占率40%、美光市占率10%左右,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。 图表:HBM三大存储原厂市场份额 SK海力士三星美光 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 图表:HBM4封装方式变化将带来格局再演化 0% 2022 2023E 资料来源:Trendforce、太平洋证券研究院 资料来源:国家统计局、太平洋证券研究院 图表:三大厂HBM规划 资料来源:Trendforce,太平洋证券研究院 •存储原厂加码HBM产能,SK海力士24年产能计划翻倍。SK海力士HBM3E将于24年上半年量产,目标24年HBM产能翻倍,24年资本支出规划虽与23年基本持平,但TSV相关投资将同比增加一倍以上。美光HBM3E将于24年初开始量产,预计24年资本支出75-80亿美元,同比略高,主要用于HBM量产。三星规划在天安厂新封装线,用于大规模生产HBM,预计追加投资7亿美元。 图表:三星及海力士计划扩充HBM产能 图表:HBM2产能释放用于生产HBM3 20222023E2024E 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 资料来源:公司公告、太平洋证券研究院 0% HBM3 HBM2E其他 资料来源:Trendforce、太平洋证券研究院 •HBM在封装工艺上的变化主要在CoWoS和TSV。1)CoWoS:是将DRAMDie一同放在硅中介层上,通过过ChiponWafer(CoW)的封装制程连接至底层基板上,即将芯片通过ChiponWafer(CoW)的封装制程连接至硅晶圆,再把CoW芯片与基板连接,整合成CoWoS。当前,HBM与GPU集成的主流解决方案为台积电的CoWoS,通过缩短互连长度实现更高速的数据传输,已广泛应用于A100、GH200等算力芯片中。 图表:2.5D与3D封装示意图图表:CoW于CoWoS示意图 资料来源:台积电、太平洋证券研究院资料来源:台积电、太平洋证券研究院 •HBM在封装工艺上的变化主要在CoWoS和TSV。2)TSV:TSV硅通孔是实现容量和带宽扩展的核心,通过在整个硅晶圆厚度上打孔,在芯片正面和背面之间形成数千个垂直互连。在HBM中多层DRAMdie堆叠,通过硅通孔和焊接凸点连接,且只有最底部的die能向外连接到存储控制器,其余管芯则通过内部TSV实现互连。 图表:TSV技术实现多层DRAMDie堆叠 资料来源:AMD、太平洋证券研究院 图表:TSV工艺价值量拆解 临时键合/解键合铜电镀背面通孔露出背面RDL铜阻挡层PVD刻蚀衬底CVD铜CMP硬掩膜CVD 1 0%10%20%30%40%50%60%70%80%90%100% 资料来源:公司公告、太平洋证券研究院 Ⅰ HBM助力AI服务器向更高带宽、容量升级3 Ⅱ 需求端:HBM成为AI服务器标配,催化其市场规模超50%增长9 Ⅲ 供给端:三大厂占据核心份