您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中泰证券]:【中泰电子】AI系列报告5AMD:发布MI300,指引Chiplet等AI芯片新方向 - 发现报告
当前位置:首页/行业研究/报告详情/

【中泰电子】AI系列报告5AMD:发布MI300,指引Chiplet等AI芯片新方向

电子设备2023-07-02刘博文、李雪峰、张琼、杨旭、游凡、王芳中泰证券羡***
【中泰电子】AI系列报告5AMD:发布MI300,指引Chiplet等AI芯片新方向

证券研究报告 2023年7月2日 【中泰电子】AI系列报告5AMD:发布MI300,指引Chiplet等AI芯片新方向 中泰电子王芳团队分析师:王芳 执业证书编号:S0740521120002 分析师:游凡 执业证书编号:S0740522120002 分析师:杨旭 执业证书编号:S0740521120001 分析师:李雪峰 执业证书编号:S0740522080004 研究助理:张琼研究助理:刘博文 1 投资逻辑:看好Chiplet+AMD产业链 AMDMI300VS英伟达GH200: 1)在制程上,MI300属台积电5nm,相较MI200系列的6nm实现了跃迁,并与英伟达GraceHopper的4nm制程(属台积电5nm体系)看齐。 2)封装技术,AMDMI300使用台积电SoIC(3D)和CoWoS(2.5D)两种封装技术,而NvidiaGH200仅使用CoWoS (2.5D)封装技术。3DChiplet封装技术可以提升封装密度,并在降低能耗的基础上进一步提高性能。 Chiplet+存算一体+异构计算,构建了AMDMI300强大的AI竞争力: Chiplet:MI300利用3D封装技术将CPU和加速计算单元集成在一起,增强了集成度。 存算一体:在MI300采用的CDNA3架构中,CPU和GPU共享一块“统一存储”HBM(UnifiedMemory),缩短了计算和存储芯片的“沟通距离”,提升了CPU与GPU间的连接速度。 异构计算:MI300是市场上首款“CPU+GPU+内存”一体化产品,能更好满足如今AI大模型的算力需求。 看好Chiplet产业链: 封测:通富微电/长电科技;减薄:华海清科;ABF:兴森科技;设备/第三方测试:长川科技/华峰测控/伟测科技;IP:芯原股份;EDA:华大九天/概伦电子等; 看好AMD产业链: 封测:通富微电; PCB:沪电股份/奥士康; 设计:芯原股份; 服务器:工业富联; 风险提示:Chiplet相关技术路径尚未定型,存在技术路径被颠覆的风险。AMDAI相关产品市场销售不及预期。竞争加剧 对行业的盈利性造成影响。 2 目录 一、逐鹿AI:AMD发布最强AI芯片MI300系列二、Chiplet产业链及投资建议 三、AMD产业链及投资建议 3 1.1.1紧随Nvidia,AMD加入超算竞赛 北京时间6月14日AMD举行新品发布会,推出重磅产品MI300系列,包括MI300A/MI300X两颗芯片:1)MI300A是一款针对AI和HPC(高性能计算)的APU,采用CDNA3架构的GPU和24个Zen4CPU内核,配置128GB的HBM3 内存,在13个小芯片中集成1460亿个晶体管,多于英伟达H100的800亿个;2)MI300X是一款GPU专用的AI芯片,配置192GB的HBM3内存、5.2TB/s的存储带宽,针对大语言模型的优化版,在12个5nm的小芯片中集成1530个晶体管。MI300X提供的HBM密度最高是NvidiaAI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍,单个MI300X可以运行一个参数多达800亿的模型;3)AMD还发布了AMDInstinct平台,它配置了八个MI300X,能提供总计1.5TB的HBM3内存,采用行业标准OCP设计。 根据AMD预期,随AI发展,模型规模扩大,算力需求将不断增长,数据中心人工智能加速器的潜在市场总额将从 2023年的300亿美元增长到2027年的1500亿美元以上,复合年增长率超过50%。 图表:Nvidia与AMD主要产品参数比较 产品名称 A100 Nvidia H100 MI300A AMD MI300X 发布时间 2020.06 2022.03 2023.06 2023.06 峰值算力(TFLOPS) FP16:312|624 FP32:19.5 FP64:51|64|134 工艺制程 7nm 4nm 5nm和6nm 5nm和6nm 晶体管数量(亿) 540 800 1460 1530 内存容量 80GB(HBM2e) PCIe:80GB(HBM2e) SXM:80GB(HBM3) 128GB(HBM3) 192GB(HBM3) NVL:188GB(HBM3) 封装技术 CoWoS CoWoS 3DChiplet 3DChiplet 互联带宽600GB/sNVLinkfor2GPUs600|900|900GB/sNVLink-5.2TB/s的带宽和896GB/s的64GB/sPCIeGen4125GB/sPCIeGen5InfinityFabric带宽 FP64:19.5 FP8:3,026|3,958|7,916 FP16:1,513|1,979|3,958 FP32:51|67|134 来源:AMD官网、CES2023、中泰证券研究所4 1.1.1紧随Nvidia,AMD加入超算竞赛 InstinctMI300简化系统结构,大幅提升AI性能。MI300采用3D堆叠技术和Chiplet设计,配备了9个5nm制程的芯片组,置于4个6nm制程的芯片组之上。MI300属台积电5nm,相较MI200系列的6nm实现了跃迁。AMD上一代InstinctMI250芯片包含独立CPU和GPU,中间依靠EPYCCPU来协调工作负载。相比之下,InstinctMI300包含一个内置的24核第四代EPYCGenoa处理器,从而减少了一个独立CPU的存在,简化了系统拓扑结构。由此实现了一个四个元素完全连接的all-to-all拓扑,使所有处理器可以直接相互通信,而无需另一个CPU或GPU作为数据中继,从而减少了延迟和不确定性。MI300的AI性能是上一代产品MI250X的8倍,每瓦性能则是它的5倍,实现了颠覆式升级。 AMDMI300使用台积电SoIC(3D)和CoWoS(2.5D)两种封装技术。MI300采用的3DChiplet封装技术将13个chiplets分布在两层:上层为9个5nm制程的chiplets,而下层为4个6nm制程的chiplets,芯片两侧排列8个HBM3。3DChiplet封装技术可以提升封装密度,并在降低能耗的基础上进一步提高性能。 图表:MI300与MI250结构比较MI300产品示意图 来源:AMD官网、CES2023、中泰证券研究所5 AMD产品矩阵包括CPU、GPU、FPGA等,业务线主要分为客户端(台式机、笔记本电脑处理器(CPU)和芯片组)、数据中心、游戏业务、嵌入式业务(包含收购赛灵思后的FPGA业务)四个板块。23Q1AMD营收53.53亿美 元,同比下降9%,其中1)客户端23Q1营收7.39亿美元,同比跌幅达65.2%,主要受一季度行业景气度下降影响。同期英特尔CCG业务(客户端电脑组)也受到了影响,23Q1营收下滑38%。2)嵌入式业务23Q1营收15.62亿美元,同比上涨163%,大幅增长受益于AMD在2022年2月14日完成对赛灵思的收购,23Q1已完成并表。3)数据中心23Q1营收12.95亿美元,同比基本持平。4)游戏业务23Q1营收17.57亿美元,同比下滑6%。游戏业务主要包括独立GPU、半定制SoC产品和开发服务,例如为SonyPlayStation5等游戏机提供芯片。目前,AMD超过50%的营收由嵌入式和数据中心两个toB业务贡献。 1.1.2AMD与英伟达比较:AMD产品矩阵 图表:AMD产品矩阵图表:AMD季度分业务营收占比 来源:AMD财报,中泰证券研究所 100.0% 90.0% 80.0% 70.0% 60.0% 50.0% 40.0% 30.0% 20.0% 10.0% 0.0% 数据中心客户端游戏嵌入式业务 1.2% 1.4% 1.8% 1.5% 10.1% 19.2% 23.4% 25.0% 33.5%32.6% 33.2% 29.2% 36.5% 31.8% 25.3% 29.3% 29.4% 32.8% 47.5% 44.9% 39.2% 37.9% 36.1% 32.9% 18.4%16.1% 13.8% 17.7% 21.1% 25.7%24.1% 22.0% 22.7% 28.9% 29.6% 24.2% 21Q121Q221Q321Q422Q122Q222Q322Q423Q1 6 1.1.2AMD与英伟达比较:英伟达产品矩阵 英伟达实行“CPU+GPU+DPU”三芯布局。旨在全面提升竞争力,满足云计算、人工智能及机器学习等高端应用领域的需求。CPU的加入使英伟达能够更好地应对各种计算任务,尤其是那些需要快速逻辑判断和高度并行处理能力的应用。而DPU则针对数据中心和网络设备的需求,具有高效处理数据包和协议的能力,为英伟达的产品线增添了新的价值。 随人工智能发展,数据中心业务收入增速最高,逐步成为英伟达最大营收占比,23年占比56%。从下游应用来看,英伟达产品主要集中于游戏、专业可视化、数据中心以及自动驾驶领域:1)游戏市场:英伟达提供的产品包括PC游戏的GeForceRTX和GeForceGTX,用于游戏和流媒体的SHIELD设备,用于云端游戏的GeForceNOW,以及用于专门控制台游戏设备的平台和开发服务;2)专业可视化市场:英伟达除了加速GPU计算解决方案,同时也为汽车、娱乐、建筑工程、石油和天然气、医疗等行业引入新的解决方案;3)数据中心市场:英伟达使用NVlink技术将多个GPU结合在一起,加速神经网络训练和推理。同时开发出DGX超级计算机,进行科学计算、深度学习和机器学习;4)自动驾驶市 场:英伟达Drive作为一个人工智能汽车平台,涵盖了从交通拥堵到机器人出租车自动驾驶的所有领域。2018年有超过 370家自动驾驶汽车公司开始使用Drive,共同开发自动驾驶的人工智能系统。 图表:AMD与英伟达分业务营收占比对比图表:英伟达2019-2023财年分业务收入(百万美 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 数据中心游戏嵌入式业务客户端 元) 13.80% 4.16% 4.15% 29.20% 31.50% 32.80% 60.19% 24.20% AMD英伟达 来源:英伟达官网,中泰证券研究所7 1.1.3AMD与Nvidia争锋:MI300vsGH200 芯片架构相似,而CPU采用架构不同 Nvidia将GraceCPU和HopperH100GPU融合到GH200超级芯片上,采用的是CPU+GPU相结合的架构;AMDMI300同时集成24个Zen4架构的CPU和CDNA3架构的GPU单元(具体数量未公开),是AMD首款CPU+GPU架构的数据中心产品,两者芯片架构相似。 NvidiaGH200中GraceCPU基于ARM架构,而AMDMI300中CPU基于x86架构,两种CPU架构在AI应用中难分优劣:Arm架构能耗较低,能为能耗不断提升的AI芯片减轻负担;而x86架构旨在通过最少的指令完成计算任务,性能较高,可以进一步赋能AI应用。NvidiaGH200与AMDMI300采用不同CPU架构都是基于将自身芯片性能最优化的考 虑。图表:NvidiaGraceHopper与x86+Hopper终端应用性能模拟 来源:Nvidia官网、CES2023、中泰证券研究所8 1.1.3AMD与Nvidia争锋:MI300vsGH200 AMDMI300制程技术逼近NvidiaGH200。MI300采用3D堆叠技术和Chiplet设计,配备了9个基于5nm制程的芯片组,置于4个基于6nm制程的芯片组之上。因此在制程上,MI300属台积电5nm,相较MI200系列的6nm实现了跃迁,并与英伟达GraceHopper的4nm制程(属台积电5nm体系)看齐。 AMD封装技术略微领先Nvidia。AMDMI300使用台积电SoIC(3D)和Co