AMD财报显现良好趋势,MI300X是主要增长动力。北京时间2024年7月31日,AMD发布其2024年Q2财报。2024Q2 AMD实现收入58亿美元,同比增长9%。AMD发布乐观营收指引,2024Q3收入预计为67亿上下。AMD二季度数据中心收入为28亿美元,占收入比重约50%,受益于MI300系列AI芯片,MI300X在显存容量、内存带宽、各精度算力与训练性能方面都能与英伟达H100相媲美,甚至超越(显存192GB,远超H100)。MI300X系列收入超10亿美元,多家企业采用MI300X的系统投入量产。 AI算力需求激增带动AI芯片需求增长,八大巨头联合推动UALink。 根据中国信息通讯研究院测算,2025年全球计算设备算力总规模将超过3 ZFlops。据Gartner,预计2024年AI芯片市场大幅增长33%,有望在近两年接近1000亿美元。作为IC设计厂商,数据中心级AI芯片是主要未来业绩增长动力。英伟达目前在数据中心AI市场拥有98%的市场份额,其中芯片互联技术NVlink是核心壁垒之一,2024年5月,AMD联合八大科技巨头公司推动UALink,AMD有望通过其高性能与高性价比产品提升市占率。 AMD发布ROCm 6.1.3,助力生态开源共建。6月20日AMD正式推出了最新的ROCm(Radeon Open Compute)平台,宣布支持多GPU集群。此次更新增加了对WSL 2(Windows Subsystem for Linux)的支持,从而能够在Windows系统上初步支持各种基于Linux的AI工具。 ROCm虽然对比英伟达相对成熟的CUDA在其生态系统和工具链的成熟度方面还有一定差距,但仍有望在未来推动大模型厂商新一轮算力增长,增强AMD的行业竞争力。 投资建议:算力是AI大模型产业化落地的必备环节,建议关注AI服务器相关厂商以及国产AI芯片厂商:海光信息、协创数据、寒武纪、神州数码、浪潮信息、中科曙光、优刻得等。数据中心产业链相关电源、液冷等供应商:英维克、曙光数创、欧陆通。AI大模型赋能下游应用,C端标准化工具类产品有望率先享受产业红利,建议关注金山办公、科大讯飞、万兴科技、美图公司、同花顺、福昕软件、合合信息(IPO)等。教育垂直领域可能成为落地的先行领域,建议关注佳发教育、鸿合科技等。 风险提示:技术迭代不及预期的风险、商业化落地不及预期的风险、政策支持不及预期风险、全球宏观经济风险。 1AMD二季度MI300需求旺盛 AMD财报显现良好趋势,MI300X供不应求。北京时间2024年7月31日,AMD发布其2024年Q2财报。2024年Q2AMD实现收入58亿美元,同比增长9%,达到AMD年初预计营收的57亿美元。Non-GAPP毛利率达到53%,较上一季度提升1ppts。AMD发布乐观营收指引,2024Q3收入预计为67亿上下,增长约15%,毛利率将增加至53.5%。 AMD数据中心第二季度收入大幅增长至28亿美元,同比增加115%,创下历史新高。数据中心收入占比接近50%。MI300在第二季度的收入超过10亿美元。 AMD预计2024年人工智能芯片收入将超过45亿美元,高于四月估计的40亿。 AI芯片对数据中心与公司的驱动力持续增长。 图1.AMD收入,净利率与其增速(2020Q1-2024Q2) 图2.AMD毛利率与净利率(2020Q1-2024Q2) 据AMD首席执行官苏姿丰介绍,目前已有100多家企业和AI客户在积极部署MI300X。多家OEM厂商将采用MI300X的系统投入量产。包括戴尔、惠普企业、联想和超微等,微软、Oracle在内的多家云服务供应商也在增加采用和部署使用AMD的MI300X AI芯片。MI300供不应求,成AMD有史以来增长最快产品。 AMD企业发展前景好,具有行业竞争力。 2AI芯片市场蛋糕持续增大,巨大商机已经显现 受益与AI大模型,AI芯片需求旺盛,市场空间广阔。根据全球权威的IT研究与顾问咨询公司Gartner预估,AI芯片市场2024年预计大幅增长33%,有望在近两年接近1000亿美元。而AMD首席执行官苏姿丰对AI芯片行业的发展做出了极高预测,称到2027年,人工智能芯片市场可能会增长到4000亿美元。该预测虽然远高于其他预测,但是展现了AMD对AI芯片行业的强大信心。 图3.全球AI芯片市场规模(十亿美元) AI算力需求激增带动AI芯片需求增长。ChatGPT之后,人工智能大模型的数量呈现出加速增长态势。海内外大模型迭代及应用速度加快,GPT-4-Turbo,智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0等大模型持续发展,所需算力持续提升。根据中国信息通讯研究院测算,2025年全球计算设备算力总规模将超过3 ZFlops。 图4.图4.大语言模型进化树 图5.图5.全球算力规模及增速 数据中心级AI芯片成为IC设计公司主要增长动力源。受益大模型,Open AI、Meta、谷歌等持续向GPT、llama、Gemini等基座大模型投入,英伟达A100、H100以及未来的GB200芯片需求持续旺盛。而AMD在23年底推出MI300系列后,数据中心收入亦显著增长,两家公司数据中心的收入占比逐步增加,AI芯片助力数据中心成为公司业绩的重要驱动力。 图6.三大公司数据中心收入(亿美元)(2023Q2-2024Q2) 同时,由下图可知,英伟达与AMD两家公司数据中心的收入占比逐步增加,AI芯片助力数据中心成为公司业绩的重要驱动力。 图7.图7.AMD分项收入(百万美元)及数据中心占比 图8.图8.英伟达(百万美元)及数据中心占比 英伟达近乎垄断全球数据中心级AI芯片市场,AMD边际变化值得期待。在市场份额方面,根据富国银行的统计,英伟达目前在数据中心AI市场拥有98%的市场份额,而AMD仅有1.2%的市场份额,英特尔则只有不到1%。英伟达目前占据统治地位是难以撼动的事实,但对于AMD来说,“AMD不一定要击败英伟达才能在市场上取得成功”,AI算力市场的未来规模巨大,AMD若能通过其高性能产品与高性价比提高自身市场占有率,分得一杯羹,也能取得巨大的收益。 图9.三大公司数据中心GPU市场份额占比 3MI300X,H100同台竞技,有望通过性价比打开市场 AMD有望通过MI300X在AI芯片市场抢占一定市场额取得巨大收益。由于英伟达的市场占比大,AI芯片技术领先,获得高产品溢价、高估值溢价。外网路透社曾报道,英伟达H100成本约3320美元,售价则为30000美元,它的利润率高达1000%,溢价极高,性价比低。市场严重缺乏功能相当,高性价比的产品。 图10.市场主流芯片对比 硬件“纸面”参数上,MI300系列已超越H100。从以上数据可以得出,MI300X在内存容量、内存带宽、FP8 TFLOPS、FP16 TFLOPS精度方面有望与英伟达H100相匹敌。同时MI300X在显存方面有一定优势,以192GB远超H100的80G,达到英伟达新产品H200也无法达到的高度。对于突破大模型时代的由于"模型大"造成的"显存瓶颈"、由于Memory-Band计算造成的"带宽瓶颈",都有巨大优势。 图11.MI300产品图 图12.H100产品图 特定实测场景中MI300系列亦表现卓越。AMD公司在演讲中提到,在1v1比较中,MI300训练Llama 2 70B模型速度比H100快20%;训练FlashAttention 2模型速度比H100快20%。在8v8 Server比较中,训练Llama 2 70B模型速度比H100快40%。在训练性能方面,MI300X与H100相当。 图13.MI300与H100训练性能对比 性价比是AMD相比英伟达的核心优势。同时,在性价比方面,花旗银行发布报告称Nvidia的H100 GPU的定价是AMD Instinct MI300X的四倍之多。MI300X对比H100更有价格竞争力。综上,AMD有望通过MI300X在AI芯片市场抢占一定市场额取得巨大收益。 但值得注意的是,预计英伟达Blackwell相关新品在第三财季初步生产出货,并在第四财季实现大规模出货。基于新一代Blackwell架构的GB200相比上一代Hopper H100,再次迎来质的升级,性能显著提升,且大大降低了能耗与成本。 AMD想扩大市场份额,必须依靠MI350顶住英伟达Blackwell系列的冲击。 图14.英伟达Blackwell产品性能 八大巨头联合推动UALink,合作突破NV Link技术壁垒。谷歌、Meta、微软、AMD、英特尔、博通、思科、惠普八大科技巨头宣布成立新联盟,推动Ultra Accelerator Link(UALink,超级加速链路)的行业标准。该标准支持多个AI加速器互联、内存结构新标准以及超以太网覆盖。 图15.UALink说明图 AMD发布ROCm 6.1.3,助力生态开源共建。6月20日AMD正式推出了最新的ROCm(Radeon Open Compute)平台,宣布支持多GPU集群。此次更新增加了对WSL 2(Windows Subsystem for Linux)的支持,从而能够在Windows系统上初步支持各种基于Linux的AI工具。ROCm虽然对比英伟达相对成熟的CUDA在其生态系统和工具链的成熟度方面还有一定差距,但仍有望在未来推动大模型厂商新一轮算力增长,增强AMD的行业竞争力。 图16.ROCm说明图 ROCm具有出色的可移植性和互操作性,可满足不同用户需求。ROCm平台为开发者提供了丰富的编程语言、编译器、库和工具,广泛支持多个操作系统,有助于加速各种计算密集型应用的发展。同时ROCm生态的开源开放性有力促进社区的合作和创新。ROCm允许开发者自由地使用、修改和贡献代码,并且使得用户能够更加灵活地定制和优化软件。AMD作为后发者起步晚,适用开源生态能够快速增加市场用户,提高市场份额。AMD拥有从数据中心到商用客户市场再到嵌入式市场全覆盖的AI产品组合,作为业界唯一一家能够真正做到“数据中心-边缘计算-客户端”全覆盖的AI产品组合的公司,有望通过其高性价比产品在AI芯片市场取得更大收获。 图17.AMD、Intel、华为等为Pytorch赞助 图18.Pytorch支持在Rocm上运行 4投资建议 算力是AI大模型产业化落地的必备环节,建议关注AI服务器相关厂商以及国产AI芯片厂商:海光信息、协创数据、寒武纪、神州数码、浪潮信息、中科曙光、优刻得等。数据中心产业链相关电源、液冷等供应商:英维克、曙光数创、欧陆通。AI大模型赋能下游应用,C端标准化工具类产品有望率先享受产业红利,建议关注金山办公、科大讯飞、万兴科技、美图公司、同花顺、福昕软件、合合信息(IPO)等。教育垂直领域可能成为落地的先行领域,建议关注佳发教育、鸿合科技等。 5风险提示 技术迭代不及预期的风险:若AI技术迭代不及预期,NLP模型优化受限,则相关产业发展进度会受到影响。 商业化落地不及预期的风险:ChatGPT盈利模式尚处于探索阶段,后续商业化落地进展有待观察。 政策支持不及预期风险:新行业新技术的推广需要政策支持,存在政策支持不及预期风险。 全球宏观经济风险:垂直领域公司与下游经济情况相关,存在全球宏观经济风险。