您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国投证券]:新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加 - 发现报告
当前位置:首页/行业研究/报告详情/

新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加

有色金属2024-02-29覃晶晶、周古玥国投证券文***
AI智能总结
查看更多
新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加

2024年02月29日 有色金属 新材料系列报告(二):AI应用浪潮下芯片电感需求有望增加 , 首选股票目标价(元)评级 行业分析 证券研究报告投资评级领先大市-A维持评级 AI应用浪潮下,高性能芯片市场需求大增 有色金属 沪深300 30% 20% 10% 0% -10% -20% -30% 2023-022023-062023-102024-02 行业表现 芯片是AI算力的主要载体,AI产业应用浪潮带动高性能芯片的需求增长。生成式AI浪潮下,英伟达数据中心业务迎来加速增长。在AI大模型训练和推理助推算力需求、AIPC生态建立增加PC终端硬件需求、物联网和5G技术下算力需求存在下沉趋势的情况下,高性能芯片需求上升。 国内外AI芯片产品升级迭代,芯片市场成长空间可观。据中国信通院测算,预计未来五年全球算力规模的增速将在50%以上。AMD预计2027年的全球AI芯片(用于数据中心)市场规模4000亿美元。 电子产品小型化趋势下,芯片电感要求提升 芯片电感是芯片供电模块的关键组成部分。随着AI产业的快速发展,数据中心、AI芯片、服务器等算力基础设施,对于芯片电感等电子元件要求提升。芯片电感起到为GPU、CPU、ASIC、FPGA等芯片前端供电的作用。电子产品向高效率、高功率密度和小型化方向发展,芯片制程趋于微型化,电源模块趋于小型化、低电压、大电流,对芯片电感产品提出更高要求。 芯片电感材料由铁氧体向金属软磁材料转型,金属软磁材料制成的芯片电感具备低电压、耐大电流、小体积的优点。作为一种重要的金属软磁材料,金属磁粉芯具备高饱和磁感应强度,大电流下不易产生饱和,工作稳定性强。另外,制备磁粉芯的核心材料,合金软磁粉,其性能受到原料粉末成分、制造工艺影响较大。以羰基铁粉、超细雾化合金粉为基础原料的软磁粉体材料,制成的一体成型电感有着小型化、轻量化、低功耗等优势。 芯片电感需求增长空间可观。据我们测算,2026年全球AI服务器芯片电感市场规模将达到近11亿,2022-2026CAGR25%。2026年全球AIPC芯片电感市场规模预计约8亿,2023-2026CAGR79%。2026年全球AI服务器、AIPC用芯片电感软磁粉用量需求7853吨,2023-2026CAGR56%。 资料来源:Wind资讯 升幅%1M 相对收益-3.4 绝对收益0.1 3M -2.0 -3.9 12M -4.7 -19.9 覃晶晶分析师 SAC执业证书编号:S1450522080001 qinjj1@essence.com.cn 周古玥联系人 SAC执业证书编号:S1450123050031 zhougy@essence.com.cn 新材料系列报告(一):固态2024-01-12 电池潜力获验证,关注动力电池金属新需求 相关报告 芯片电感产业链关注标的 芯片电感产业链重点关注在软磁材料环节、软磁粉芯环节、芯片电感产品环节有相关业务布局的标的,建议关注:铂科新材、悦安新材、东睦股份、屹通新材和龙磁科技。 风险提示:宏观经济表现不及预期,金属价格大幅波动,需求不及预期 内容目录 1.AI应用浪潮下,高性能芯片市场需求大增3 1.1.AI应用加速发展,英伟达数据中心业务大幅增长3 1.2.AI大模型浪潮+算力下沉趋势下,高性能芯片需求提升4 1.3.国内外AI芯片产品升级迭代,芯片市场成长空间可观4 2.电子产品小型化趋势下,芯片电感要求提升5 2.1.芯片和电源模块小型化趋势下,芯片电感要求提升5 2.2.适配低电压大电流,电感材料向金属软磁材料转型6 2.3.芯片电感需求增长空间可观7 3.芯片电感产业链关注标的8 3.1.铂科新材:软磁材料持续迭代,芯片电感产品获国际芯片厂商验证认可9 3.2.悦安新材:一体式电感上游粉体材料,适用AI芯片等高频场景9 3.3.东睦股份:粉末冶金龙头,芯片电感产品已在产10 3.4.龙磁科技:软磁产业链全面推进,一体成型电感小批出货10 3.5.屹通新材:铁硅铬粉适用于制作贴片电感10 4.风险提示11 图表目录 图1.AI算力产业链3 图2.英伟达收入结构(单位:亿美元)4 图3.英伟达数据中心营收加速增长4 图4.芯片电感被用于CPU、GPU等芯片的前端供电5 图5.芯片供电模块主要元器件6 图6.台积电技术路线图6 图7.芯片电感产业链图示8 表1:国内外部分重要AI芯片及公司汇总5 表2:铁氧体和金属磁粉芯特性对比7 表3:全球AI服务器芯片电感市场规模测算7 表4:全球AIPC芯片电感市场规模测算7 表5:全球AI服务器和PC市场,芯片电感软磁材料用量测算8 表6:已有芯片电感产业链产品布局的公司产品8 表7:具备芯片电感产业链产品布局潜力的公司产品9 1.AI应用浪潮下,高性能芯片市场需求大增 1.1.AI应用加速发展,英伟达数据中心业务大幅增长 芯片是AI算力的主要载体,AI产业浪潮增加了对算力的需求,直接带动对高性能芯片的需求。芯片是AI产业发展的核心硬件,是AI算力的主要载体。据摩尔定律,每18-24个月集成电路上的晶体管集成度增加一倍,即芯片性能大约每18-24个月增加一倍。AI大模型训练和推理增加了对算力的需求。据OpenAI测算,2012年以来,AI训练所使用的算力每3-4个月增长一倍。AI大模型计算带来的算力需求增长已超过摩尔定律,这使得高性能芯片需求大幅增加。 图1.AI算力产业链 资料来源:CSDN,国投证券研究中心 英伟达在数据中心GPU市场中,市占率达92%。英伟达早期专注于图形芯片(GPU)设计业务,随着公司技术与业务发展,已成长为一家提供全栈计算的人工智能公司。GPU最初被设计用于渲染图形,2006年英伟达推出CUDA计算架构,使GPU的平行运算功能拓展至科学研究领域。GPU逐步在数据中心中被发展成为更为通用的并行处理器,对生成式AI所需要的深度学习计算至关重要。英伟达也因而在GPU计算领域长期占据领先地位。据IOTAnalytics,2023年,在数据中心GPU市场中,英伟达占据92%的市场份额。 生成式AI浪潮下,英伟达数据中心业务迎来加速增长。Q4FY24公司总营收221.0亿美元,同比+265%;其中数据中心业务贡献184.0亿美元,同比+409%。英伟达GPU是生成式AI计算基础设施的重要构成部分,随着全球各地的公司从通用计算向加速计算和生成式AI转型,GoogleCloud、AmazonWebServices等大批云服务提供商,Amdocs、Dropbox等领先的人工智能公司与英伟达开展业务合作。 英伟达新产品推出升级迭代,性能进一步飞跃。2022年3月,英伟达推出首款基于Hopper的GPUNVIDIAH100,具有革命性的Transformer引擎和高度可扩展的NVIDIANVLink互连等突破性功能,于2022年三季度开始供货。NVIDIA的第四代DGX系统DGXH100配备8个H100GPU,能够以新的FP8精度提供32petaflops的AI性能,提供满足大型语言模型、推荐系统、医疗保健研究和气候科学的大规模计算需求的规模。据海外研究机构Omdia预测,预计Q2FY24公司H100GPU出货量约30万个,每年潜在出货量120万个。2023年11月,英伟达推出配备全新NVIDIAH200TensorCoreGPU的NVIDIAHGX™H200,为首款配备HBM3e内存的GPU,可处理生成AI和高性能计算工作负载的海量数据。NVIDIAH200性能进一步飞跃,以每秒4.8TB的速度提供141GB内存,与前身NVIDIAA100相比,容量几乎翻倍,带宽增加2.4倍,预计将于2024年二季度开始供货。下一代旗舰产品B100预计将在2024年发布。 图2.英伟达收入结构(单位:亿美元)图3.英伟达数据中心营收加速增长 数据中心游戏专业视觉设计汽车其他数据中心营收亿美元同比右轴 184.0 145.1 103.2 37.538.138.336.242.8 250.0 200.0 150.0 100.0 50.0 0.0 200 150 100 50 0 500% 400% 300% 200% 100% 0% 资料来源:Wind,国投证券研究中心资料来源:Wind,国投证券研究中心 1.2.AI大模型浪潮+算力下沉趋势下,高性能芯片需求提升 AI大模型浪潮下,智能算力需求迎快速增长,带动芯片需求提升。国内外科技巨头、互联网大厂纷纷布局AI大模型,同时积极探索其商业化落地应用。大模型参数规模与计算需求迎来快速增长。以OpenAI的GPT3模型为例,据OpenAI论文《LanguageModelsareFew-ShotLearners》,该模型的参数量为1750亿,Token数为3000亿。据我们测算,模型训练的算力需求一般是参数量*Token数的6倍,则GPT3大模型训练算力需求为315ZFLOPS。若模型的训练需要在1个月内完成,那么如果全部采用H100SXM来训练,假设模型利用率为46%,若以FP32的67TFLOPS运算速度计算,将需要3943块芯片同时运行。据中国信通院,GPT-4的训练算力需求上升到GPT-3的68倍。大模型训练及推理的算力要求大幅增加了对于芯片的需求。 此外,PC和芯片厂商推出相关产品,推动AIPC生态的建立,将增加PC终端对高性能芯片的需求。2023年10月,高通发布骁龙XElite,具备生成式AI能力,能够在设备上完全运行高达130亿个参数的人工智能模型。2023年12月,英特尔推出MeteorLake,首次将人工智能加速引擎(NPU)集成到PC处理器,能更好地支持生成式AI、计算机视觉等内容。2023年10月,联想发布首款AIPC,能够创建个性化的本地知识库,通过模型压缩技术运行个人大模型,实现AI自然交互。随着AIPC从芯片到产品的逐步落地和发展,将增加PC终端对高性能芯片的需求。 另外,随着物联网和5G技术的发展,算力需求存在下沉到边缘和终端的趋势,也增加了对高性能芯片的需求。智慧城市、自动驾驶、工业互联网等应用的落地,带来了大量终端设备数据,集中式云计算在带宽负载、成本等方面存在一定的劣势,边缘端云边端协同方案价值凸显。如在汽车领域,蔚来的智能驾驶汽车ES7SUV搭载了4颗英伟达DriveOrin芯片,比亚迪、梅赛德斯-奔驰、沃尔沃汽车等车企均已有车型搭载英伟达DriveOrin芯片或软件平台。在这一趋势下,将有越来越多的算力需求下沉到边缘和终端,意味着会产生更多大算力芯片的需求。 1.3.国内外AI芯片产品升级迭代,芯片市场成长空间可观 未来五年全球算力规模增速预计将在50%以上。据中国信息通信研究院测算,2022年全球计算设备算力总规模达906EFlops,增速达47%。预计未来五年全球算力规模的增速将在50%以上,到2025年全球计算设备算力总规模将达到3ZFlops,到2030年超过20ZFlops。截至2022年底,中国占全球算力规模的33%,我国基础设施算力总规模达到180EFLOPS。工信部等六部门联合印发的《算力基础设施高质量发展行动计划》明确,到2025年目标算力规模超过300EFLOPS。 算力规模增长势必带动芯片市场空间增长,国内外AI芯片产品升级迭代,市场成长空间可观。国内外AI芯片持续升级迭代,如英伟达在2023年11月推出H200,相比前一代H100芯片,具备更高的内存带宽和推理速度。AMD在2023年12月推出MI300A,包含可提高性能的先进高带宽内存。2023年12月,在“AdvancingAI”发布会上,AMD将截至2027年的全球AI芯片(用于数据中心)市场规模预期,从此前预期的1500亿美元上修至4000亿美元,将 公司芯片发布时间开始供货型号时间 算力 (FP32) 简介 2024年出货量预估 2023年AI芯片市场规模预期从300亿美元上调至450亿美元。表1:国内外部分重要AI芯片