总论:全球AI产业进入高速发展阶段,技术创新者、云服务厂商与行业应用领导者共同推动AI经济格局重塑。巨头加大资本投入,超高性能GPU集群、专用AI芯片及数据中心等基础设施的建设又进一步推动AI应用场景创新。2025正式进入AI端侧“百舸争流”。智能手机、可穿戴、物联网设备、汽车等终端AI算力提升,为边缘计算、智能家居、自动驾驶等领域带来全新可能性。 面对地缘政治技术封锁与供应链不确定性,中国AI产业亟需推进全面国产化。国产算力、存力、互联等高端芯片的突破,离不开IC设计、晶圆制造、先进封装测试、半导体设备、材料及零部件等全产业链配合。此外,还需关注整个配套设施,包括电源管理、PCB、高性能散热方案等关键组件的自主供应链建设。全球AI竞争白热化,通过在核心技术自主创新和完整产业链建设上的持续发力,我们充分看好技术升级迭代、产业积极布局为国产AI供应链带来的机遇。 算力:ASIC助力定制化,国产芯片加速入局。云厂商持续加码AI相关投资,资本开支自23Q3开始逐季提升,24Q3四大CSP资本开支575亿美元,同比增长61%,环比提升11%,25年资本开支有望持续向上。目前GPU仍占据主流AI算力市场,英伟达软硬件生态完整,产品持续升级迭代,预计25-26年将升级至Rubin平台,超大规模训练端核心竞争力稳固。另一方面,云厂商积极布局定制化ASIC,博通指引AISAM从2024年的150-200亿美元提升至27年的600-900亿美元,市场规模高速增长。美国对华科技封锁持续加剧,国产芯片做出性能、性价比,自主可控空间广阔。随着2025年端侧AI放量,国产算力芯片份额有望加速提升。 存储:云端与边缘侧需求全面扩容,巨头加速扩产HBM。随着AI加速芯片的不断更新换代,其搭载的HBM总容量、带宽等规格也持续升级,带动单机HBM容量及价值量快速攀升。根据IntelMarketResearch,至2030年,预计全球HBM市场规模将达489.3亿美元,2023至2030年CAGR达68.1%。需求端高景气,三大原厂加速扩产HBM。根据TrendForce,预计至2025年HBM芯片每月总产能为54万颗,相较于2024年增加27.6万颗,同比增长105%。三大巨头扩产将带动HBM产业链需求持续高景气。此外,以AI服务器、AIPC、AIphone等为代表的云端和边缘侧AI将驱动3DNAND市场快速增长。根据CounterPoint,预计到2030年,整体NAND闪存市场将超过930亿美元,2023年为400亿美元。其中根据TrendForce,AI服务器预计将持续推动SSD需求的年增长率超过60%。 此外,AISSD需求在整个NANDFlash市场中的占比预计将从2024年的5%上升至2025年的9%。未来以企业级SSD为代表的大容量高性能存储将持续高速增长,带动产业链相关企业持续受益。 互联:光与铜齐头并进,互连方案向高性能、低成本持续演进。光模块以其高带宽、快传输速率以及长传输距离,在数据中心交换机互连场景广泛应用并持续升级。而在服务器网卡到交换机等之间的短距连接,随着交换芯片、有源铜缆技术等的升级、以及云厂商定制化的IDC部署,AEC/ACC等应用份额及规模有望快速提升。硅光基于硅和硅基衬底材料,通过CMOS工艺进行光器件开发和集成,在高速光模块领域可带来低成本、低功耗等优势,同时也能缓解EML短缺现状,硅光模块份额或加速提高。LPO由于其兼具可插拔性与低功耗优势,预计成为25-26年高速光模块的快速落地方案。CPO&OIO作为更高集成度的下一代高速通信解决方案,台积电、高通等厂商亦积极布局,台积电预计其交换机CPO平台26年成熟。 电源:AI技术的精进导致电力消耗剧增,高效能的服务器电源变得至关重要。AI服务器电源作为高性能计算和数据中心的基础设备,担负着为服务器集群提供稳定、高效电能供应的任务。高算力需求推升运行功耗亦将显著增加电容用量。 PCB:AI催生HDI浪潮已至。伴随AI服务器的升级,高速高密度互联性能全面提升,功耗和散热要求同步大幅增加。HDI对比高多层能有效降低PCB层数增加布线密度,有效缩减信号在线路板上传输的距离,提高信号传输速率,减少传输时延;从功耗的角度看,HDI基于其高集成度优势降低系统冗余,减少额外功耗消耗,同时HDI高密度短距离布线可以大幅降低信号传输过程中的功耗,同时散热对比高多层也具备显著优势,因此HDI有望成为未来5年增速最快的PCB产品,特别是4阶以上的高阶HDI产品需求快速增长。根据Prismark预计,HDI将成为AI服务器相关PCB市场增速最快的品类,2023-2028年HDI的年均复合增速达到16.3%。 从实际生产来看,AIHDI对应层数阶数及面积更高,因此实际生产过程中无论是产能还是良率均显著降低,产能十分稀缺,全球范围内具备大批量量产能力的厂商有望核心受益于本轮AIHDI浪潮。 消费电子:AI终端创新加速,消费电子产业链景气度持续回升。2024年末AI创新加速,有望带动终端需求复苏。OpenAI12天直播发布,推出完整版o1、o3模型、文生视频Sora;苹果发布iOS18.2,重点更新Apple Intelligence;火山引擎冬季Force原动力大会上,豆包视觉理解模型首次亮相并升级了豆包主力通用模型。手机端:Canalys预计2024年全球手机出货量达12.2亿台,同比增长6%。苹果发布AppleIntelligence,全面开启AI时代,安卓各大厂商也积极布局AI。PC端:AIPC渗透率持续提升,预计大中华地区在2028年达到73%。可穿戴设备:AI眼镜浪潮已至,MetaRay-Ban2024年销量有望超150万副,随着显示功能的完善,向AR发展。政策端,“两新”政策有效激发内需潜力,并且多地开启3C数码产品补贴,将进一步加快换机周期。我们认为,随着端侧AI多终端落地开启新一轮换机周期,以及在政府补贴政策刺激消费的影响下,消费电子终端市场需求将进一步提升。 风险提示:技术路线演进风险、研发进展不及预期、地缘政治风险。 重点标的 股票代码 1算力:ASIC助力定制化,国产芯片加速入局 全球AI产业进入高速发展阶段,技术创新者、云服务厂商与行业应用领导者共同推动AI经济格局重塑。巨头加大资本投入,超高性能GPU集群、专用AI芯片及数据中心等基础设施的提升又进一步推动了AI应用场景的创新。 在技术与应用的双轮驱动下,AI端侧技术正成为另一重要增长极,2025正式进入“百舸争流”。智能手机、可穿戴、物联网设备、汽车等终端AI算力提升,为边缘计算、智能家居、自动驾驶等领域带来全新可能性。 面对地缘政治技术封锁与供应链不确定性,中国AI产业亟需推进全面国产化,加速关键技术自主可控。在基础硬件层面,国产算力、存力、互联等高端芯片的突破,离不开IC设计、晶圆制造、先进封装测试、半导体设备、材料及零部件等全产业链的配合。此外,还需关注整个配套设施,包括电源管理、PCB、高性能散热方案等关键组件的自主供应链建设。 全球AI竞争进入白热化阶段,通过在核心技术自主创新和完整产业链建设上的持续发力,我们充分看好技术升级迭代、产业积极布局为国产AI供应链带来的机遇。 1.1GPU仍占据主流AI算力市场 GPGPU适合高性能并行计算,是人工智能算法的首选解决方案。GPGPU(General PurposecomputingonGPU,基于GPU的通用计算)在传统GPU的基础上,进行了进一步的优化设计,使之更适合高性能并行计算。目前AI服务器通常选用CPU和加速芯片组来满足其庞大算力需求,其中加速芯片包括GPU、FPGA、ASIC等逻辑芯片,GPU由于其具有最强的计算能力同时具备深度学习等能力,目前成为服务器中加速芯片首选。 图表1:GPU与CPU结构对比 与GPU的通用性相比,ASIC在特定任务上展现出更高的效率。ASIC作为专用定制芯片,基于芯片所面向的专项任务,计算能力和计算效率都严格匹配于任务算法,芯片的核心数量,逻辑计算单元和控制单元比例,以及缓存等整个芯片架构也是精确定制的,因此ASIC可以实现极致的体积、功耗。博通2024年AISAM约150亿至200亿美元,27年SAM为600亿至900亿美元,SAM将实现4-5倍增长。 FPGA半定制化,但冗余多且能效极致化不如ASIC,不适用于AI计算大规模出货。FPGA,即FieldProgrammableGateArray(现场可编程阵列列)“,于于半定制芯片,能能依据据用户需求,在制造完成后进行不限次数的重复编程,进而达成所需的数字逻辑功能。ASIC则是全定制芯片,其功能固定无法更改。相比之下,FPGA作为半定制芯片,功能具有灵活性,无需进行流片,不过因其可编辑的特性,冗余功能较多,若仅用于单一目的便会造成资源浪费。在大规模生产时,FPGA的成本高于ASIC,并且在能效极致化方面也不及ASIC。因此,用于AI计算大规模出货时,一般考虑使用GPU与ASIC较多。 图表2:ASIC芯片架构(以AWS产品为例) AI服务器需求旺盛,北美四大CSP资本开支上行。从AI服务器出货量来看,2023年高阶AI服务器出货19.96万台,一般AI服务器出货46.98万台。2024年高阶AI服务器预期出货54.3万台,较2023年成长172%;2024年一般AI服务器预期出货72.5万台,较2023年成长54.2%。根据Trendforce,2024年AI服务器占整体服务器出货的比重预估将达12.2%,较2023年提升约3.4个百分点;从产值看,预估2024年AI服务器产值将达1,870亿美元,同比+69%,产值占整体服务器高达65%。从需求方来看,2023年前五大业者出货占总体比重达85.1%,2024年前五大业者占比则降至77%,前四大仍为以代工厂直接销售(ODM-direct)为服务器主要采构模式的大型CSP厂商。 图表3:AI服务器出货量 图表4:CSP与品牌高阶AI服务器出货量与占比预估 CSP持续加码AI服务器及相关投资。24Q3四大CSP(谷歌、“本开支(现流流量表口径)“ meta、亚马逊、微软)资 总和为575亿美元,同比增长61%,环比增长11%,自23Q3 开始,云厂商资本开支逐季提升。谷歌24Q3资本支出约130亿美元,其中最大的组成部分是对服务器的投资,其次是数据中心和网络设备,预计Q4资本支出将与Q3持平; meta24Q3资本支出(包括融资租赁的本流支付)为92亿美元,主要系对服务器、数据中心和网络基础设施的投资,预计2024年全年的资本支出将在380-400亿美元之间,下限较之前的370-400亿美元有所增长,预计2025年的资本支出将大幅增长;亚马逊24Q3资本支出为213亿元,预计2024年的资本支出约为750亿美元,大部分支出用于支持对技术基础设施日益增长的需求;微软FY25Q1包括融资租赁在内的资本支出 gszqdatemark年 月 日 为200亿美元,PP&E支付的现流为149亿美元,大约一半的云和AI相关支出继续用于长期资产,其余的云和AI支出主要用于服务器(CPU和GPU)。 图表5:四大CSP资本开支(单季度,单位:亿美元) 图表6:四大CSP资本开支(年度,单位:亿美元) 科技公司紧锣密鼓布局、升级迭代大模型训练,AI算力芯片需求强劲。在加速计算和生成式AI的带动下,算力需求陡增,全球高科技公司纷纷涌入AI领域开展军备竞赛。预计2024年微软有75万-90万块等效H100,25年预计达到250万-310万;谷歌2024年有100万-150万块等效H100,25年预计达到350万-420万;Meta2024年有55万-65万块等效H100,25年预计达到190万-250万;亚马逊2024年有25万-40万块等效H100,25年预计达到130万-160万;xAI2024年有10万块等效H100,25年预计达到55万-100万。 图表7