回顾Computex2024:科技巨头高管济济一堂,打造绿色可持续AI生态Compute x2024于6月4-7日在中国台湾举办,英伟达、AMD、英特尔、Arm等高管汇聚一堂,发表演说。 我们认为,大会展现四点AI趋势:1)高算力NPU赋能PC市场重生;2)算力成本降低使数据中心从成本中心走向营收中心;3)互联技术Etherne【华泰海外科技】Computex总结 –共创绿色高效AI工厂 回顾Computex2024:科技巨头高管济济一堂,打造绿色可持续AI生态Compute x2024于6月4-7日在中国台湾举办,英伟达、AMD、英特尔、Arm等高管汇聚一堂,发表演说。 我们认为,大会展现四点AI趋势:1)高算力NPU赋能PC市场重生;2)算力成本降低使数据中心从成本中心走向营收中心;3)互联技术Ethernet、NVLink及InfiniBand 各司其长,从独家到开放,提升数据中心效率;4)液冷普及带动绿色和可持续AI生态发展。 会上英伟达CEO黄仁勋强调,算力成本的降低让训练更大模型成为可能,加上高速传输和液冷普及,驱动AI工厂崛起。 我们继续看好AI产业链的投资机会。PC“重生时刻”已到来,厂商加速AI芯片布局,x86与Arm谁领风骚? AIPC声浪迭起,各厂商均设计低功耗及高算力NPU,以CPU+GPU+NPU异构架构将AI集成于端侧,为微软Copilot等AI端侧应用做好准备。HP、Dell、Acer、华硕、联想等OEM高管也现身站台。 我们认为它们均布局端侧AI,反映AIPC时代加速到来。Arm阵营中,Arm推出面向移动端与AIPC的CSSforClient平台、苹果推出3nm制程M4芯片,算力为38TOPS、高通则不仅研发4nm制程XElite芯片,其HexagonNPU算力更达45TOPS;而x86阵营也不甘示弱,英特尔LunarLake将于24H2上市,算力为45TOPS、AMDRyzenAI300系列则能提供高 达50TOPS算力。 英伟达和AMD在AI服务器GPU持续迭代,“一年节奏”全速前进GPU方面,会上AMDCEO苏姿丰公布InstinctAI芯片的年度迭代计划,对标英伟达“一年节奏”,路线图持续至2026年。 MI300的下一代,MI325X将于24Q4上市,配备288GBHBM3E,内存带宽提升 至6TB/s,高内存和带宽可支持训练更大模型;后续MI350将在2025年推出,而采用全新CDNA架构的MI400计划在2026年推出。 我们认为,从AMD与英伟达的迭代路线来看,HBM已成为提升AI芯片效率的刚需。CPU方面,24H2AMD与英特尔均推出AI服务器产品,AMD将推出第五代EPYCCP U(代号Turin),围绕Zen5构建,核心数最多可达192;英特尔将推出主打E核的SierraForest具有144个内核,而基于P核的GraniteRapids将在24Q 3推出。 互联技术从独家到开放进发,Ethernet、NVLink及InfiniBand各司其长在算 力成本降低和内存增加的背景下,当前AI数据中心的发展重点已转向互联传输。 英伟达独家的NVLink及InfiniBand在延迟和数据丢包方面表现突出,然而,开放的Ethernet性价比及可扩展性较高,在数据中心的应用也较根深蒂固。 因此,我们认为未来三类互联技术将共存,而英伟达亦扩大其传输版图,NVLink5总带宽已达1.8TB/s,分别为PCIe5.0和AMDInfinityFabric4.0的1 4倍和2倍。 下一代NVLink6将搭载于Blackwell之后的Rubin系列,总带宽将倍增至3.6TB/s。 另外,公司也将每年发布专为AI工作负责而设的Spectrum-X以太网产品,其性能比传统以太网快1.6倍。 竞争对手AMD、英特尔、博通等则组建联盟发展UltraEthernet,全方面抗衡。 液冷服务器的普及将降低TCO和TCE,带动绿色可持续性AI工厂的崛起英伟达的新一代NVL72GB200平台搭载Blackwell芯片和NVLink5互联技术,其单机架功耗将突破 100kW。 我们认为,DLC液冷技术为实现高效散热和绿色计算的关键,其能够在不增加成本的前提下,将数据中心的功耗较风冷降低40%(其中散热能耗降低89%),并降低PUE至1.05。 作为液冷应用的先锋,SMCI志在引领全球新建数据中心DLC采用率在1年内从1%升至15%,并在2年内达30%。 伴随着下游AI应用逐步成熟和普及,数据中心已从过往的成本中心,向创收的AI工厂转型,助力赋能千行万业。 风险提示:AI技术落地和推进不及预期,行业竞争激烈,中美贸易摩擦等