英伟达GTC 2026召开,推理时代正式来临,持续好看算力需求加速增长! glmszqdatemark2026年03月22日 宏观回顾 本周美股市场波动性放大,三大股指录得连续第四周下跌。美伊地缘的扰动进一步扩散,油价的快速上涨直接加剧美国通胀反弹与经济增速放缓的双重风险。本周FOMC会议上,联储偏鹰的回应亦强化市场对于“滞涨”乃至“衰退”情景的担忧。短期操作仍应以谨慎观望为主,静待局势明朗。 英伟达GTC 2026大会 随着AI从“训练驱动”全面转向“推理驱动”,英伟达进一步上调2027年收入预期至1万亿美元。公司在此前预测Blackwell与Rubin至2026年累计订单达5000亿美元的基础上,进一步上调预期,公司认为NVIDIA到2027年营收有望达到至少1万亿美元,凸显其对AI推理时代算力需求持续增长的坚定判断。 分析师孔蓉执业证书:S0590525110014邮箱:kongrong@glms.com.cn 分析师樊程安吉执业证书:S0590525110016邮箱:fanchenganji@glms.com.cn Vera Rubin超级AI平台的量产进展。作为目前最先进的POD规模AI平台,Vera Rubin由七款芯片组成,全面覆盖计算、网络、存储三大核心功能,其硬件规模和性能处于行业领先水平:包含40个机架、1.2千万亿个晶体管、近2万个英伟达芯片、1152个NVIDIA Rubin GPU,拥有60exaflops的运算能力和10PB/s的总扩展带宽。英伟达表示目前该平台已全面投产,Anthropic、OpenAI、Meta、Mistral AI以及全球主要云提供商,都是其核心客户。 分析师赵融执业证书:S0590525120005邮箱:zhaorong@glms.com.cn 研究助理赵志远执业证书:S0590126010048邮箱:zhiyuanzhao@glms.com.cn 英伟达推出全新的数据中心NVIDIA Vera CPU。这款处理器针对超高单线程性能、大规模数据处理能力和能效进行了深度优化,更是全球首个在数据中心中采用LPDDR5内存的CPU,实现了领先的性能功耗比。黄仁勋透露,这款CPU目前已开始单独销售,有望成为英伟达数十亿美元级的核心业务。 相关研究 网络互连构成Vera Rubin平台的核心技术支柱之一。该平台引入第六代NVLink互连架构,显著强化GPU间的横向扩展能力与通信带宽,支撑大规模集群的高效协同。同时,公司在网络侧进一步推进架构创新,推出全球首款基于CPO技术的NVIDIA Spectrum-X以太网交换机,将光模块直接集成于芯片封装内部,实现电信号与光信号的原生级转换。 1.港股周报:腾讯阿里财报发布,持续加码AI赛道-2026/03/222.港股周报:大厂加速布局OpenClaw产品,关注腾讯、阿里财报AI Agent叙事进展-2026/03/153.AI产业进程点评:“西虾东养”——OpenClaw的中美发展对比-2026/03/114.港股周报:Agent生态加速落地,恒科财报季迎风险偏好修复窗口-2026/03/095.AI产业进程点评:进击的“龙虾”——OpenClaw使用量背后的意义-2026/03/01 正式发布了集成Groq LPU架构的推理芯片。最新Groq3LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s,而作为对比,主流GPU的片外HBM4带宽约为22TB/s。其机架级方案方面,Groq 3LPX机架搭载256个LPU处理器,提供128GB片上SRAM和高达40PB/s的推理加速带宽,并通过每个机架640TB/s的专用扩展接口将这些芯片连接在一起。 美股科技公司动态 美光FY26Q2财报:AI驱动存储需求快速增长,收入利润创历史新高。FY26Q2实现收入239亿美元,同比+196%,环比+75%;Non-GAAP毛利率75%,环比提升18pct并创历史新高;Non-GAAP EPS 12.20美元,环比+155%。公司表示,AI推动DRAM与NAND需求显著提升,数据中心存储需求占比将在2026年首次超过行业总需求50%;HBM4已开始量产并应用于下一代AI平台(如Vera Rubin),HBM4E预计2027年放量。公司预计FY26全年CapEx超过250亿美元,FY27将进一步显著提升(主要用于HBM与DRAM产能扩张及全球晶圆厂建设)。 投资建议:本周GTC大会召开,英伟达强调从卖芯片到建工厂的范式转移,我们认为其核心竞争力拓展至算力+存储+网络的系统级交付能力。存储方面,AI Agent普及驱动Token消耗快速增长,持续增长的KVCache推动对HBM/DRAM/SSD需求;供给侧厂商扩产谨慎,供不应求场景或持续更长时间。光互连方面,看好Scale-up中光渗透率的持续提高。我们认为Agent-to-Agent协作或将产生海量通讯流量,驱动更高带宽迭代。看好具备系统级别底层基础设施能力的标的、存储标的与高速光互连标的。建议关注【GOOG】【NVDA】【MU】【SNDK】【LITE】【COHR】。 风险提示:AI发展不及预期;AI商业化不及预期;宏观经济增长不及预期等。 目录 1科技行业动态...........................................................................................................................................................32美股科技公司动态....................................................................................................................................................73本周观点.................................................................................................................................................................84风险提示.................................................................................................................................................................9插图目录..................................................................................................................................................................10 1科技行业动态 英伟达GTC 2026大会正式召开,黄仁勋宣布AI芯片需求将在2027年底达到1万亿美元 随着AI从“训练驱动”全面转向“推理驱动”,英伟达进一步上调2027年收入预期至1万亿美元。无论是思考、决策、执行还是复杂任务分解,推理能力成为AI价值释放的关键环节。过去两年间,AI计算需求呈指数级增长,反映出模型复杂度与应用落地的同步跃迁。英伟达对行业长期需求与公司增长前景保持高度乐观:公司在此前Blackwell与Rubin至2026年累计订单达5000亿美元的预测基础上,进一步上调预期,公司认为NVIDIA到2027年营收有望达到至少1万亿美元,凸显其对AI推理时代算力需求持续增长的坚定判断。 资料来源:51CTO技术栈公众号,国联民生证券研究所 Vera Rubin超级AI平台的量产进展。作为目前最先进的POD规模AI平台,Vera Rubin由七款芯片组成,全面覆盖计算、网络、存储三大核心功能,其硬件规模和性能堪称顶级:包含40个机架、1.2千万亿个晶体管、近2万个英伟达芯片、1152个NVIDIA Rubin GPU,拥有60exaflops的运算能力和10PB/s的总扩展带宽。目前该平台已全面投产,Anthropic、OpenAI、Meta、Mistral AI以及全球主要云提供商,都是其核心客户。 资料来源:量子位公众号,国联民生证券研究所 英伟达推出全新的数据中心NVIDIA Vera CPU。这款处理器针对超高单线程性能、大规模数据处理能力和能效进行了深度优化,更是全球首个在数据中心中采用LPDDR5内存的CPU,实现了领先的性能功耗比。黄仁勋透露,这款CPU目前已开始单独销售,有望成为英伟达数十亿美元级的核心业务。 系统设计上,Vera Rubin采用100%液冷架构,通过45℃热水实现散热,大幅降低了数据中心的制冷成本;同时系统内部布线被高度简化,整机安装时间从过去的两天缩短至约两小时,显著提升了数据中心的部署效率。 资料来源:量子位公众号,国联民生证券研究所 网络互连构成Vera Rubin平台的核心技术支柱之一。该平台引入第六代NVLink互连架构,显著强化GPU间的横向扩展能力与通信带宽,支撑大规模集群的高效协同。管理层将其定位为当前全球最先进、实现复杂度最高的GPU互连体系之一,体现出英伟达在高性能计算网络领域的领先优势。 同时,公司在网络侧进一步推进架构创新,推出全球首款基于CPO技术的NVIDIA Spectrum-X以太网交换机,将光模块直接集成于芯片封装内部,实现电信号与光信号的原生级转换。该设计显著降低传输损耗并提升带宽密度与能效水平,从底层重构数据中心网络架构。该项技术由英伟达与台积电联合开发,目前已进入量产阶段,具备明确的产业落地进展。 资料来源:量子位公众号,国联民生证券研究所 正式发布了集成Groq LPU架构的推理芯片。最新Groq3LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s,而作为对比,主流GPU的片外HBM4带宽约为22TB/s。其机架级方案方面,Groq 3LPX机架搭载256个LPU处理器,提供128GB片上SRAM和高达40PB/s的推理加速带宽,并通过每个机架640TB/s的专用扩展接口将这些芯片连接在一起。黄仁勋在现场宣布,这款芯片将由三星电子代工,目前已进入生产阶段,预计今年下半年开始出货。 资料来源:半导体行业观察公众号,国联民生证券研究所 2美股科技公司动态 美光FY26Q2财报:AI驱动存储需求加速增长,收入利润创历史新高 整体业绩:FY26Q2实现收入239亿美元,同比+196%,环比+75%;Non-GAAP毛利率75%,环比提升18pct并创历史新高;Non-GAAP EPS 12.20美元,环比+155%。经营利润165亿美元,经营利润率69%。 分业务看:DRAM收入188亿美元,占比79%,同比+207%,环比+74%,价格提升(mid-60%区间)为主要驱动;NAND收入50亿美元,占比21%,同比+169%,环比+82%,价格提升(high-70%区间)叠加供需紧张驱动增长。分终端来看,云与数据中心业务收入持续创新高,Cloud Memory BU收入77亿美元(占比32%),Core Data Center BU收入57亿美元(占比24%)。 AI驱动需求加速增长,AI推理与Agentic AI应用推动存储容量快速提升。公司表示,AI推动DRAM与NAND需求显著提升,数据中心存储需求占比将在2026年首次超过行业总需求50%;HBM4已开始量产并应用于下一代AI平台(如Vera Rubin),HBM4E预计2027年放