黄仁勋GTC2025大会演讲全文实录AI工厂、机器人革命与计算的未来 本次大会的核心主题是人工智能的快速演进和日益普及,标志着人工智能正从生成式人工智能迈向推理和代理式人工智能的新阶段。 黄仁勋在演讲中重点发布了一系列引人瞩目的新产品和战略合作,包括先进的硬件(BlackwellUltra、VeraRubin、RubinUltra、Feynman)、创新的软件平台(Dynamo、IsaacGR00TN1)以及重要的合作伙伴关系(通用汽车、谷歌DeepMind、迪士尼、甲骨文)。GTC作为NVIDIA展示其在塑造人工智能计算未来方面领导地位和愿景的关键平台,再次凸显了其战略意义。 本次主题演讲对“代理式人工智能”的重点强调,预示着行业焦点正从简单地生成内容转向创建能够进行推理、规划和自主行动的人工智能系统预示着人工智能将在未来更深入地融入商业流程和日常生活,成为智能代理。 此外,涵盖硬件、软件和合作伙伴关系的众多发布,突显了NVIDIA成为整个AI生态系统核心驱动力的雄心,而不仅仅是一个芯片供应商。初步的关键发布清单显示了技术堆栈各个层面的重大进 展,这种全面的方法表明NVIDIA的战略是控制和影响人工智能发展的方向,从基础设施到应用。 黄仁勋还宣布通用汽车将采用NVIDIAAI、模拟和加速计算技术来开发下一代汽车、工厂和机器人。在机器人方面,英伟达还发布了Omniverse(物理AI的操作系统)、新一代世界基础模型Cosmos、Newton(与DeepMind和DisneyResearch合作开发的物理引擎)以及人形机器人的通用基础模型IsaacGrootN1并开源。 在昨晚万众瞩目的GTC2025大会上,英伟达创始人兼CEO黄仁勋向世界宣告了“AI工厂”时代的正式到来: 1Blackwell架构:算力迎来千倍跃升,奠定AI工厂基石 o黄仁勋再次拿出Blackwell架构,Blackwell架构对比上一代Hopper架构,在推理性能上实现了惊人的40倍提升,部分场景甚至高达900倍。 oBlackwell的核心目标是构建“AI工厂”,如同工业革命时期的工厂一样,AI工厂将大规模生产Token人工智能的基本构成单元,驱动各种智能应用。 oBlackwell架构的效率也大幅提升,ISO功率效率提升25倍,意味着在同样的功耗下,能提供更强大的算力,这对于能源成本高昂的数据中心至关重要。 2NVLink72和Dynamo:打造互联互通的AI超级集群 o为了充分发挥Blackwell架构的潜力,英伟达推出了NVLink72高速互联技术,以 及Dynamo专为AI工厂打造的分布式推理服务库,堪称AI工厂的“操作系统”。 oNVLink72实现了GPU之间的无缝高速互联,可以将成千上万的BlackwellGPU组合成一个巨型GPU,突破算力瓶颈,实现真正的规模化扩展。 oDynamo负责智能调度和优化AI工厂的资源,确保高效运行,并能灵活适应不同的工作负载,如同一个精密的“AI算力调度中心”。 3RRubin平台:展望未来,算力持续狂飙 o黄仁勋预告了Rubin平台,作为Blackwell的继任者,Rubin将在2027年问世,再次带来跨越式性能提升。 oRubin平台将采用NVLink576技术,实现更惊人的互联规模,并使用HBM4e内存,进一步提升带宽和容量,为未来的AI应用提供更强大的算力支撑。 4AI“全栈”战略:从芯片到软件,构建完整生态 o英伟达展示了其强大的CUDAX库生态系统,涵盖了从物理学、生物学、到量子计算等各个科学领域,以及包括cuPy、cuLitho、Parabricks、MONAI、CUDF、Warp等海量软件 库,构建了完整的AI软件基础设施。 o英伟达强调“软硬一体”的战略,不仅提供强大的硬件,更提供丰富的软件工具和平台,降低AI开发门槛,加速AI应用的落地。 o宣布开源项目,展现英伟达开放合作的态度,积极构建繁荣的AI生态系统。 5AI“无处不在”:加速各行业智能化转型 o黄仁勋指出,人工智能正渗透到各个行业,从云服务、企业IT、汽车、机器人,甚至到电信基础设施,AI将无处不在。 o英伟达正在与各行业巨头合作,例如通用汽车、思科、TMobile等,推动各行业的智能化升级。 o发布NVIDIAIsaacGrootN1机器人通用基础模型并开源,AI将加速人形机器人的发展,解决劳动力短缺等社会挑战。 以下为演讲全文: 欢迎来到GTC。真是了不起的一年。 我们想在英伟达(NVIDIA)来做这件事,所以,通过人工智能的奇妙魔力,我们要把你带到英伟达总部。我想我正在把你带到英伟达总部。你觉得呢?这就是我们工作的地方。过去这一年太精彩了,我想让你们知道,我现在站在这里是没有演讲稿,没有提词器,而且我得讲很多内容。那就让我们开始吧。 首先,我要感谢所有赞助商,感谢所有与会的杰出人士。几乎每一个行业都有人参加:医疗保健行业在这里、交通行业、零售行业,当然还有计算机行业每一家计算机行业相关的企业都在这里。所以非常非常高兴见到你们所有人,也感谢你们对大会的赞助。 GTC的起点是GeForce 一切都从GeForce开始。今天我在这里拿着一块GeForce5090。5090,难以置信,距离我们开始研发GeForce已经过去25年了。25年以后,GeForce在全球都卖断货。这就是90,也就是Blackwell这一代产品。和4090相比,你看看它的体积缩小了30,散热效率提升了30,性能也极其强大,几乎无法相比。而这背后的原因就是人工智能。GeForce把CUDA带给了世界,CUDA让AI成为可能,而AI现在又回过头来彻底变革了计算机图形学。 你现在看到的是实时计算机图形,100光线追踪。每一个像素都经过了光线追踪,然后人工智能推断剩下的15个像素。想象一下:对于我们用数学方式真实渲染出的每一个像素,人工智能会推断另外15个像素。它必须以极高的精度来完成这一过程,让画面看起来正确,而且还要在时间维度上保持准确,这意味着在向前或向后播放时毕竟这是计算机图形画面都必须在帧与帧之间保持时间上的稳定。真是不可思议。 人工智能取得了非凡的进展 仅仅过去10年而已。我们讨论AI的时间稍长一些,但AI真正进入大众视野大约是10年前的事情,最先从感知AI开始计算机视觉和语音识别。然后是生成式(AI)。过去5年里,我们主要关注的是生成式AI,教会AI如何在不同模态之间进行转换,比如文本到图像、图像到文本、文本到视频、氨基酸到蛋白质、物性到化学物质我们可以用AI生成各种内容。 生成式AI从根本上改变了计算的方式从“检索式计算模型”变为了“生成式计算模型”。过去,我们几乎所有工作都是预先创建内容、存储多种版本,然后在需要时去获取相应的版本。而现在,AI能理解上下文,理解我们在问什么,以及我们请求的含义,然后生成它所“理解”和“知道”的内容。如果需要,它还会检索信息来补充理解,最后生成答案;不再仅仅是检索数据,而是直接生成答案。这从根本上改变了计算的方式。 在过去几年里,计算的每一个层次都被彻底转变。过去两三年,出现了重大突破,也就是人工智能的根本性飞跃我们称之为“agenticAI”(具备自主性的AI)。agenticAI的意思是,AI拥有“主动性”(agency)。它能感知并理解当前环境的上下文,很重要的一点是它能进行推理,能思考如何回答或解决问题,还能制定并执行计划。它可以使用工具,因为它现在理解多模态信息;它可以访问网站,查看网站的文本和视频格式,甚至可能播放视频,然后从该网站学到内容,理解之后,再带着这份新知识回来完成任务。 agenticAI的基础是推理,这在过去是非常新的能力。接下来的一波浪潮已经在发生,我们今天会重点讨论那就是机器人学。机器人由“物理AI”推动,而“物理AI”则是理解物理世界的AI。它能理解摩擦力、惯性、因果关系、物体的“永久性”当它看到一个物体拐到拐角处并消失于视线之外,并不代表那个物体就从世界上消失了,只是暂时看不到而已。对物理世界、三维世界的这种理解将开辟AI的新纪元,我们称之为“物理AI”,它将使机器人变得可行。 每一个阶段、每一波浪潮都为我们所有人带来新的市场机会,让更多新的合作伙伴加入GTC。因此,如今的GTC可以说是爆满。想要容纳更多人参与,恐怕我们得把圣何塞扩建了。我们正在努力,我们有足够的土地来扩展圣何塞,好让GTC越办越大。 我现在站在这里,希望你们能看见我所看到的景象。我们现在处在一个体育场里。去年是我们首次回归线下,当时的场面就像一场摇滚音乐会,那次GTC被称为AI界的“伍德斯托克”盛会。而今年它被称为AI界的“超级碗”。唯一的区别在于,在这场“超级碗”里,每个人都是赢家。每年都有更多人加入,因为AI能解决更多行业、更多企业的各种有趣问题。今年我们会着重探讨agenticAI和物理AI。 三大核心问题:数据、训练和扩展 从本质上说,每一波、每个阶段的AI,都涉及三大根本问题。 第一,如何解决数据问题。这之所以重要,是因为AI是一种数据驱动的数据科学方法,需要用数据来学习,需要数字化的经验来学习、获取知识。 第二,如何在没有人工参与的情况下进行训练。因为人工干预是有极限的,而我们想要AI能以超越人类的速度来学习,几乎是实时的,而且规模要大到人类无法企及。所以第二个问题是:如何训练模型。 第三,如何进行扩展(scale)。怎样找到一个算法,使得你提供越多的资源(不管是什么资源),AI就变得越聪明。这被称为“scalinglaw”(扩展定律)。 过去这一年,几乎整个世界在这方面都看走眼了。AI的计算需求及其扩展定律其实更具韧性,甚至可以说是超加速。由于agenticAI、由于推理的出现,如今我们所需的计算量比一年前的预期至少高出100倍。让我们来解释一下为什么。 首先,从AI能做什么开始,逆推回去:agenticAI的核心是推理。我们现在已有能进行推理的AI,它能把问题分解为若干步骤。也许它会同时尝试几种方式来解决问题,然后选择最佳答案;也许它会用不同的方法去求解同一个问题,最后进行结果一致性检查;或者,它在得出答案后,还会把结果重新带回方程检查一遍,比如带回二次方程看看是否真的是正确答案,而不是像以前那样一次性随便给出一个答案。两年前,当我们开始使用ChatGPT时,虽然它已经非常神奇,但很多复杂问题或简单问题它也经常答错,这可以理解它只做了一次性输出。它根据预训练数据(它在预训练数据中看到或学到的东西)进行一次性“输出”,就像随口说出来一样。而现在我们有了能逐步推理的AI,它利用“ChainofThought”(思维链)、取多种解法里最优的和一致性检查等多种技术,一步一步地分解问题,进行推理。 由此可以想见,AI所生成的token数量会急剧增多。AI的底层技术本质仍是根据上一个token来预测下一个token。不同的是,现在“下一个token”对应的是推理的某个步骤。AI先生成第一步的一连串token,然后把这一步的输出再次输入给AI,用来生成第二步、第三步、第四步的推理。这样一来,AI不再只是一字一句地往外“吐”token,而是生成一大段文字来表示推理的步骤。最终产生的token量会大大增加,我会在稍后展示这一点。很轻松就可能高出过去的100倍。 那么“100倍”具体意味着什么?也许是生成了100倍的token,如我刚才所说;或者,模型本身更复杂,只生成10倍的token,但我们如果想让模型具备交互性、实时性,不想等它“思考”太久让人失去耐心,我们就要把计算速度再提高10倍。这样,10倍的token、10倍的速度,就相当于需要100倍的计算量。因此在接下来的演讲中,你们会看到推理所需的计算量远超以往。 接下来的问题:如何教AI像我刚才描述的那样进行推理?如何让AI执行“chainofthought”?在训练中,我们面临两个根本性难题: