黄仁勋CES2026:定义AI工业化时代,开启物理世界交互革命

第 1 页,共 2 页

当演讲屏幕上展示出包含1152个GPU、重达2吨、内部有2英里铜缆的Vera Rubin计算阵列时,现场观众才意识到,人工智能的“思考”即将变得比以往任何时候都更加深刻。

拉斯维加斯的CES 2026展会上,身穿标志性黑色皮衣的黄仁勋站在台上,用90分钟的演讲向全球宣告:人工智能正在经历一场根本性的蜕变

这场演讲不仅是对英伟达未来发展的蓝图描绘,更是对整个AI产业的明确指引。从开源模型的爆发到物理AI的崛起,再到革命性的Rubin架构量产,黄仁勋在演讲中释放了多重信号。

Image Title

一、双重平台迁移,AI重塑十万亿基础设施市场

演讲一开始,黄仁勋便以历史视角为整场演讲定调。他解释了计算机行业的基本规律——每10到15年发生一次根本性平台重置

从大型机到PC,从互联网到移动计算,如今轮到人工智能引领新一轮重置。

不同的是,这次重置的规模空前——全球价值约10万亿美元的传统计算基础设施正被系统性地现代化改造

这种改造并非孤立的软硬件升级,而是双重平台迁移同时发生:一方面是应用本身的重构,从“编写”转向“训练”;另一方面是整个计算栈被重写,软件如何开发、如何运行、运行在什么硬件之上都在被重新定义。

在黄仁勋看来,这意味着AI投资并非凭空创造泡沫,而是来自企业研发预算、风险投资和整个工业体系的系统性迁移

“你不再仅仅是编写软件,而是在训练它;应用程序也不再是预先编译好的静态代码,而是能理解语境、每一次都从头动态生成内容的全新实体。”黄仁勋解释道。

在这场双重平台迁移中,GPU不再是单纯的图形处理器,而成为默认的计算核心;推理也不再是简单的一次性输出,而是一个持续“思考”的过程

二、物理AI崛起,从理解语言到理解世界

黄仁勋将大部分演讲时间放在了一个更具革命性的概念上:物理AI。这个概念被他视为人工智能发展的下一波浪潮。

物理AI的根本突破在于教会机器理解物理世界的常识与规律,包括物体恒存性、因果关系、重力、摩擦力和惯性等。

黄仁勋指出,过去AI主要在数字世界活动,但当AI必须理解重力、速度、距离与安全逻辑,并对实体世界的行动结果负责时,才真正迈入新阶段。

实现物理AI需要一套完整的技术框架。英伟达提出的解决方案是 “三台计算机”架构:一台用于训练AI模型,一台用于仿真模拟,一台用于边缘推理。

在这个框架下,仿真与合成数据成为关键。物理世界的数据是有限的、昂贵的,而通过仿真环境,可以在虚拟世界中以低成本生成海量合成数据,让AI面对各种长尾场景。

作为物理AI的核心技术,英伟达推出了开源的“世界基础模型”Cosmos,它能够理解物理规律、生成物理一致的场景数据,并在闭环中训练AI行动能力。

三、Rubin架构量产,芯片设计的协同革命

演讲中最具冲击力的技术发布是Vera Rubin计算架构的全面量产。这一架构是对摩尔定律放缓的激进回应。

面对AI模型规模每年增长10倍、token生成量每年增长5倍的需求,英伟达打破了内部“每代架构最多只改动1-2颗芯片”的准则,一口气重新设计了六颗芯片

Vera Rubin架构由定制Vera CPU与Rubin GPU组成,两者从设计之初就被定义为双向一致、低延迟的数据共享结构

Rubin GPU的性能提升令人印象深刻,其在浮点性能上超过Blackwell,而晶体管数量仅为后者的1.6倍。关键在于全新的张量核心与Transformer Engine设计,而非单纯堆叠规模。

整个架构的系统设计同样革新:新的计算托盘设计采用无线缆、无水管、无风扇方案,将组装时间从2小时缩短至5分钟。

在数据中心层面,Rubin引入了多个关键改动,每颗GPU可获得1.6TB/s的Scale-out带宽。特别值得注意的是上下文内存体系的创新,通过BlueField-4将KV Cache与上下文管理放入机架内部,为每颗GPU额外提供最高16TB的可扩展内存空间。

为了更直观地展示技术突破,下表对比了Rubin与Blackwell的关键性能指标:

性能指标 Rubin架构 Blackwell架构 提升幅度
FP4推理性能 50 PFLOPS 10 PFLOPS 5倍
晶体管数量 3360亿 约2100亿 1.6倍
能效比 相同热设计功耗下性能提升 基准 显著提升
训练效率 仅需1/4的GPU数量完成相同训练任务 基准 4倍效率提升
单位token成本 基准的1/10 基准 90%成本降低

四、开源生态的力量,从DeepSeek到全球创新

黄仁勋在演讲中花费相当篇幅讨论开源模型的革命性影响。他强调2025年是开源模型取得关键突破的一年,各类开源模型系统已触及技术前沿。

值得注意的是,黄仁勋特别指出 “开源模型已触及技术前沿,但仍落后尖端模型约六个月” 。这个明确的差距评估,为整个开源生态提供了清晰的定位。

在众多开源模型中,黄仁勋多次提及DeepSeek R1,称其“让世界震惊”,并强调开源让AI迅速扩散,没有人愿意掉队。

英伟达自身也在大力投入开源生态建设,运营着价值数十亿美元的AI超级计算机DGX Cloud,用于开发开源模型。

在蛋白质数字生物学领域,英伟达的开源模型能够合成生成蛋白质;在天气预报领域,ForecastNet与CORDiff彻底改变了预报方式。

这种开源战略不仅推动技术进步,也塑造了英伟达作为平台提供者的角色,而非某个特定应用领域的竞争者。

五、机器人ChatGPT时刻,产业落地加速

第 1 页,共 2 页


留下高论






90Vkvg
PDF Viewer / PDF查看器