当演讲屏幕上展示出包含1152个GPU、重达2吨、内部有2英里铜缆的Vera Rubin计算阵列时,现场观众才意识到,人工智能的“思考”即将变得比以往任何时候都更加深刻。
拉斯维加斯的CES 2026展会上,身穿标志性黑色皮衣的黄仁勋站在台上,用90分钟的演讲向全球宣告:人工智能正在经历一场根本性的蜕变。
这场演讲不仅是对英伟达未来发展的蓝图描绘,更是对整个AI产业的明确指引。从开源模型的爆发到物理AI的崛起,再到革命性的Rubin架构量产,黄仁勋在演讲中释放了多重信号。
一、双重平台迁移,AI重塑十万亿基础设施市场
演讲一开始,黄仁勋便以历史视角为整场演讲定调。他解释了计算机行业的基本规律——每10到15年发生一次根本性平台重置。
从大型机到PC,从互联网到移动计算,如今轮到人工智能引领新一轮重置。
不同的是,这次重置的规模空前——全球价值约10万亿美元的传统计算基础设施正被系统性地现代化改造。
这种改造并非孤立的软硬件升级,而是双重平台迁移同时发生:一方面是应用本身的重构,从“编写”转向“训练”;另一方面是整个计算栈被重写,软件如何开发、如何运行、运行在什么硬件之上都在被重新定义。
在黄仁勋看来,这意味着AI投资并非凭空创造泡沫,而是来自企业研发预算、风险投资和整个工业体系的系统性迁移。
“你不再仅仅是编写软件,而是在训练它;应用程序也不再是预先编译好的静态代码,而是能理解语境、每一次都从头动态生成内容的全新实体。”黄仁勋解释道。
在这场双重平台迁移中,GPU不再是单纯的图形处理器,而成为默认的计算核心;推理也不再是简单的一次性输出,而是一个持续“思考”的过程。
二、物理AI崛起,从理解语言到理解世界
黄仁勋将大部分演讲时间放在了一个更具革命性的概念上:物理AI。这个概念被他视为人工智能发展的下一波浪潮。
物理AI的根本突破在于教会机器理解物理世界的常识与规律,包括物体恒存性、因果关系、重力、摩擦力和惯性等。
黄仁勋指出,过去AI主要在数字世界活动,但当AI必须理解重力、速度、距离与安全逻辑,并对实体世界的行动结果负责时,才真正迈入新阶段。
实现物理AI需要一套完整的技术框架。英伟达提出的解决方案是 “三台计算机”架构:一台用于训练AI模型,一台用于仿真模拟,一台用于边缘推理。
在这个框架下,仿真与合成数据成为关键。物理世界的数据是有限的、昂贵的,而通过仿真环境,可以在虚拟世界中以低成本生成海量合成数据,让AI面对各种长尾场景。
作为物理AI的核心技术,英伟达推出了开源的“世界基础模型”Cosmos,它能够理解物理规律、生成物理一致的场景数据,并在闭环中训练AI行动能力。
三、Rubin架构量产,芯片设计的协同革命
演讲中最具冲击力的技术发布是Vera Rubin计算架构的全面量产。这一架构是对摩尔定律放缓的激进回应。
面对AI模型规模每年增长10倍、token生成量每年增长5倍的需求,英伟达打破了内部“每代架构最多只改动1-2颗芯片”的准则,一口气重新设计了六颗芯片。
Vera Rubin架构由定制Vera CPU与Rubin GPU组成,两者从设计之初就被定义为双向一致、低延迟的数据共享结构。
Rubin GPU的性能提升令人印象深刻,其在浮点性能上超过Blackwell,而晶体管数量仅为后者的1.6倍。关键在于全新的张量核心与Transformer Engine设计,而非单纯堆叠规模。
整个架构的系统设计同样革新:新的计算托盘设计采用无线缆、无水管、无风扇方案,将组装时间从2小时缩短至5分钟。
在数据中心层面,Rubin引入了多个关键改动,每颗GPU可获得1.6TB/s的Scale-out带宽。特别值得注意的是上下文内存体系的创新,通过BlueField-4将KV Cache与上下文管理放入机架内部,为每颗GPU额外提供最高16TB的可扩展内存空间。
为了更直观地展示技术突破,下表对比了Rubin与Blackwell的关键性能指标:
| 性能指标 | Rubin架构 | Blackwell架构 | 提升幅度 |
|---|---|---|---|
| FP4推理性能 | 50 PFLOPS | 10 PFLOPS | 5倍 |
| 晶体管数量 | 3360亿 | 约2100亿 | 1.6倍 |
| 能效比 | 相同热设计功耗下性能提升 | 基准 | 显著提升 |
| 训练效率 | 仅需1/4的GPU数量完成相同训练任务 | 基准 | 4倍效率提升 |
| 单位token成本 | 基准的1/10 | 基准 | 90%成本降低 |
四、开源生态的力量,从DeepSeek到全球创新
黄仁勋在演讲中花费相当篇幅讨论开源模型的革命性影响。他强调2025年是开源模型取得关键突破的一年,各类开源模型系统已触及技术前沿。
值得注意的是,黄仁勋特别指出 “开源模型已触及技术前沿,但仍落后尖端模型约六个月” 。这个明确的差距评估,为整个开源生态提供了清晰的定位。
在众多开源模型中,黄仁勋多次提及DeepSeek R1,称其“让世界震惊”,并强调开源让AI迅速扩散,没有人愿意掉队。
英伟达自身也在大力投入开源生态建设,运营着价值数十亿美元的AI超级计算机DGX Cloud,用于开发开源模型。
在蛋白质数字生物学领域,英伟达的开源模型能够合成生成蛋白质;在天气预报领域,ForecastNet与CORDiff彻底改变了预报方式。
这种开源战略不仅推动技术进步,也塑造了英伟达作为平台提供者的角色,而非某个特定应用领域的竞争者。
