在刚刚结束的GTC 2026大会上,英伟达CEO黄仁勋发布了代号为Vera Rubin的新一代AI计算平台,这个由七颗芯片组成的系统标志着AI基础设施架构的重大变革。与此前Blackwell系统相比,Vera Rubin在推理吞吐量上实现了10倍提升,同时将每token成本降至原来的十分之一。

七芯片架构:为AI代理时代而生

Vera Rubin平台整合了七颗关键芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换机以及新集成的Groq 3 LPU推理加速器。这些组件被组织成五个互联的机架级系统,协同工作形成统一的超级计算机。

旗舰级NVL72机架集成了72个Rubin GPU和36个Vera CPU,通过NVLink 6互联。英伟达表示,该系统训练大型混合专家模型所需的GPU数量仅为Blackwell平台的四分之一,这一突破性进展有望从根本上改变构建前沿AI系统的经济模型。

专为代理式AI优化的Vera CPU

Vera CPU是英伟达首个专为代理式AI和强化学习设计的处理器,搭载88个定制的Olympus核心和LPDDR5X内存,提供每秒1.2TB的带宽,功耗仅为传统服务器CPU的一半。单机架可容纳256个液冷处理器,支持超过22,500个并发CPU环境——这正是AI代理执行代码、验证结果和迭代的沙盒空间。

黄仁勋将这一发布称为”代际飞跃”,并预言这将开启”历史上最大的基础设施建设浪潮”。AWS、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure都已承诺提供Vera Rubin平台,超过80家制造合作伙伴正在围绕该平台构建系统。

Nemotron联盟:推动开源前沿模型

在硬件之外,英伟达还宣布成立Nemotron联盟,这是一个由全球AI实验室组成的合作组织,旨在共同开发开源前沿模型。创始成员包括Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam以及前OpenAI高管Mira Murati创立的Thinking Machines Lab。

首款模型将由Mistral AI与英伟达联合开发,成为即将推出的Nemotron 4系列的基础。英伟达还扩展了自家的开源模型组合,推出了Nemotron 3 Ultra、Nemotron 3 Omni和Nemotron 3 VoiceChat等多款模型。

从数据中心到太空

英伟达的野心不限于地面数据中心。Vera Rubin太空模块为轨道推理提供的AI算力是H100 GPU的25倍。Aetherflux、Axiom Space、Kepler Communications、Planet Labs和Starcloud等公司已开始基于该平台构建。

在自动驾驶领域,比亚迪、吉利、五十铃和日产正在英伟达Drive Hyperion平台上打造L4级自动驾驶车辆。英伟达与Uber的合作计划到2028年在四大洲的28个城市推出自动驾驶车辆,首批将于2027年上半年在洛杉矶和旧金山启动。

随着OpenAI、Anthropic、Meta等AI巨头的背书,以及各大云服务商的支持,Vera Rubin正成为AI计算领域的新标杆。对于正在规划AI基础设施的企业来说,这意味着更强的推理性能、更低的运营成本,以及为即将到来的代理式AI时代做好准备的全新可能性。