在刚刚结束的 GTC 2026 大会上,Nvidia CEO 黄仁勋亲自揭晓了代号为 Vera Rubin 的全新 AI 计算平台。这不仅仅是一次硬件升级,而是一次架构层面的彻底革新——七个独立芯片协同工作,构建出前所未有的 AI 算力基础设施。
七芯片架构:从单一 GPU 到系统级解决方案
Vera Rubin 平台的最大亮点在于其独特的七芯片设计。这套架构包括:
- Vera CPU:专为 AI Agent 设计的处理器,配备 88 个定制 Olympus 核心,内存带宽达 1.2TB/s,功耗仅为传统服务器 CPU 的一半
- Rubin GPU:新一代图形处理器,与 Blackwell 相比,推理吞吐量每瓦提升 10 倍
- NVLink 6 Switch:高速互联开关,实现芯片间无缝通信
- ConnectX-9 SuperNIC:网络接口卡,优化数据中心连接
- BlueField-4 DPU:数据处理单元,负责安全与网络加速
- Spectrum-6 Ethernet:以太网交换机,光学效率提升 5 倍
- Groq 3 LPU:专门用于推理加速的处理器
这种多芯片协同设计反映出 Nvidia 对 AI 工作负载的深刻理解:现代 AI 系统不仅需要强大的 GPU 算力,还需要高效的 CPU 协调、高速的网络互联和智能的数据处理。
性能飞跃:成本与效率的双重突破
根据 Nvidia 官方数据,Vera Rubin 平台带来了令人瞩目的性能提升:
- 推理吞吐量:相比 Blackwell 系统,每瓦性能提升 10 倍
- Token 成本:降至原来的十分之一
- 模型训练:使用四分之一的 GPU 即可完成大规模 MoE 模型训练
旗舰产品 NVL72 机柜集成了 72 块 Rubin GPU 和 36 颗 Vera CPU,通过 NVLink 6 实现全互联。这意味着万亿参数级别的模型训练变得触手可及。
生态支持:从云端到太空的全面覆盖
Vera Rubin 获得了业界前所未有的支持力度。云服务商方面,AWS、Google Cloud、Microsoft Azure 和 Oracle Cloud 均将提供该平台服务。AI 公司层面,OpenAI、Anthropic、Meta、Mistral AI 等领军企业纷纷表示合作意向。
值得一提的是,Nvidia 还推出了 Vera Rubin Space Module,专为太空数据中心设计,算力比 H100 提升 25 倍。Aetherflux、Axiom Space、Kepler Communications 等航天公司已开始采用。
战略意义:Agent 时代的算力基础设施
黄仁勋在演讲中强调:”Agent AI 的拐点已经到来,Vera Rubin 将开启史上最大规模的基础设施建设。” 这句话道出了 Nvidia 的战略核心——为自主 AI Agent 时代构建底层算力支撑。
与传统的聊天机器人不同,AI Agent 需要持续运行、自主决策、执行复杂任务。这要求算力基础设施不仅要快,还要稳定、安全、高效。Vera Rubin 的七芯片架构正是为这一需求量身定制。
随着 Vera Rubin 的发布,Nvidia 进一步巩固了其在 AI 算力领域的领导地位。对于开发者和企业而言,这意味着更低的成本、更高的效率,以及构建下一代 AI 应用的全新可能。
发表回复