英伟达在本周一的GTC大会上发布了代号为Vera Rubin的全新计算平台,这是一个由七颗芯片组成的超级AI系统,号称相比当前的Blackwell架构,推理吞吐量每瓦提升高达10倍,每个token的成本降至原来的十分之一。
七芯片协同,重新定义AI算力架构
Vera Rubin平台整合了Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换机以及新集成的Groq 3 LPU推理加速器。英伟达将这些组件整合成五个相互连接的机架级系统,作为一台统一的超级计算机运行。
旗舰产品NVL72机架集成了72颗Rubin GPU和36颗Vera CPU,通过NVLink 6互连。英伟达表示,它可以使用Blackwell所需GPU数量的四分之一来训练大型专家混合模型——如果这一说法在生产环境中得到验证,将从根本上改变构建前沿AI系统的经济性。
巨头背书:从OpenAI到云服务商
这次发布的一个亮点是重量级客户阵容。Anthropic CEO Dario Amodei表示,英伟达的平台”为我们提供了持续交付所需的算力、网络和系统设计,同时推进了客户所依赖的安全性和可靠性”。OpenAI CEO Sam Altman则称”借助英伟达Vera Rubin,我们将在大规模上运行更强大的模型和代理,为数亿人提供更快、更可靠的系统”。
亚马逊云科技、谷歌云、微软Azure和甲骨文云都将提供该平台的支持,超过80家制造合作伙伴正在围绕它构建系统。
为”智能体AI”时代而生
英伟达CEO黄仁勋将这一发布称为”代际飞跃”,将开启”历史上最大的基础设施建设”。他强调,AI行业正在跨越一个门槛:从简单的聊天机器人(响应一个提示就停止)转向”智能体AI”——能够自主推理数小时甚至数天、编写和执行软件、调用外部工具并持续改进的系统。
这不仅是品牌宣传,而是代表了计算基础设施设计方式的真正架构转变。一个聊天机器人查询可能消耗毫秒级的GPU时间,但一个智能体系统协调药物发现流程或调试复杂代码库可能持续运行,消耗CPU周期来执行代码、GPU周期来推理、以及大量存储来维护跨数千个中间步骤的上下文。这需要的不仅是更快的芯片,而是计算、内存、存储和网络之间根本不同的平衡。
Nemotron联盟:开源模型的新势力
同日宣布的Nemotron联盟是一个全球AI实验室合作组织,将共同在英伟达DGX Cloud上开发开源前沿模型。创始成员包括Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam以及由前OpenAI高管Mira Murati领导的Thinking Machines Lab。首个模型将由Mistral AI和英伟达联合开发,将成为即将推出的Nemotron 4家族的基础。
这一开源模型推动服务于双重目的:培育驱动英伟达硬件需求的开发者生态系统,并将英伟达定位为中立平台提供商而非与其芯片上构建的AI实验室竞争——随着英伟达自家模型能力增强,这种微妙的平衡变得更加复杂。
从手术室到轨道:Vera Rubin的触角远超数据中心
发布的另一个惊人消息是:英伟达宣布了Vera Rubin空间模块,用于轨道数据中心,声称其空间推理算力比H100高出25倍。罗氏公司披露正在美国和欧洲的混合云和本地环境中部署超过3500颗Blackwell GPU——这是医疗保健领域公布的最大的GPU部署。汽车制造商比亚迪和日产正在英伟达平台上开发L4自动驾驶系统。
英伟达的战略清晰:拥有AI堆栈的每一层,从轨道到办公室。Vera Rubin是这一野心的核心硬件体现。
发表回复