如果你想在自己的办公桌上运行一个GPT-4级别的AI模型,现在可以实现了。英伟达本周一发布了DGX Station——一款足够强大的桌面侧超级计算机,可以运行高达一万亿参数的AI模型,完全不需要云端。
20 Petaflops,就放在你桌上
DGX Station内置748 GB统一内存和20 Petaflops算力——20千万亿次/秒的运算能力。放在不到十年前,这会跻身世界顶级超算行列。2018年排名第一的橡树岭国家实验室Summit系统,算力大约是它的十倍,但占据了两个篮球场大小的空间。现在,英伟达把相当一部分能力装进了一个可以插墙插座的小盒子里。
748 GB统一内存可能比算力更重要。万亿参数模型是巨大的神经网络,必须完全加载到内存中才能运行。没有足够的内存,再快的处理速度也没用——模型根本装不下。DGX Station不仅越过了这个门槛,而且采用连贯架构,消除了在CPU和GPU内存池之间传输数据的延迟惩罚。
为”始终在线的智能体”而设计
英伟达明确将DGX Station定位为AI下一阶段的硬件:能够持续推理、规划、编写代码并执行任务的自主智能体——不是只响应提示就停止的系统。GTC 2026的每一个重要公告都强化了这个”智能体AI”论题,而DGX Station正是为构建和运行这些智能体而生。
关键搭配是NemoClaw——英伟达同日宣布的新开源技术栈。NemoClaw将英伟达的Nemotron开源模型与OpenShell(一个为自主智能体实施基于策略的安全、网络和隐私护栏的安全运行时)打包在一起。一条命令就能安装整个技术栈。英伟达CEO黄仁勋直言,OpenClaw是”个人AI的操作系统”,并将其与Mac和Windows直接类比。
从桌面原型到数据中心生产,零重写
DGX Station设计中最巧妙的一点是英伟达所谓的架构连续性。在机器上构建的应用可以无缝迁移到公司的GB300 NVL72数据中心系统——为超大规模AI工厂设计的72-GPU机架——无需重写一行代码。英伟达正在销售一条垂直整合的流水线:在桌上原型开发,准备好后扩展到云端。
这很重要,因为当今AI开发最大的隐性成本不是算力——而是因不同硬件配置重写代码而损失的工程时间。在本地GPU集群上微调的模型通常需要大量返工才能部署在具有不同内存架构、网络堆栈和软件依赖的云基础设施上。DGX Station消除了这种摩擦,它运行与英伟达基础设施每一层相同的NVIDIA AI软件栈。
谁在买?
首批客户名单揭示了AI从实验转向日常运营工具最快的行业。Snowflake正在使用该系统本地测试其开源Arctic训练框架。电力研究院EPRI正在推进AI驱动的天气预报以加强电网可靠性。Medivis正在将视觉语言模型整合到手术流程中。微软研究院和康奈尔大学已部署该系统用于大规模AI训练。
DGX Station现可订购,将在未来几个月内由华硕、戴尔、技嘉、微星和超微发货,惠普将在今年晚些时候加入。英伟达尚未披露定价,但GB300组件和公司历史上的DGX定价表明这是一笔六位数的投资——以工作站标准看昂贵,但与大规模运行万亿参数推理的云GPU成本相比,便宜得惊人。
模型生态:硬件瑞士
支持的模型列表显示了AI生态的开放程度:开发者可以运行和微调OpenAI的gpt-oss-120b、Google Gemma 3、Qwen3、Mistral Large 3、DeepSeek V3.2以及英伟达自家的Nemotron模型等。DGX Station在设计上是模型无关的——在这个模型阵营季度性变化的行业中,做一个硬件中立国。
发表回复