在 Nvidia GTC 2026 的主题演讲中,一个特殊的嘉宾登场了——来自《冰雪奇缘》的雪人 Olaf。但这个 Olaf 不是动画角色,而是一个真实的机器人。

这个 35 英寸高、33 磅重的机器人拥有 25 个执行器和三台计算机(包括 Nvidia Jetson Orin NX 和 Raspberry Pi),它将在 3 月 26 日登陆巴黎迪士尼乐园,今夏亮相香港迪士尼乐园。

不是 AI,却用了 AI 训练

Olaf 机器人本身不是人工智能——它不能自主对话,所有台词都是预录的 Josh Gad 配音。但训练它”活起来”的过程,却是 AI 强化学习的杰作。

Disney Research 实验室主任 Moritz Bächer 用八个字概括了 Olaf 的动作秘密:”眼睛先动,身体跟随。”当 Olaf 的眼睛先移动时,我们会自动假设它是活物。

更令人惊叹的是训练速度:Disney 将 10 万个虚拟 Olaf 放入 Nvidia 驱动的模拟环境中,只用一块 RTX 4090 GPU,两天就完成了训练。虚拟 Olaf 们因为做出了符合屏幕标准的动作而获得奖励,最终学会了如何自然地移动。

解决机器人的老大难问题

Olaf 的设计挑战不小。传统机器人的头部通常不会很大很重,但 Olaf 的雪人造型要求大头小脖子,这对颈部关节的压力巨大,容易过热。而且 Olaf 的”咚咚咚”走路声也很吵。

在强化学习模拟中,Disney 的解决方案很简单:奖励那些不过热、不太吵的虚拟 Olaf。”就像告诉我六岁的孩子不要在屋里跑:能不能安静一点?这就是我们为 Olaf 做的,”Disney Imagineering 研发高级副总裁 Kyle Laughlin 说。

开源工具 Kamino

Disney 正在开源其模拟工具 Kamino,它与 Nvidia 和 Google DeepMind 发布的 Newton 物理引擎集成。Kamino 可以训练”极其复杂的机械组件”,包括一个简单的热动力学模型来防止关节过早过热。

这些工具被设计成与动画师已经使用的 Maya 等软件接口,让动画师可以创建针对情感的动作,让物理模拟处理机器人实际能做什么。

远程操控,但有未来

目前的 Olaf 由操作员通过 Steam Deck 游戏手柄远程控制。虽然它会自主眨眼,但不能”看见”你——需要操作员拨动摇杆才能看向你。

Disney Research 表示”可信的自主性”是目标,但技术还没达到迪士尼的标准。不过 Laughlin 暗示,Olaf 不会永远依赖人类操控:”真正的力量来自 Olaf 与他认识和喜爱的角色互动。不仅是表演者,还有我们以前无法通过机器人实现的其他角色。”

主题公园的未来

Laughlin 说强化学习是”真正的解锁”,可以让迪士尼在主题公园中部署大量互动角色,整个机器人的构建周期从几年缩短到几个月。

这不仅仅是 Olaf。Disney 正在创建一个机器人角色生态系统,未来可能看到冰雪奇缘的 Olaf 与其他迪士尼角色在同一片区域内互动。对于去迪士尼乐园的孩子来说,这可能意味着不再是与穿着玩偶服的人合影,而是与真正的”活”角色互动。

正如 The Verge 记者 Sean Hollister 写的:”当 Olaf 移动时,我无法移开视线,我自动发现自己一遍又一遍地写’他’。”也许,这正是迪士尼想要的效果——让我们相信魔法是真的。