Nvidia CEO黄仁勋认为我们已经实现了通用人工智能(AGI)——这听起来很厉害,如果有人能同意它到底是什么意思,或者”AGI”是否是正确的术语的话。
但嘿,这意味着黄仁勋可以按自己的喜好定义它,并在方便的时候宣布成功。
这不是Nvidia CEO第一次就AGI发表大胆声明。但这次,他加入了越来越多宣称我们已经到达或接近这一里程碑的科技领袖行列——问题是,每个人的定义都不一样。
AGI:移动的球门柱
AGI一直是AI行业的圣杯,但定义却出奇模糊。传统上,它指的是能执行人类可以执行的任何智力任务的AI系统。但在实践中,这个定义已经演变成一个移动的目标:
- 经济定义:能执行大多数经济上有价值工作的AI
- 认知定义:能在任何认知任务上匹配或超越人类表现的AI
- 自主定义:能自主学习、推理并在新领域泛化的AI
- 能力定义:能做OpenAI、Google、Anthropic最新模型能做的事——但这定义每天都在扩展
黄仁勋的具体定义是什么?他没有详细说明。但Nvidia的利益是显而易见的:AGI叙事推动对GPU的需求,而Nvidia恰好是GPU的主要供应商。
宣布AGI的战略价值
宣称AGI已实现对AI公司有几个战略用途:
股价支撑:在投资者开始质疑AI泡沫之际,”我们做到了”的叙事可以证明估值的合理性。
营销差异化:如果你的产品已经实现AGI,为什么还要买竞争对手的?
招聘优势:顶尖AI人才想在最前沿工作。
监管博弈:如果AGI已存在,也许我们不需要那么多新法规——或者反过来,也许我们需要更多。
行业趋势:从AGI到更模糊的术语
有趣的是,一些AI公司已经开始重新命名AGI。《华尔街日报》报道,部分公司更倾向于使用”通用AI”或完全避免使用这个术语,因为AGI承载了太多科幻包袱和不切实际的期望。
OpenAI的官方章程将AGI定义为”高度自主的系统,在大多数具有经济价值的工作中表现优于人类”。但这个定义也留下了解释空间——什么是”大多数”工作?什么算”表现优越”?
现实检验
无论是否称之为AGI,今天的AI系统确实令人印象深刻:
- 通过律师资格考试和医学执照考试
- 编写复杂代码并调试程序
- 生成照片级逼真的图像和视频
- 进行多轮复杂对话
- 控制电脑完成实际任务(如Claude的Mac控制)
但它们也有明显局限:
- 幻觉和事实错误仍然常见
- 复杂推理任务中会出现基础性失败
- 缺乏持续学习和记忆
- 对新领域的泛化能力有限
- 没有真正的”理解”或”意识”(尽管这个概念本身有争议)
Nvidia的AGI赌注
黄仁勋的AGI声明恰逢Nvidia大力推动AI代理基础设施。在最近的GTC上,公司宣布了Nemotron联盟——与包括Mistral在内的模型构建者合作开发开放前沿模型。
Nvidia的立场似乎是:”专有与开源不是对立——是专有加开源。”这是一个聪明的商业策略:无论AGI如何定义,Nvidia都想成为其运行的硬件基础。
实用主义视角
也许AGI的定义不如AI系统的实际影响重要。正如一位评论者在Verge的文章下所说:”只要你定义得足够模糊,任何东西都可以是AGI。”
对于企业和用户,真正的问题是:
- AI能否可靠地完成我们需要的任务?
- 成本是否在可接受范围内?
- 风险是否可控?
- 我们能信任AI做出的决策吗?
这些问题的答案远比AGI标签更重要。Nvidia宣布AGI已实现可能是有效的——按照他们的定义。但对于其他人来说,AGI可能仍然是那个永远移动的目标,每当AI跨越一个里程碑,AGI的定义就会向后退一步。
无论如何,黄仁勋可以声称成功——因为这是他定义的游戏,他可以随时宣布胜利。
发表回复