你有没有遇到过这种情况:给AI Agent喂了一大堆资料,结果它反而答非所问、逻辑混乱?别急着怪模型不行,问题可能出在一个你意想不到的地方——上下文过载(Context Bloat)。

一个90%效率提升背后的隐忧

VentureCrowd最近分享了一个案例:他们使用AI编码代理,将前端开发周期缩短了惊人的90%。听起来很美好对吧?但深入使用后,他们发现问题的本质不是”AI够不够聪明”,而是”AI能不能在信息洪流中保持清醒”。用他们自己的话说:这是一个”披着AI外衣的上下文问题”。

这个洞察非常关键。过去一年,大家都在讨论模型能力、推理水平、多模态……但很少有人认真思考:当我们把越来越多的上下文塞给Agent时,到底是在帮它,还是在害它?

上下文过载:Agent失败的隐形杀手

传统观点认为,给AI更多的上下文 = 给AI更多信息 = AI表现更好。这个等式在一定范围内成立,但超过某个临界点后,效果会急剧反转。

原因在于:

  • 注意力稀释:模型的注意力是有限资源。当上下文窗口被大量信息填满,真正关键的信息反而被”稀释”了
  • 噪声干扰:不相关的上下文会成为噪声,干扰模型的判断。就像你在一个嘈杂的派对上试图听清朋友说话
  • 幻觉放大:过多的上下文反而增加了模型”脑补”的空间,因为它需要在更多信息中做出选择

Salesforce的解法:Abilities和Skills

Salesforce在Agentforce Vibes 2.0中引入了两个新概念:Abilities(能力)和Skills(技能)。本质上,这是一种上下文隔离机制——不是给Agent所有信息,而是让它在特定任务中只看到相关的上下文。

这种设计思路的核心是”减法思维”:与其不断增加上下文,不如精心设计”什么不给Agent看”。这和人类专家的工作方式很像——一个好的外科医生在手术时不需要了解病人的财务状况。

行业里的不同流派

面对上下文管理这个难题,不同的AI工具走了不同的路:

  • Claude Code:提供了上下文指示器,让开发者随时知道当前上下文的”占用率”,像手机电量一样直观
  • Codex:更注重自主执行,让Agent自己决定需要什么上下文,减少人工干预
  • Agentforce:通过Abilities和Skills进行企业级的上下文治理

没有绝对的对错,但趋势很明确:从”尽可能多给”转向”精准供给”。

给开发者的实践建议

如果你正在构建或使用AI Agent,这里有几条实用建议:

  • 设定上下文预算:就像你不会无限给员工发工资,也不应该无限给Agent塞上下文
  • 分层设计:将上下文分为核心层(必须)、辅助层(有用)、噪声层(排除)
  • 动态调整:根据任务类型动态调整上下文范围,而不是一刀切
  • 监控和反馈:建立上下文效果的监控机制,持续优化

结语

AI Agent的时代已经到来,但”如何正确使用Agent”这个问题,我们才刚刚开始回答。上下文过载是一个被严重低估的问题——它不性感,不引人注目,但却是决定Agent能否真正落地的关键因素之一。记住:在AI的世界里,”更多”不等于”更好”,”精准”才是王道。