Anthropic又发新模型了。但这次发布背后的产品逻辑,比模型本身更值得深思——Claude Opus 4.7的推出,揭示了一种全新的AI安全策略:分级释放。

Opus 4.7:最强”公开可用”模型

Claude Opus 4.7是Anthropic目前发布的最强”公开可用”模型。在复杂编码任务上,相比前代Opus 4.6有显著提升。早期测试者包括Intuit、Replit、Cursor、Notion、Shopify等行业头部公司,覆盖了从编码工具到企业软件的多个领域。

定价方面,Opus 4.7与Opus 4.6保持一致:输入$5/百万token,输出$25/百万token。在模型能力大幅提升的同时维持价格不变,这本身就是一个积极的信号——说明Anthropic有能力在控制成本的同时提升模型质量。

什么是”分级释放”?

Opus 4.7最有趣的不是它的性能,而是它与Mythos Preview之间的关系。

我们已经知道,Anthropic同时发布了网络安全专用模型Mythos Preview,这个模型在所有主流操作系统和浏览器中发现了数千个高危漏洞。但Opus 4.7在网络安全方面的能力,实际上是被有意”削弱”的——Anthropic在训练过程中主动降低了它的网络安全能力。

这就是”分级释放”(Tiered Release)策略的核心:先在能力较弱的公开模型上测试安全防护措施,确认防御机制有效后,再逐步开放能力更强的模型。

具体来说,Anthropic的策略是这样的:

  • 第一层(公开可用):如Claude Opus 4.7,网络安全能力被主动削弱,普通用户和企业可以安全使用
  • 第二层(合作伙伴专用):如Mythos Preview,具备完整的网络安全能力,仅限经过审核的合作伙伴使用
  • 第三层(内部研究):可能存在的更强模型,仅限Anthropic内部安全团队使用

为什么这很重要?

分级释放策略解决了AI安全领域一个长期困扰的问题:如何在开放AI能力的同时控制安全风险?

过去,AI公司通常面临两难选择:

  • 选择一:完全开放——将最强的模型直接发布给所有人。好处是推动创新和普及,但风险是恶意使用者可能利用模型能力进行攻击。
  • 选择二:完全封闭——将模型严格限制在内部使用。好处是控制风险,但阻碍了技术进步和社会受益。

分级释放策略提供了第三条路:不是简单的”开放”或”封闭”,而是根据模型能力的风险等级,分层次、分对象地释放。这种策略既保护了公众安全,又不阻碍技术进步。

AI安全不只是技术问题,更是产品策略

Opus 4.7的发布让我深刻认识到一个事实:AI安全不仅仅是一个技术问题,更是一个产品策略问题。

技术层面的安全措施(如对齐训练、安全过滤器、红队测试)固然重要,但如果没有合理的产品策略配合,再好的技术也可能被绕过。分级释放就是这样一种产品策略——它不是试图让一个模型”完全安全”,而是通过控制模型的分发范围来管理风险。

这种思路与现实世界中的安全管理非常相似。我们不会因为汽车可能被用于犯罪就禁止所有人开车,而是通过驾照制度、交通规则、保险机制等多种手段来管理风险。AI安全同样需要这样系统性的治理框架。

对开发者和企业的启示

对于使用Claude API的开发者和企业来说,Opus 4.7的发布有几个实际意义:

性能提升:如果你的业务涉及复杂的编码任务,Opus 4.7会是一个更好的选择。早期测试者的反馈非常积极,特别是在代码理解和生成方面。

价格稳定:Anthropic没有因为性能提升而涨价,这对已经在使用Claude API的企业来说是个好消息。成本可预测性对于企业级应用至关重要。

安全信任:分级释放策略表明Anthropic在安全方面是认真的。如果你的企业对AI安全有较高要求,这种负责任的态度值得考虑。

我的思考

作为一个关注AI发展的观察者,我认为Anthropic的分级释放策略可能会成为行业标准。随着AI模型越来越强大,如何平衡开放性和安全性将成为每个AI公司必须面对的问题。

OpenAI目前采取的是相对激进的开放策略,将最强的模型直接推向市场。但随着安全事件的增多和监管压力的加大,OpenAI可能也不得不采取类似的分级策略。

从更宏观的角度来看,分级释放策略也为AI监管提供了一个可操作的框架。政府和行业组织可以根据模型的能力等级,制定相应的准入标准和使用规范。这比一刀切的”禁止”或”放任”都更加合理和有效。

最终,AI安全的目标不是阻止技术进步,而是确保技术进步的方向是对人类有益的。Anthropic的分级释放策略,正是朝着这个目标迈出的一步。