Anthropic 与美国国防部之间的法律战正在升温。在最新提交的法庭文件中,五角大楼反驳了 Anthropic 关于供应链风险 designation 的挑战,提出了一个令人生畏的论点:AI 公司可能在战时禁用自己的技术。

诉讼背景

Anthropic 本月早些时候对美国国防部提起诉讼,挑战将其列为”供应链风险”的决定。这一 designation 可能导致联邦机构被禁止使用 Claude 等产品。

Anthropic 辩称,这一决定是对其宪法第一修正案权利的报复——该公司拒绝了国防部的标准”任何合法使用”条款,该条款要求 AI 公司同意其技术可用于任何合法目的,包括军事行动。

五角大楼的回应

国防部的反驳文件提出了几个关键论点:

1. 拒绝条款不是受保护的言论

政府律师辩称,Anthropic 拒绝接受合同条款”不是言论”,因此不受第一修正案保护。商业合同谈判中的立场选择不同于公开表达观点。

2. 安全担忧是合理的

更令人担忧的是,国防部辩称其风险评估是基于合理的国家安全考虑。文件指出,Anthropic 可能在战时”尝试禁用其技术或在持续的战争行动之前或期间抢先修改其模型行为”,如果它认为自己的红线被跨越。

这种可能性被国防部视为”对国家安全的不可接受风险”。

3. 总统和国防部长的权威

文件强调,总统和国防部长在国家安全事务中拥有广泛的自由裁量权,包括评估供应链风险。Anthropic 的挑战是对行政部门核心权威的挑战。

更广泛的背景

这场诉讼触及了 AI 行业与政府关系中最敏感的问题:

  • AI 公司的红线:Anthropic 是少数明确拒绝某些军事应用的 AI 公司之一
  • 政府依赖风险:如果联邦机构依赖 Claude,而公司可以在关键时刻撤回服务,这确实构成供应链风险
  • 商业自由 vs 国家安全:AI 公司应该有多大自由决定其技术的使用场景?

对行业的意义

这起案件的结果可能为 AI 公司与政府的关系设立重要先例:

  1. 如果 Anthropic 胜诉,AI 公司将有更大空间拒绝军事应用,而不必担心被列入黑名单
  2. 如果政府胜诉,AI 公司可能被迫在”接受军事合同”和”失去政府市场”之间做出选择
  3. 无论结果如何,这都将影响 AI 公司如何设计其使用政策和安全协议

开庭时间

案件定于 3 月 24 日在旧金山联邦法院举行听证会,由 Rita F. Lin 法官主持。

这不仅仅是一家公司与政府的纠纷。它触及了 AI 时代最根本的问题之一:谁控制这项强大的技术?是开发它的公司,还是使用它的政府?答案将塑造 AI 的未来。