在五角大楼发出的最后通牒期限前不到24小时,Anthropic拒绝了国防部对其AI无限制访问的要求。这标志着AI公司与军方合作边界的重大争议,也引发了关于AI技术用于军事目的的伦理讨论。

两条红线

Anthropic CEO Dario Amodei在周四晚间的声明中表示,公司在两个具体问题上拒绝让步:不对美国公民进行大规模监控,不开发无需人类监督即可杀戮目标的完全自主武器。

“我深信使用AI保卫美国和其他民主国家、击败专制对手的重要性,”Amodei写道,”Anthropic因此主动将我们的模型部署到战争部和情报界。”但他强调,在”极少数情况下,我们认为AI可能削弱而非捍卫民主价值”——具体指国内大规模监控和完全自主武器。

五角大楼的强硬态度

这场冲突围绕”任何合法使用”(any lawful use)三个字展开。五角大楼要求AI公司在合同中接受这一条款,意味着军方可以合法使用AI进行任何目的,包括大规模监控和自主武器。据报道,OpenAI和xAI已经同意了这些新条款。

五角大楼CTO Emil Michael,这位前Uber高管,主导了对Anthropic的施压。公司被威胁列入”供应链风险”名单——这通常是留给国家安全威胁、恶意外国影响或网络战的分类。如果正式列入,Anthropic将失去与军方的2亿美元合同,更严重的是,任何与军方合作的国防承包商都必须停止使用Claude。

法律框架的滞后性

Anthropic坚持认为,现行法律框架尚未跟上AI的能力。AI最擅长的是发现模式,而人类行为本质上就是一系列模式——想象一个AI系统叠加任何个人的地理位置数据、网络浏览信息、个人财务数据、监控录像、选民登记记录等,能够自动、大规模地构建任何人的全面画像。

“使用这些系统进行大规模国内监控与民主价值观不相容,”Amodei写道,”强大的AI使将这些分散的、个体上无害的数据自动组装成任何人生活的全面画面成为可能。”

行业震动

Anthropic的拒绝引发了AI行业的广泛讨论。作为第一个被允许处理机密信息的AI模型,Claude在国防领域有独特地位。主要国防承包商如AWS、Palantir和Anduril都在其军事工作中使用Claude。

与此同时,五角大楼已确认与Elon Musk的xAI签署协议,将Grok用于机密系统。这被视为对Anthropic施压的另一种手段。

这场冲突的结果将影响AI公司与军方合作的未来方向。如果Anthropic成功坚持其原则,可能为行业树立先例;如果被迫妥协,则可能开启AI军事应用的新篇章。