Anthropic已就其被指定为供应链风险向美国政府提起诉讼,这是与五角大楼持续数周争议的最新进展,争议焦点是其军事AI技术的可接受用例。诉讼在加州地方法院提起,指控特朗普政府非法惩罚该公司在大众监控和完全自主武器问题上划定”红线”。

诉讼核心

“联邦政府因一家领先的前沿AI开发商坚持其对重大公共议题——AI安全及其AI模型局限性——的受保护观点,而对其进行报复,这违反了美国宪法和法律,”诉讼文件指出。”被告试图摧毁全球增长最快的私营公司之一所创造的经济价值,该公司是负责任开发新兴技术的领导者。”

过山车般的几周

这场诉讼发生在Anthropic经历了戏剧性的几周之后。公司先是面临被列为供应链风险的威胁,然后正式获得这一指定。这种指定通常不会公开,往往适用于可能构成网络安全威胁或其他国家安全风险的外国公司,而非美国本土公司。

此外,特朗普总统下令所有政府机构在六个月内停止使用Anthropic的技术。Anthropic被列入黑名单引发了关注,并造成了重大争议,因为人们担心与现任政府意见不合可能会严重影响公司的底线——以及它是否能够作为企业继续运营。

法律论点

Anthropic辩称政府的行动惩罚其受第一修正案保护的言论,并违反了其第五修正案权利。此外,它表示要求所有政府机构放弃它的要求超出了行政部门的权限。

Anthropic自最初宣布以来就表示将在法庭上挑战供应链风险指定。最近几天,公司的一些最大客户(如微软)已明确表示他们将继续与Anthropic合作,但建立流程确保他们与Anthropic的合作不涉及他们自己与五角大楼的任何合作。

广泛影响

诉讼指出,国防部以外的政府机构也已切断与Anthropic的联系。总务管理局终止了其OneGov合同,”结束了Anthropic服务对联邦政府三个分支机构的可用性。”其他多个机构——包括财政部和国务院——已公开或据报道私下表示他们也计划停止使用。

五角大楼拒绝置评。

AI安全与国家安全的边界

此案揭示了AI发展中的一个核心张力:AI公司如何平衡商业成功、安全承诺和国家利益?Anthropic一直以”负责任AI开发”为旗号,在军事应用上划定界限。但政府可能认为,在国家安全背景下,这些限制是不可接受的障碍。

更深层次的问题是:当AI公司的价值观与政府政策冲突时,政府能做什么?如果政府可以因为公司不同意其政策而将其列入黑名单,这将对整个AI行业产生寒蝉效应。AI公司可能会被迫在安全原则和政府合同之间做出选择。

行业启示

此案的结果将对AI行业产生深远影响。如果Anthropic胜诉,将确立AI公司在政府关系中有权设定自己的道德边界。如果政府胜诉,将发出强烈信号:与政府合作意味着接受政府的全部政策议程。

对于其他AI公司来说,这也是一个警示。在与政府机构建立合作关系时,需要考虑如果价值观冲突会发生什么。微软等公司已经在建立防火墙,将政府工作与其他业务分开,这可能成为未来行业标准。

此案也凸显了AI技术在国家战略中的重要性。无论结果如何,它都将塑造AI公司与政府互动的方式,以及AI技术在美国国防和安全中的角色。