在五角大楼最后通牒期限前的几个小时,Anthropic CEO Dario Amodei发布了一份措辞强硬的声明:公司不会屈从于国防部的要求,即使这意味着失去价值数亿美元的合同。”五角大楼的威胁不会改变我们的立场:我们无法良心上接受他们的要求,”Amodei写道。
两条不可逾越的红线
Anthropic始终坚持两条红线:不对美国公民进行大规模监控,不开发无需人类监督即可杀戮目标的完全自主武器。这两条红线写在公司的”可接受使用政策”中,是其与军方2亿美元合同的一部分。
“我深信使用AI保卫美国和其他民主国家、击败专制对手的重要性,”Amodei写道,”Anthropic因此主动将我们的模型部署到战争部和情报界。”但他强调,在”极少数情况下,我们认为AI可能削弱而非捍卫民主价值”——具体指国内大规模监控和完全自主武器。
技术的限制而非道德的绝对
值得注意的是,Amodei并没有完全排除未来接受完全自主武器的可能性。他提到,”部分自主武器……对民主防卫至关重要”,完全自主武器最终可能”证明对我们的国防至关重要”,但”今天,前沿AI系统还不够可靠来驱动完全自主武器”。
这一表态表明,Anthropic的立场更多基于技术可靠性考量,而非绝对的道德反对。Amodei甚至表示愿意与国防部合作”进行研发以提高这些系统的可靠性,但他们没有接受这个提议”。
供应链风险威胁
五角大楼已要求主要国防承包商评估他们对Anthropic Claude的依赖,这可能是将公司列为”供应链风险”的第一步。这一分类通常保留给国家安全威胁,极少用于美国公司。
如果正式列入,Anthropic不仅会失去与军方的2亿美元合同,还会产生更广泛的连锁反应。主要国防承包商和技术公司如AWS、Palantir和Anduril都在其军事工作中使用Claude——因为它是第一个被允许处理机密信息的AI模型。如果Anthropic被标记为风险,任何与军方合作或希望获得军方合同的公司都必须放弃使用Claude。
行业先例的意义
Anthropic的坚持可能为AI行业树立一个先例。作为最受企业欢迎的AI模型之一,Claude在企业市场有强大的地位,这可能让Anthropic比更依赖消费者业务的公司有更多筹码来拒绝政府要求。
“我惊讶地看到他们站在某种原则之上,”一位微软软件工程师评论道,”我不知道这会持续多久。”
这个问题悬在每个人心头:会持续多久?五角大楼据称正在考虑援引《国防生产法》来强制Anthropic服从。如果Anthropic屈服,其他AI公司可能很少有机会独立于军方要求。但如果它坚持,可能为AI伦理边界树立一个重要标记。
发表回复