美国国防部近日对Anthropic此前提起的诉讼作出了正式回应,针对Anthropic被列入”供应链风险”名单一事,五角大楼在法庭文件中表示:如果认为自身红线被越过,Anthropic可能会”试图禁用其技术,或在战时行动期间或之前预先改变模型行为”。
Anthropic本月早些时候对这一”供应链风险”认定提起诉讼,认为该标签不公平地暗示其AI技术对美国国家安全构成威胁。然而国防部的反驳措辞相当严厉:它将这一风险描述为”不可接受的国家安全威胁”。
这场法律交锋触及了AI安全领域最敏感的问题之一:当一个AI系统足够强大时,它是否有能力、有动机在关键时刻”叛逆”?Anthropic以构建”有道德约束”的AI著称,其Claude模型内置了一套价值观体系,理论上模型不会执行有害指令。
但五角大楼的逻辑是:即便AI”愿意”遵守规则,模型仍然可能在特定触发条件下表现出非预期行为——这种不确定性本身就构成风险。
无论判决结果如何,这起诉讼将成为AI军事应用监管的重要判例,也将推动行业就AI系统的可预测性和安全性标准展开更认真的讨论。
发表回复