Anthropic已就其被指定为供应链风险一事起诉美国政府,这是该公司与五角大楼数周来围绕其军事AI技术可接受用例之争的最新进展。该诉讼在加利福尼亚州地方法院提起,指控特朗普政府非法惩罚该公司因在大众监控和全自主武器方面划定红线而行使受保护观点。
诉讼指出,联邦政府因一家领先的AI前沿开发者坚持其对AI安全和自身AI模型局限性这一重大公共议题的受保护观点而对其进行报复,这违反了美国宪法和法律。被告正试图摧毁全球增长最快的私营公司之一的经济价值,而该公司是负责任开发重大新兴技术的领导者。
事件背景
这起诉讼源于Anthropic过去几周的过山车式经历。该公司先是面临被列为供应链风险的威胁,随后被正式指定为供应链风险。这种指定通常不会公开,通常适用于可能对国家安全构成网络安全威胁或其他实质性风险的外国公司,而不是总部位于美国的公司。此外,特朗普总统命令所有政府机构在六个月内停止使用Anthropic的技术。
法律论点
Anthropic辩称,政府的行为因其惩罚其受第一修正案保护的言论而违反宪法,同时也侵犯了其第五修正案权利。此外,该公司表示,要求所有政府机构放弃使用它的命令超出了行政部门的权限。
Anthropic自最初公告以来就表示,将在法庭上质疑供应链风险指定。最近几天,该公司的一些最大客户如微软已明确表示,他们将继续与Anthropic合作,但会建立流程,确保与Anthropic的合作不涉及他们自己与五角大楼的任何合作。
AI安全与国家安全的冲突
这起诉讼凸显了AI公司在安全与国家安全之间面临的深刻困境。Anthropic一直以其对AI安全的承诺而著称,公开划定红线——拒绝参与大规模监控和全自主武器开发。但这种立场现在似乎与五角大楼的期望产生了冲突。
行业影响
Anthropic并非唯一面临这类困境的AI公司。OpenAI、Google DeepMind等公司都在努力平衡商业利益、伦理承诺和政府关系。这一事件的教训可能是深远的,它表明即使是最谨慎的AI公司也可能因其伦理立场而面临生存威胁。
未来展望
无论结果如何,这一案件都将成为AI治理历史上的重要一章。它不仅关乎一家公司的命运,更关乎AI技术将如何在安全与进步、伦理与国家安全之间找到平衡。
发表回复