OpenAI CEO Sam Altman宣布公司已与五角大楼成功谈判新条款,声称维护了两条最重要的安全原则:禁止对美国人大规模监控,以及要求人类对武力使用负责。然而,多方质疑OpenAI是否真的守住了这些红线,还是仅仅同意了”任何合法使用”的宽松条款。
事件背景
此前,Anthropic因坚持两条军事使用红线而面临五角大楼的”供应链风险”认定:不得大规模监控美国人,不得开发完全自主的致命武器。Altman则表示OpenAI找到了独特方式将这些限制保留在合同中。
然而,了解五角大楼与AI公司谈判的知情人士透露,OpenAI的协议比Anthropic争取的要软得多,关键在于三个词:”任何合法使用”。
“合法使用”的模糊性
OpenAI的协议规定,如果是技术合法的,美军就可以使用OpenAI技术执行。问题在于,过去几十年来,美国政府已将”技术合法”的定义扩展到涵盖大规模监控项目。
OpenAI前政策研究负责人Miles Brundage在X上表示:”考虑到外部律师和五角大楼的说法,OpenAI员工的默认假设应该不幸地是:OpenAI妥协了+将其框架化为没有妥协,并且搞砸了Anthropic的同时将其框架化为帮助他们。”
历史先例令人担忧
9/11事件后,美国情报机构建立了大规模监控系统,包括据报道每天收集Verizon客户电话记录,以及通过PRISM项目从微软、谷歌和苹果等公司收集大量个人数据。尽管承诺改革,但这些权力几乎没有受到实质性限制。
Techdirt创始人Mike Masnick指出,OpenAI的协议”绝对允许国内监控”。EO 12333是NSA通过在美国境外接入通信线路来隐藏其国内监控的方式,即使其中包含美国人员的信息。
致命武器的红线同样模糊
OpenAI的协议声明其技术”在任何法律、法规或部门政策要求人类控制的情况下,不会被用于独立指挥自主武器”。这使其符合2023年国防部指令。但似乎没有额外的合同禁令或限制——这正是其能够与五角大楼签署协议的原因。
知情人士指出,即使OpenAI的技术不直接参与扣动扳机,它也可能为之前的一切提供动力,且不保证人类监督最终步骤。
对AI行业的启示
这一争议凸显了AI公司与军方合作的核心困境:如何在服务国家安全需求的同时,坚守伦理底线?当”合法”的定义可以被政府重新诠释时,合同条款能否真正保护公众利益?
OpenAI的协议可能成为AI行业与军方合作的先例。其他AI公司将如何回应,公众信任将如何演变,都是悬而未决的问题。
发表回复