AI公司Anthropic意外泄露了即将发布的模型、独家CEO活动和其他内部数据的详细信息,这似乎是一次重大的安全失误。

泄露内容曝光

这些尚未公开的信息通过公司的内容管理系统(CMS)被公开访问,Anthropic使用该系统向公司网站的某些部分发布信息。

总共有近3000个与Anthropic博客链接的资产此前未发布到公司面向公众的新闻或研究网站,但在这个数据缓存中仍然可以公开访问。

在Fortune通知Anthropic此问题后,公司采取措施保护数据,使其不再公开可访问。

漏洞原因:CMS配置失误

在采取这些措施之前,Anthropic将其网站的所有内容——如博客文章、图像和文档——存储在无需登录即可访问的中央系统中。任何有技术知识的人都可以向该面向公众的系统发送请求,要求其返回包含的文件信息。

虽然其中一些内容尚未发布到Anthropic的网站,但底层系统仍会向知道如何询问的任何人返回它存储的数字资产。这意味着未发布的材料——包括草稿页面和内部资产——可以直接被访问。

问题似乎源于Anthropic使用的CMS的工作方式。上传到中央数据存储的所有资产——如徽标、图形或研究论文——默认都是公开的,除非明确设置为私有。公司似乎忘记限制某些不应公开的文档的访问权限,导致大量文件在公司公共数据湖中可用。

Anthropic发言人对Fortune表示:”我们的一个外部CMS工具出现问题,导致草稿内容可被访问。”发言人将此问题归因于”CMS配置中的人为错误”。

新模型”Mythos”曝光

文档包括即将发布的产品公告详细信息,包括有关Anthropic在文档中称其训练过的最强大模型的信息。

被联系后,公司承认正在开发并与早期访问客户测试一个新模型,称其代表AI能力的”阶梯式变化”,在”推理、编码和网络安全”方面比之前的Anthropic模型有显著更好的性能。

据报道,新模型的名称将是”Mythos”。其他内部信息(如仅限受邀者参加的欧洲大公司CEO retreat详情)也可被访问,Anthropic CEO Dario Amodei计划出席该活动。

AI编码工具加剧风险

这不是科技公司第一次在正式发布前通过公开可访问意外暴露内部或预发布资产。苹果曾两次通过自己的网站泄露信息,游戏公司如Epic Games和任天堂也通过内容分发网络或暂存服务器看到预发布图像、游戏内资产和其他媒体泄露。

然而,现在市场上 readily可用的AI编码工具——包括Anthropic自己的Claude Code——可能加剧了这个问题。

这些工具可以自动化爬取、模式检测和公开可访问资产的关联,使发现此类内容变得更加容易,并降低了这样做的门槛。像Claude Code或Codex这样的AI工具还可以生成扫描整个数据集的脚本或查询,快速识别人类可能错过的模式或文件命名约定。

Anthropic的回应

公司试图淡化一些被泄露材料的重要性。”这些材料是考虑发布的早期草稿内容,不涉及我们的核心基础设施、AI系统、客户数据或安全架构,”发言人说。

尽管最近发生多次备受瞩目的技术故障和混乱,Anthropic表示这次CMS问题”与Claude、Cowork或任何Anthropic AI工具无关”。公司还表示正在开发一个具有”推理、编码和网络安全方面有意义进步”的通用模型。

行业启示

这起事件提醒所有AI公司:在推广AI安全和负责任AI的同时,自身的运营安全同样重要。即使是构建安全AI系统的公司,也可能在基础设施配置方面犯下基本错误。

对于依赖AI编码工具加速开发的公司,这种风险可能更加突出。自动化工具可以帮助快速发现和利用此类漏洞,使得传统的”隐式安全”(依赖复杂路径或模糊命名)不再是有效的防护策略。