AI公司Anthropic意外泄露了即将发布的模型、独家CEO活动和其他内部数据的详细信息——包括图像和PDF——这似乎是一次重大安全疏漏。
这些未公开的信息通过公司的内容管理系统(CMS)可以访问,该系统用于Anthropic向网站各部分发布信息。剑桥大学网络安全研究员Alexandre Pauwels评估后发现,约有3000个与Anthropic博客链接的资源此前从未发布到公司的公开新闻或研究网站,但却在此数据缓存中公开可访问。
漏洞根源:默认公开的配置错误
在《财富》杂志周四通知Anthropic后,公司采取措施保护数据使其不再公开可访问。
此前,Anthropic将网站所有内容——博客文章、图像、文档——存储在无需登录即可访问的中央系统中。任何有技术知识的人都可以向该面向公众的系统发送请求,询问其包含的文件信息。
问题根源在于CMS的工作方式:所有上传到中央数据存储的资源——标志、图形、研究论文——默认都是公开的,除非明确设置为私有。公司似乎忘记限制一些本不应公开的文档访问权限,导致大量文件在公司公共数据湖中可用。
泄露内容:新模型”Mythos”浮出水面
虽然许多文档似乎是过去博客文章的废弃或未使用资源(如图像、横幅和标志),但部分数据似乎包含敏感信息:
- 即将发布的产品公告:包括一个未发布AI模型的详情,文档称这是Anthropic迄今训练的最强大模型
- 新模型”Mythos”:被联系后,公司承认正在开发和测试一个新模型,向早期访问客户提供,称其在”推理、编码和网络安全”方面比之前的Anthropic模型有显著更好的表现,代表了AI能力的”阶梯式变化”
- 独家CEO活动:即将在英国举行的大型欧洲公司CEO独家静修会信息,Anthropic CEO Dario Amodei计划出席
- 内部使用图像:包括一张标题描述员工”育儿假”的图像
公司回应
“我们一个外部CMS工具的问题导致草稿内容可被访问,”Anthropic发言人告诉《财富》杂志。发言人将问题归因于”CMS配置中的人为错误”。
值得注意的是,Anthropic曾吹嘘使用基于Claude的AI编码代理自动化了大量内部软件开发,但公司表示此次CMS问题与AI无关——”与Claude、Cowork或任何Anthropic AI工具无关”。
公司还试图淡化部分泄露材料的重要性:”这些材料是考虑发布的内容早期草稿,不涉及我们的核心基础设施、AI系统、客户数据或安全架构。”
科技公司的前车之鉴
这并非科技公司首次因意外暴露内部或发布前资源而泄露信息。苹果曾两次通过自家网站泄露信息——2018年,即将发布的iPhone名称在发布前几小时出现在公开可访问的网站地图文件中;2025年底,开发者发现苹果在重新设计的App Store中留下了调试文件,使网站整个内部代码对任何有浏览器的人可读。
游戏公司如Epic Games和任天堂也通过CDN或暂存服务器泄露发布前图像、游戏内资产和其他媒体。谷歌也曾意外在公共URL暴露内部文档,特斯拉车辆数据曾因第三方服务器配置错误而暴露。
AI工具加剧风险
然而,这个问题现在可能因市场上容易获得的AI编码工具而加剧——包括Anthropic自己的Claude Code。
这些工具可以自动化爬取、模式检测和公开可访问资产的关联,使发现此类内容变得更容易,降低了准入门槛。Claude Code或Codex等AI工具还可以生成扫描整个数据集的脚本或查询,快速识别人类可能错过的模式或文件命名约定。
安全启示
对于Anthropic这样的AI安全公司,这次泄露事件具有讽刺意味。公司一直强调AI安全和负责任部署,却在自己的CMS配置上出现基础安全疏漏。
这也提醒所有科技公司:在AI时代,自动化工具不仅可以帮助开发,也可以帮助攻击者更快地发现安全漏洞。对于处理敏感AI模型信息的公司,内容管理系统的默认安全设置应该更加严格——任何未明确标记为公开的内容都应该是私有的。
至于”Mythos”模型,既然其存在已被公众知晓,Anthropic可能需要提前发布或面临更多猜测和压力。
发表回复