如果你担心ChatGPT读取你的对话、训练模型、甚至把你的数据卖给广告商,Moxie Marlinspike有了一个新选择。Signal Messenger的创始人最新项目是Confer——一个声称提供端到端加密的AI聊天机器人。

Signal哲学,AI形态

Confer看起来像ChatGPT,但运作方式像Signal。据Ars Technica报道,平台的开发者无法访问、出售或分享用户数据,甚至无法用这些数据训练AI。这与其说是技术突破,不如说是设计哲学的选择——把Signal在消息加密上的成功经验移植到AI聊天领域。

在Confer的博客文章《致数据湖的忏悔》中,团队解释了为什么传统AI服务的数据处理方式让他们担忧。当你的对话被存储在公司的服务器上用于训练,你实际上是在把私密信息”忏悔”给一个永远不会遗忘的数据湖。Confer试图改变这个范式。

AI能真正端到端加密吗?

技术上,这比消息加密复杂得多。消息端到端加密意味着只有发送方和接收方能读取内容——服务器只是传递加密数据。但AI聊天需要”思考”你的输入才能给出有意义的回答。这意味着要么在服务器端解密(打破端到端承诺),要么在客户端运行整个模型(对大多数设备来说算力不足)。

Confer如何解决这个问题?目前公开信息不多,但其解决方案可能涉及一些创造性技术:也许是在可信执行环境中处理数据,也许是联邦学习让模型在本地数据上改进而不需要看到原始数据。无论采用什么方法,这都是一个值得关注的实验。

Meta也来了:加密AI的竞争升温

有趣的是,Confer不是唯一一个尝试加密AI的玩家。根据Moxie Marlinspike在Confer博客上的最新文章,他正在与Meta合作,”整合Confer的隐私技术,使其成为Meta AI的底层架构”。这意味着Facebook和Instagram的AI助手可能采用类似Signal的加密保护。

对于Meta这样的公司来说,这是一个重大的战略转向。历史上,Meta的商业模式依赖于用户数据来驱动广告精准投放。现在,他们似乎在认真考虑一个”我们看不到你的数据”的AI产品。是真正的隐私承诺还是营销话术?时间会给出答案。

为什么这很重要?

AI隐私问题已经从理论担忧变成现实风险。我们看到AI公司员工泄露用户对话,我们看到AI模型意外暴露敏感训练数据,我们看到政府机构要求访问AI聊天记录。如果你用AI来处理工作邮件、私人日记、医疗问题,这些数据的暴露可能是灾难性的。

Confer代表了一个重要的市场信号:有足够多的用户关心隐私,值得专门为此构建产品。如果它成功了,可能会迫使主流AI服务重新考虑他们的数据处理方式。如果失败了,至少证明了市场对隐私的重视程度还没有达到商业可行的临界点。

挑战与展望

Confer面临几个关键挑战。第一,模型能力——没有大规模训练数据,能做出足够聪明的AI吗?第二,成本——端到端加密意味着更复杂的架构,能保持价格竞争力吗?第三,信任——用户会相信一个新玩家的隐私承诺吗?

Signal用了十年时间建立了消息加密的行业标准。Confer能在AI领域复制这个成功吗?无论结果如何,这个实验本身就在推动整个行业思考AI隐私的边界。