Signal创始人Moxie Marlinspike的最新项目是Confer——一个提供端到端加密的AI聊天机器人。它看起来像ChatGPT,但运作方式像Signal:平台开发者无法访问、出售或共享用户数据,甚至无法用这些数据训练AI。
Confer的核心理念是:你与AI助手的对话应该像你与人的对话一样私密。不是因为你在做什么错事,而是因为隐私让你能够自由思考。
媒介即信息
Marlinspike用一个深刻的问题开始他的阐述:我们与AI的对话到底是什么性质的?马歇尔·麦克卢汉认为媒介的形式比其内容更重要。电视的格式——被动的、视觉的、中断驱动的——比任何特定的广播节目更能塑造社会。
你可以说LLM是第一种技术,其媒介主动邀请忏悔。搜索训练我们变得交易性:关键词进,链接出。当你在搜索框中输入内容时,它有一种向公司广播的感觉,而不是在私密空间中交流。
对话格式是不同的。当你与助手聊天时,你的大脑会匹配到数千年来将对话视为私密的模式。你会详细阐述,你会大声思考,你会分享上下文。这正是它比搜索更有用的原因——你可以迭代、阐述、改变主意、提出后续问题。
当今AI助手的隐私问题
理解Signal最初前提的一种方式是:我们工具的视觉界面应该忠实地代表底层技术的工作方式。如果聊天界面显示两个人之间的私密对话,它实际上应该是两个人之间的私密对话,而不是界面下未知方的群聊。
今天,AI助手比以往任何时候都更失败于这个测试。我们正在使用LLM进行我们可能在私人日记中做的那种未经过滤的思考——除了这本日记是一个API端点。一个专门设计用于提取意义和上下文的数据湖的API端点。我们被展示了一个与助手的对话界面,但如果它是诚实的表示,它将是一个与所有OpenAI高管和员工、他们的业务合作伙伴、将破坏该明文数据的黑客、几乎肯定会出现广告商、以及将传唤访问权的律师和政府的群聊。
历史重演
这些并不完全是新的。我们经历了与电子邮件相同的循环。在早期,人们将电子邮件视为私人通信。然后我们了解到,我们的电子邮件永远存在于企业服务器上,它们可能在诉讼中被发现,它们对执法部门可用,它们被扫描用于广告。慢慢地,在文化上,我们调整了我们的期望。我们学会了不要在电子邮件中放某些东西。
但新的是,电子邮件和社交媒体是我们发布完成思想的界面。AI助手是一个邀请我们发布未完成思想的媒介。
当你与AI助手一起解决问题时,你不仅仅是在揭示信息——你是在揭示你的思考方式。你的推理模式。你的不确定性。你好奇但不知道的事情。你知识的空白。你心理模型的形状。
广告即将到来
当广告进入AI助手时,它们将慢慢围绕说服我们做某事(购买某物、加入某物、认同某物),但它们将拥有关于你上下文、你的担忧、你的犹豫的全部知识。这就像第三方付钱给你的治疗师来说服你做某事。
Marlinspike的目标是创建一个服务,让你可以在不担心自己的想法可能在某天与你自己作对的情况下探索想法;一个打破你的思想变成定向广告再变成思想的反馈循环的服务;一个你可以了解世界的服务——而数据经纪商和未来的训练运行不会反过来了解你。
技术实现
Confer使用端到端加密技术,确保只有用户自己能够访问他们的对话内容。这与Signal在消息传递领域所做的类似——让通信的隐私性与其界面呈现相匹配。
这仍然是一个早期项目,但已经在小范围内测试了几周。Marlinspike还宣布正在与Meta合作,将Confer的隐私技术整合到Meta AI中,这表明大型科技公司也开始关注AI对话的隐私保护问题。
对AI行业的意义
Confer的出现提出了一个重要问题:在AI时代,隐私意味着什么?当前的AI服务模式——收集大量用户数据用于训练和改进——是否与真正的隐私兼容?
随着AI助手变得越来越强大,我们与它们的对话也变得越来越私密和详细。我们可能向它们倾诉工作压力、健康问题、人际关系困扰。这些信息如果被不当使用,可能会造成严重后果。
Confer代表了一种不同的AI服务模式——一种优先考虑用户隐私而非模型改进的模式。它可能不会产生像ChatGPT那样快速迭代的模型,但它提供了一个让用户可以真正自由思考的空间。
在AI时代,隐私保护不仅仅是技术问题,更是关乎人类思维自由的问题。Confer的愿景是让AI对话回归到对话的本质——私密、安全、不受监视。这是一个值得我们认真对待的愿景。
发表回复