AI搜索引擎Perplexity正面临一桩拟议集体诉讼,指控其在”无痕模式”下仍在与Meta和谷歌共享用户对话——这引发了关于AI搜索隐私保护的重要质疑。

诉讼核心指控

诉讼称Perplexity”有效地在用户电脑上植入了一个bug”,通过在AI搜索引擎中嵌入来自Meta和谷歌的追踪器来收集数据。

更严重的是,诉讼指控Perplexity的无痕模式”什么也没做”:即使是开启无痕功能的付费用户,他们的对话仍然被分享给Meta和谷歌,连同他们的电子邮件地址和其他标识符,使Meta和谷歌能够个人识别他们。

无痕模式的信任危机

无痕模式本应让用户期望隐私得到保护。用户选择开启这个功能,就是为了不被追踪、不被记录。如果指控属实,Perplexity不仅在无痕模式下继续追踪用户,还将这些数据分享给广告巨头,这将对用户信任造成毁灭性打击。

AI搜索的隐私悖论

这起诉讼揭示了一个更深层的行业问题:AI搜索引擎需要大量用户数据来改进产品,但用户越来越关注隐私保护。

Perplexity的商业模式可能依赖于向广告商提供用户洞察、与平台合作获取收入分成、使用用户数据训练和改进模型。但这些需求与用户隐私期望存在根本冲突。

AI行业的数据困境

Perplexity并非唯一面临这类问题的AI公司。ChatGPT已因数据收集面临多起诉讼;Google Gemini面临关于如何使用用户对话数据的质疑;Microsoft Copilot的企业客户对数据隐私有严格要求。

AI公司需要在产品改进、商业变现和用户隐私之间找到平衡。

监管趋势

这起诉讼发生在AI监管日益严格的背景下:欧盟AI法案要求高风险AI系统的透明度;加州消费者隐私法赋予用户对个人数据的控制权;FTC已对多家AI公司展开隐私调查。如果Perplexity败诉,可能面临巨额罚款,更重要的是树立一个行业判例。

对企业用户的警示

对于考虑部署AI工具的企业,这起诉讼提供了几个警示:审查隐私政策不要只看承诺要看实际数据流向;测试无痕功能是否真正阻止数据收集和分享;考虑对AI工具进行独立的隐私审计;在与AI供应商的合同中加入隐私保护条款。

写在最后

在AI竞赛中,用户数据是训练模型和改进产品的宝贵资源。但当用户选择”无痕”模式时,他们期望的是真正的隐私保护。如果AI公司不能兑现这个承诺,不仅面临法律风险,更将失去用户信任——这对任何面向消费者的AI产品都是致命打击。

这起诉讼提醒我们:在AI时代,隐私保护不应该是一个营销噱头,而应该是一个可信的承诺。