OpenAI 本周发布了一款面向消费者的健康产品——ChatGPT Health。这是一个在 ChatGPT 内部的沙盒标签页,设计用于让用户在更安全、更个性化的环境中询问健康相关问题,拥有与 ChatGPT 其他部分独立的聊天历史和记忆功能。

连接医疗记录和健康应用

OpenAI 鼓励用户连接个人医疗记录和健康应用,如 Apple Health、Peloton、MyFitnessPal、Weight Watchers 和 Function,「以获得更个性化、更有根据的回答」。具体建议包括:

  • 连接医疗记录,让 ChatGPT 分析实验室结果、就诊摘要和临床历史
  • 连接 MyFitnessPal 和 Weight Watchers 获取饮食指导
  • 连接 Apple Health 获取健康和健身数据,包括运动、睡眠和活动模式
  • 连接 Function 获取实验室检测洞察

在医疗记录方面,OpenAI 与 b.well 合作,后者将为用户提供上传医疗记录的后端集成,该公司与约 220 万家医疗服务提供商有合作关系。

隐私与安全考量

OpenAI 表示 ChatGPT Health「作为具有增强隐私保护的独立空间运行」,公司引入了多层专门构建的加密(但不是端到端加密)。Health 产品内的对话默认不会用于训练其基础模型,如果用户在普通 ChatGPT 中开始健康相关的对话,聊天机器人会建议将其移动到 Health 产品中以获得「额外保护」。

但 OpenAI 过去曾发生过安全漏洞,最著名的是 2023 年 3 月的问题,该问题允许一些用户看到其他用户的聊天标题、初始消息、姓名、电子邮件地址和支付信息。在法院命令的情况下,OpenAI 仍需要「通过有效的法律程序或在紧急情况下」提供数据访问。

健康 AI 的风险与机遇

公司明确表示 ChatGPT Health「不用于诊断或治疗」,但无法完全控制用户离开聊天后如何使用 AI。根据公司自己的数据,在服务不足的农村社区,用户平均每周发送近 60 万条医疗保健相关消息,ChatGPT 中七成的医疗保健对话「发生在正常诊所时间之外」。

此前已有医生发布报告,一名男子因服用 ChatGPT 建议用溴化钠替代饮食中的盐而住院数周。谷歌的 AI Overview 也因危险建议登上头条,如建议在披萨上放胶水。《卫报》最近的调查发现危险的健康建议仍在继续,包括肝功能检查、女性癌症检查的错误建议,以及胰腺癌患者的推荐饮食。

用户规模与市场潜力

OpenAI 在博客文章中写道,根据其「去标识化的对话分析」,全球每周已有超过 2.3 亿人在 ChatGPT 上询问与健康和保健相关的问题。公司还表示,过去两年与 260 多名医生合作,在 30 个重点领域提供了超过 60 万次模型输出反馈,以帮助塑造产品的回答。

目前,ChatGPT Health 需要用户注册候补名单申请访问权限,正在从早期用户测试组开始,但该产品将逐步向所有用户开放,无论订阅层级如何。