当Google Cloud CEO Thomas Kurian在Cloud Next大会上放出Apple的logo时,全场都安静了一秒——这不是PS,这是官宣。Apple正在使用Google的Gemini技术来开发下一代AI模型,而Siri将是最大的受益者。
发生了什么?
在近日举行的Google Cloud Next大会上,Google Cloud CEO Thomas Kurian在演示环节展示了一个引人注目的画面:Apple的logo出现在Gemini的重要客户名单中。这相当于Google公开确认:Apple是Gemini技术的重要企业客户。
据多方报道,Apple正在基于Google Gemini的技术开发下一代Apple Foundation Models(苹果基础模型)。这些模型将驱动未来的Apple Intelligence功能,其中最重要的应用场景就是Siri的全面升级。
新版Siri会是什么样?
根据目前泄露的信息,基于Gemini技术的新版Siri将带来以下重大变化:
- 独立App——Siri将不再只是系统内置的语音助手,而是拥有自己的独立应用程序,提供更丰富的交互界面
- 持久聊天记录——Siri将支持对话历史记录,你可以回顾之前的对话内容,而不是每次都要从头说起
- 类Chatbot体验——Siri将更像ChatGPT或Claude,支持多轮深度对话,而不仅仅是简单的指令执行
- 单命令多任务解析——你可以说一句话让Siri完成多个操作,比如”帮我订明天早上8点的会议室,然后把议程发给团队”
预计新版Siri将随iOS 27在2026年秋季正式发布。这意味着我们还需要等待大约一年半的时间才能体验到这个全新版本的Siri。
为什么是Google?
Apple选择与Google在AI领域合作,乍看之下有些出人意料——毕竟这两家公司在移动操作系统、搜索引擎、浏览器等多个领域都是直接竞争对手。但如果仔细分析,这个合作其实是双赢之选。
对Apple来说:Apple在AI领域的进展一直被批评”太慢”。虽然Apple Intelligence已经发布,但与Google和OpenAI的产品相比仍有差距。通过使用Gemini的技术,Apple可以快速提升自己的AI能力,而不必从零开始构建。
对Google来说:Apple设备拥有全球最大的高端用户群体。将Gemini技术植入iOS系统,意味着Google的AI技术将触达数十亿iPhone用户。这对Google在AI领域的市场份额和影响力都是巨大的提升。
这种合作模式在科技行业并不罕见。Apple在搜索引擎方面一直使用Google(每年支付数十亿美元),在芯片方面使用ARM架构,在基带方面使用高通。Apple的核心竞争力在于整合和体验,而非每项技术都自主研发。
这对AI行业意味着什么?
Apple与Google的这次合作,对整个AI行业有几层重要含义。
首先,”自研”不一定是最佳策略。Apple一直以”垂直整合”著称——从芯片到软件都自己做。但在AI领域,技术研发的门槛极高、投入巨大,即使是Apple也需要借助外部力量。这可能会让更多公司重新思考”自研vs合作”的AI战略。
其次,端侧AI将加速发展。Apple的核心理念是用户隐私。这意味着新Siri的大部分AI推理将在设备本地完成,而不是依赖云端。Gemini的技术将需要针对Apple的芯片进行深度优化,这将推动端侧AI技术的进一步成熟。
第三,AI助手竞争将更加白热化。当Siri获得Gemini级别的能力后,它将与Google Assistant(也在Gemini化)、Amazon Alexa、Microsoft Copilot等展开更激烈的竞争。用户将成为最大的受益者。
我的看法
坦率地说,Siri一直以来的表现确实让人失望。作为一个2011年就发布的语音助手,Siri在十几年间进步有限,经常答非所问、理解错误。而ChatGPT的出现彻底改变了用户对AI助手的期望——人们不再满足于”设个闹钟”这种简单操作,而是希望AI能真正理解和帮助自己。
Apple显然意识到了这个问题。选择与Google合作而非继续自研,说明Apple承认了自己在AI大模型领域的差距,并愿意放下身段寻求外部帮助。这是一个务实的决定,也可能是拯救Siri的唯一途径。
不过,我更关心的是隐私问题。Apple一直将隐私作为核心卖点,但使用Google的技术是否意味着用户数据会被共享?Apple需要在技术合作和隐私承诺之间找到一个令人信服的平衡点。
发表回复