Apple和Google的“联姻”:Siri将使用1.2万亿参数Gemini模型
Apple宣布AI版Siri将使用Google 1.2万亿参数Gemini模型,通过Private Cloud Compute维持隐私标准,预计2026年3月发布。
Apple宣布了一个挺有意思的消息——完全重新设计的AI版Siri将使用Google的1.2万亿参数Gemini AI模型,运行在Apple的Private Cloud Compute上以维持严格的隐私标准,更新目标定于2026年3月发布,与iOS 26.4一同推出。
说实话,这消息让我有点意外。Apple和Google在移动端搜索、地图等领域一直是竞争对手,现在却要在AI助手上合作,这确实说明了AI竞争格局的变化。Apple选择Google的模型而不是自己训练或使用OpenAI的,可能有几个考虑:一是Gemini确实很强,二是Google在隐私和合规方面可能更成熟,三是Apple想快速推出产品而自研需要时间。
但我更感兴趣的是“Private Cloud Compute”这个架构。Apple一直强调隐私,现在要在云端运行如此大的模型,如何保证数据不外泄是个挑战。Private Cloud Compute可能是Apple的解决方案——数据在Apple的云中处理,但不会用于训练其他模型,而且有严格的访问控制。
从用户体验角度看,新的Siri将具备“屏幕感知”和跨应用集成能力。这意味着Siri不再是独立的聊天机器人,而是可以理解你当前在做什么,并主动提供帮助。这种“上下文感知”的能力,其实是AI助手从玩具走向工具的关键一步。
当然,最终效果如何还要看实际产品。但Apple和Google的这次合作,确实让2026年的AI助手竞争更加值得期待。