苹果与谷歌近期达成了一项引人注目的合作协议,双方将共同为苹果产品中的智能语音助手Siri提供人工智能支持。这项合作预计将为Siri带来显著的性能提升,使其在信息处理、任务规划和复杂指令执行等方面实现质的飞跃。
根据最新报道,新一代Siri将基于谷歌的Gemini模型和云技术构建。苹果计划每年向谷歌支付约10亿美元,以获取定制化的Gemini模型使用权。核心版本将采用参数规模达1.2万亿的Gemini 2.5 Pro,相比当前Siri使用的1500亿参数云端模型,其处理能力和上下文理解深度将实现数量级的提升。
升级后的Siri将支持多模态交互和128K token的超长文本处理,能够更高效地完成信息摘要、任务规划等核心功能。这项技术革新预计将于2026年春季随iOS 26.4系统正式推送,随后还将在同年6月WWDC大会预览的iOS 27、macOS 27等系统中进一步整合。
在模型选择过程中,苹果对谷歌Gemini、OpenAI ChatGPT和Anthropic Claude三大主流模型进行了全面测试。最终选择谷歌的原因包括:更具竞争力的财务成本、双方长期建立的合作关系,以及Gemini 2.5 Pro在大型语言模型排行榜中的领先表现。该模型采用的混合专家架构设计尤为关键,虽然总参数超过万亿,但每次查询仅激活部分参数,既保证了高性能又降低了计算成本和能耗,非常适合在iPhone、Mac等多设备场景中运行。
为保障用户数据安全,谷歌为苹果开发的AI模型将专门运行在苹果的私有云计算服务器上。这种架构设计确保谷歌无法获取苹果用户的任何数据,有效消除了公众对数据泄露的担忧。这一安全措施被认为是推动双方合作达成的重要因素之一。
有消息称,这项合作成果最快将于下月在iOS 26.4测试版中首次亮相。苹果还计划通过某种形式向公众演示相关功能,让用户提前体验新一代Siri的强大能力。随着发布日期的临近,业界对这次跨界合作将如何重塑智能语音助手市场格局保持高度关注。