苹果与谷歌近期达成一项重要合作,双方将共同为苹果产品中的智能语音助手Siri提供人工智能技术支持。这一合作成果有望率先在即将发布的iOS系统测试版本中亮相,苹果还计划通过公开演示的方式向用户展示相关功能升级。
据知情人士透露,新一代Siri将整合谷歌开发的Gemini模型及云技术。为获得定制化服务,苹果每年需向谷歌支付约10亿美元费用,核心版本采用参数规模达1.2万亿的Gemini 2.5 Pro模型。该模型在信息处理能力上实现质的飞跃,可支持多模态交互、128K token超长文本解析,并能高效完成信息摘要、任务规划及复杂指令执行等核心功能。相比当前Siri使用的1500亿参数云端模型,新系统在上下文理解深度和响应速度上均有显著提升。
在技术选型阶段,苹果曾对谷歌Gemini、OpenAI ChatGPT和Anthropic Claude三大主流模型进行综合评估。最终选择谷歌方案主要基于三方面考量:其一,Gemini 2.5 Pro在大型语言模型性能评测中位居前列;其二,双方长期建立的合作关系降低了合作风险;其三,混合专家架构设计使模型在保持高性能的同时,能有效控制计算成本与设备能耗,特别适合iPhone、Mac等移动终端的部署需求。
针对用户普遍关注的数据安全问题,合作方案特别设计数据隔离机制。谷歌为苹果开发的AI模型将完全运行在苹果私有云计算服务器上,整个处理过程不涉及用户数据外传。这种架构设计既保证了模型性能的充分发挥,又从根本上消除了用户隐私泄露的风险。根据产品路线图,升级版Siri预计于2026年春季随iOS 26.4系统正式推送,后续还将在同年6月WWDC大会预览的iOS 27、macOS 27等系统中深化功能整合。














