科技媒体MacRumors近日披露,苹果公司计划在2026年春季推出iOS 26.4系统更新,其中最引人注目的改进是集成基于大语言模型(LLM)的新版Siri。这一升级标志着苹果语音助手将彻底告别传统关键词匹配模式,转向具备逻辑推理能力的智能交互架构。
据内部消息透露,新Siri的核心架构由苹果与谷歌Gemini团队联合开发,采用混合技术路线。这种合作模式使苹果在保持自研优势的同时,通过引入外部技术弥补了模型短板。系统将通过私有云计算技术处理云端请求,同时确保敏感操作在设备端完成,延续了苹果一贯的隐私保护策略。
功能升级方面,新Siri实现了三大突破性改进。首先是个人情境理解能力,用户可通过自然语言指令深度检索邮件、短信和文件内容,例如要求查找"上周Eric发来的滑冰建议"或直接调取"护照号码"等敏感信息。其次是屏幕感知功能,当用户浏览包含地址的聊天界面时,只需说"存入联系人",系统即可自动完成跨应用数据抓取与存储。
在跨应用协同方面,新Siri支持更复杂的操作指令。用户可以要求系统"编辑照片并发送给Eric",系统将自动完成图片处理、联系人选择和消息发送的全流程操作。这种深度集成打破了应用间的数据壁垒,显著提升了操作效率。
苹果软件工程主管Craig Federighi表示,此次升级幅度远超iOS 18发布时的承诺。虽然新Siri暂不支持ChatGPT式的无限长对话,但其理解力和执行效率已实现质的飞跃。系统测试工作预计2月底启动,正式版本将于4月向公众推送,这被视为苹果迈向"完全体AI"的重要过渡阶段。
值得注意的是,苹果在技术转型过程中保持了审慎态度。新系统既没有完全放弃自研路线,也未盲目追随生成式AI潮流,而是通过混合架构平衡创新与风险。这种策略既保证了技术先进性,又维护了用户体验的连贯性,为后续迭代预留了充足空间。








