科技媒体MacRumors近日发布深度分析文章,聚焦苹果公司即将推出的iOS 26.4系统升级。此次更新最引人注目的变化在于Siri的全面重构,苹果将通过引入大语言模型(LLM)技术,使这款语音助手实现从指令响应到智能交互的跨越式进化。
据披露,新版Siri将彻底摒弃传统的关键词匹配架构,转而采用基于深度神经网络的智能核心。这种技术革新使其具备初步的逻辑推理能力,能够解析用户模糊表述背后的真实需求。例如当用户询问"帮我找上周Eric发的滑冰建议"时,系统可自动分析邮件、短信等数据源,精准定位目标信息。尽管暂不支持ChatGPT式的自由对话,但其任务执行效率与场景理解力将获得显著提升。
在功能创新方面,苹果重点强化了三大应用场景。首先是个人情境感知系统,通过深度索引用户设备中的各类文档,实现复杂指令的自动化处理。其次是屏幕内容识别技术,当用户浏览包含地址的聊天界面时,只需发出"存入联系人"的指令,Siri即可自动完成跨应用数据抓取。系统还支持更复杂的工作流指令,如"编辑照片并发送给Eric"等跨应用操作。
技术实现层面,苹果采取"自研+合作"的混合模式。虽然核心算法由苹果自主研发,但后端模型构建得到谷歌Gemini团队的技术支持。这种务实策略既弥补了自研模型的技术短板,又保持了系统的独立性。苹果软件工程主管Craig Federighi强调,此次重构使Siri的进化幅度超出iOS 18发布时的预期,特别是在隐私保护方面,通过私有云计算技术确保用户数据在云端处理时的安全性,同时将敏感操作保留在设备端执行。
根据开发路线图,iOS 26.4的测试版本将于2月底至3月初向开发者开放,正式版本计划在4月面向公众推送。尽管此次更新未将Siri升级为完全形态的AI助手,但其奠定的技术基础被视为迈向iOS 27"全场景AI"的重要跳板。分析人士指出,苹果正通过分阶段升级策略,逐步构建具有自主知识产权的AI生态系统。








