近年来,手机厂商在人工智能领域的布局愈发密集,从系统交互到应用联动,AI能力正深度融入用户日常操作。荣耀YOYO通过接入第三方智能体,打通了系统层与应用层的AI功能;华为小艺则凭借一句指令实现跨应用任务处理,展现出更强的场景适应能力。然而,这些看似强大的功能仍依赖云端算力,手机AI尚未突破“端云协作”的既有框架,本地化部署仍处于探索阶段。
三星近期被曝出将在Galaxy S26系列中内置本地大模型,引发行业关注。该模型不仅具备高级权限,可自主清理内存以保障运行流畅,还能处理大部分AI任务。这一动作并非首次——三星早在2023年就曾展示过名为“高斯”的本地模型,但后续因与谷歌Gemini的合作而搁置。此次重新聚焦本地化,或标志着手机AI技术路径的潜在转向。
端云协同仍是当前主流方案,其优势在于分工明确:云端负责复杂推理与模型迭代,端侧承担语音唤醒、基础意图识别等轻量任务。这种模式对低频使用场景足够高效,且能兼容性能较弱的设备。例如,用户查询天气时,云端延迟一两秒并不影响体验;厂商也无需为旧机型增加硬件成本。然而,随着AI目标从“回答问题”转向“替代操作”,端云协同的局限性逐渐显现。
当AI开始理解屏幕内容、拆解任务目标并规划执行路径时,高频交互场景对实时性的要求陡增。弱网环境下云端响应延迟可能导致操作中断,连续指令中网络波动更会破坏流程连贯性。用户对效率的敏感度提升,迫使厂商重新思考技术架构。近期“端侧大模型”成为热议话题,并非要完全抛弃云端,而是希望将即时判断与关键决策权下放至设备本身,形成“端侧预处理+云端深度支持”的新平衡。
本地化部署的挑战主要来自硬件限制与维护成本。内存占用、算力需求与功耗控制构成三重门槛:即便模型规模适中,常驻后台也会挤压系统资源,苹果甚至为此提升了iPhone内存配置。云端模型可通过OTA快速修复漏洞,本地模型则需依赖系统更新,测试周期与风险成本显著增加。这些因素导致纯端侧方案长期难以落地,即便强如三星Galaxy S26,仍需通过定期清理资源来维持模型运行。
技术突破正在改变局面。2025年旗舰芯片的NPU性能大幅提升,为端侧AI提供了硬件基础。高通第五代骁龙8至尊版的Hexagon NPU在本地生成任务中可达200 token/s输出速度,支持连续语言生成;联发科天玑9500的NPU 990在3B规模模型上实现效率提升与功耗下降,使常驻运行更具可行性。厂商已开始利用这些红利:荣耀YOYO在Magic8 Pro上支持3000+场景自动任务,豆包手机助手则尝试让AI直接理解屏幕内容并模拟用户操作,推动交互模式从“问答”向“代理”演进。
尽管如此,纯端侧AI仍难独立承担复杂任务。华为小艺、小米超级小爱等系统级AI助理,核心架构仍以端云协同为主,端侧负责感知与基础理解,云端完成深度推理。这种选择源于现实考量:当AI深度介入系统操作时,稳定性与资源控制比激进部署更重要。厂商不会因追求技术噱头而牺牲用户体验,这解释了为何本地化方案尚未成为主流。












