当汽车行业还在为智能驾驶技术的落地进度争得不可开交时,一场关于智能座舱的竞争已悄然成为新的焦点。这个被用户高频使用却常被忽视的“车内第二空间”,正以更快的速度向AI原生体验进化,成为汽车智能化转型的关键战场。
在“聚合智能产业发展大会(2025)”上,斑马智行首席技术官司罗接受媒体采访时指出,智能座舱的本质并非简单的“车载大屏”,而是具备主动感知能力的移动智能终端。与手机相比,汽车座舱的AI原生化进程可能更快,因为它天然具备多模态交互场景——视觉、语音、触觉甚至生理数据的融合,为智能预判提供了更丰富的输入。
“当前主流的‘大屏+语音助手’方案,本质上还是功能机时代的交互逻辑。”司罗比喻道,“用户需要层层点击菜单,就像早期智能手机必须通过固定路径操作一样。真正的智能座舱应该像老朋友,能通过一个眼神、一句话甚至沉默,读懂用户的需求。”
斑马智行的技术路线聚焦于底层操作系统与AI能力的深度融合。从自研OS兼容安卓生态,到与高通、英伟达Orin等芯片厂商的合作,再到打通阿里云端的生态服务,其核心目标是让车机具备“无感交互”能力。例如,当用户说“有点热”,系统不仅能调节空调温度,还能根据后排乘客的年龄自动调整风量;当儿童询问动画内容时,车机可直接推荐符合年龄段的影片。
对于近期热议的“具身智能”概念,司罗提出了一个颠覆性观点:汽车可能是比机器人更早落地的具身智能载体。他解释,智能汽车集成了传感器(摄像头、麦克风)、决策系统(芯片+算法)和环境交互能力(道路、用户),本质上已具备具身智能的核心要素。斑马智行通过操作系统为智能驾驶提供底层支撑,同时探索云端融合,正在为更广义的具身智能铺路。
针对大模型在车载场景的应用,司罗直言当前存在三大痛点:语音识别误差、交互僵化(必须严格指令)、云端依赖导致的延迟与隐私问题。他透露,斑马正在研发端侧大模型与云端能力的结合方案,未来座舱将通过表情、语气甚至心率等生理数据预判用户状态——例如在用户心情低落时自动播放舒缓音乐,或在通勤拥堵时主动切换路线并推送路况摘要。
“真正的智能座舱不需要用户‘开口’,而是能提前感知需求。”司罗描述了一个未来场景:当用户坐进车内,系统通过多模态数据判断其状态,自动调整座椅、温度、音乐,甚至根据日程推荐沿途的咖啡店或加油站。这种“无触控、无APP”的交互方式,将在2-3年内成为主流,3-5年后彻底颠覆传统车机体验。
与传统手机以APP为中心的交互逻辑不同,智能座舱的壁垒更低。司罗认为,汽车座舱的天然场景(如家庭出行、通勤)和空间属性(多座位、多设备),使其更适合自然语言或多模态交互。当“无感操作”的频率超过传统中控屏使用时,智能座舱的“iPhone时刻”就将到来——而这一变革,可能比手机行业更快实现。