在近日举办的CES 2026主题演讲中,英伟达首席执行官黄仁勋向全球科技界展示了一项突破性成果——全新视觉-语言-动作模型Alpamayo 1。这款专为自动驾驶场景设计的模型,通过整合因果链推理与轨迹规划技术,显著提升了复杂路况下的决策精度与响应效率。
据技术文档披露,Alpamayo 1采用多维度验证体系,其性能表现已通过开环指标评估、闭环仿真测试及真实道路验证三重考验。在涉及推理速度、轨迹生成精度、人机对齐度、安全冗余设计及实时响应延迟等核心参数上,该模型均达到行业领先水准。特别值得关注的是,其独创的可解释性推理框架与高精度控制模块的深度耦合,为自动驾驶系统从L3向L4级跃迁提供了可落地的技术路径。
研发团队透露,Alpamayo 1的架构设计突破了传统视觉-语言模型的局限,通过引入动作空间建模与动态环境感知模块,实现了对三维空间中物体运动轨迹的精准预测。在模拟测试中,该系统能提前2.3秒识别突发路况变化,较前代产品提升47%的决策准确率。其内置的安全验证机制可实时监测128项潜在风险指标,确保在极端天气或复杂交通场景下的稳定运行。
行业分析师指出,英伟达此次发布的技术方案,标志着自动驾驶领域进入"认知智能"新阶段。不同于依赖海量数据训练的黑箱模型,Alpamayo 1通过构建可追溯的推理链条,使系统决策过程具备人类驾驶员般的逻辑可解释性。这种技术范式转变不仅提升了系统可靠性,更为监管机构评估自动驾驶安全性提供了量化标准。
目前,英伟达已与多家汽车制造商展开合作,将Alpamayo 1集成至下一代自动驾驶计算平台。该模型支持多模态传感器融合,可兼容摄像头、雷达及激光雷达等主流感知设备,其轻量化架构设计使算力需求降低35%,适用于从乘用车到商用车的全场景部署。随着实车测试里程突破百万公里,这项技术有望在2027年前实现规模化商用落地。










