在2026 CES展会上,英伟达正式发布专为实体机器人与自动驾驶车辆设计的开源AI解决方案——Alpamayo平台。该平台整合了视觉-语言-行动(VLA)模型、仿真工具及大规模数据集,旨在提升自动驾驶系统在复杂场景中的决策能力与安全性。
作为平台核心,Alpamayo 1模型采用100亿参数架构,基于思维链技术实现类人推理能力。该模型可自主拆解复杂问题,通过多步骤推演评估所有可能方案,最终选择最优路径。例如在交通信号灯故障的交叉路口,系统能结合实时路况、车辆位置及行人动态,规划出安全通行策略,无需依赖预先标注的训练数据。
英伟达汽车事业部副总裁阿里·卡尼透露,开发者可通过Hugging Face平台获取底层代码,根据需求微调模型参数。轻量化版本可适配不同计算资源,既可开发完整驾驶系统,也能构建视频自动标注、决策合理性评估等辅助工具。结合英伟达Cosmos生成式世界模型,系统还能利用合成数据与真实驾驶数据混合训练,提升场景覆盖度。
配套发布的开源数据集包含1,727小时驾驶记录,覆盖25个国家2,500余座城市。数据集收录310,895个20秒视频片段,涵盖雨雪天气、突发障碍物、非机动车混行等极端场景,为模型训练提供丰富素材。同步上线的AlpaSim仿真框架则通过GitHub开放,该工具可精确复现传感器信号、交通流动态等要素,支持自动驾驶系统在虚拟环境中完成百万公里级安全测试。
英伟达CEO黄仁勋将此技术突破称为"物理智能领域的ChatGPT时刻"。他强调,Alpamayo不仅具备实时控制车辆转向、制动的能力,更能通过自然语言解释决策逻辑。当系统准备变道时,会同步告知驾驶员:"前方300米有施工路段,当前时速60公里,变道后预计节省12秒通行时间。"这种透明化设计显著提升了人机协作的信任度。
据现场演示,首款搭载该技术的量产车型将于今年第一季度在美国投入路测。这款汽车整合了12个摄像头、5个毫米波雷达及高精地图,在Alpamayo 1模型驱动下,可应对98%的已知驾驶场景,并对剩余2%的极端情况保持持续学习能力。












