一场突如其来的大规模停电,让旧金山的夜晚陷入黑暗,也让自动驾驶技术遭遇了一场前所未有的“大考”。太平洋煤气与电力公司的一座变电站突发火灾,全市约12.5万用户陷入无电可用的境地,西区、里士满、海特 - 阿什伯里、中国城等近三分之一区域受到影响。交通信号灯集体罢工,Muni公交无奈停运,市长紧急呼吁市民非必要不出行,整个城市仿佛按下了暂停键。
在这场城市应急事件中,原本被寄予厚望的Waymo自动驾驶车队却集体“掉链子”,成为众人关注的焦点。社交媒体上,大量视频迅速传播,画面中多辆白色的Waymo车辆在漆黑潮湿的十字路口一动不动,红色的尾灯在夜色中格外刺眼,后方车辆排起了长龙,人类司机们有的鸣笛催促,有的无奈选择绕行。有用户调侃道:“停电让Waymos彻底‘歇菜’了。”更有观察者尖锐地指出:“这些自动驾驶车看起来根本没经历过停电的‘训练’。”
次日,Waymo官方发布声明,承认已暂停在旧金山的服务,并解释称由于大范围停电,车辆需要比平时停留更长时间来确认受影响交叉路口的状态。然而,这一轻描淡写的回应,却无法掩盖背后更深层次的技术危机:当外部数字基础设施出现故障,当前主流的自动驾驶系统为何如此不堪一击?
从技术层面深入剖析,Waymo车辆在停电夜的停滞并非某个单一模块出现故障,而是一条典型的“脆弱性传导链”在发挥作用。L4级自动驾驶系统高度依赖多传感器融合技术,摄像头、激光雷达和毫米波雷达协同工作。在正常工况下,交通信号灯为系统提供了结构化、高确定性的规则输入,红灯停、绿灯行的简单规则极大地简化了决策逻辑。
但停电后,情况发生了翻天覆地的变化。红绿灯物理消失,激光雷达的点云中不再有对应的结构,摄像头在低照度环境下的识别能力也急剧下降。更为关键的是,系统失去了“规则锚点”,不得不将决策权重转移到对无序人类行为的预测上,而这恰恰是当前人工智能技术的短板所在。
按照美国交规,信号灯失效时应视为“All - Way Stop”,即所有方向停车后依次通行。但要执行这一规则,系统需要精准判断“谁先停稳”“谁有通行意图”,并与其他可能不遵守规则的人类司机进行动态博弈。然而,现有的决策规划算法严重依赖预设规则和格式化场景理解,面对混乱路口中抢行、犹豫、变道的人类车辆,系统陷入了高不确定性下的保守死循环:“无法100%确认安全→不行动→持续等待”。
有分析认为,伴随停电出现的蜂窝网络波动或实时交通数据中断,可能是对Waymo车辆的另一重打击。Waymo等公司依赖远程协助(Tele - assist)来处理边缘场景,一旦通信中断,车辆不仅“看不见”周围环境,还成了“信息孤岛”,无法获取后台指令或进行路径重规划。
更讽刺的是,硬件冗余设计无法弥补“环境模型”的缺失。系统设计默认“世界有规则”,却未为“规则本身消失”构建降级运行机制。其“最小风险状态”(Minimal Risk Condition)策略——原地停车,在单车场景下或许合理,但在车队规模部署时,反而引发了系统性交通堵塞。
这场“黑夜测试”犹如一面镜子,映照出当前自动驾驶行业在数据与算法协同方面存在的严重问题。近期,李飞飞在与钛媒体的对话中明确指出,行业普遍存在“算法比数据重要”的认知偏差,算法工程师薪资更高、更受追捧,而数据工作却被视为“不够性感”。但现实是,所有AI从业者都承认,数据至少具有与算法同等重要的价值。
Waymo事件正是这一“协同失灵”的典型案例。据相关文件显示,Waymo目前每周提供45万次Robotaxi服务,累计路测里程已达数亿英里。但这些数据高度集中于“正常工况”,如电力稳定、信号有效、人类基本守规等场景。而“全域大规模停电”这类系统性边缘场景,因其低概率、高成本、难复现等特点,在训练集中几乎是一片空白。算法从未在足够多样的样本上学习“规则失效时该如何反应”,自然在真实世界中“不知所措”。
更深层次的问题在于,当前系统缺乏一个能够理解物理与社会规则如何动态演化的世界模型。理想的世界模型应具备推理能力,例如能够推理出“停电→信号灯失效→人类行为从规则主导转为博弈主导→路口通行效率下降→我应采取更灵活但谨慎的策略(如跟随前车缓慢蠕动)”。然而,现有系统只是将感知、预测、规划等环节进行流水线拼接,没有因果推理能力,也没有心智理论,当输入异常时,算法便在“不确定性过高”的循环中空转,无法调用常识进行降级决策。
面对这些问题,行业必须进行一场数据战略的范式革命,放弃对总里程的盲目迷信,转而系统性地构建关键场景数据库。这些场景可以通过定向实采、众包上报与仿真生成相结合的方式积累。虽然真实停电难以复现,但利用生成式AI与数字孪生技术,可以在虚拟环境中反复模拟“信号灯全灭+通信中断+人类抢行”的复合场景,生成海量训练样本。Wayve、Covariant等公司已经证明,高质量的合成数据能够显著提升模型的鲁棒性。未来,自动驾驶公司的核心竞争力,或将体现在其“黑暗场景生成引擎”的能力上。
世界模型需要理解“为什么”,而不仅仅是“是什么”。这意味着数据标注需要从传统的目标检测、语义分割,升级为意图标注(如行人挥手是让行还是求助)、因果关联(如车辆减速是因为前方有障碍还是准备变道)、社会规范建模(如在无信号灯路口,本地驾驶文化是“先到先走”还是“右侧优先”)等“高阶语义数据”,这些将成为训练世界模型的关键燃料。
此次事件也给我们敲响了警钟:过度依赖云端、高精地图和实时通信,会引入单点故障风险。未来系统需要具备更强的边缘智能,即使断网断电,也能基于局部感知进行长时序风险推演。相应地,训练数据应包含大量“通信降级”条件下的成功处置案例,让模型学会在信息受限时依然能够稳健决策。
在探索世界模型落地路径的过程中,国内自动驾驶企业蘑菇车联的实践值得关注。其自研的MogoMind大模型正尝试构建一个融合物理规律、交通规则与社会博弈常识的统一认知框架。与传统模块化架构不同,MogoMind通过端到端训练,在感知、预测与决策之间建立了更紧密的协同机制。更重要的是,蘑菇车联同步打造的AI网络,一套覆盖车端、边缘与云端的分布式智能基础设施,为大模型提供了持续进化的数据闭环。即使在局部通信中断或信号失效场景下,车端模型仍能基于本地化世界表征进行稳健推理。这种“物理世界大模型+AI网络”的双轮驱动模式,或许为应对类似“旧金山式黑夜”的场景提供了新的思路。











