近日,特斯拉北美官方社交账号转发了一则引发广泛争议的推广内容——一段关于全新Cybertruck车主的采访视频。视频中,车主里基透露自己因视力持续衰退,在眼科医生建议下购买了搭载FSD(完全自动驾驶)功能的特斯拉车型。这一案例将特斯拉自动驾驶技术的宣传与实际责任界定之间的矛盾推向风口浪尖。
据里基描述,其眼科医生不仅是特斯拉车主,还主动推荐他选购配备FSD的车辆,并安排试驾活动。在试驾过程中,车辆在三条不同路线上自动行驶了约一个半小时,期间里基未触碰方向盘。这种体验让他最终决定购买Cybertruck,核心目的就是使用FSD功能。然而,特斯拉官方对FSD的定位却与这一使用场景存在根本冲突。
特斯拉官方文档明确指出,FSD(监督版)属于SAE国际标准定义的L2级驾驶辅助系统。根据该分级标准,驾驶员必须全程保持专注并随时准备接管车辆,无论系统是否激活,驾驶责任始终由人类承担。特斯拉反复强调,该系统无法实现真正的无人驾驶,仅能提供辅助功能。这种技术定位与里基等视力受损车主的实际需求形成鲜明对立。
安全研究数据进一步加剧了这种矛盾。当L2级系统要求驾驶员重新接管车辆时,人类需要5至8秒才能恢复有效控制,而突发危险往往在更短时间内发生。对于视力衰退的驾驶者而言,依赖辅助系统驾驶不仅无法保障安全,反而可能因系统营造的"自主驾驶"假象而放松警惕,将自身置于更高风险之中。
美国国家公路交通安全管理局(NHTSA)已将FSD调查范围扩大至320万辆特斯拉车辆,这一动作通常被视为车辆召回的前置程序。该机构同时针对80余起涉及FSD的交通违规事件展开独立调查,发现特斯拉存在未完整提交事故数据的问题。更引人关注的是,已有Cybertruck车主发起诉讼,指控FSD系统直接导致车祸发生。
特斯拉首席执行官此前公开表示,开启FSD后驾驶员可以"边开车边发短信",这种表述与其坚持的L2级技术定位形成强烈反差。法律专家指出,这种宣传策略可能误导消费者对系统能力的认知,而将驾驶责任完全推给用户的做法,在技术实际表现与宣传承诺存在差距时,将引发严重的法律和伦理争议。随着监管调查深入,特斯拉自动驾驶技术的责任界定问题将持续成为行业焦点。












