欧洲新车安全评鉴协会技术总监理查德·施拉姆近日在接受澳新地区媒体采访时,对特斯拉全自动驾驶(FSD)技术提出尖锐批评。他指出,该系统在现行测试标准下无法通过安全认证,其核心问题在于人机责任划分存在严重缺陷。"这套系统让驾驶员产生车辆能自主行驶的错觉,却未建立有效的监督机制,这种矛盾设计本身就是安全隐患。"施拉姆强调。
根据欧洲安全机构的测试经验,特斯拉Model 3和Model Y搭载的FSD系统虽具备城市道路通行、红绿灯识别等复杂功能,但其技术架构存在根本性矛盾。施拉姆特别指出:"'监督版'这个命名极具误导性,它暗示车辆承担行车责任,但实际责任主体仍是驾驶员。"这种命名方式与系统实际功能的不匹配,被视为技术推广中的重大伦理问题。
欧洲市场严格的准入标准成为该技术落地的主要障碍。由于欧盟成员国交通规则存在差异,道路标识系统复杂多样,自动驾驶技术需要满足更高的安全冗余要求。施拉姆透露,协会已建立专门的高级驾驶辅助系统评级体系,特斯拉等车企的产品均在此框架下接受评估。测试结果显示,现有辅助驾驶系统普遍存在两大缺陷:命名误导消费者和驾驶员监控系统失效。
"当系统检测到驾驶员注意力分散时,必须采取强制干预措施。"施拉姆解释道,"目前多数车企将责任转嫁给用户,这种做法在技术伦理上站不住脚。"协会最新测试数据显示,超过60%的辅助驾驶事故与驾驶员过度依赖系统有关,而现有监控系统对疲劳状态的识别准确率不足40%。
针对驾驶员监控技术,欧洲安全机构正在推动双重测试标准升级。2026年实施的测评规则新增系统稳定性测试,重点考察摄像头追踪精度和生物特征识别能力。正在制定的2029年新规将引入智能判断机制,要求监控系统能区分驾驶员主动观察环境与真正分心两种状态,避免过度干预影响驾驶体验。
据内部文件显示,新测试框架包含37项具体指标,其中12项涉及伦理道德评估。例如,系统需在0.3秒内准确判断驾驶员视线方向,对戴墨镜、留胡须等特殊情况的识别准确率要求达到95%以上。这些标准正在与全球主要车企进行闭门磋商,预计将引发行业技术路线重大调整。
施拉姆特别澄清,批评并非针对特定企业:"整个行业都存在技术夸大宣传问题,目前没有任何系统能实现真正无人驾驶。"他透露,协会正在起草《辅助驾驶责任白皮书》,明确要求车企在营销材料中禁用"自动""自主"等词汇,所有功能描述必须通过第三方机构认证。












