自动驾驶技术发展至今,如何在复杂恶劣天气条件下实现可靠感知,仍是制约行业突破的关键瓶颈。传统研究多聚焦于晴朗环境下的传感器性能,却忽视了雨雪、浓雾、夜间等场景对摄像头和激光雷达的干扰。近日,一支跨国研究团队通过构建全球首个真实恶劣天气车车协作数据集,为破解这一难题提供了关键支撑。
该数据集命名为CATS-V2V,其中"CATS"代表复杂恶劣交通场景,"V2V"指车对车协作。研究团队历时两年,使用两辆配备128线激光雷达、7个车载摄像头及高精度导航系统的林肯MKZ轿车,在涵盖高速公路、城市道路、住宅区等10类场景中,采集了包含雨、雪、雾、夜间等10种极端条件的100个视频片段。数据总量达6万帧激光点云、126万张多视角图像及75万条定位记录,其规模与场景复杂度均创行业新高。
项目负责人指出,现有协作感知数据集存在两大缺陷:一是90%以上数据来自理想天气,二是传感器同步精度普遍存在20毫秒以上误差。为解决这些问题,研究团队开发了硬件级同步系统,通过GPS授时将所有传感器触发误差控制在1毫秒内,并创新性地提出基于目标的时间对齐算法。该算法通过计算动态目标的平均时间戳,将激光点云与相机帧精确匹配,实验显示其目标定位误差较传统方法降低67%。
数据标注方面,团队为每个动态目标分配唯一ID,支持跨车辆、跨帧的持续追踪。标注对象分为车辆(含轿车、卡车、公交车等6类)和弱势道路使用者(含行人、骑行者、滑板车等4类),并提供了时间一致的3D边界框。这种精细化标注使得数据集既能支持基础的目标检测任务,也可用于地图构建、SLAM定位等高阶研究。
在数据预处理环节,研究团队开发了运动补偿算法,消除车辆行驶导致的激光点云畸变。通过将两车点云统一至全局坐标系,并采用迭代最近点算法进行精细配准,确保了多车感知数据的一致性。这些技术突破使得数据集在动态目标追踪、多模态融合等任务中表现出色,其性能在基准测试中超越现有数据集32%。
该数据集的发布立即引发行业关注。某自动驾驶企业首席科学家表示,真实恶劣天气数据是训练鲁棒感知系统的"刚需",CATS-V2V提供的丰富场景和精准标注,将显著加速协作感知算法的落地应用。目前,已有30余家科研机构申请数据访问,相关研究论文在arXiv平台发布后一周内下载量突破5000次。
研究团队透露,下一阶段将扩展数据集规模至500个场景,并纳入路边基础设施感知数据。同时,他们正在开发数据转换工具,可将原始传感器数据自动生成运动轨迹集,进一步降低研究门槛。这项持续进化的工作,正在为自动驾驶技术突破"最后一公里"挑战铺平道路。











