论文部分内容阅读
自动驾驶是近年来的热门课题,涉及感知、控制、规划等复杂任务,其首要任务是实现基于多传感器融合的智能感知,而精确的多传感融合依赖于传感器之间的坐标系转换关系(外参数)。在当前主流的自动驾驶方案中,相机(单目相机、双目相机)能提供丰富的特征和纹理信息,激光雷达(LiDAR)能提供高精度的物体深度信息,两者的高精确度的数据融合至关重要,因而相机和激光雷达的高精确度外参标定十分必要(外参标定是指估计传感器之间相对的旋转和平移,即外参数)。当前,面向自动驾驶的相机和激光雷达自标定算法面临着一些挑战:(1)现存方法大多基于初始值对外参数进行优化,由于车辆在连续运动,难以通过传统的利用标定板或手动操作的方法获得外参数的初始值;(2)自标定算法利用原始的相机图像和激光雷达点云进行标定,应对数据质量的宽容度高;(3)车辆长时间行驶的过程中可能出现传感器位置的偏移,标定算法应能够进行及时的修正。为解决标定算法获得外参数初始值问题,本文提出了一种新颖的相机-激光雷达系统外参数标定方法,利用手眼标定的方式来解决标定算法中获取初始值问题,并通过引入单目相机深度值估计来解决单目相机运动中感知尺度丢失的问题。为了在自动驾驶过程中使用手眼标定的方法,本文特别提出运用最小二乘法来对外部参数进行求解,并对批量的数据采样求解,从中筛选出最精确的结果。针对当前基于边缘匹配的标定算法优化搜索空间过大、耗时过长的问题,本文在优化损失函数中引入了深度差惩罚项,避免了无关边缘信息对优化过程的干扰,并大大降低了优化耗时,在相同的计算条件下,将优化收敛时间从数小时降至20分钟以内。为增强算法在实际自动驾驶场景中的实用性,本文提出一整套在自动驾驶过程中的相机和激光雷达外部参数自动化标定的完整流程,充分考虑到自动驾驶过程中可能出现的各种状况,确保传感器系统能够实现在线初始化、快速优化、准确更新相机和激光雷达的外部参数值。为验证所提出算法的效果,本文在开源数据集和本地数据集上进行了一系列实验,并充分对比了所提出方法与其他相关方法的性能,以及在真实场景中的外部参数标定表现。各类实验结果一致证明了所提出方法准确性和鲁棒性的提高,具有较强的先进性和实用性。