论文部分内容阅读
近年来,在计算机视觉、人工智能以及5G通讯等技术的飞速发展下,无人驾驶技术的发展得到了充分的技术支撑和需求推动。自主定位与建图技术在无人驾驶技术的各种应用场景下均扮演了至关重要的作用,是无人车实现环境感知、决策规划和自主运动等功能的基础。然而,传统的基于单一传感器的定位与建图方法在定位精度、建图效果以及系统鲁棒性方法均存在一定的不足。本文提出了一种新颖的基于单目视觉和激光数据紧耦合的无人车自主定位方法。本方法将单目相机的图像和多线激光雷达的点云进行数据融合处理,然后放在同一个优化框架下进行联合优化得到位姿估计;基于视觉词袋模型和里程计输出位姿来进行闭环检测,构建闭环约束并将其添加到全局位姿图中进行闭环修正。本方法可以输出精度和鲁棒性均足够高的位姿估计结果和三维环境点云地图。以下是本论文的主要研究内容:(1)单目相机和激光雷达的数据预处理。本模块的输入为经过时间同步后的频率一致的图片和点云。本模块从输入的当前帧图片提取2D视觉特征点并执行稀疏光流跟踪;对输入的当前帧点云进行点云分割并剔除不可靠的外点,得到包括地面点集和有效物体点集在内的带有标签的点云,并对标签点云进行3D激光特征点的提取;此外,还将标签点云与2D视觉特征点进行数据关联,得到深度恢复的3D视觉特征点。(2)基于视觉和激光数据紧耦合的里程计。本模块首先将前一模块输出的当前帧3D激光特征点进行去除运动畸变的处理,然后在前一帧的去畸变点云中查找当前帧各特征点的匹配并构建其运动约束,并在一个统一的优化框架下进行紧耦合的位姿估计。紧耦合位姿估计的结果在激光建图子模块中被进一步优化,并在位姿融合后输出10Hz的融合位姿和以2Hz频率更新的环境点云地图。(3)闭环检测与全局位姿图优化。闭环模块基于视觉词袋模型和里程计输出位姿来实现基于视觉和近邻融合的闭环检测方法,利用ICP配准算法将当前闭环关键帧的激光特征点云同其历史闭环关键帧附近的地图点云进行配准并得到二者间的闭环约束,然后将其添加到一个拥有六自由度的全局位姿图中进行优化,最后输出经过闭环修正的全局统一的位姿轨迹和环境点云地图。