论文部分内容阅读
同步定位与建图是指在陌生的环境中利用运动载体携带的传感器数据实时地估计自身的位置和姿态,并建立周围环境的地图。该技术是智能无人系统实现自主导航的基础,具有很高的研究价值。在室外环境中,双目相机传感器由于其信息丰富、成本低廉而成为实现同步定位与建图的重要手段。但是,由于实际情况的复杂性,该领域目前仍然面临着较多挑战,如快速运动、光照变化和动态干扰等问题。因此,本文对城市场景下基于双目视觉的无人车同步定位与建图方法进行了研究。首先,本文研究了基于特征匹配的同步定位与建图算法,介绍了该方向的基本原理和系统流程;详细研究了如何从图像中提取稳定的特征点,从而在环境光照和相机视角等发生变化时确定观测数据之间的关联,即完成像素点之间的匹配;介绍了如何根据匹配点的坐标计算相机自身的位置和姿态,并研究了用于构建地图的关键帧的筛选方法以及如何基于词袋模型进行回环检测。其次,针对城市场景下动态物体对相机定位的干扰问题,提出了一种基于语义分组来去除系统的动态特征点的方法。首先,研究了如何利用计算机视觉技术从单帧的图像中获得语义信息对特征点进行分组。然后,在同步定位与建图中,利用多帧之间的几何约束计算特征点的重投影误差,并根据语义信息计算每组样本的误差均值,从而放大静止的内点与动态的外点之间的差异,使得系统能够在保持足够内点用来定位的同时,有效抑制环境中的动态干扰。接着,针对基于特征匹配的同步定位与建图系统所建立的地图无法有效反映环境结构,难以满足导航避障需求的问题,本文设计了一种通过关键帧的双目匹配来构造三维稠密地图的方法。给出了左右图像的概率生成模型,利用该模型以特征点的视差为先验估计出稠密视差,同时,给出了视差图的后处理过程和利用共视帧间进行三维地图外点检测的方法。最后,在目前最大的用于自动驾驶算法评测的KITTI数据集上,对本文改进的同步定位与建图系统分别进行了定性和定量的实验验证。测试结果表明,本文所设计的算法可以有效地提升系统的定位精度,并且可以构建出能够清晰反映环境细节结构信息的三维稠密地图。