论文部分内容阅读
移动机器人技术越来越成为万众瞩目的焦点。在未来,SLAM技术,不仅和无人驾驶结合方便人们出行,而且与工业运输相结合使得无人卡车无人飞机提高流通效率,也应用于VR和AR眼镜,改变人们生活娱乐的交互理念。这些生活中熟悉的场景,将为会因这项技术的进步而取得翻天覆地的变化。视觉SLAM目前遇到的挑战有两方面:第一是移动机器人持续运动视角的动态场景下,如何保持算法系统的稳定性,第二是,如何有效的利用从传感器获取的丰富的数据信息,并在现有的硬件设备下高效的优化计算结果。基于以上问题,本文将因子图模型应用于单目视觉的优化算法研究,提出了一种信息融合的单目视觉SLAM方法。本论文针对目前视觉同步定位与建图(SLAM)的视觉里程计(Visual Odometry)方法在室外动态场景下,视觉前端中特征点信息利用率低,且不足以满足稳定的图像匹配跟踪的问题,提出一种结合特征关键子和直接法灰度匹配方法前端视觉里程计信息融合方法,使其不仅在快速运动情况下不再有严重的特征丢失而且降低对灰度不变假设的依赖,在纹理不足的场景也有较好的稳定性。实验证明,通过前端视觉里程计对特征点进一步简化,进而对像素块的像素梯度计算,提高了视觉前端图像的像素信息利用率,改善了传统方法中特征点丢失、对光强不变性过度依赖的特点,平均实时帧率满足实时性的要求。在视觉里程计后端,本文摒弃传统的滤波器算法,递推的贝叶斯估计构建因子图模型。当视觉里程计前端获取传感器量测信息后,通过系统的变量节点和因子节点对因子图进行拓展,基于设置的代价函数完成状态的递推和更新。通过因子图优化采用增量平滑的方法,边缘化位姿矩阵,从而实现单目视觉SLAM在室外大尺度场景下保持实时性需求的前提下,进一步提高定位精度。实验表明,相对于传统的SLAM算法,本论文提出的视觉里程计方法在KITTI odometry数据集中的定位精度平均平方根误差为1.79m,加入因子图优化模型后,平均均方根误差为1.63m,帧率达到71fps。实验分析,在同等硬件环境下,与其他经典视觉里程计相比,本算法在精准度和稳定性度上有一定的提升。同时基于此视觉里程计引入的因子图非线性优化模型,使得视觉里程计的定位精度有了进一步的提升,而且保证了较高的帧率水平,满足实时定位的需要,也有良好的稳定性。