论文部分内容阅读
移动机器人已经成为了当前研究的焦点,尤其最近增强现实、虚拟现实与无人驾驶的火热进一步推动了移动机器人技术的发展。其中即时定位与建图(SLAM)是移动机器人技术的核心,而单一的传感器的SLAM算法无论是在精度还是鲁棒性上都不能满足一些应用的要求。本文提出一种基于特征点法的实时紧耦合的单目视觉与IMU融合SLAM算法,该算法可以应用于室内外和大尺度环境。整个SLAM系统可以实现全自动初始化,不需要预先知道任何先验信息。该系统由三大部分组成:初始化、追踪、局部优化和闭环检测。在初始化部分本文采用单目视觉与IMU的松耦合来估计初始化参数:每一帧图像所对应的IMU相对世界坐标的变换关系WBT,当地的重力矢量wg,真实尺度s,每一帧图像所对应的IMU的速度BV,加速度偏差ba和陀螺仪偏差gb。在追踪过程中,本文分为初始化成功前的仅视觉追踪和初始化成功后的视觉与IMU融合的追踪,在后者追踪的过程中本文又根据当前帧是否为关键帧而采用两种不同的目标方程。为了减少误差的累计和增强系统的鲁棒性,本文引入了局部地图。为了让局部地图在不丢失信息的同时计算量有界,本文引入了边缘化和稀疏化。为了避免引入错误信息,在边缘化中,本文采用固定求导线性点的方式求优化过程中雅可比矩阵。最后,为了减少SLAM过程中的累计误差,本文引入了闭环检测。由于每帧图像姿态的仰角和滚动角在IMU与相机的融合系统是可观的,因此,在闭环检测中本文优化的是4自由度的变量。本文提出的SLAM系统在EuRoC数据集测试,初始化精度十分高,可以得到尺度s的误差小于5%,重力矢量wg的大小收敛在9.8 m/s2左右,加速度偏差收敛在0左右,陀螺仪偏差收敛在10-3?/t左右。在整个SLAM过程中,定位精度也是十分具有竞争力,其中平均误差在8cm左右,最大误差也在10 cm以内。在实物测试中,本文的算法表现也十分出色,在小范围内,定位精度可以达到10cm左右。