论文部分内容阅读
定位技术是移动机器人的关键技术之一,精确的定位系统是控制和规划的基础,是实现真正优异的机器人关键技术所在。视觉和惯导都能进行相对定位,视觉能够获取丰富的外部环境信息,但是定位精度易受环境和图像质量的影响,更新频率较低,不适用于高机动情况,惯导的更新频率高但是易受积分造成的累积误差的影响。因此,如何利用两个传感器的优势和互补性进行融合,提高位姿估计的精度和鲁棒性,是本文研究的主要内容,具体分为以下四个方面:(1)将姿态和位置分离进行估计构造视觉惯导融合算法。现有的IMU和视觉融合的算法中,通常将姿态和位置一同做为状态量,这样会导致求解模型时容易发散,本文提出将位置和姿态分离进行估计,先利用IMU进行姿态解算,再融合视觉进行位置估计,通过IMU解算姿态精度高,鲁棒性强,同时避免了惯导和视觉融合前相机姿态的初始化问题。(2)使用误差状态卡尔曼滤波模型ESKF来估计IMU姿态。误差状态将滤波器从强非线性的姿态空间变换到近线性的姿态空间下,避免了线性化过程引入的误差。同时由于在误差状态附近进行姿态求解,状态估计的误差角度参数值较小,避免了参数奇异性即万向节锁的问题。将磁罗盘和加速度计的数据作为滤波器观测,利用重力参考矢量和地磁场参考矢量同时对陀螺仪积分得到的姿态进行修正,提高了系统的姿态估计精度。(3)基于多状态约束卡尔曼滤波方法,利用视觉信息来修正位置误差。视觉特征在离开视线范围后再进行处理,避免了特征初始化带来的误差,同时使用高斯牛顿优化逆深度参数估计特征点3D坐标,模型利用了视觉特征信息但是不将它们添加到状态量中,使得算法与特征数目呈线性关系,从而实现实时在线估计。(4)闭环检测与全局优化解决定位漂移问题。采用多状态约束的卡尔曼滤波融合IMU与视觉融合后,运动轨迹会有一定漂移。通过词袋模型得到闭环帧,再利用光束平差法进行全局优化,可以有效解决漂移问题。