论文部分内容阅读
定位无疑是自动驾驶、移动机器人、虚拟现实以及增强现实等领域中至关重要的环节,小尺度、低成本和易操作的单目视觉里程计是广泛采用的定位方法,而单纯的单目视觉无法获得系统尺度,同时在载体高动态情况下鲁棒性较低,而惯性数据可恢复系统尺度,同时克服动态性问题,因此,单目视觉惯性里程计是目前相关领域内研究的热点。基于以上的分析,本论文围绕单目视觉惯性里程计的关键技术问题展开研究,主要的研究内容有单目视觉惯性联合初始化方法、相机与IMU(惯性测量单元)之间的高精度外参在线自标定方法以及融合IMU数据的辅助跟踪模型三个方面,通过对相关方法与模型的改进与创新,以提升单目视觉惯性里程计的鲁棒性、实时性以及定位精度,具体的研究内容和贡献如下:(1)提出了单目视觉惯性松耦合的快速联合初始化方法。为快速恢复出单目视觉惯性系统的尺度、重力加速度和加速度计偏置,考虑到重力加速度与加速度计偏置的量级相差较大,导致整个求解矩阵存在病态性,降低系统收敛性,因此在重力加速度收敛收后,直接固定重力加速度,同时降低尺度的矩阵因子,提升系统收敛速度,从而在5s内快速恢复出高精度且稳定的尺度与加速度计偏置,提升系统实时性。(2)探讨了单目视觉惯性紧耦合的高精度外参在线自标定算法。相机和IMU高精度外参在线自标定方法主要分三个步骤完成,分别是旋转外参粗标定、平移外参粗标定以及外参优化模型。对于旋转外参粗标定,可构建视觉和IMU相对旋转的最小二乘模型,获得低精度和稳定性较差的初始旋转外参。对于平移外参粗标定,将平移外参作为待估计量加入到单目视觉惯性联合初始化模型中,作为系统初始待估计状态量。最后为提高外参标定的精度与稳定性,将外参加入到状态估计向量中,构建单目视觉惯性紧耦合优化模型,公开数据集实验表明,最终标定的旋转外参各方向误差稳定在0.012rad以内,平移外参各方向误差稳定在0.017m以内。(3)构建融合IMU数据的辅助跟踪模型。跟踪模型包含误匹配剔除和位姿跟踪,对于误匹配剔除算法,首先由IMU旋转预积分推导帧间的像素点运动关系,然后加入平面特征匀速模型以增加误匹配剔除的约束项,最后引入RANSAC方法。相比于单独的RANSAC误匹配剔除方法,实验表明,本文中提出的方法在精度和耗时等性能上存在明显优势,可将单独的RANSAC算法时间缩短至一半,同时平均每次多剔除0.5个误匹配点。对于IMU辅助位姿跟踪模型,为提高载体剧烈运动情况下的位姿跟踪鲁棒性与定位精度,提出将IMU先验数据融入到初始位姿中,提高初始位姿的精度,从而有效提高跟踪鲁棒性和定位精度。