论文部分内容阅读
随着无人驾驶、人工智能和移动机器人等技术的不断发展,视觉/惯性组合导航定位技术逐步成为这些研究领域不可或缺的研究方向之一,受到了科学研究人员的广泛关注。视觉/惯性组合导航定位系统将低成本、小型化的惯性测量单元(IMU)和摄像机组合在一起,既可以利用相机提供的丰富场景信息来修正IMU的累积漂移,又能够利用IMU输出的载体自身运动信息为双目视觉系统提供更为精确的初始位姿信息,并通过二者信息融合解算出载体在惯性空间中位置和姿态,该系统充分利用了视觉和惯性的性能互补关系进行载体的导航和定位。本文通过双目视觉相机和MEMS惯性测量单元组成的导航定位系统进行载体的运动状态估计,采用导航定位精度更高的非线性优化紧耦合方案进行多传感器信息融合的位姿解算。首先,对双目视觉导航系统中涉及到的坐标系进行定义并明确了相机坐标系到世界坐标系的变换关系,分析了摄像机的张氏标定方法,对比分析了SIFT、Harris、ORB和SURF四种主流的图像特征点检测方法,进而验证了其中的ORB特征点检测方法的最优性,并基于RANSAC方法给出了特征点误匹配的去除算法,采用ICP方法估计载体的运动状态,通过特征提取匹配并对图像特征进行跟踪并给出了基于ICP/SFM融合的重构算法;其次,给出了MEMS惯性测量单元坐标系定义及坐标系间的转换方法,建立了IMU的测量模型,通过对IMU数据进行预积分处理的基础上,将视觉和惯性求得的位姿信息进行松耦合算法处理,通过求解线性最小二乘方程获得位姿优化所需要的精确系统初值,包括位姿初始化、陀螺仪的零偏,重力加速度的方向以及载体的运动状态;再次,利用IMU测量误差和视觉重投影误差构造非线性优化的代价函数,基于滑动窗口边缘化的方法来保证视觉导航系统常量的计算消耗和实时性,同时,将边缘化的先验信息加入到代价函数中,避免图像信息的丢失,另外,还引入了基于词袋模型的回环检测方法来减少视觉导航系统的累积误差,增加四自由度位姿图优化功能保证组合导航系统运动轨迹的全局一致性,并针对载体纯旋转退化问题给出了一种基于扩展卡尔曼滤波的解决方法;最后,采用Euroc数据集进行了系统仿真验证。