论文部分内容阅读
融合多传感器的自主定位与导航技术是当前移动智能机器人领域研究的热点课题之一。相比于其他类型传感器,视觉传感器具有制造成本较低、采集视频信息量较大且图像直观等优点。但需解决实际运行场景中,由于相机快速转动造成的图像模糊、障碍物遮挡、纯转动以及尺度不确定性一系列问题,导致的图像特征点缺失、精度和鲁棒性降低等问题;而IMU可以通过加速度计和陀螺仪直接测得载体的运动速度数据信息,为载体运动提供必要约束,与视觉传感器互补,可以有效解决运动载体在快速运动以及纯转动下存在的问题。本文立足立体视觉与IMU融合技术,旨在提高室内移动机器人定位导航的精度与鲁棒性,主要研究内容包括:1.探讨了惯性测量定位基本理论。包括加速度计和陀螺仪测量理论原理、坐标系之间的相互转换,机器人空间姿态描述的四种方式:旋转变换矩阵、欧拉角、旋转向量以及四元数,并进一步研究了四种方式之间的转换关系。2.研究了视觉SLAM定位导航算法。首先分析了双目立体视觉相机定位原理,建立了针孔相机模型和相机畸变模型;利用张正友棋盘式标定法,使用MATLAB自带标定工具包对双目立体相机进行参数标定,首先分别标定了两个单目相机的内参和外参以及畸变参数,再对双目相机进行立体标定,确定两个单目相机的空间对应关系,进而通过特征提取与匹配,构建PnP方法,利用非线性优化来求解相机位姿,并利用光束平差法对位姿进行后端优化。3.分别实现了基于单目视觉融合IMU和双目立体视觉的单传感器定位方式,采用特征匹配的方法对相邻单帧图像进行特征提取与匹配,利用对极几何算法求解相机位姿,并通过实验分析单传感器在实际环境下定位失败的原因,为本文研究双目立体视觉融合IMU传感器奠定基础。4.深入研究了惯性与双目立体视觉融合定位导航算法。探讨了紧耦合和松耦合下融合数据的鲁棒性和精确性,选取紧耦合作为本文融合方案;提出了一种IMU初始化方法,利用IMU预积分得到当前帧估计下一帧相对关系,分别计算速度、陀螺仪、加速度计以及重力方向的偏差;将IMU预积分数据与双目视觉信息融合,构建视觉惯性里程计,联立视觉与惯性估计误差,通过不断迭代优化确定载体姿态信息。5.利用Turtlebot3移动机器人搭载PC机和ZED双目视觉传感器搭建实验移动平台,基于Ubuntu16.04操作系统,建立ROS机器人操作环境,实现数据和图像的可视化,再将运行中移动机器人位姿数据导出,利用MATLAB对数据进行仿真分析,从实际误差分析可得,在稳定的室内环境下,融合IMU与双目立体视觉信息定位精度能达到0.04m,相比于单视觉融合IMU以及纯双目视觉具有更高的定位精度和鲁棒性。