论文部分内容阅读
精确的地图是移动机器人导航的前提,如何准确地划分场景中的可通行区域和不可通行区域,提供障碍物的位置信息,对目前地图创建来说仍是一大难点。虽然三维点云地图能对场景进行复现,但由于缺乏上述信息,无法满足机器人导航避障及路径规划的需求。在建图过程中,主要是依靠机器人所搭载的传感器感知周围环境信息来完成的。视觉传感器由于结构轻便、体积小、功耗低、价格便宜以及获取信息丰富等优点,在地图创建过程中更具优势,尤其是RGB-D相机的出现,由于能够同时获得彩色图片和对应的深度图片,在三维重建以及地图创建中受到高度关注。但是在位姿估计过程的,场景纹理不丰富或相机运动过快都会影响位姿估计的精度,而且当图像发生变化时,无法确定是场景发生了变化还是相机自身产生了运动,因此纯视觉信息难以处理动态场景的问题。惯性传感器可以测量角速度和加速度,在视觉信息不可靠时可以为移动机器人提供一个初始位姿估计,与相机具有很好的互补性。因此本文借助RGB-D相机和惯性传感器,通过融合这两个传感器的数据来进行室内移动机器人的位姿估计以及地图创建方法研究。在数据处理环节,改进了特征提取的方法,利用图像灰度梯度幅值的大小,自适应地调整提取特征点的数量,提高了在纹理不丰富场景中的鲁棒性,并采用四叉树的形式对提取到的特征点进行划分,使其均匀分布在图像上,充分利用了图像信息,同时根据匹配的特征点构建了视觉重投影误差;在数据融合环节,采用IMU预积分的方式将相邻关键帧之间的IMU数据转换成单个相对测量约束,构建了相邻关键帧之间的IMU预积分测量模型,并通过联合优化IMU预积分测量误差和视觉重投影误差得到移动机器人的位姿估计;在位姿求解及优化环节,为了降低优化规模,引入滑动窗口的方式,通过仅优化窗口内的机器人位姿,加快了计算速度,降低了对处理器的要求,并通过闭环检测,减小了累积误差,得到了全局一致的优化位姿;在地图创建环节,为了区分场景中的可通行区域和障碍物区域,对三维点云地图进行地面提取和非地面分离,同时考虑到本文中移动机器人仅在地平面上运动,将点云地图转换为了二维可导航地图,方便移动机器人的导航避障。实验结果证明了本文算法的可行性。