论文部分内容阅读
环境感知与导航定位是移动机器人实现自主化与智能化所要解决的最基本的问题。由于室内GPS信号的缺失与小型惯性传感器的误差漂移,机器人的室内导航与定位面临着巨大的困难,因此基于视觉的机器人三维运动估计与环境建模技术展现出了重要的研究与应用价值。然而现有的视觉导航与环境建模方法都只能在静态环境下正常工作。如果场景中出现运动物体,那么它们将成为图像中的干扰元素,严重影响机器人的视觉运动估计与其所建立的环境地图。因此,本文研究机器人在含有运动物体的室内动态环境中,采用基于视觉的方法估计机器人的三维位置与姿态信息,并建立一个全局一致且不含运动元素的静态地图。本文的主要研究工作和贡献归纳如下。第一,对RGB-D传感器的信息预处理技术进行了深入研究。首先针对其彩色相机与红外相机分别进行内参数标定,并对这两个图像流信号进行空间配准与时间同步,以获取彩色图像中每个像素所对应的深度值。其次,深入研究了RGB-D摄像机的深度测量原理,并结合高斯混合模型,对RGB-D传感器进行不确定度建模,从而获得像素深度及其三维空间位置的不确定度。第二,针对动态环境下的三维视觉自运动估计问题,提出了一种新的基于特征区域分割的RGB-D视觉里程计算法。该算法通过在关键帧与当前帧图像上提取特征并进行匹配,根据匹配特征点计算它们之间的位姿变换。为了消除场景中运动物体的干扰,利用相邻匹配特征点之间的三维空间距离不变性,将特征点划分成静态与动态区域,最终只利用静态背景区域的匹配特征点来估计摄像机的运动。实验结果表明,所提出的视觉里程计算法在静态场景与动态场景中都能够获得准确的摄像机运动估计,并且在大范围动态场景下,其估计精度超过了其它成熟的视觉里程计算法。第三,针对动态场景下的三维环境建模问题,提出了一种新的静态地图构建方法。该方法首先在上述视觉里程计算法的基础上,结合闭环检测与全局图优化技术,建立了一个完整的同时定位与建图算法来获取全局一致的关键帧位姿。在地图构建过程中,为了去除运动物体的干扰,根据相邻关键帧之间的位姿变换对其匹配像素点的灰度与深度信息进行一致性判断,最终只利用相邻关键帧中观测一致的像素点构建出全局点云地图。实验结果显示,本文所提出的静态地图构建方法能够很好地去除点云中的运动物体,并保留静态区域的点云信息,保持了整个地图的完整性与一致性。