论文部分内容阅读
同时定位与构图简称 SLAM(Simultaneously Localization And Mapping),SLAM 意在通过机器人自身携带的传感器,在移动过程中恢复自身的位置,同时对周围环境建立3D描述地图。该问题自1986年提出到现已经被研究了 30多年,而同时定位与构图算法也从基于激光传感器的框架,发展到现在的基于视觉传感器的视觉SLAM框架。其中基于激光SLAM的框架提出较早,其理论方法和计算框架已经成型,因而当前的研究多数是针对视觉SLAM框架的。视觉SLAM框架中主要采用的是直接图像对齐法计算相邻两帧图像之间的平移量和旋转量,而直接图像对齐法的原理是假设空间中的一个3D点P在短时间、小角度变化内,空间点灰度值保持不变。通过这个约束关系建立投影点之间的亮度误差关系式,最后最小化亮度误差来求解相机之间的平移和旋转量。在实验中我们发现传统直接法在应对相机快速旋转,即当图像帧之间的间隔距离增大时匹配的误差增大明显,甚至出现严重的误匹配,这也是传统直接法的局限所在。在本文中,我们考虑传统直接法模型在相机快速运动情况下出现图像对齐失败的原因在于其非线性优化过程没有可靠的迭代起点。从非线性优化理论中可知,非线性优化对初始迭代点的依赖很大,迭代初始点选取不当会导致算法陷入局部极小值。而传统直接法模型没有一个有效的方式为迭代算法计算初始值,致使优化环节容易陷入局部极小值并出现误匹配。基于此种路线,我们提出了基于惯性器件(IMU)先验估计下的直接图像对齐模型:(1)首先使用惯性器件进行运动学积分,得到当前相机相对于上一时刻参考位置的相对旋转和平移参数[R|t]。(2)使用这个粗略的相机位姿参数作为直接图像对齐过程中非线性优化的初始迭代点,有灰度不变模型最小化光度误差,得到精准的相机位姿量[R.|t.]。(3)最后构建贝叶斯后验估计模型对惯性器件中加速度和角速度的偏差实时校正。随后在第四章中我们将改进以后的直接图像对齐法模型扩展为了一套完整的基于RGB-D相机的实时稠密点云地图构建系统,并开源了整个系统框架。最后通过在TUM公开数据集和自己在实验室环境中录制的数据集上对比评估了 LSD-SLAM框架、ORB-SLAM框架和我们构建的框架,评估结果显示我们的系统在与ORB-SLAM框架保持相同定位精度时能两倍速度于ORB-SLAM系统运行。此外,相比于前面的两个框架,我们的系统还具备稠密点云地图构建的功能。