论文部分内容阅读
机器人在环境中根据传感器的数据估计自身位置,并创建环境地图,这一过程称为机器人即时定位与地图构建(SLAM)。它是真正实现自主移动机器人的关键,已成为自主智能机器人领域研究的热点。闭环检测是一个场景识别的问题,也是SLAM系统中的关键环节。对于增加机器人的位姿约束,减少系统累计误差,闭环检测至关重要。传统实现方法采用基于手工特征的词袋模型检测闭环,其局限性在于受光照和环境等影响明显。本文针对上述问题,借助于深度学习技术在场景识别和特征提取等方面的优势,研究基于深度学习闭环检测的视觉SLAM系统,论文选题具有很强的理论和现实意义。
针对视觉SLAM前端,在视觉里程计求解位姿的过程中,本文采用RANSAC求解的位姿作为初始值,再用非线性优化的方法求解最优值,得到更准确的位姿估计。在视觉词袋构建之前,利用深度学习技术,通过LIFT(Learned Invariant Feature Transform)网络提取出图像的特征点和描述子。实验的结果表明,LIFT特征相比于其他传统的手工特征,其准确性和鲁棒性更好。
由于深度学习技术在场景识别和特征提取方面的优势,本文提出了基于LIFT特征词袋模型的闭环检测方法,并在公开数据集上测试了系统性能。实验结果表明,相比于SURF和ORB视觉词典,本文方法在场景图像的识别上有更大的区分度。在准确率-召回率实验中,基于LIFT特征的闭环检测结果表明,在准确率较高的情况下,LIFT词袋模型可以达到较高的召回率。然后,本文在公开数据集上证明了LIFT词袋模型闭环检测的可行性。
为验证本文理论研究的效果,将ORB SLAM系统框架与LIFT词袋模型相结合,构建了基于深度学习闭环检测的视觉SLAM系统。在公开数据集上,实现了对稀疏点云、稠密点云和Octomap地图的构建。在此基础上,对改进的SLAM系统进行了实验性能评估,实验结果表明改进的SLAM系统有良好的效果。
最后,本文总结了所开展的研究工作,并对将来的研究方向进行了展望。
针对视觉SLAM前端,在视觉里程计求解位姿的过程中,本文采用RANSAC求解的位姿作为初始值,再用非线性优化的方法求解最优值,得到更准确的位姿估计。在视觉词袋构建之前,利用深度学习技术,通过LIFT(Learned Invariant Feature Transform)网络提取出图像的特征点和描述子。实验的结果表明,LIFT特征相比于其他传统的手工特征,其准确性和鲁棒性更好。
由于深度学习技术在场景识别和特征提取方面的优势,本文提出了基于LIFT特征词袋模型的闭环检测方法,并在公开数据集上测试了系统性能。实验结果表明,相比于SURF和ORB视觉词典,本文方法在场景图像的识别上有更大的区分度。在准确率-召回率实验中,基于LIFT特征的闭环检测结果表明,在准确率较高的情况下,LIFT词袋模型可以达到较高的召回率。然后,本文在公开数据集上证明了LIFT词袋模型闭环检测的可行性。
为验证本文理论研究的效果,将ORB SLAM系统框架与LIFT词袋模型相结合,构建了基于深度学习闭环检测的视觉SLAM系统。在公开数据集上,实现了对稀疏点云、稠密点云和Octomap地图的构建。在此基础上,对改进的SLAM系统进行了实验性能评估,实验结果表明改进的SLAM系统有良好的效果。
最后,本文总结了所开展的研究工作,并对将来的研究方向进行了展望。