论文部分内容阅读
视觉 SLAM(Simultaneous Localization And Mapping)是以相机为传感器、研究自主移动机器人同步定位和地图构建的技术,如今人工智能的发展日新月异,视觉SLAM对无人驾驶、AR等热门应用的进步起着重要的推动作用。闭环检测是视觉SLAM中实时检验移动机器人行进轨迹是否与之前所到地点出现重合的方法,它起到纠正移动机器人前行过程中位姿和地图创建累积误差的作用,是视觉SLAM必不可少的重要环节。闭环检测应具备准确性、高效性和实时性的特点,同时面临着关键帧的合理选择、重复场景导致图像的感知混淆、闭环检测方法的选取、闭环检测结果的鲁棒性检验等关键问题,针对闭环检测的要求和主要问题,本文对用于图像匹配的BoW(Bag of Words,词袋)模型加以研究和改进利用,提出有效的闭环检测方法。本文通过三个方面介绍和实践闭环检测的过程。首先描述创建BoW模型的具体流程,介绍三种特征点提取算法的原理并进行测试,从而选择最能满足闭环检测要求的ORB算法。利用k-means方法将特征点聚类成视觉单词,创建视觉字典树和建立特征索引来提高BoW对特征的查找效率。然后分析总结BoW模型的缺陷,提出加入特征空间信息的改进方法,即对图像划分同等大小的4*4网格区域,分别统计各区域特征量化到视觉单词的得分,以增加特征的空间联系,然后介绍特征空间向量表示、提取和量化比较的实现细节。最后,引入时间一致性和几何一致性的验证方法来剔除错误匹配的闭环图像,从而保证闭环检测具有较高的鲁棒性。实验表明:本文选取ORB算法提取特征点,可快速地构建BoW模型,对其加入特征空间信息得到特征空间向量后用于闭环检测的图像匹配,能有效改善感知歧义现象,提高闭环检测的性能,且能满足实时性要求。