论文部分内容阅读
机器人在未知环境中根据自身位置估计和传感器数据,创建环境地图同时指导机器人自主定位和导航,也即机器人同步定位与地图构建(SLAM),是实现真正自主移动机器人的关键,成为机器人和人工智能领域研究的热点和难点。闭环检测是SLAM的基础问题之一,如何准确判断机器人当前位置是否位于之前已经访问过的环境区域,对减少机器人位姿和地图状态变量的不确定性,避免错误引入地图冗余变量或重复结构,至关重要。由于视觉传感器的诸多优点,近年来,基于视觉的SLAM技术,即vSLAM引起了广泛关注。然而,移动机器人在视觉信息的采集、描述、匹配等关键环节中的模型固有缺陷和不可避免的计算误差,导致无法准确提取闭环响应,进而妨碍机器人完成SLAM任务,因此机器人在大规模非结构化环境中的视觉闭环检测仍是目前最具有挑战性的问题之一。本文对视觉闭环检测问题进行了深入系统的研究,旨在解决当前主流的基于视觉场景外观建模的闭环检测中存在的主要问题,提高闭环检测的效率和准确率。取得的创新成果主要包括:首先分析比较了视觉场景采样中,各种帧采样技术的优劣,提出了基于图像内容变化的关键采样方法成为vSLAM首选的依据。针对SLAM领域至今没有对关键帧检测方法的定量评估和选择标准,本文通过研究各种关键帧检测技术的算法机理,提出了无监督的算法性能评估方案和准则,搭建了系统的实验评估框架,通过视觉SLAM数据库上的实验分析,基于特征匹配的关键帧检测方法在本文研究的五类方法中具有最佳的检测效果。该研究工作常常被vSLAM研究所忽略,本研究为解决vSLAM中场景采样问题提供了参考依据。在机器人场景外观建模中,通过研究视觉词袋模型BoVW的关键问题,提出了一种鲁棒视觉字典本的优化构造策略,以克服底层特征的海量性、高维性、不稳定性对视觉字典本生成的影响。首先引入条件数理论定量评估海量底层特征的稳定性,筛选出鲁棒视觉特征;提出了一种聚类和降维的统一计算模型,构造了具有聚类结构的自适应维数约简算法;利用低维聚类信息中的邻域支持度,自适应选取最佳的初始视觉单词,选择Silhouette指标作为迭代目标函数,从而改进流行的LBG字典本生成算法敏感于初始点的随机选取,并只能得到局部最优等不足。新的视觉字典本生成算法具有聚类和降维的统一计算功能、良好的鲁棒性和自适应优化等特性,取得了良好的场景图像描述效果。提高视觉字典本表征性能是提高闭环检测准确性的关键,针对目前图像分类中的优化策略大都是面向类信息的有监督模式,本文立足闭环检测的无监督性,依托闭环提取计算出的数据实体,提出了一套无监督的视觉单词本表征性能定量评估和优化方法。首先采用熵排序技术的特征向量选择方法改进传统的谱聚类,对原始底层特征在无监督条件下聚类生成初始视觉单词;继而提出一种基于马氏距离测度的视觉单词区分度定量评估算法,在图像-单词矩阵上计算出视觉单词的区分度,设计了一个弱表征性单词的迭代更新策略;最后采用刻画图像相似性矩阵的分解复杂度的秩缩减技术度量新视觉字典本的表征性能。在移动机器人室内和室外场景实验中,本文方法提高了视觉字典本建模的有效性,获得了良好的闭环检测效果,同时对视觉混淆现象表现出良好鲁棒性。为提高闭环检测的效率,满足闭环检测的实时计算需求,针对场景外观表征性能受制于有限单词个数以及算法效率低的不足,本文对机器人视觉特征分层量化,构建了视觉字典树,并计算图像在树节点单词的TF-IDF投影权重,生成图像-单词逆向文档索引。为消除视觉字典本的单尺度量化误差,并克服传统平面匹配模式中不区分不同层次节点的区分度对闭环检测的影响,本文融合字典树低层单词的强表征性和高层单词的强鲁棒性,提出由下而上逐层计算图像间相似性增量的金字塔得分匹配方法。为剔除候选闭环中错误闭环的干扰,建立时间一致性约束、空间一致性约束和对极几何约束等后验确认操作,有效抑制错误闭环。在移动机器人视觉闭环检测实验中,本文算法提高了闭环提取的效率和检测性。通过对视觉闭环检测检测的系统研究,不仅提高了闭环检测的效率和准确性,更扩展了场景外观模型方法在整个vSLAM系统中的应用,也丰富了图像处理、机器视觉等领域的BoW方法研究。