论文部分内容阅读
机器人在陌生环境下通过传感器数据计算当前所处的位置与环境地图,被称为同时定位与地图构建问题(简称SLAM)。在基于视觉的SLAM中,机器人位姿通常根据相邻时刻的两帧图像由对极约束计算所得。由于当前位姿是由上一帧位姿与转换矩阵相乘得来,因此误差会逐渐累积并传递给下一帧。通常使用闭环检测算法,识别机器人当前位置是否出现在在历史运动轨迹中,从而在位姿计算的图优化中添加约束,以此抑制累积误差的增长对最终计算结果的影响。VSLAM中闭环检测通常使用基于单目摄像头获得的彩色图像,然而由于二维彩色图像描述子受视角变化与光照影响较大,在场景变换的情况下容易产生误判,而误匹配带来的损失远大于正常的误差计算,对成图影响很大。在综合分析闭环检测算法的研究现状后,基于彩色深度信息提出了一种三维的全局特征向量匹配方法,使用TUM数据集验证了方法的有效性。工作内容主要包括以下几个方面。首先使用深度图像获取世界坐标系下点云数据,根据深度图像坐标对应关系,建立大量的匹配点对,然后提取匹配点对附近区域的点云数据转换为TSDF(Truncated Signed Distance Function)模型,通过对大量数据的处理完成卷积神经网络数据集的准备工作。其次,将基于二维仿射变换的STN(Spatial Transformer Networks)网络层扩展到三维空间,受透视变换启发构建了三维STN网络层,通过三维STN网络层对特征进行对齐转换操作。并将三维STN网络层融入3dMatch网络提出了STNMatchNet,改善了网络对局部特征块的匹配能力。通过实验证明,在相同的训练条件下,对于同样的测试数据,在90%的召回率下STN-MatchNet相较于3dMatch获得了3.7%的精度提升。最后,为了改进基于RANSAC和最近点检索的点云相似度计算方法,将VLAD网络层加入到STN-MatchNet后端,构建了一个完整的端对端网络,可以直接计算点云图的全局特征向量,从而根据特征向量间距离计算点云相似度。通过实验证明,STN-MatchNet在闭环检测任务上,效果好于使用彩色图像的NetVLAD方案。