论文部分内容阅读
同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术,是移动机器人应用的关键技术。视觉传感器具有价格低廉、获取信息丰富的优点,因此基于视觉传感器的SLAM技术受到重视。但对于视觉SLAM(Visual SLAM,VSLAM)而言,处理复杂而繁多的信息以实现机器人的实时准确定位是该领域的难点之一。本文研究了基于KINECT2.0与ORB-SLAM2的室内视觉定位算法。在视觉SLAM基本理论的基础上,结合ORB特征点的特点,同时充分运用RGB-D相机可直接获取图像深度的特性,实现了准确且实时性能更优的视觉定位。为了有效提高视觉定位计算效率,本文提出一种改进的渐近一致采样(Progressive Sample Consensus,简称PROSAC)算法对特征数据进行处理,从而避免了在特征跟踪过程中由于随机一致性采样(Random Sample Consensus,简称RANSAC)算法在处理特征点时存在盲目性、效率低的缺点。PROSAC算法通过计算样本得分,根据样本分数进行降序排列,从具有较高置信度的样本子集中抽取样本,求解模型参数,以获取更高的计算效率。另外,针对全局BA中参与优化的地图点过多,导致计算量过大的不足,本文针对全局BA优化算法提出了改进。一方面,采用归一化割算法Ncut对地图点进行分段全局BA;另一方面,采用更为高效的LDLT矩阵分解算法代替原有的Cholesky矩阵分解算法,以获得更加高效的全局优化。最后,本文将以上提出的改进算法应用于基于KINECT2.0与ORB-SLAM2的视觉SLAM系统,以数据集以及实时场景两种形式,进行验证分析。实验结果表明,本文视觉SLAM系统采用改进的基于PROSAC算法的特征误匹配剔除算法,以及基于归一划割Ncut算法和LDLT矩阵分解算法的全局BA优化方法之后,本文提出的算法优化的时间效率相对于传统ORB_SLAM2系统,提高了近1倍,定位精度达0.001m,保证了定位的准确性。本文系统在保证定位精度和稳定性的同时,相较于ORB—SLAM2系统,实时性得到了较大提升。