论文部分内容阅读
基于机器视觉的定位算法是智能移动机器人领域内的热点问题,通过分析包含在图像序列中的静态场景一致性信息,视觉定位可以帮助移动机器人更准确地获得当前位置与姿态信息,保证移动机器人安全、高效地完成指定任务。本文以大范围复杂环境中移动机器人的高精度实时定位为目标,围绕精度、实时性、鲁棒性三个关键问题进行研究。为了准确估计机器人6个自由度的位姿信息,首先构建了基于特征点匹配的双目立体视觉里程计(Visual Odometry, VO)。为了提高定位精度,第二章提出了两阶段局部双目光束法平差(Two-stage local binocular bundle adjustment, TLBBA),充分利用双目图像序列中的信息和约束,对运动估计结果进行优化。第三章通过合理设计系统中的算法模块,充分利用计算资源和算法的可并行性,实现了可以实时工作的双目立体VO。为了提高复杂环境中局部运动估计的鲁棒性,第四章提出了一种基于自适应多特征表观模型的压缩特征,通过跟踪移动机器人前进方向的图像片(图像中的子窗口区域),获得航向角增量的鲁棒估计值,防止不可靠的运动估计结果对定位结果造成影响。为了抑制移动机器人在大范围环境中漫游时定位误差的累积,提出了基于在线全景图像路标的全局位姿校正算法,有效解决了路径漂移问题。本文的主要工作和创新性研究成果如下:1)提出了一种两阶段局部双目光束法平差优化算法,充分利用图像序列中的一致性信息,提高了基于特征点匹配的双目立体VO的定位精度。在该算法的第一阶段,对单步运动估计结果进行优化,相比基于三维点不确定度的最大似然估计优化,该算法使用误差分布更加均匀的二维特征点不确定度,而且引入了约束更加丰富合理的双目模型;在该算法的第二阶段,同样基于双目模型和特征点不确定度权重,同时优化滑动窗口内的运动参数与三维结构。与传统单目模型LBA相比,TLBBA优化时的参数初始值更加准确,目标函数的构成更加科学,优化精度高。2)提出并实现了一种实时双目VO系统,为了在保证定位精度的前提下尽量提高处理速度,该VO系统基于GPGPU提取SIFT特征点,基于网格匹配法进行特征控制,在运动估计时基于GPGPU实现RanSaC结合HORN最小二乘方法。最后,把整个系统划分为两个线程,进行流水线处理:特征匹配线程负责特征点提取、匹配和三维点对重建;运动估计线程负责运动估计、两阶段局部双目光束法平差(TLBBA)优化、累积单步运动参数得到机器人全局位姿。3)提出了一种基于自适应多特征图像片压缩跟踪的局部航向角计算方法,可以在双目图像序列缺少一致性特征时,更鲁棒地计算出移动机器人的航向角变化。为了提高图像片跟踪的精度和实时性,提出了一种压缩空间中的自适应多特征表观建模方法:构造了稀疏的二级随机测量矩阵对SURF特征进行压缩,使原来单纯基于亮度特征的视觉表达更加丰富准确,描述能力更强;通过分析特征对目标和背景的区分能力,自适应地调整统计模型内特征之间的权重,抑制冗余、无用的特征,提高了统计模型的效率和准确性。4)提出了一种基于在线全景图像路标的全局位姿校正方法。该方法使用两种尺度的自适应压缩特征对全景图像进行建模,可以快速准确地从路标库中找到当前图像的最佳匹配;该方法通过检测路口,有效提高了路标图像的利用率和匹配准确率,进一步降低了匹配代价。移动机器人在重新访问路标场景时,通过求解当前图像与路标图像间的运动差异,对位姿进行校正,消除回路中的累积误差,提高了定位系统在大范围复杂环境中的精度和鲁棒性。