论文部分内容阅读
近几年来,随着传感器和计算机硬件在性能上的改善,使得实时视觉处理成为可能,并且随着计算机视觉算法的成熟,我们期望看到更多的视觉导航系统。而计算机视觉的一个重要应用是车辆和机器人的无人自主导航。为了实现自主导航的目的,移动机器人必须能够在运动过程中自定位,从而确定其位置和方向,也为后续的视觉同时定位与地图重建(VSLAM)奠定基础。因此本论文旨在研究自主车或轮式机器人视觉导航系统中的立体视觉里程计定位技术。论文首先综述了计算机视觉、立体视觉的基本理论,并介绍了视觉里程计的研究背景和发展状况。第二章研究了图像特征提取、匹配所用到的一些算法,首先介绍了Harris算子,接着通过分析尺度空间原理,主要研究了本文中采用的SIFT(ScaleInvariant Feature Transform)特征点。SIFT特征点的最大优点就是具有尺度和旋转不变性,而且对光照和相机视场的变化有部分不变性。另外,这些特征点具有较高的特征唯一性,使得每一个点具有较高的匹配唯一性。实验给出了SIFT特征点的提取和匹配结果,并比较了Harris和SIFT特征点随尺度变化的匹配结果。第三章针对车轮里程计相对定位过程中存在的车轮打滑等问题,我们提出了一种基于三维欧氏空间的立体视觉里程计算法,该算法仅依靠视觉输入,通过坐标变换求取运动参数。其具体的实现步骤和方法是将匹配的特征点对利用奇异值分解的方法去求取运动参数,并在RANSAC模型下求得最佳的运动参数模型,最终利用非线性最小二乘的方法进一步迭代以求得更加精确的运动参数。最后,本文提出了一种新的基于视差空间的立体视觉里程计算法。该算法克服了基于欧氏空间的视觉里程计算法中三维空间噪声分布不均匀的缺陷,利用视差空间噪声分布各向同性的性质,结合RANSAC算法进行运动估计,并通过迭代使得能量函数取得全局最小值。实验结果证明该算法在运动估计中能取得更好的精度。