论文部分内容阅读
论文在基于视觉的移动机器人定位系统方面展开了深入研究。具体而言,利用顶视摄像机,设计了一个全局的、高精度视觉定位系统,为移动机器人自定位提供了位姿参考;利用车载摄像机,设计了基于多单应矩阵的位姿估计方法和融合视觉与里程计信息的位姿估计策略,使得移动机器人在任意场景下完成自主定位。论文的工作主要分为以下几个方面: (1)设计并搭建了一个基于顶视摄像机的全局视觉定位系统,能够实时获取高精度的机器人位姿信息,用来评估机器人自定位算法的性能。 (2)针对全局视觉定位系统,提出了一种较大范围的全局单应矩阵标定方法,通过将多个局部单应矩阵进行非线性融合得到一个全局范围内的单应矩阵,提高了全局范围内的标定精度;提出并标定了关联高度信息的单应矩阵,设计了一种单目标位姿测量方法,使得全局定位系统可以对任意已知高度的移动机器人进行定位与追踪。 (3)论文提出了基于多单应矩阵的移动机器人位姿估计技术,基于“正确的解聚集,错误的解发散”的统计学理论,提出了基于聚类技术的干扰位姿解去除方法,同时根据特征点间的投影误差去除误差较大的外点,使该方法对特征匹配点的外点具有一定鲁棒性,然后基于一定排序准则选择最优的运动参数,最后进行非线性优化得到最优位姿估计解。 (4)论文提出了将视觉传感器得到的位姿信息与里程计得到的位姿信息进行融合的方法,借鉴同时定位与建图的思想,提出了一种鲁棒扩展卡尔曼滤波方法,对视觉位姿与里程计信息进行相互融合,同时将环境特征点的深度信息融合到滤波过程中,从而完成移动机器人自身定位、场景特征点三维重建、以及高精度目标位姿估计等任务,有效地提高了位姿估计的鲁棒性和准确性。