论文部分内容阅读
在获取场景的视觉图像时,传统RatSLAM仿生导航算法无法获得场景中物体的距离信息,使得闭环检测的误匹配率高,导致机器人在导航过程中导航精度不高。采用深度相机Kinect来采集场景图像,分别用图像直方图法和相机标定技术对采集的图像颜色特征和深度信息进行提取,将提取的信息存储并作为RGB-D视觉模板,通过闭环检测实现对位姿感知细胞的姿态及经历图的修正,将深度信息融入传统RatSLAM模型,实现了RatSLAM仿生算法的合理改进。