论文部分内容阅读
随着移动机器人技术的发展,一些人类在重复、繁重、危险等环境中的工作已经逐步由机器人代替。移动机器人在未知复杂的环境中自主定位和地图构建(SLAM)技术是完成环境感知、路径规划、人机交互等复杂任务的基础。移动机器人SLAM技术主要应用在无人驾驶车、无人机、搬运机器人、送餐机器人、导览机器人、扫地机器人等领域。由于在实际应用的室内和户外环境中,移动机器人容易遇到动态物体干扰、运行环境复杂等等问题,需要对动态环境下移动机器人定位和建图进行研究。
本文主要研究移动机器人在复杂动态环境下的基于视觉和激光雷达的SLAM技术,提高移动机器人在动态运动物体或变化背景环境等干扰因素下的定位精度和地图构建质量,并在深度学习的图像语义分割基础上研究实现一个大尺度三维语义地图的构建方法。本文的主要工作和创新点如下:
(1)提出了一种动态环境下视觉SLAM算法。该算法用YOLOv3模型检测可移动物体,过滤可移动物体区域的不良ORB特征点,实现了一个改进版ORB-SLAM2算法,且具有一定实时运行效率。在KITTI数据集和TUM数据集的动态场景序列下的实验表明,该算法在户外环境下的定位精度相对于原始ORB-SLAM2有明显提升,在室内环境下的定位精度与DynaSLAM接近,但速度优于DynaSLAM。此算法在KITTI单目数据集中运行速度达到14.3fps,在TUMRGBD数据集中达到14.5fps。
(2)设计并实现了一个视觉和激光融合的SLAM算法。该算法基于同步采集的二维图像和三维激光点云数据,通过上采样和双边滤波获得高分辨率深度图像,进一步计算特征点三维坐标,较之单纯基于单目/双目的视觉SLAM算法,能够进一步提高移动机器人的定位精度。在KITTI数据集、ApolloScape数据集的实验表明,相比于基于视觉的ORB-SLAM算法,该算法在KITTI数据集、ApolloScape数据集大部分序列中的定位精度都有明显提高。
(3)设计并实现一个三维语义地图构建方法。该方法将恢复的深度图与SLAM定位输出的位姿信息进行融合,完成机器人运动场景的三维点云地图重建和语义分割。实验结果表明,三维点云的重建质量较好,稠密且完整,能较好地恢复场景信息,也优于DynSLAM算法的三维重建结果。然后利用MaskR-CNN算法完成二维图像语义分割,将语义信息投影到三维点云地图,实现三维语义点云地图,并采用八叉树结构对海量三维语义数据进行存储和管理,提供移动机器人路径规划和导航所需的环境语义信息。
本文主要研究移动机器人在复杂动态环境下的基于视觉和激光雷达的SLAM技术,提高移动机器人在动态运动物体或变化背景环境等干扰因素下的定位精度和地图构建质量,并在深度学习的图像语义分割基础上研究实现一个大尺度三维语义地图的构建方法。本文的主要工作和创新点如下:
(1)提出了一种动态环境下视觉SLAM算法。该算法用YOLOv3模型检测可移动物体,过滤可移动物体区域的不良ORB特征点,实现了一个改进版ORB-SLAM2算法,且具有一定实时运行效率。在KITTI数据集和TUM数据集的动态场景序列下的实验表明,该算法在户外环境下的定位精度相对于原始ORB-SLAM2有明显提升,在室内环境下的定位精度与DynaSLAM接近,但速度优于DynaSLAM。此算法在KITTI单目数据集中运行速度达到14.3fps,在TUMRGBD数据集中达到14.5fps。
(2)设计并实现了一个视觉和激光融合的SLAM算法。该算法基于同步采集的二维图像和三维激光点云数据,通过上采样和双边滤波获得高分辨率深度图像,进一步计算特征点三维坐标,较之单纯基于单目/双目的视觉SLAM算法,能够进一步提高移动机器人的定位精度。在KITTI数据集、ApolloScape数据集的实验表明,相比于基于视觉的ORB-SLAM算法,该算法在KITTI数据集、ApolloScape数据集大部分序列中的定位精度都有明显提高。
(3)设计并实现一个三维语义地图构建方法。该方法将恢复的深度图与SLAM定位输出的位姿信息进行融合,完成机器人运动场景的三维点云地图重建和语义分割。实验结果表明,三维点云的重建质量较好,稠密且完整,能较好地恢复场景信息,也优于DynSLAM算法的三维重建结果。然后利用MaskR-CNN算法完成二维图像语义分割,将语义信息投影到三维点云地图,实现三维语义点云地图,并采用八叉树结构对海量三维语义数据进行存储和管理,提供移动机器人路径规划和导航所需的环境语义信息。