论文部分内容阅读
随着近年来人工智能(Artificial Intelligence,AI)的快速发展,解决机器人感知问题的同时定位和构建地图(Simultaneous Localization and Mapping,SLAM)技术在诸如自动驾驶、机器人导航、增强现实(AugmentReality,AR)等领域有着广泛的应用。然而,现有的视觉SLAM技术多是基于特征点(如角点)或像素点的匹配来实现定位和构建地图。从输入内容上来看,这些低层级的几何特征只包含图像中很少一部分信息,而诸如图片中包含什么物体,当前处于哪个场景中等高级语义信息完全没有被SLAM利用。感知环境中的内容信息,让机器从几何和语义两个方面去理解周围环境,是视觉SLAM的重要发展方向。本文设计了面向室内场景的基于语义地图的视觉SLAM系统。通过目标检测获取周围环境的语义信息,实现了将语义信息融合到定位和构建地图算法当中,优化SLAM系统中各个环节的能力。针对系统的各个模块,本文在真实环境中对语义SLAM系统的可行性进行验证,并对系统在公开数据集上的表现进行定量分析。本文完成的具体工作如下所述:(1)语义SLAM前端,即视觉里程计部分。针对室内场景的特点,提出一种基于语义信息的位姿计算方案。针对室内场景的不同系统采取不同的位姿计算方案。在可识别物体丰富的场景中,将直接基于语义信息进行摄像机位姿计算;而在可识别物体较少的场景中,将利用语义信息加速特征点匹配获取摄像机位姿。本文实验证明,直接基于语义信息的位姿计算能够实现视觉里程计的功能,而将特征点带上语义信息。(2)回环检测。针对本文设计的系统特点,本文设计了一种利用环境中物体和其相对位置关系进行回环检测的策略,并将其应用到系统中。本文在真实环境中验证了回环检测方案的有效性。(3)语义SLAM系统。本文搭建完整的语义SLAM系统,并基于TUM公开数据集对该系统进行定量测评。在两个运行轨迹长度分别为7.112m和9.263m的数据集上,平均轨迹误差分别为0.015m和0.019m,实验结果表明本系统满足室内定位需求。