论文部分内容阅读
高精度定位是实现智能车自动驾驶的核心问题之一。本文采取“先表征——后定位”的研究策略,以道路场景表征模型为基础,将单目视觉与普通GPS接收机相结合,研究不同条件下(天气、时段、路段、GPS信号是否良好等)的智能车定位方法。本文主要的研究工作如下:首先,构建了面向智能车的道路场景表征模型。以单/双目视觉、差分GPS基站、组合惯导、GPS接收机、激光雷达(Laser rangefinder,LRF)等多传感器系统为基础,所建立的模型由一序列节点组成,每个节点包含视觉特征,三维数据以及轨迹信息三要素。其中,视觉特征包含全局特征与局部特征;三维数据由双目三维重建、单目三维重建以及激光三维重建三种方法获得。为了将激光三维数据(Light detection and ranging,LIDAR)与视觉特征相关联,提出了激光雷达与车载摄像机的外参数标定方法。此外,轨迹信息通过三维数据进行求解,表示节点间的位置关系。三要素存在充分保证了每个节点的唯一性。在表征模型的基础上,搭建了智能车定位系统作为数据采集平台,并对所提出的方法设计与开展了相应的实验。其次,提出了基于GPS与图像融合的智能车多尺度定位方法。在所构建的表征模型基础上,将单目视觉与普通GPS相结合,采用“由粗到精(Coarse-to-fine)”的策略完成多尺度定位。在GPS尺度下,将GPS信息与表征模型中的高精度位置信息相匹配,得到初始定位范围;在图像尺度下,分别提取单目图像的全局特征与局部特征,并将其与初始定位范围的图像特征分别进行匹配,所得结果通过KNN-MFS方法进行融合,得到一个候选节点;在三维尺度下,将局部特征与候选节点的三维数据匹配,通过求解透视n点问题,调整候选节点,最终得到距离待定位点最近的节点以及智能车在此节点的位姿。此外,提出了GPS信息缺失时的纯视觉定位方法。由拓扑定位代替了GPS初始定位:首先定义了“特征区域(Feature-zone)”的概念,并在此基础上提出了基于拓扑结构的特征区域选择方法,选取初始定位范围;其次提出了基于视觉运动模型的贝叶斯拓扑定位方法,进一步缩小定位范围;再根据多尺度匹配方法完成定位。该方法为GPS盲区下智能车的定位问题提出了一种新的解决思路。最后,提出了基于多视角匹配的智能车定位方法。在前文所采用的前视视觉基础上,创造性的将俯视视角加入算法中,形成多视角匹配的定位方法,增强了道路场景的唯一性表征。根据多个视角建立双链拓扑模型,实现粗定位;运用多视角特征匹配实现节点级定位;以路面二维数据替代道路场景三维数据,通过对平面单应性的求解完成位姿级定位。该方法的提出旨在进一步提高定位精度、增强算法对光照以及环境变化的鲁棒性,进一步完善智能车定位功能。本文研究结果可有效满足智能车高精度的定位需求,对促进智能车辆发展,具有重要意义。在未来的研究中,将集中于全视角定位,并将应用拓展至傍晚时间以及较为恶劣的天气。