论文部分内容阅读
随着人工智能与计算机技术发展,智能车自动驾驶技术也受到了学术科研与工程界的广泛关注,智能车自主运行的核心基础技术是自主定位与导航功能。但是针对于复杂干扰的运行环境中,且采用的传感器都具备自身的优缺点,多传感器数据融合定位导航技术成为智能车领域重要研究方向之一。针对复杂室内外场景,场景特征缺失、光照不足、障碍物遮挡等因素会对智能车定位产生影响,因此本文主要研究适用于室内外不同场景下的多传感器融合方法来实现智能车的鲁棒定位导航任务。为了方便且快速验证多传感器融合算法,基于Gazebo软件搭建智能车及实验环境的仿真平台,可实现传感器数据采集及智能车的控制决策功能。首先根据设计需求,描述智能车的运动学模型,并建立传感器的相机坐标系、激光雷达坐标系和车体坐标系,然后分析深度相机、激光雷达的成像模型,GPS和IMU的数据采集原理与各传感器的时间同步关系,并完成各个传感器的误差标定和数据采集实验。针对户外场景中GPS信号遮挡影响智能车定位精度问题,本论文利用GPS和IMU传感器测量结果设计基于自适应扩展卡尔曼滤波算法,并结合GPS差分定位技术提高系统的定位精度与鲁棒性。然后设计预测跟踪模型进行轨迹追踪完成户外导航任务,最终结合激光雷达传感器进行环境感知,并完成智能车的感知层、决策层和控制层的程序设计和户外实验测试,分析实验结果中产生定位误差的原因并对多传感器融合定位方法进行对比验证。针对智能车在室内无GPS信号环境中的自主定位问题,设计基于非线性优化的视觉惯导紧耦合定位导航方法。首先搭建纯视觉特征点算法的SLAM系统,包括ORB特征点提取与匹配、PNP位姿估计和后端图优化算法。为了提升定位精度和鲁棒性,构建视觉惯导紧耦合的最小二乘误差目标函数并给出位姿求解方法。采用公开数据集对比纯视觉和视觉惯导融合的定位轨迹与位姿曲线实验结果数据,并在实物平台验证视觉惯导紧耦合融合方法。同时考虑弱光照环境影响视觉特征提取与匹配问题,设计融合激光雷达定位建图模块程序,可以在弱光照条件视觉特征丢失的情况下,切换至激光辅助定位并实时构建应用于导航任务的栅格地图。