论文部分内容阅读
近几年无人驾驶技术得到了快速发展,无论是谷歌的Waymo还是百度的Apollo都是采用三维激光传感器进行定位建图,但是由于其价格昂贵,所以价格便宜、图像信息丰富的视觉SLAM技术成为了近些年的研究热点。本文研究内容为移动机器人的定位与稠密建图,采用的传感器是双目相机和IMU。为了提高相机在复杂环境下工作的鲁棒性,本文采用基于点线特征的方案对图像提取点特征和线特征,分别利用LK光流法和帧间匹配的方法对提取的点线特征进行追踪。利用三角测量原理恢复特征的深度信息,通过点线特征共视模型对点线特征投影的误差函数进行了推导。为了减小长时间定位累积误差过大的问题,采用回环优化算法对相机位姿进行优化。通过对复杂环境下采集的数据集进行测试,证明在满足追踪实时性的前提下,基于点线特征的双目视觉里程计对图像的追踪成功率较VINS-FUSION得到了显著提高。本文采用双目相机和IMU融合的定位算法解决光线较暗和光照变化时定位误差增大的问题。初始化时,利用PNP算法求解相机的初始位姿,为了降低IMU零偏对定位的影响,对IMU的初始零偏进行了估计,采用滑动窗口算法约束待求解变量的数量来降低计算量。通过对IMU预积分公式和协方差矩阵状态传递公式的推导,获得了双目相机和IMU紧耦合的代价函数。通过对数据集三个序列的测试,结果表明双目相机和IMU融合的定位算法定位精度相对VINS-FUSION都得到了提高。在仿真环境中测试时,绝对轨迹误差达到了实际定位误差的精度要求,验证了本文提出的定位算法具有一定实际应用意义。针对定位类算法构建的地图只包含稀疏特征点和基于RGB-D相机的稠密建图算法只能针对室内某一固定场景建图的问题,本文在求解出相机位姿的基础上采用了一种基于TSDF融合的稠密建图算法,通过神经网络恢复双目图像的稠密深度,利用TSDF融合算法解决稠密建图时点云冗余问题。通过对数据集测试,结果表明基于TSDF融合的稠密建图算法建图精度明显要高于Elastic-Fusion,通过对数据集和在仿真环境下测试,验证了本文提出的稠密建图算法还可以对室外场景和大尺度环境进行稠密建图。