论文部分内容阅读
车载多传感器信息融合技术是自主驾驶研究领域的热点问题,可靠的环境感知信息是自主车做出路径规划等行为的必要条件。根据车载激光雷达和相机各自的应用范围,结合激光雷达的高精度测距感知信息和相机高分辨率的特点,本文研究了激光雷达深度信息和高分辨率图像生成致密深度图的相关方法。并根据致密深度图的深度信息及可见光相机的颜色等信息,在RGB图像及致密深度图下采用稀疏三维场景流的模型实现检测和跟踪动态目标。本文的主要工作和贡献如下:1、从激光雷达信息获取方式上考虑,通过分析单帧雷达周期内车体的运动,分别在平移和旋转两个运动分量上完成了激光雷达的帧内运动数据补偿。2、在研究传感器信息融合中,本文提出了一种新的深度图像生成算法。把雷达点云投射到图像平面上,然后将点云稀疏的深度信息和图像上稠密的颜色信息在双边滤波构的框架下建立KD特征空间,并以最近邻搜索的方法生成了致密深度图。在该生成的致密深度图上建立马尔科夫随机场,在随机场的优化处理下,进一步平滑了双边滤波加权中颜色通道与欧氏通道的权值生成新的致密深度图。3、对车体进行自运动估计时,在保证特征描述子足够高效的同时,本文设计了图像分块处理技术和联合致密深度图及RGB图提取地面静态特征点的方法提高了车体自运动估计的鲁棒性。针对RGB图像与激光雷达点云生成的致密深度图上构造稀疏三维场景流的模型,并利用Delaunay三角剖分连接RGB图中提取的相邻特征点,其次融合了激光雷达精准的深度距离信息的约束滤除特征点。通过特征点分类实现动态目标的检测与跟踪,并通过车载环境的实验证明了该算法的可行性。