论文部分内容阅读
无人车所处的场景一般都含有动态特性,这些动态特性会影响无人车的自主驾驶系统,因此对动态场景进行分析对无人车具有重要作用。相比于场景理解,场景分析是基础,更侧重于底层问题研究。本文通过二维和三维数据融合,从时空角度出发,将动态场景特性分为相关联的静态特性和动态特性,重点研究了用于分析这些特性的相关关键技术,即针对静态特性分析的可通行区域检测,以及针对动态特性分析的动静区域分割。本文的主要工作和创新点如下:1.提出一种基于高斯过程回归与条件随机场的鲁棒可通行区域检测算法。基于几何特性的可通行区域检测算法相比基于学习的方法具有鲁棒性和可迁移性,并且相比传统的基于单一特征的方法更加灵活。本文提出采用贝叶斯框架对多类信息进行概率化弹性输出,并针对可通行区域起伏变化的特点,采用一种基于改进的非静态协方差核函数的高斯过程回归对概率输出进行递推式拟合和回归,将处理过的结果利用条件随机场模型得到结构化的最终输出。通过在KITTI道路检测公开数据集以及自建校园数据上的测试,与基准方法的效果相比获得了明显提升,并且在主要基于几何特征的方法中排在第二位,甚至接近了排在第一位基于激光雷达精准三维点的方法。2.提出一种基于立体视觉和条件随机场的动静区域分割算法。经典的视觉里程计或者同时定位与建图技术主要针对静态场景,并受到运动物体带来的退化影响,本文工作提出一种精简的分层检测运动目标的方法。通过建立统一的条件随机场模型,先后通过不同分辨率的图像对运动目标进行检测。同时,考虑到视觉深度估计中投影带来的误差,推导了近似马氏距离归一化方法,使得分割的效果得到显著提高。在KITTI的公开数据集上进行实验验证,获得了令人满意的结果,相比于基准方法,获得了近似的动静分割效果,而且在动态目标检测中有大幅提升。3.提出基于激光雷达点云和单目图像融合的场景流和动静区域分割算法。由于激光雷达点云的特性,很少有针对激光雷达点云的场景流估计方法,但是考虑到其精准的距离测量以及不受光照影响的特性,本文提出利用激光雷达点云和单目图像融合来估计场景流和处理动静区域分割。该算法适用性强,无需要求提供场景中目标的先验信息。针对激光雷达点云稀疏性,采用了以小集团(Cluster)各自配准而不是像常用的特征点匹配的策略。同时,建立了附带最小描述子(MDL)高阶项的条件随机场模型来联合优化场景流和运动分割问题。在KITTI公开数据集上进行了验证,尤其当准确的三维信息提供后,估计的光流误差比目前业界最优(State-of-the-art)的基于场景分段平面假设的场景流方法要降低了约50%,并且对动静区域分割的性能提高了约20%。