论文部分内容阅读
随着人工智能技术的蓬勃发展,作为无人驾驶汽车“眼睛”的核心视觉感知模块的性能也取得了飞速提升。在真实的复杂交通场景中,由于行驶车辆的视角多变性、相互遮挡和表观形态的复杂性等因素使得车辆检测成为计算机视觉领域最重要的的问题之一。当前车辆检测方法主要分为基于传统机器学习和基于深度学习的方法。传统机器学习方法包含特征提取和分类器决策两大独立部分,无法协同优化两者之间的信息,但是具有较好的可解释性。深度学习方法利用卷积神经网络同时完成特征提取和分类决策,实现了面向应用的端到端学习模式。虽然当前车辆检测算法的性能取得了长足的进步,但是当道路行驶车辆处于频繁出现相互遮挡和视角动态变化的复杂交通环境时,车辆检测性能会出现明显下降。针对以上问题,本文从传统机器学习和深度学习方法两个角度,分别研究基于混合差分特征的多视角车辆检测方法、基于特征金字塔和单双级深度融合网络的车辆检测方法,明显提升了现有算法的性能。主要工作总结如下:(1)传统的多视角车辆检测器依赖于训练多个单视角目标检测器,提取车辆表观特征的判别能力和检测性能直接相关。针对该问题,本文提出了一种基于混合像素差分特征的多视角车辆检测系统,可以提高检测性能,并达到实时运行速度。首先,基于车辆的三维信息、长宽比和遮挡等级,利用谱聚类算法来生成不同的车辆表观子类别,降低单视角目标检测器的模型复杂度;其次,提出一种基于混合差分特征用于每个车辆子类别的特征表示,提升传统积分通道特征的判别能力;最后,采用了一种代价敏感的多类分类器进行特征选择,从而获得实时的运行速度。本文方法在KITTI数据集上进行了验证,实验结果表明,该方法可以在传统的基于手工特征的方法中获得最好的性能。(2)针对经典的Faster R-CNN目标检测框架中候选区域生成网络(RPN)仅依赖于单尺度特征层的缺点,本文分别对多尺度特征融合和RPN结构进行改进。针对尺度问题,在卷积过程加入特征金字塔,利用多尺度特征进行目标分类和位置框回归,但实验结果显示对于车辆检测性能提升并不明显。针对锚点定位问题,修改了RPN的结构参数,使得RPN对于车辆的位置精修更加精确。该方法在KITTI数据集上的结果表明:本文改进方法的平均精度均值比Faster R-CNN算法提高了4.5%。(3)针对单级法(One-stage)和双级法(Two-stage)目标检测框架具有速度快与精度高的性能互补问题,本文给出了一种单双级融合目标检测算法。该方法不但具有双级方法的高检测精度,而且获得更快的检测运行速度。本文在锚精修模块使用自适应锚生成算法,使检测框架具有更好的泛化能力。在KITTI数据集上的实验结果表明:本文方法的平均精度比经典的Faster R-CNN方法提高了13.5%。