论文部分内容阅读
全面准确的环境感知是智能车辆实现自主驾驶的基础。智能车辆环境感知算法大多针对单一任务或单一目标,无法适应车辆、行人和自行车等交通参与者同时存在的复杂行驶环境下的感知需求,而现有的多任务或多目标环境感知算法的准确性和实时性往往难以平衡。为此,本文建立了自动驾驶场景中常见动态障碍物目标和静态道路的统一感知架构,提出了基于车载单目视觉的实时多目标联合感知框架,设计共用特征提取器及多个子任务分支的卷积神经网络结构,同时完成二维目标检测、目标三维信息估计和道路分割三个子任务的实时在线推理,最终实现车辆、行人和骑车人目标的三维检测和道路分割。首先,设计多任务联合感知框架的卷积神经网络结构,以全卷积神经网络为共用特征提取器用于实现二维图像特征的编码,同时构建多个独立的解码分支用于各个子任务的预测输出。其次,为实现快速二维目标检测,多个方面改进现有单阶段目标检测方法。针对行人和骑车人类别容易相互误检的问题,提出了层级分类策略;针对目标相互遮挡的问题,采用软性非极大值抑制后处理算法。再次,为了实现目标的三维重建,设计多项三维信息估计方法,以获取目标的三维位置、姿态及尺寸。提出基于空间递增离散划分的有序回归和补偿项回归来实现目标三维包围框中心的纵向距离估计的方法;设计通过估计目标三维中心在二维图像上的投影位置,进而借助目标中心纵向距离和相机标定参数来确定目标的横向位置的方法;提出一种通过回归目标观测朝向角来间接获取目标航向角的方法;设计通过估计目标尺寸和数据集离线统计尺寸的偏差来获取目标的真实三维尺寸的方法。最后,为实现准确的道路分割,提出基于边缘优化和道路几何形状变形数据增强的道路分割方法。为验证本文提出的车载视觉实时多目标联合感知方法的有效性,在KITTI数据集进行多项评估。实验结果表明,本文提出的联合感知框架能在完成多项感知子任务,输出多种类型目标的检测或分割结果的同时,达到国际领先的精度,多项评估指标在KITTI数据集公开排行榜上名列前茅或排名第一;并且,在GPU硬件平台上,采用1242×375像素大小的图像输入时,单张图像的平均处理时间在65毫秒左右,表明该方法具有实时感知的能力。