论文部分内容阅读
在交通场景理解中,基于视觉的目标检测与场景分割发挥着重要的作用。本课题主要来源于国家自然科学基金重大项目“自主驾驶车辆关键技术与集成验证平台”与国家自然科学基金重点项目“任务相关视觉注意机制与非安全驾驶状态分析方法研究”。课题围绕交通场景理解技术中的视觉目标检测与场景分割问题展开研究,提出了有效的目标检测与场景分割方法,提高了无人驾驶系统与高级驾驶辅助系统(ADAS)的交通场景理解能力。本文的主要成果和创新点如下:(1)提出了一种基于单层卷积策略的感兴趣区域提取算法,此算法能够快速过滤掉大量不包含目标的图像区域,避免了检测器在图像中进行贪婪式搜索,从而大大提高了目标检测的效率;同时,该算法能够从图像中去除大量的负样本,从而降低了后续算法所需要分类的样本数量,使得后端目标检测器具有更高的召回率以及更低的虚警率。(2)提出了一种基于多种群遗传算法的自适应网络结构调整方法,在给定基本网络架构之后,此方法能够启发式的对每一层卷积核数量以及特征通道数量进行选择,有效的简化了卷积神经网络的设计过程,同时能够有效的平衡网络性能与网络规模之间的关系。同时,提出了一种基于TLD(Tracking-LearningDetection)算法的多帧目标融合策略,此策略可有效的建立相邻帧图像中目标之间的联系,并充分利用多帧序贯信息来提高目标检测的召回率并同时降低虚警率。(3)提出了一种基于广义Haar滤波器的网络模型压缩方法。该方法充分利用广义Haar滤波器结构简单、特征表达能力强等优点,对卷积神经网络中的权重进行规范化,不仅能够显著降低模型所占用的存储资源与计算资源,还能够有效提高模型的泛化能力,使其更适合运行在车载平台上。同时,提出了一种基于局部回归的目标检测策略,其采用“分而治之”的思想,把传统的全局回归任务分解为多个简单的局部回归任务,从而提高了小目标检测的性能,同时降低了检测器对网络规模的需求。(4)提出了一种基于梯度融合策略的多任务模型训练架构,其充分利用各个通道的训练误差来平衡梯度的反向传播,不仅能加快卷积神经网络的训练收敛速度,还能够在训练误差较小时对各个任务的训练进行微调。在该多任务学习框架下,我们提出了一种基于分辨率降维拉伸策略的场景分割方法,其充分利用卷积神经网络特征图的维度信息进行上采样,从而获得更精确的场景分割结果。另外,我们提出了一种基于级联神经网络的目标检测方法,该方法逐级过滤掉图像中大部分的负样本,从而使得模型后端获得更好的目标检测性能。我们在交通场景公开数据集以及课题组的无人驾驶平台上进行了大量的实验分析,实验结果验证了我们算法的有效性与合理性。