论文部分内容阅读
近年来,交通信息的飞速增长使得利用人工来对交通信息进行监控、审查、识别的传统方式不再可行,需要以人工智能的方式来对交通情况进行监控与告警,满足交通管控部门的需要。其中道路异常物体类别可谓是繁杂多样、难以统计,且在海量交通信息数据中寻找大量存在异常物体的道路交通图像、视频数据,需要耗费大量人力物力财力,很难对每种道路异常物体都获取足够的训练样本。因此道路异常物体识别任务存在物体定位困难、训练数据不足、输出模型难以收敛或过拟合现象严重等技术难题。针对上述难题,本论文研究并实现了基于深度学习的道路异常物体检测算法。首先,为了使得异常物体定位中的背景建模更加适合道路监控视频的特性,提出了基于空-时域信息的背景建模方法:先以K-means算法对像素进行聚类,再通过改进K近邻的方式对连续视频帧内的像素进行背景判断,完成异常物体定位。实验结果表明,该定位方式能够提取出异常物体,解决异常物体定位困难的问题。接下来,本文提出通道间注意力模型来对已实现准确定位的异常物体进行分类。在分类过程中,通过注意力层的方式将类别词向量嵌入到图像特征当中,使得特征谱所包含的信息量增加,更易于进行相似度度量。针对有标数据量少的问题,进一步提出基于迁移学习的两阶段训练模式,通过将第一阶段生成的软标签数据用于最终训练实现数据增强,提高了模型的性能。实验结果表明,本文提出算法的分类精度可达到95%以上,性能优于AutoEncoder等现有的异常物体分类方法。最后,提出了基于多视角的特定车辆重识别网络来对车辆图像数据进行处理和判断。该网络由三个子网络组成:特定视角分类网络、多视角特征提取模块(包括临近视角特征推断网络(ApfiNet)、车辆关键点提取网络(VkdNet))和多视角全局特征网络(MvgfNet)。ApfiNet产生多视角混合特征并经由MvgfNet生成多视角全局特征,车辆关键点位置由MvgfNet中的多层感知机部分转化为关键点特征向量。进行车辆重识别时,只需要计算两幅图像特征的欧氏距离并排序,便可以获得最终结果。实验结果表明,在三个子网络的综合作用下,重识别的Rank1和Rank5精度达到64%和90%,两者均高于FACT等现有重识别方法。本论文研究并实现的道路异常物体识别算法可应用于道路遗撒物检测、车辆异常行为检测、多摄像头下车辆追踪等任务,在交通管理、险情评估、安全保障等方面都可以发挥作用。