论文部分内容阅读
随着计算机视觉技术的快速发展,使用卷积神经网络对车型识别领域进行了深入研究,取得了较高的识别精度。但目前研究重点集中于高清车型图像的识别,对监控场景下低分辨率车型图像识别研究较少。由于监控场景所采集到的图像分辨率较低,图像所包含的车辆特征信息较少,增加了车型细粒度识别难度。因此该场景的车型细粒度识别有着较大的研究空间,可以带来一定的实用价值。针对以上所存在的问题,本文引入了图像超分辨率重建算法,为取得较高实时性,将网络结构及损失函数进行改进,同时对原始低分辨数据集进行重建,提出了一种多尺度特征融合的双线性车型识别网络,提高了监控场景下低分辨率车型图像识别精度。本文主要研究内容如下:首先,由于生成对抗神经网络的图像超分辨率算法在生成网络存在冗余的问题,采用Fire Module网络结构,重新设计压缩层和扩展层,有效减少了网络冗余问题,相比原网络减少大约40%的参数量。原始网络归一化层损失了相应的图像细节,影响最后图像生成质量,因此去除归一化层。原始网络在一些图像的细节恢复方面存在纹理不合理情况,提出了一种采用OTSU自适应阈值分割方法,将原始图像的二值化图像和生成图像的二值化图像求取PSNR值,作为一个生成网络的损失函数。然后,使用本文提出的图像超分辨率重建算法对低分辨率多角度监控场景数据集Box Cars116k进行超分辨率重建,得到SR-Box Cars116k数据集。为了解决数据集图像数量过少的问题,使用遮挡、更换颜色、反转、局部截取等方式增强数据集,在一定程度上扩展了数据集图像数量。使用Unpack方法进行车型图像预处理,可以有效的减少背景噪声,增加目标图像在整体图像中的占比。最后,设计双线性特征提取网络对车型图像进行特征提取。使用Res Net作为网络A进行特征提取,VGG19作为网络B。同时采用多尺度特征融合的思想,在网络B中使用多尺度融合方式,将底层语义特征信息和高层语义特征信息相融合。由于每层输出的特征图维度和尺度不一致,设计相应的卷积层和池化层进行处理,融合全部特征。使用全局平均池化层和Dropout层,缩减部分参数。使用Focal Loss函数,从一定程度上解决了样本分布不平衡的问题。最后进行车型识别,发现本文网络在识别率上优于经典网络。