低分辨率多角度监控场景车型细粒度识别

来源 :兰州交通大学 | 被引量 : 0次 | 上传用户:yulei000111
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着计算机视觉技术的快速发展,使用卷积神经网络对车型识别领域进行了深入研究,取得了较高的识别精度。但目前研究重点集中于高清车型图像的识别,对监控场景下低分辨率车型图像识别研究较少。由于监控场景所采集到的图像分辨率较低,图像所包含的车辆特征信息较少,增加了车型细粒度识别难度。因此该场景的车型细粒度识别有着较大的研究空间,可以带来一定的实用价值。针对以上所存在的问题,本文引入了图像超分辨率重建算法,为取得较高实时性,将网络结构及损失函数进行改进,同时对原始低分辨数据集进行重建,提出了一种多尺度特征融合的双线性车型识别网络,提高了监控场景下低分辨率车型图像识别精度。本文主要研究内容如下:首先,由于生成对抗神经网络的图像超分辨率算法在生成网络存在冗余的问题,采用Fire Module网络结构,重新设计压缩层和扩展层,有效减少了网络冗余问题,相比原网络减少大约40%的参数量。原始网络归一化层损失了相应的图像细节,影响最后图像生成质量,因此去除归一化层。原始网络在一些图像的细节恢复方面存在纹理不合理情况,提出了一种采用OTSU自适应阈值分割方法,将原始图像的二值化图像和生成图像的二值化图像求取PSNR值,作为一个生成网络的损失函数。然后,使用本文提出的图像超分辨率重建算法对低分辨率多角度监控场景数据集Box Cars116k进行超分辨率重建,得到SR-Box Cars116k数据集。为了解决数据集图像数量过少的问题,使用遮挡、更换颜色、反转、局部截取等方式增强数据集,在一定程度上扩展了数据集图像数量。使用Unpack方法进行车型图像预处理,可以有效的减少背景噪声,增加目标图像在整体图像中的占比。最后,设计双线性特征提取网络对车型图像进行特征提取。使用Res Net作为网络A进行特征提取,VGG19作为网络B。同时采用多尺度特征融合的思想,在网络B中使用多尺度融合方式,将底层语义特征信息和高层语义特征信息相融合。由于每层输出的特征图维度和尺度不一致,设计相应的卷积层和池化层进行处理,融合全部特征。使用全局平均池化层和Dropout层,缩减部分参数。使用Focal Loss函数,从一定程度上解决了样本分布不平衡的问题。最后进行车型识别,发现本文网络在识别率上优于经典网络。
其他文献
生物种群资源具有可再生性,为保护生态系统和发展可持续经济,建立种群系统模型并对相关控制问题进行研究就显得十分有必要.种群中存在许多方面的差异,例如尺寸的大小、年龄的不同、性别的差异,等等.由于这些不同点,使得个体的行为能力也相差甚远.此时,我们有必要针对这些结构差异建立不同的模型并分析其最优控制问题具有重大现实意义.到目前为止,已有诸多学者对依赖年龄结构的种群系统的控制问题进行了深入研究,并取得了
学位
学位
学位
学位
本学位论文运用分歧理论和时间映像原理获得了给定平均曲率方程Dirichlet边值问题在非线性项为特殊形式时正解的确切个数以及给定平均曲率方程Neumann边值问题多个正解的存在性和确切个数.本论文第一章主要介绍了给定平均曲率方程Dirichlet边值问题和Neumann边值问题的背景、研究现状、本文主要工作和预备知识.本论文第二章考虑了给定平均曲率方程Dirichlet边值问题其中参数λ>0,L>
学位
学位
学位
学位