论文部分内容阅读
行人再识别是利用计算机视觉技术判定不同视频序列或图像中的行人是否为同一目标的技术,是计算机视觉领域中的一个既有研究价值又有挑战的热点问题。受视频图像中行人被遮挡、变形、模糊等干扰,行人再识别算法存在特征利用率低,识别精度低等问题,难以满足实际应用的需求。目前,基于深度学习的方法可以有效提高行人再识别的准确性,受到众多学者的广泛关注。本文围绕基于深度学习的行人再识别方法,在行人检测、特征分析、行人再识别等方面展开研究。具体工作内容如下:在行人检测方面,基于Faster R-CNN网络提出了两种改进方法。第一种方法融合SENet(Squeeze-and-Excitation Networks)对特征进行加权。首先,通过主干网络(VGG16网络)提取行人特征生成特征映射,并送入到RPN(RegionProposal Network)网络,通过移动锚框得到候选区域;然后,将生成的特征映射和候选区域通过池化操作转化为固定尺寸的输出;最后,损失函数根据池化层的输出判断该候选框是否为行人。在Caltech数据集上的实验结果证明,加入SENet的改进方法的漏检率比未加入SENet的原方法的漏检率降低了0.999%。第二种方法融合组归一化(Group Norm,GN)模块对特征进行归一化处理。该方法的实验过程与第一种改进方法相同。在Caltech数据集上的实验结果证明,加入GN模块的改进方法的漏检率比未加入GN模块的原方法的漏检率降低了0.665%。在特征分析方面,分别实现了基于HOG特征和基于Faster R-CNN的行人特征可视化,并分析比较了两种方法提取的行人特征,Faster R-CNN提取到的特征更丰富。在行人再识别方面,通过引入center loss,提出了一种基于softmax loss和center loss联合监督训练的行人再识别方法。首先,利用Market-1501数据集分别对改进前后的ResNet-50网络进行训练;然后,利用训练好的模型提取数据集中的行人特征;最后,利用欧氏距离和欧氏距离与杰卡德距离融合的度量方法分别计算不同行人之间的特征距离,根据距离排序得出最后的行人再识别结果。在Market-1501数据集上的实验结果显示,对于使用欧氏距离的度量方法,加入center loss的方法在rank1、rank5及mAP(mean Average Precision)上分别提高了0.18%、0.89%、1.86%;对于使用欧式距离与杰卡德距离融合的度量方法,加入center loss的方法在rank1、rank5及mAP上分别提高了0.63%、0.95%、1.25%。在行人再识别软件的实现方面,以Matlab2016b为开发平台,使用Caffe深度学习框架,编程实现了行人再识别软件,并利用数据集和真实场景中采集的图像对模块功能进行测试。该软件具有行人检测、特征可视化和行人再识别等功能。