论文部分内容阅读
视频监控在安全告警、追踪疑犯、走失寻人等工作中起到十分关键的作用。而在较大规模的视频监控网络中,行人重识别技术能够进行行人身份信息的关联建模,对视频监控处理中目标跟踪,行为分析等应用研究具有重大的价值。但是由于跨摄像机的光照,视角等差异,使得同一行人在不同的摄像机下会出现较为明显的外观变化,使得行人重识别在实际应用中的推广存在较大的阻碍。为了解决上述问题,本文主要针对行人特征提取,群组相似性利用以及行人重识别数据集扩充三个方面进行深入研究,有效地克服了行人重识别中跨摄像机差异所带来的影响,本文主要创新之处在于:1.设计了一种基于行人部件对齐模型的行人再识别方法。该方法能够在利用行人部件的高效特征表达能力的基础上,利用空间变换网络结构,进行行人部件特征图的对齐。添加特征对齐网络结构能够缓解使用行人部件特征的行人重识别方法中,出现的行人遮挡,部件检测框位置不准确等误差而带来的部件特征图偏移的情况,从而进一步提升部件特征的表达能力和鲁棒性。2.提出了一种基于群组信息和概率超图损失的行人重识别方法,能够在特征提取的过程中有效地利用训练样本之间的排序信息和群组相似性,学习得到判别性更强的特征表达。本方法能够在训练阶段有效结合训练图片中的群组相似性和成对相似性,有效缓解深度学习特征提取过程中出现的过拟合现象,获得比现有行人重识别技术更加精确的候选图片排序结果。在数据集上的大量实验表明该方法能够移植到其他网络结构中,具有良好的鲁棒性和适应性。3.设计了一种行人重识别的数据增强算法,通过深度生成对抗网络,基于原始数据集生成对应图片,以缓解由于数据集数据规模不足,数据整体风格相似等情况带来的过拟合问题。同时利用标签平滑归一化方法,确定生成图片的标签,从而能够将生成图片和真实图片共同送入神经网络中进行训练,提升特征的鲁棒性和表达能力。