论文部分内容阅读
随着人们对公共安全问题的日益重视以及视频监控技术的快速发展,作为智能监控分析领域的一个重要研究内容,多摄像机监控网络中的行人再识别问题引起了众多研究者的关注。然而受限于监控视频中图像分辨率低、环境光照差异大、遮挡以及行人姿态多变等问题,行人再识别问题仍难以应用于实际场景中。获得一个关于行人目标的具有强辨别力和鲁棒性的视觉特征描述子,能在一定程度上缓解监控场景中存在的一些不利因素,提高识别效果。针对该环节,本文进行了充分的研究分析,提出了两种行人特征表示方法,即显著性加权特征(Saliency-Weighted Descriptor,SWD)和双卷积融合特征(double convolution fusion by Canonical Correlation Analysis,dConvCCA)。本文的主要工作内容及创新点如下:(1)通常提取行人图像特征时,有两种提取方式:其一是不区分图像中环境和行人区域,其二是采用二维高斯函数等凸性函数来抑制背景的影响。由于这两种方法并未突出行人区域的重要性,因此识别效果并不好。针对该问题,本文提出了一种基于显著性加权的行人特征表示方法。首先采用一种显著性检测方法获得行人图像的显著性区域(Salient Map),并将其当作一个二维加权函数模板,应用于行人图像的特征提取操作过程中。其次考虑到显著性检测方法的不足,本文采用了一种基于排序聚合(Ranking Aggregation)的决策层融合方法来提升识别效果。(2)考虑到卷积神经网络在图像分类中的突出表现,本文采用了深度残差网络模型(deepresidualnetwork,ResNet)来自动提取行人图像特征。首先采用上述的显著性检测方法来得到行人图像的前景区域,称之为行人主区域。然后分别将原始行人图像和行人主区域输入到ResNet模型,得到相应的行人卷积特征。最后采用典型相关分析对这两种卷积特征进行融合,作为行人图像的特征表示,称之为双卷积融合特征(double convolution fusion by Canonical Correlation Analysis,dConvCCA)。在5个公开的行人再识别数据集上的实验结果分别验证了本文提出的两种方法的有效性。