论文部分内容阅读
近年来,监控摄像头数量的爆发式增长为智能视频监控提供了海量的数据来源,但同时也大大增加了视频信息处理的难度。行人目标再识别技术能够在大规模监控网络中对指定行人目标进行识别与搜索,并建立目标在不同摄像机下的身份关联,因此对智能视频监控网络中的目标跟踪、运动分析以及行为理解等后续工作具有重大的意义。然而,不同摄像机之间的光照、视角差异使得监控网络中同一行人的外观经常呈现出明显不同,给行人目标再识别的研究带来了巨大挑战。本论文在全面分析国内外现有行人目标再识别算法的基础上,从外观特征描述和距离度量学习两个方面对行人目标再识别问题展开深入研究,提出了一系列具有独创性的解决方案,有效克服了跨摄像机差异对行人目标再识别的影响。论文的主要研究内容和创新之处在于:1.提出了一种基于显著性子区域学习的行人目标再识别算法,解决了以往外观特征描述方法没有考虑行人不同身体区域之间差异性的问题。该方法对同一行人的不同图片进行过分割,利用子区域之间的视觉特征关联和空间位置关联进行联合约束,使学习得到的显著性子区域不仅具有较强的判别性,而且对行人外观变化不敏感。同时,通过将显著性学习转化为基于超图的无监督学习问题,该方法仅需同一行人的几幅图片即可得到显著性学习结果,因而比基于监督学习的特征描述方法具有更强的实用性。实验结果表明,与以往的外观特征描述方法相比,该方法可以获得更高的行人目标再识别准确率。2.提出了一种自适应距离度量学习模型及其优化方法,解决了由跨摄像机差异引起的不同摄像机之间样本特征分布不一致的问题。与现有距离度量学习算法平等地对待所有训练样本不同,该方法能够在训练过程中对样本进行自适应性的分类和加权,从而学习得到判别性更强的距离度量函数。通过将距离度量学习转化为一个平滑的凸优化问题,可以采用加速近端梯度算法对模型进行快速求解。实验结果表明,该模型对于行人目标再识别问题具有突出的性能和效率。3.提出了一种新颖的行人目标再识别框架,以解决现有距离度量学习算法没有充分考虑同一摄像机内不同样本之间关联性的问题。首先,同时利用训练样本的跨摄像机和同摄像机关联信息对距离度量学习产生约束,使同一行人的图片在学习得到的特征空间中具有更强的近邻性;然后,对现有距离度量学习的测试阶段进行改进,通过概率超图对查询图片和候选集进行关联建模,利用样本之间的群组信息提升距离度量学习的相似性排序结果。实验表明,所提出的框架相比于传统的基于距离度量学习的行人目标再识别方法具有十分明显的性能优势。4.针对单一距离度量模型容易过拟合且泛化能力有限的问题,提出了 一种基于多距离度量矩阵融合的行人目标再识别方法。该方法在不同距离度量矩阵所对应的特征空间中分别建立关联图,并使用直推学习将距离度量矩阵融合转化为一个多关联图联合约束问题,从而有效利用了不同距离度量矩阵之间的互补信息。此外,通过在融合过程中引入权重自适应学习,使距离度量矩阵的融合权重能够针对不同样本进行更新和调整,进一步增强了模型的泛化能力。实验结果表明,该方法能够大幅提升单一距离度量模型的再识别准确率,取得远好于现有行人目标再识别算法的性能。