论文部分内容阅读
如今,移动终端的普及为图像获取提供了极大便利,海量存储空间与多样化传播途径使图像呈现爆炸性增长。在大规模图像库中,如何通过自动匹配,准确地检索目标图像,成为工业界和学术界共同关注的问题。本文针对图像的深度卷积神经网络视觉表征、相似度匹配排序中存在的问题,主要围绕三个方面开展了相关研究,创新成果如下:(1)针对预训练深度学习模型忽略几何关系的问题,提出了深度特征的几何信息增强算法。不同于以往的深度特征表达,本文在密集采样的图像块上提取深度特征,得到保留原图空间关系的深度特征;利用这种几何对应关系,将深度特征的邻接特征作为上下文信息,提出局部上下文聚合的几何信息增强算法来丰富特征表达的内容。为了强调关键几何区域的特征,本文还进一步提出了全局中心线加权的几何信息增强算法,根据特征位置与中心线的距离为深度特征赋予不同的权重。实验结果表明,所提深度特征的几何信息增强算法能增强特征鉴别力,提高图像检索准确率。(2)针对单层深度特征对图像描述局限性的问题,提出了多层特征融合的算法。现有的深度特征通常仅来自于卷积神经网络的某一层,为了充分利用图像不同层次的特征表达,本文利用多个码本分别进行特征量化,并结合汉明嵌入生成深度二值码。所提多层特征融合算法不仅能实现多层深度特征的融合,还能将深度特征与传统的SIFT特征相融合。此外,现有的特征融合算法往往没有考虑图像的个体差异,为了针对不同的查询分别进行特征融合,本文提出了局部相关的多特征关系图融合算法。该算法通过度量多特征分片关系图的一致性,可以自适应地计算对图像个体敏感的权重系数,且与其他基于扩散的图融合算法相比速度更快。实验表明,本文所提的两种融合算法均能够实现多特征的互补作用,有利于提高图像检索的性能。(3)针对图像检索匹配样本不均衡影响排序准确性的问题,提出了辅助点上下文建模的图像重排序算法。特征映射可以将度量空间等距同构地嵌入欧式空间,本文通过其反变换,实现在查询图像与其最近邻之间插入辅助点。这些辅助点可以丰富匹配矩阵的信息,有利于重排序的准确性。本文在插入辅助点的图像度量空间,利用上下文度量对匹配结果进行重排序。相比于成对的欧氏距离度量,基于杰卡德相似度的上下文度量能更深入地挖掘图像在潜在流形上的相似关系。实验结果表明,增加辅助点后的重排序能够提高检索准确度。