论文部分内容阅读
随着互联网的普及,图片与视频信息呈现出爆式增长的趋势,这些信息在给人们的生活带来方便的同时,也提出了新的挑战。一方面,需要有限的计算资源分配给感兴趣的目标,另一方面,视觉计算产生的结果应符合人要求。视觉注意机制是人们处理日常生活中视觉问题的一种重要机制,通过该机制,人们能处理复杂的视觉场景,并定位自己感兴趣的目标。受人处理视觉信息的启发,在计算机进行视觉信息处理过程中,引入视觉注意机制,可有效满足上述两种需求。本论文从视觉注意机制的研究出发,对视觉显著性计算与应用中的一些关键问题进行了较为深入的研究,提出了一些新的思想和算法。本文的主要工作与贡献如下:第一,提出了一种基于图像稀疏表示的自底向上的视觉显著性计算方法,分别应用于静态图像与视频帧的显著性计算。针对静态图像中显著性的计算,所提方法首先对图像进行稀疏表示,然后,根据中心块与周边块稀疏特征的相似性计算图像的局部显著性,再以中心块与图像中其它块之间的相似性来计算全局显著性,最后将二者融合得到最终的显著性图。在公开的数据集上的对比实验表明,该方法在预测人眼凝视方面取得了优于同类算法的结果。针对视频中显著性的计算,所提方法除了考虑帧内图像的显著性外,还考虑到了帧间图像的显著性,以及二者的融合问题。在公开的视频集上的实验表明,该方法所得到的显著性图能较好的凸显视频中显著性目标。第二,提出了两种考虑不同视觉任务的显著性计算方法。针对静态图像中的视觉搜索任务,提出了一种基于视觉凝视的显著性计算方法。通过学习基于尺度不变的稀疏表示的场景全局特征与视觉凝视之间的关系,该方法能够对基于特定搜索任务的自顶向下的显著性进行建模;考虑到自底向上的因素,该方法通过概率学习的方式实现了自顶向下显著性与自底向上的显著性的融合。在公开的数据集与自建的数据集上的对比实验表明该算法能得到较好的凝视预测效果。针对视频中的目标跟踪任务,提出了一种基于局部颜色对比的显著性计算方法。通过学习指定目标区域与周边区域颜色直方图之间的关系,该方法建立了基于局部颜色对比的显著性模型,该模型能够在新的视频帧中求取基于目标的视觉显著性图。在公开视频集上的实验表明,该方法得到的显著性图能较好的预测目标跟踪凝视。第三,提出了一种基于全局颜色对比的显著性目标检测算法。该算法通过在显著性图分割过程中引入图像全局颜色对比特征,并把二者置于条件随机场框架之下来标记显著性目标,避免了仅通过显著性图来分割显著性目标的不足。在公开数据集上的对比实验表明,该算法能较好的分割出显著性目标。第四,提出了一种基于视觉显著性计算的目标跟踪算法。通过基于目标的显著性计算确定目标的大致位置,该算法得到了目标的搜索范围,在搜索区域内,利用目标分布场特征进行多尺度匹配,实现了目标的精确定位。该算法能较好的适应目标的尺度与表观的变化,并能发现遮挡,同时当目标重现后又能检测并准确定位目标。在公开的视频数据集上的实验表明,该算法能较好的处理跟踪过程中的遮挡、尺度变化等问题。