论文部分内容阅读
显著性检测是许多图像处理过程的预过程,它广泛应用于图像分割、目标追踪以及行人再识别等领域。本文提出了两种显著目标检测算法,它们融合了底层以及高层的特征,并结合了自上而下以及自下而上模式的优势。本文提出的第一种方法是基于极限学习机的显著目标检测模型,该模型可以用于提升现有算法的检测性能。其主要步骤如下:首先,输入图像被分割成一定数目的超像素,每个超像素都采用人工提取的底层颜色、纹理特征进行表征。之后,现有算法产生的显著图被作为先验图,并在此先验图基础上在多个尺度上选取正、负训练样本。这些训练样本被用于训练极限学习机分类器,该分类器可以产生显著图。最后,将多尺度显著图进行整合得到最后的结果。此外,本算法还提出一种融合机制以利用多种方法的优势产生更准确的结果。本文提出的第二种方法是基于目标候选子空间优化的算法。本文在该算法中提出了两个模块,即关注语义信息模块以及关注空间信息模块,他们的目的是为目标候选区域寻找一个子集,使该子集中的目标候选属于显著目标。关注语义信息模块使用快速区域卷积网络提取高级语义信息以筛选与前景目标具有相似语义含义的候选区域。而关注空间模块通过对比度计算估计显著目标的位置,并通过候选与前景的空间相似性来筛选显著区域。这两个模块从不同的角度计算显著性,并能够产生具有互补特性的显著图。因而,本文将两个模块的结果融合以提升检测的性能。为了证实本文提出的算法的有效性,本文采用了大量的实验对两个算法进行评测。本文在五个国际公开的显著性检测数据库上与其他共24种国际领先的显著性检测算法进行比较。本文采用三种评测指标,它们分别是准确率-召回率曲线、F-measure以及ROC曲线下的面积。实验证明本文提出的第一种算法能够大幅提升现有算法的准确率。而本文提出的第二种算法与其他现有算法相比具有更优秀的性能。