论文部分内容阅读
显著目标检测是机器视觉的重要组成部分,通过它可以准确检测出图像场景中的显著区域。显著目标检测技术应用的领域十分广泛,主要有图像分割、图像压缩、目标检测和识别、图像检索等领域。人类的视觉系统能够迅速且有效的识别出图像场景中的显著目标,这是因为图像中的不同区域给人类眼球不同的刺激程度。而显著目标检测正是通过研究人类视觉机制的这一特点,通过对图像场景中不同区域的质量差异性感知,来识别出显著目标区域。显著检测方法主要分为自顶向下和自底向上两种,自底向上的方法主要利用图像的颜色特征、空间距离特征、纹理特征等低级线索进行显著目标检测。但是由于缺乏上层知识的指导,自底向上的方法往往会有很多的误检现象。因此,本文提出了先验融合的全局和局部显著检测方法。传统的基于对比先验的方法,有的单独的使用全局对比先验,这会导致背景稀缺区域被误检为显著目标。有的单独的使用局部对比先验,这会导致显著目标区域不能被均匀的凸显。针对上述的问题,本文首先提出了同时考虑全局角度和局部角度的显著检测方法,使得两者相互补充。同时本文在全局角度和局部角度使用先验融合的方法提升算法的鲁棒性和有效性。全局角度:本文在全局对比先验中融合了基于凸包的centerness先验,通过估计显著目标的大致区域来有效的解决背景稀缺区域被误检的问题。局部角度:在局部对比先验中引入了 compactness先验,通过计算图像场景中超像素的空间紧凑度来检测显著目标,从而有效解决显著目标区域不能均匀凸显的问题。为了更好的抑制背景区域和均匀凸显显著目标区域本文还使用了 smoothness先验对全局角度和局部角度的显著图进行优化。随着健壮的测距传感器的出现以及深度特征在航海和机器人操作领域中变得越来越重要,显著目标检测逐渐由对RGB图像的显著检测扩展到对RGB-D图像(RGB图像和深度图)的显著检测。但是,现有的显著检测模型,要么只能适用于RGB图像的显著检测而不能适用于RGB-D图像显著检测,要么只是独立的使用RGB图像的特征和深度特征分别进行显著检测并将检测的结果进行简单的融合,不能使得特征间相互指导,相互补充。而在本文中,首先同时考虑了 RGB图像的CIELab颜色特征和深度图的深度特征,对特征进行相互融合,相互指导,提出了特征融合的Manifold Ranking方法用于对RGB图像进行显著性检测,使得深度特征能够有效指导RGB图像的显著检测。其次,依据深度图的初步显著图和深度图的深度特征信息提出了 OD方法,使得深度特征进一步的指导RGB图像显著检测;再次,依据RGB图像的显著检测结果以及深度图的深度特征信息之间的关系提出了 S-D概率矫正方法,用以对深度图的初步显著检测结果进行有效的矫正。采用这种矫正方法使得RGB图像的显著检测结果可以有效的指导深度图的显著检测;接着依据RGB图像的显著检测结果和CIELab颜色特征信息提出了 OC方法,使得RGB图像的显著检测结果进一步指导深度图像显著检测。对于本文对RGB图像显著检测算法通过在MSRA-1000、CSSD以及ECSSD这三个公开的数据集上实验验证,表明本文的两种方法跟现有的流行算法相比,算法性能有较大的提升。对于本文对RGB-D图像的显著检测算法通过在RGBD-1000公开数据集上实验实验验证,表明本文的两种方法跟现有的流行算法相比,算法性能有较大的提升。