论文部分内容阅读
视觉显著性目标检测是利用计算机技术模仿人类的视觉注意力机制,提取复杂图像中感兴趣的信息并优先处理,从而有助于提高图像处理的效率,目前已经被广泛应用到视频压缩、图像识别和检索等各个领域。显著性目标检测算法包括传统的检测算法与基于深度学习的检测算法,传统的检测算法仅仅依赖底层特征从而导致显著图自信度不高,基于深度学习的检测算法提高了显著目标的自信度,但大量池化操作会导致显著对象轮廓模糊。本文研究了一种融合全局与局部信息的显著性检测模型,能够有效获取复杂场景中的显著目标,提高显著性检测模型的鲁棒性。本文的主要工作包括:(1)针对全卷积网络中大量池化操作导致低层信息被忽略,引起显著目标边缘模糊的问题,研究了一种融合多尺度特征图细化显著对象边缘的检测模型,通过提取低层卷积组下不同尺度的特征图,并基于低层特征信息与高层抽象语义特征的互补关系,将不同尺度的特征图与全卷积网络检测的显著图进行加权融合获得全局性显著图,从而优化显著目标边界。在标准数据集上与其他检测算法对比实验,结果验证了该模型能够有效克服全卷积网络模型检测边缘模糊的问题。(1)为了进一步优化全局性显著图的边界,研究了一种融合全局与局部信息的视觉显著性检测模型,首先利用基于多尺度SLIC超像素分割算法获取局部性显著图,通过基于Hadamard积融合模型与全局性显著图进行融合得到初始显著图,并利用条件随机场对初始显著图进行处理,平滑显著目标的边界轮廓。在标准数据集上与其他检测算法对比实验,结果验证该模型能够有效抑制图像中复杂场景的干扰,准确、完整地检测出显著目标。(2)将论文所实现的显著性目标检测模型应用在复杂交通场景下行人分割中,研究了一种融合显著图与GrabCut算法的行人分割模型,利用得到的显著图初始化GrabCut算法掩模,同时将显著性作为能量函数中数据项的约束条件,通过在数据集PEDD上进行模型验证实验,结果表明本文模型有效的利用了显著图确定行人目标初始位置,克服了GrabCut算法的缺点,提高了行人分割模型的准确性和鲁棒性。