论文部分内容阅读
日常生活中,人们面对大量的外界信息,而这些信息中,视觉信息所包含的信息量最为庞大。面对海量视觉刺激,人眼拥有特有的注意力机制来筛选重要或者让人感兴趣的内容,这些内容区域被称为显著性区域,而与此相关的研究被称为视觉显著性研究。视觉显著性研究在媒体处理任务中能够快速提取重要的区域,将有限的计算资源分配给人们所关注的位置。这在图像视频压缩,目标跟踪,质量评价,异常监控等应用领域有重要的研究意义。本文对已有的图像和视频模型进行了细致的分析和调研,针对视频和高动态范围图像的显著性检测方法进行研究。研究工作主要包括如下三点:1)在高动态范围图像的研究中,本文首先对高动态范围图像的成像技术进行了研究,再结合现有优秀的低动态范围图像显著性模型的优点,设计了针对高动态范围图像的显著性检测框架。该框架通过多曝光分解的方式,将已有的静态图像模型扩展到高动态图像模型中。同时本文建立了现有方法的性能基准线,对已有静态模型以及高动态显著性的性能进行了细致的比较。在两个公开高动态范围图像眼动数据集上的实验结果表明,本文提出的方法较已有的高动态范围图像模型具有更好的性能。2)为了对提出的视频模型和现有其他方法进行比较,本文搭建了眼动数据收集平台,组织实验收集了视频眼动数据集。相比较现有的视频数据集,我们选择的视频源均为无损的高清视频,避免了由于视频压缩过程中产生的失真对人眼关注点产生干扰。另外在场景的选取上更加丰富,包含了更多更具挑战性的运动场景。3)本文以现有的动态视频模型的相关研究工作为基础,提出了一种基于三维卷积网络的视频显著性检测模型。该模型接受一段单独的视频片段作为输入,相较现有的显著性模型提高了处理效率。在现有公开数据集以及本文提出的视频眼动数据集上进行了充分的比较试验,结果表明本文的模型在处理效率以及预测精度上均有优秀表现。