论文部分内容阅读
现在计算机能够对图像进行更快更深层次地分析与处理,这意味着数字图像可以提供更多的信息。人们可以通过机器自动理解和分析图像或视频内容来改善人们的日常生活。但与此同时,人们也希望自己的隐私不受到侵犯,因此如何在二者之间取得平衡,这对于许多实际应用来说是亟待解决的问题。针对此问题,通过对图像中的视觉隐私信息进行合理的分析与处理,能够在一定程度上消除图像视觉隐私威胁并保持图像满足要求的可视性和机器可理解性。因此,在对图像中的视觉隐私进行保护的同时,需要对图像进行客观准确的视觉隐私保护度评价,以解决计算机视觉处理与图像视觉隐私保护之间的矛盾。本文所关注的图像视觉隐私保护度评价方法研究,就是希望深入研究人类视觉与图像视觉隐私的关系,最终让计算机模拟人类视觉系统以及人类对图像视觉隐私的认知过程。本文在一种基于压缩感知的网络框架下实现了图像视觉隐私保护并对网络中图像进行可计算的图像视觉隐私保护度评价,从而能够为图像识别、分类等任务提供一种指导,在计算机视觉处理与图像视觉隐私保护之间实现平衡。本文首先提出了一种图像视觉隐私保护的新思路,即压缩感知编码网络(Compressed Sensing,CSCN)。网络每一层通过对上一层图像基于图像块的观测矩阵投影降维的方法获得分辨率更低的图像,从而不同深度的压缩感知编码网络可以获得不同视觉隐私保护度的图像,而这些图像应用于识别、分类等计算机视觉处理任务依然具有鲁棒性,实现了图像视觉隐私保护与图像表达之间的平衡。在该网络中,应用了一种修正非负高斯(Modified Non-Negative Gaussian,MNG)随机观测矩阵,解决了一般观测矩阵在压缩感知编码网络中易造成网络中图像特征丢失、识别性能差等问题。此外,还采用了一种高斯拟合归一化方法,解决了网络中图像像素值“溢出”的问题,从而能够高质量还原网络中图像。本文还研究了一种基于色度、对比度和显著性结构等三种特征的图像视觉隐私保护度评价模型(Visual Privacy-Preserving Level Evaluation for Compressed Sensing Coding Network,VPLE-CSCN),用于对压缩感知编码网络中不同层图像的视觉隐私保护度进行分析和评估。该评价模型通过提出的基于散斑噪声自适应加权的色度测量模型(Speckle Noise Adaptive Weighting Based Colorfulness Measurement,SNAW-CM)、基于非对称修正?均值的对比度测量模型(Color/Cube Asymmetric Alpha-Trimmed Mean Enhancement,CAAME)和显著性广义中心对称局部二值模式(Salient Generalized Center-Symmetric Local Binary Pattern,SGCS-LBP)算子,分别提取图像的色度、对比度和显著性结构特征,再利用支持向量机回归与模糊C均值组合回归模型将这些特征映射到最终的图像视觉隐私保护度分数。从而可以根据评估结果和实际需要设定合适的网络深度,能够最大限度地保留有用的视觉信息,同时达到不同程度消除图像视觉隐私威胁的目的。最后,本文通过在ORL人脸数据集上的识别实验验证了压缩感知编码网络的识别鲁棒性和修正非负高斯随机观测矩阵的编码有效性,并探究了高斯拟合归一化方法对于压缩感知编码网络中灰度图像和彩色图像的归一化有效性。基于压缩感知编码网络,本文构建了带有图像主观质量分数、图像主观视觉隐私保护度分数双标签的图像质量与图像视觉隐私保护度评价数据集LIVE_CS、TID2013_CS和CSIQ_CS。在这三个数据集上,本文通过实验分别研究和分析了图像色度和对比度测量模型的测量有效性与图像视觉隐私保护度评价模型参数的鲁棒性、图像质量评价的有效性、预测的合理性、与其他方法的性能对比、提取特征的有效性、计算复杂度和消耗计算资源度等。实验结果表明,压缩感知编码网络具有较好的视觉隐私保护下的识别鲁棒性,图像视觉隐私保护度评价模型具有较好的预测有效性。