论文部分内容阅读
成像设备在拍摄成像时,易受被摄对象或拍摄环境等因素影响,而在最终成像中出现复杂的可变模糊。在大多数情况下,我们不仅不具备重新拍摄清晰图像的条件,而且也无法提前获知可变模糊的具体参数等信息。因此,在仅有单张可变模糊图像的条件下获得清晰图像的技术手段——图像可变模糊盲去除技术——具有重要的研究价值。传统的图像模糊去除方法适用范围受限、自动化困难,已难以满足实时应用的需要,因此越来越多的研究工作转向基于深度学习的方法,希望利用深度网络在大量样本训练下获得的强大特征表达能力,提升去模糊质量和效率。然而只有少数深度学习方法同时针对可变模糊去除和模糊盲去除问题进行设计,且这些方法仍然具有以下缺陷:1)没有脱离基于迭代的传统图像复原方法,运行速度慢;2)需要针对不同模糊类型设计模糊参数估计网络,应用范围受限;3)对于可变模糊核的估计,需进行分块和融合处理,影响复原效果、增加了算法复杂度。针对上述缺陷,本文提出了一种深度全卷积深度网络结构进行可变模糊参数估计和去除。本文的主要贡献为:1)提出了一种全卷积的像素级别参数估计网络结构P-net,利用深度卷积网络对于图像多尺度特征的表达能力,进行了像素级下多类型可变模糊参数估计。该网络在免去分块和融合操作的前提下提高了参数估计的通用性、细化了参数估计粒度。2)提出了一种全卷积条件生成网络结构G-net,以P-net的输出作为条件来指导自身学习去模糊操作。配合残差学习等技术,G-net达到了复原清晰图像的目的。P-net与G-net最终整合为具有通用架构的端到端可变模糊盲去除网络PG-net,使可变模糊参数估计和可变模糊去除操作具有连续性,提高了算法效率。3)提出基于语义分块和多尺度分块的可变模糊数据集合成方法,在此数据集下训练PG-net。多组实验结果证明,本文参数估计方法能高效、准确的可变模糊参数估计,在测试数据集上算法结果优于现有常用方法。本文去模糊方法能有效、快速的去除图像可变模糊,在PSNR、SSIM、MS-SSIM、IFC、VIF等多种评价指标下均获得优于现有常用方法的可变模糊去除表现。