论文部分内容阅读
随着多媒体信息的快速发展,数字图像和视频广泛应用于生活中的各个领域,比如气象遥感、军事作战、公共安全等。然而实际生活中,由于各种无法避免的因素导致图像和视频的分辨率水平不能到达人们的要求,这些因素有成像系统自身条件,光学器件制造工艺水平,外界因素及传输设备等。要想得到高分辨率的视频和图像,一般情况下,从软件方面提高图像和视频的分辨率,这个过程就用到图像和视频的超分辨重建方法。图像超分辨率重构是指对一幅低分辨率图像进行处理,恢复出高分辨率图像的一种图像处理技术。视频超分辨重建是建立在图像超分辨重建基础之上,相当于对多帧图像进行超分辨重建,视频最重要的特点是视频帧间具有相关性。现有的视频超分辨重建方法大致可以分为两类:基于运动估计的方法和自相似性方法。基于运动估计的方法只能适用于两帧图像之间的物体运动是平移运动且位移量不是很大的情况。自相似性方法只能对图像的自相似性作一粗略的判断,不能包括所有的情况。以上现有的方法计算复杂度高且重建效果不好。目前,许多不同结构的深度网络模型在单帧及多帧图像超分辨率的重构精度和计算性能上取得了巨大的进步。本文针对基于深度学习的视频超分辨问题展开研究,主要工作和贡献点如下:1.提出一种基于深度学习的空间维视频超分辨重建算法。通过分析挖掘视频图像存在丰富的帧间相关性的特点,将卷积神经网络和视频超分辨重建结合起来。通过三维滤波器提取视频的帧间相关性,同时采用亚像素插值法对高分辨率图像进行重建。实验结果表明,与现有方法相比,所提算法能够获得更稳定的重建结果,以及更加丰富的细节信息。2.进一步地,提出了一种基于深度学习的时间维超分辨算法,即进行视频的帧间插值。在我们的网络中,将时间维高分辨的视频作为网络输出的一组特征图。通过训练神经网路,我们的帧间插值滤波器不止利用了帧间的相关信息,还利用了帧内的局部结构信息,从而能够得到较好的时间维度高分辨率重构视频。实验结果表明所提出方法可以获得更好帧间插值效果,重建视频的时间维度信息更加丰富。