论文部分内容阅读
去隔行和缩放是增强视频显示质量的典型后处理方法。传统上,通常采用视频后处理芯片或CPU实现。由于专用视频后处理芯片研发及生产成本较高,而CPU对视频数据的处理效率较低,随着GPU的发展,CPU与GPU协同处理的模式被应用到视频后处理领域。利用GPU着色器对像素点进行并行处理,可以提高视频去隔行及缩放处理的效率。 本文首先设计了一种基于GPU的视频去隔行及缩放处理的实现方案,并结合PKUnity-3(65)片上多核芯片系统软硬件环境,基于OpenGL ES2.0编程框架实现。在对比分析现有的视频去隔行处理方法基础上,本文结合PKUnity-3(65)系统芯片的异构多核结构特点,实现了三种线性去隔行方法、一种边缘自适应去隔行方法和一种中值滤波去隔行方法,并在此基础上利用中值滤波对该边缘自适应去隔行方法进行了改进。与VT滤波法对比,改进后的边缘自适应方法在计算复杂度降低的情况下,取得了PSNR上约1.4dB的提升。 在对视频缩放处理方面,本文实现了两种线性缩放方法和两种基于图像局部检测的缩放方法。这两种基于图像局部检测的缩放方法分别较双线性法取得了PSNR上0.5dB和0.9 dB的提升。 本文实现的视频去隔行与缩放方法在PKUnity-3(65)系统中进行了评测,实验结果表明,基于GPU的去隔行与缩放方法能够取得较好的视频图像质量增强效果,可以满足标清视频图像的实时处理要求。此外,本文工作基于OpenGL ES2.0编码实现,可移植性强,可以为其他基于GPU的视频处理设计提供参考。