论文部分内容阅读
随着信息技术、网络技术和多媒体技术的飞速发展,人们对视觉享受的要求一直在不断提高。多视角立体视频系统不但可以提供给用户高清晰视频质量的立体视觉享受,而且可以满足用户从不同角度、不同视点观察真实世界的渴望。未来的视频系统可能会以通过增加视频序列数量和提高视频分辨率作为发展主线,多视角立体视频编解码技术的研究具有重要的现实意义。获取场景准确的深度信息是立体视频高效编码和立体图像处理的基础。本文给出了一种用于立体图像匹配的改进置信传播算法。基于视差场的连续性假设,传统视差估计置信传播算法将稠密视差场抽象为一种马尔可夫场,置信传播在消息双向传递的马尔可夫网络上进行。考虑到在物体遮挡区域视差场并不连续,本文首先采用基于彩色权重的初始视差估计和交叉不稳定检测技术检测出遮挡区域,将稠密视差场更加精确的抽象为一种马尔可夫场和贝叶斯场的混合场,置信传播在马尔可夫和贝叶斯的混合网络上进行,使得遮挡区域像素视差信息不传递给非遮挡区域,提高了视差估计精度并降低了算法复杂度。本文采用Middlebury网站提供的标准测试图像对本文算法进行了客观评估,实验结果表明,本文算法同时具有较好的视差估计精度和运算效率,截止2010年1月,本文算法在Middlebury网站上的精度综合排名为第七名。多视角立体视频由于需要存储传输场景的多个视角视频,数据量是传统二维视频的数倍,研究高效的压缩编码技术对于多视角立体视频的实际运用十分重要。一般而言,多数多视角立体视频编码方案中均会采用视间估计技术来减少多视角视频的视间冗余,本文提出了一种基于深度信息的改进的视间预测补偿快速算法,可以提高视间估计效率。另一方面,本文研究了一种基于深度信息和彩色分割的立体视觉前景区域提取算法,进行了立体视频前后景分割编码方面的尝试,前后景分割编码能够在较低码率下改善前景区域图像质量,并在一定程度上提高视频的立体观感。由于多视角立体视频需要在解码端同步多个视角视频的实时解码,研究如何提高解码端的实时解码能力具有重要的现实意义。本文提出了一种基于CPU和GPU混合运算的多视角立体视频软件解码模型,该模型充分利用了GPU的并行运算能力,加速了解码端IDCT运算和彩色空间变换的运算过程,一定程度上提高了多视角立体视频的软件解码效率。