论文部分内容阅读
多纹理多深度视频包含拍摄对象的景深信息,可以实现任意三维场景的重建,对拍摄对象的表征上更具有真实感和立体感,满足了人们对于自由视点视频临场感和交互性的需求,是目前最有效的三维视频表现方式。可广泛应用于自由视点电视、增强现实、医学手术导航、自然用户界面等领域,但其实际应用依赖于视频质量优化以及高效编码等关键技术的突破与发展。目前JCT-3V小组正致力于三维视频编码的标准化工作,提出了3D-HEVC的多纹理多深度三维视频编码标准并发布了测试平台HTM。在3D-HEVC带来高压缩率的同时,也带来了较高的编码复杂度,其编码质量也有待进一步提升。所以本文对其中广泛使用且影响编码性能的纹理图视差矢量获取以及深度图编码进行研究,实现质量优化和高效快速的压缩编码方法,以满足未来在应用方面的需求。本论文深入研究基于3D-HEVC质量优化和高效视频编码方法,主要研究内容与成果如下:1.提出一种基于分级化小搜索窗的相邻视差矢量修正算法。通过对候选块位置的视差矢量的出现率展开分析,探索最有可能出现视差矢量的候选块位置,对这些优先候选块位置的视差矢量进一步做出分析,找到其在独立视点纹理图中的视差矢量参考块;在视差矢量参考块的周围建立一种分级化的小搜索窗,通过小搜索窗内的参考块对初步获取的相邻视差矢量进行分级修正,并根据最后得到视差矢量率失真代价指标修正小搜索窗大小。实验结果证明该算法能够在维持现有编码时间的情况下提升纹理视频编码质量。2.提出一种利用多重虚拟深度图参考块修正的相邻视差矢量质量优化算法。通过对初步获取的相邻视差矢量进行分析,找到其在独立视点纹理图中的视差矢量参考块,并通过此参考块的视差矢量计算与当前编码单元相关的虚拟深度图参考块;对虚拟深度图参考块以及其周围虚拟深度图参考块的深度值进行分析,将所有虚拟深度图参考块的最大深度值进行范围划分,并用其转化的视差矢量值对当前已获取的相邻视差矢量进行率失真优化。最后可通过与于分级化小搜索窗的相邻视差矢量修正算法的结合,实现联合优化。实验结果证明该算法能够在损失较小的编码时间性能的情况下有效提升纹理视频编码质量。3.提出一种基于分组搜索和比例组合的相邻视差矢量快速获取算法。通过对候选块位置的视差矢量的采用率做出分析,找出视差矢量率失真代价最小的候选块位置,并对候选块位置进行删减和优化操作;针对删减后的候选块位置视差矢量相关度进行分析,提出按比例结合的方法,并根据率失真代价指标提出一种自适应的结合比例调整策略,通过结合不同的量化参数指标将获取的相邻候选块的视差矢量相结合来形成优化后的视差矢量;并针对候选块位置是否能获取到视差矢量的情况进行分析,设计分组搜索策略,进一步实现相邻视差矢量快速获取;最后提出基于比例结合和分组搜索的相邻视差矢量获取算法,在视差矢量快速获取的同时保证视差矢量准确性。4.提出一种基于方砖和模式决策集的深度图的帧内模式快速选择算法。结合深度图的自身空间结构特性以及编码模式分布特性,同时利用深度图帧内编码模式的空间相关性以及对应的纹理图中参考块的帧内编码模式的相关性,提出基于方砖(TILE)结构的深度图平坦区域快速划分方法;然后根据深度图的当前编码单元、子划分单元周边相邻的参考块的帧内预测模式,以及对应纹理图中的参考块、周边相邻的参考块的帧内预测模式建立帧内预测模式决策集;通过模式决策集对初始划分后的结果进行再次帧内模式判定,提前找出采用率最高的平坦帧内模式的情况并提前跳出。实验结果表明该方法能够显著提高三维深度视频编码效率。