论文部分内容阅读
随着几何建模技术的快速发展,构建高度复杂的三维场景已经变得相对容易。这些复杂场景通常包含几千万甚至上亿个三角形和丰富的纹理,大大超过了目前图形硬件的处理能力。实时生成这些复杂虚拟场景的高度真实感画面仍然是一个非常具有挑战性的任务。 传统基于几何的绘制系统使用模型简化和可见性剔除技术,通过牺牲画面质量来实现场景的快速绘制。与此不同,基于图像的绘制(Image-Based Rendering-IBR)技术利用实拍或者计算机合成的图像序列来生成高质量的目标画面。由于它的绘制速度与场景几何复杂度无关,因此可在普通PC上实现复杂场景的实时绘制。 目前绝大部分IBR技术的主要不足有:没有考虑输入图像的分辨率对绘制质量的影响,其绘制效果严重依赖于输入图像的分辨率;场景表示复杂、数据难以获取和压缩、绘制算法没有充分利用图形处理器(GPU)的可编程性来提高系统性能。考虑到许多商品化软件可生成逼真的图像序列,本文重点研究面向虚拟场景的IBR技术来克服现有方法的上述不足。本文的主要创新工作有: (1) 以提出的三维变换方程、深度图像三角形网格重建算法和视点空间Z偏移算法为基础,提出了一种新的多幅深度图像混合绘制技术来处理视点相关的光照效果。该技术巧妙地使用最新图形处理器提供的浮点混合功能来实现片元(Fragment)颜色的累加,从而使得由几百幅深度图像来绘制目标图像成为可能。 (2) 提出了一个基于图像的虚拟场景可伸缩绘制框架。该框架以深度全景视频作为场景表示的基本单元,通过多段深度全景视频组成的复合结构来表示整个虚拟场景。考虑到运算主机(PC、移动设备)的GPU和CPU的处理能力存在很大差异,提供了深度全景视频环绘制技术、路径全景视频环绘制技术和采用服务器推(Server Pushing)运行模式的路径全景视频绘制系统等三种IBR技术/系统来实现虚拟场景的交互显示。 具体地,深度全景视频环绘制技术要求CPU和GPU都具有很强的处理能力, 浙江大学博士学位论文它允许视点在漫游平面的某封闭区域内自由运动,它根据目标视点参数来选择深度全景视频环中对目标图像有贡献的候选区域,利用多幅深度图像混合绘制技术对候选区域进行绘制来生成目标图像;路径全景视频环绘制技术需要CPU具有很强的处理能力,它结合了同心拼图和无结构流明图绘制技术的优点,可生成路径全景视频环内任意视点的目标图像;采用服务器推运行模式的绘制系统基于客户一服务器体系结构,它主要面向CPU和GPU处理能力都很弱的移动设备。服务器进程负责将绘制目标图像所需的压缩数据通过无线网络发送给客户进程,客户进程对接收的数据进行解压并通过本地warping来生成目标视点图像。该系统还使用多路缓存队列对接收的压缩数据和解压数据进行缓存来提高响应速度。 (3)提出了椭圆加权平均(Elliptieal Weighted彻erage一E场人)超分辨率算法来提高IBR系统绘制质量。我们将 EV认A滤波技术引入超分辨率成像,采用E认今气滤波器对点扩散函数和反投影滤波器进行建模。由于E认叭滤波器属于各向异性滤波器,它可以很好地模拟点扩散函数和反投影滤波器的空间变化特性。我们还设计了一种检测错误匹配像素的快速、可靠方法,通过在超分辨率重建过程中忽略错误匹配像素来去除错盈爸们对结果图像的影响。实验结果表明,该算法不仅可以从IBR系统生成的合成视频中重建高质量的超分辨率图像,它还可以处理包含复杂遮挡和场景变化的动态视频片段。