论文部分内容阅读
场景深度获取已经成为计算机视觉领域面临的一个最基本的挑战。它的应用涵盖了机器人导航、模型重建以及人机互动等方面。激光扫描采用逐点扫描,获取深度太耗费时间,不适用于动态场景;而立体匹配在无纹理及遮挡区域难以实现精确匹配。TOF(Time-of-Flight)相机是一种主动获取距离信息的成像设备,能够实现一个波长范围内的场景深度的实时获取,弥补了激光扫描和立体匹配的不足。但是TOF深度相机也存在着很多缺陷:低分辨率、高噪声、相机参数标定不准确等,这些缺陷也限制了TOF相机的应用。本工作针对TOF相机获取的深度图进行超分辨率恢复方法的研究,主要的研究成果如下:1.提出了一种基于非局部均值滤波的图像超分辨率方法。借鉴立体匹配中匹配代价和代价凝聚的方法,根据输入的深度图建立代价函数;在代价凝聚阶段,我们使用非局部均值滤波,在与深度图对齐的高分辨率彩色纹理图的指导下,对开销代价的每一层都进行基于邻域加权平均的重新预测。2.提出了一种基于最小生成树的非局部的深度计算重构方法。根据深度和纹理导图得到一棵最小生成树,然后在最小生成树上定义像素相似性的衡量准则,每一个像素都给予其它像素预测支持。实验结果表明本方法优于传统的基于窗口的局部算法。3.构建了一个基于TOF相机和普通彩色相机的自由视点立体成像系统。对TOF相机获取的深度信息进行超分辨率处理,结合彩色纹理信息,采用虚拟视点绘制技术生成多个自由视点,进而实现自由立体成像。