论文部分内容阅读
人类生活在丰富多彩的三维世界中,为了适应人类对三维事物的感知方式,最有效、最直接的方法便是对所观察到的场景进行三维重建。随着计算机视觉的发展与进步,三维物体的表面重建技术早已融入智能制造、文物保护、航空航天、医疗卫生等诸多领域。由于光场相机能同时记录空间中光线的位置信息和方向信息,并能够捕获场景中完整的光场数据,将传统相机的二维信息扩展到四维,使得光场图像具有更大的信息量及更强的可塑性,相比于传统二维图像数据具有更大的优势。因此,如何利用光场相机的优势,对所观察到的目标物体进行三维重建,成为了当前机器视觉领域中的研究热点之一。本文以微透镜阵列(MLA,microlens array)光场相机——Lytro相机作为研究载体,以采集到的光场图像作为主要研究对象,以点扩散函数、色彩恢复、超分辨率重建、深度估计、多目标测距、三维表面重建等内容作为研究核心,对获取到的场景图像进行三维表面重建研究,主要内容包括:(1)为了获取三维场景中目标物体准确的颜色信息,提出了一种精确色彩恢复算法。首先,通过计算相机的精准点扩散函数位置,与六边形坐标系相结合,对每个像素的颜色信息进行一对一的指向性赋值,完成对目标图像的色彩恢复处理。然后,提出一种六边形金字塔算法对该算法进行优化,减少了重复计算的次数,提升了色彩恢复算法的时间效率。实验结果表明:本文提出的色彩恢复方法,能够恢复出场景图像的原始色彩信息,与传统的色彩恢复方法相比,时效性更高,色彩信息更为贴近现实。由于大多数MLA光场相机的微透镜阵列都是按照六边形排列的,因此该方法适用于大多数MLA光场相机的颜色恢复。(2)为了解决相机原始图像分辨率不足的问题,提出了一种精确颜色矢量约束下的超分辨率方法。首先,通过获取相机的子孔径图像,得到了具有视差的图像序列。然后,将高精度点扩散函数作为先验知识,将精准颜色矢量信息作为约束条件,对经典的凸集投影算法改进优化,完成了对场景图像的超分辨率重建。实验结果表明:通过本文算法得到的超分辨图像重建效果良好,与未经优化前的凸集投影算法相比,实验中三组图像的超分辨重建误差均略有降低,清晰度则分别提高了57%、63%及69%;与“基于修正点扩散函数的超分辨率复原算法”及“基于改进POCS的图像超分辨率重建算法”相比,本文算法亦有非常明显的提升。(3)为了获取三维场景目标物的深度图像,提出了一种亚像素精度的深度估计算法。首先,在频率域内对处理得到的相机子孔径图像进行多标签亚像素偏移,以子孔径图像序列中的中心视角图像为参考,完成图像序列的匹配代价过程,得到初始的视差图像。然后,使用引导滤波的方法,在抑制噪声的同时保证图像边缘信息的完整性,得到滤波后的视差图像。最后,利用图形分割优化法(GCO)对视差图像进行处理,完成对三维场景目标物体的深度估计。实验结果表明:本文算法与“散焦深度估计法”及“恒定时间加权滤波立体匹配法”相比,深度估计的精度有了较大提高。但是在深度估计处理过程中,由于有噪声与错误深度值等误差因素的存在,在目标物边缘处理方面,仍然需要进一步加强。(4)提出了一种多目标快速测距方法。首先,对原始图像进行处理,得到目标场景的重聚焦图像,通过标记贴片的方法,实现对目标场景中物体的直接测距。然后,利用边缘提取算子,获取目标物体的边缘信息,再利用本文提出的超分辨率算法对文献中提出的相对测距法进行优化处理。最后,将两种算法融合,得到一种多目标快速测距算法。实验结果表明:本文提出的多目标测距方法精度较高,对于具有规则表面的目标物体,当测试距离小于50cm时,测量误差值小于2%;测试距离小于100cm时,测量误差小于4.85%。将本算法与文中提出的深度估计算法进行融合,能够解决深度图像中存在的噪声及误差等问题,得到的深度图像边缘信息更为精准。(5)为了获取三维场景中目标物体的重建模型,提出了一种三维表面重建方法。首先,利用相机所获取的精确颜色信息作为目标模型的纹理信息来源。其次,利用基于深度图的三维重建方法,将深度估计算法与快速测距算法融合,得到高精度的深度图像。然后,经表面渲染、纹理映射等操作,完成对目标模型的三维表面重建。最后,通过三组不同的对比方式,对算法进行验证分析。实验结果表明:本文算法对多种不同材质的重建目标具有良好的三维表面重建效果,重建纹理真实、精细化程度较高。对比3D Max人工建模方法及“扫描仪建模+纹理映射”的重建方法,本文算法具有较高的时效性及更为广泛的适用性。同时,本文算法在不同光照条件下的重建结果也有着较为良好的表现。