论文部分内容阅读
随着信息技术的快速发展,通过传统相机获取的二维信息已经不能满足人类的需求,三维信息的获取已经成为当今的主流发展方向,而深度感知技术是获取三维信息的关键。在过去的很长一段时间,科研人员都在对如何获取快速高精度的深度信息进行不断探索。结构光深度感知系统的结构简单并且拥有较高的精度,是深度感知最常使用的方法。在基于相移法的单相机-单投影仪结构光深度感知系统中,最少只需要投影三张相移条纹模板便可以恢复被测物体的深度信息,这既保证了测量的精度又具有较好的快速性。然而,通过三张相移条纹图只能得到相对相位,要得到绝对相位还需要对相对相位进行相位解包裹。时间相位解包裹法需要额外投影一组或多组不同频率的相移条纹图,这无疑降低了测量的动态性能。虽然空间相位解包裹法只需要利用一幅相对相位图就可以完成相位解包裹,但是它无法处理深度不连续的物体。针对时间和空间相位解包裹法存在的问题,本文提出了一种新颖的相位解包裹方法。在提出的相位解包裹方法中,只需要投影三张相移条纹模板和一张二值散斑模板就可以完成深度测量。考虑到平面目标的相位解包裹较为简单,在正式开始深度测量之前,先使用结构光系统采集近似平面目标的三张相移条纹图和一张参考散斑图。三张相移条纹图用来计算出参考相对相位图和参考绝对相位图,并将它们和参考散斑图存储起来用于后续正式的深度测量。正式开始深度测量时,因为当前散斑图和参考散斑图的匹配与主动立体视觉中图像对的匹配相似,所以通过改进的PatchMatch Stereo匹配算法建立散斑图像对的对应匹配关系,再结合参考绝对相位图可以得到当前散斑图对应的粗糙绝对相位图。因为得到的粗糙绝对相位图精度相对较低,所以不直接使用它来求解深度信息,而是利用它来确定相对相位的条纹周期数,进一步得到精确的绝对相位图,然后利用相位-深度映射关系求解出被测物体的三维空间坐标。此外,为了满足实时深度感知的要求,还基于CUDA在消费级GPU(Nvidia GTX1060)上实现了改进的PatchMatch Stereo匹配算法的并行加速,每秒钟可以输出187帧的视差图。最后分别完成表面几何形状复杂、多个相互分离和富含彩色纹理物体的深度测量,来验证本文提出的相位解包裹方法的有效性。