论文部分内容阅读
随着社会的进步,科技水平的提高,三维数据在日常生产生活中的应用越来越广泛,在虚拟现实、逆向工程、无人驾驶等领域都发挥着重要的作用。与此同时,深度数据获取技术也成为了研究热点,越来越多的深度获取方法被提出并得以应用。本文在对当前深度获取方法进行研究讨论之后,提出了两种将结构光与双目立体匹配相结合的的主被动结合深度获取方法。第一种方法主要基于三帧相移结构光模板进行主被动结合深度获取。该方法的实现系统包括两台参数完全相同的摄像机和一台投影仪,它们在同一水平面上光轴平行放置。通过投影仪依次投影三帧有固定相位差的相移模板,摄像机获取经被测场景调制变形的模板图像后,计算出场景的相位值并根据三帧变形图像联合恢复出原始自然场景图。为了能够提高测量精度减少匹配误差,本文采用置信传播算法对恢复出的左右场景图进行双目立体匹配获取相对结构光来讲较为粗糙的深度数据。最后利用粗糙深度数据辅助相位展开计算得出高精度深度数据值。在本方法中,不仅利用了结构光信息实现深度数据获取,原始场景的特征信息也被利用起来,获取的深度数据精度较高,对于复杂纹理、色彩丰富、深度跳变大等复杂场景都有着非常好的测量结果。第二种方法针对于上一个方法三帧相移需要投射三帧模板难以实现动态场景深度获取的问题,采用单帧正弦条纹实现主被动结合的深度获取,本方法的实现系统与前一个方法完全一致,不增加额外的系统开销。该方法只需要投射一帧正弦条纹模板,通过摄像机获取被场景调制变形的模板图像之后利用Gabor滤波器实现相位提取,同时频域滤波实现自然场景恢复,然后利用匹配较为精确的置信传播全局立体匹配算法获取场景的粗糙深度数据,最后利用粗深度指导相位延拓实现深度数据的获取。通过实验验证了本方法的可行性和有效性,本方法只需要一帧模板可以用于动态场景的深度数据获取。