论文部分内容阅读
近年来,随着GPU技术的深入发展和并行算法的日益成熟,使得实时三维重建成为可能。文中实现了一种针对小场景的交互式稠密三维重建系统,此系统借助先进的移动跟踪技术,可以准确地估计相机的即时位置。提出了一种改进的多视深度生成算法,在GPU加速下能够实时计算场景的深度。改进算法中的亚像素级的半全局匹配代价累积提高了多视立体匹配的精度,并结合全局优化的方法计算出了准确的场景深度信息。深度图被转换为距离场,使用全局优化的直方图压缩融合算法和并行的原始对偶算法实现了深度的实时融合。实验结果证明了重建系统的可行性和重建算