论文部分内容阅读
视频序列的全景拼接作为一种方兴未艾的技术,能增大观察视角,在同一时刻显示大范围的场景信息。随着视频监控、虚拟现实、视频会议、交通导航和视频编辑等视频应用变得越来越普遍,视频图像的拼接技术随之发展起来。目前,除了少数行业采用超广角镜头或鱼眼镜头直接拍摄外,其它视频全景图像必须采用软件算法来实现。鱼眼镜头等硬件拍摄设备存在功能不易扩展、价格昂贵和功能单一等缺陷。与此相反,软件拼接系统易于扩展、价格便宜并且功能丰富,但由于视频本身的复杂性,也使其成为一个难点问题。因此,本文研究了基于特征点的视频图像实时全景拼接技术。生成全景视频需要完成特征提取、特征匹配、图像定标和拼接等技术细节,本文依次对这些过程中的主要技术问题进行了研究和改进,并提出了一种新的特征提取算法。
实现视频拼接的第一步是进行特征点的提取。提取到的图像特征最好具有对于旋转和尺度的不变性,以及对噪声、视角变化和光照变化等的良好的鲁棒性。这样可以使得在较大的尺度变化下的图像配准成为可能。此外,预先去除一部分不稳定的特征点,提高匹配的速度和正确性也是必要的。现今,研究人员已经获得了一些相关研究成果,包括基于互信息、点、线、区域的特征提取方法,给出了许多不同的研究思路。本文对此进行了详细的研究,通过总结现有特征提取算法的优缺点,提出并实现了一种基于颜色和曲率特征的新算法(CCFD,the Color-based and Curvature-based Feature Detection)。在论文的第二章中介绍了新算法的理论基础,在第三章中提出了新算法的具体实现步骤以及各种判决条件。
论文的第四章给出了视频图像实时全景拼接技术的流程和实现步骤。利用CCFD算法提取视频帧的特征点,随后进行精确匹配,建立起特征点间的对应关系。在这个过程中采用K-D树对特征点进行匹配,保证了匹配过程快速和准确地进行。之后,利用已匹配的特征点对不同路的视频进行标定,这可以计算出两帧图像之间的变换矩阵,并快速得到两帧视频图像中的粗糙重叠区域,实现系统的实时性。最后,在拼接过程中消除由拼接产生的累积误差和图像模糊,本文中
采用一种加权滤波方法,使图像达到平滑无缝的接合。实验结果表明,本文所提出的视频拼接方法可有效地达到预期目标。
在论文的最后对全文的工作进行了总结,并对今后可能的后续工作进行了展望。