论文部分内容阅读
图像匹配在无人飞行器视觉导航中发挥着重要的作用。通过将航拍图像与电子地图进行图像匹配,或对相邻两帧航拍图像进行匹配,能够得到飞行器的位置与速度信息。传统的图像匹配算法主要基于手工设计的特征,具有很好的泛用性,但在有些任务中匹配性能不佳。目前,深度学习迅速发展,但在图像匹配方向刚刚兴起,在精度和速度上存在较大的上升空间。为此,本文主要研究基于深度卷积神经网络的图像匹配算法,以期提高匹配精度和速度。主要工作如下:(1)提出了一种航拍图像匹配数据集制作方法,提高了Hardnet网络的匹配精度。Hardnet是一种提取128维特征描述子的深度卷积神经网络,但训练使用的UBC Phototour数据集与航拍图像差异较大,影响实际匹配性能。为此,首先分析了航拍图像数据与UBC Phototour数据之间的差异。然后基于SIFT算法的特征提取方法,对航拍图像数据进行特征提取与匹配。接着,基于孪生网络的思想,生成了50000对正样本与负样本,并以UBC Phototour数据集的格式生成了航拍图像数据集。最后,使用本文生成的数据集对Hardnet网络进行训练。实验结果表明,基于Hardnet的航拍图像匹配方法比传统算法SIFT准确率平均提升了约1.7%,并且具有更高的稳定性。(2)提出了一种CENet进行感兴趣区域提取,用于提升Hardnet图像匹配速度。当前常用的感兴趣区域提取算法存在检测结果不够准确的问题。为此,在传统深度卷积神经网络的基础上,引入集成学习的思想,通过使用多个深度卷积模块进行特征提取并集成,得到更为准确的检测结果。为了增强不同深度卷积模块提取特征之间的差异,采用了一种新的训练流程与损失函数进行训练。CENet网络以VGG16网络作为骨干网络进行构建。实验结果表明,CENet能够有效地检测出不同的特征,得到更为准确的感兴趣区域,与CENet网络基于的VGG16网络与改进的UNet网络相比,在F值上分别提升了3.86%和3.23%,在MAE上CENet比VGG16网络降低了14.8%。(3)融合了CENet和Hardnet网络,实现了航拍图像的快速匹配。首先使用高斯差分尺度金字塔进行了特征点提取,然后使用CENet网络提取航拍图像的感兴趣区域,并基于此区域对特征点进行筛选。考虑到手工标注航拍图像数据需要大量的时间,本文使用了LC算法对航拍图像进行预标注,然后进行手工调整,最后将筛选后的特征点周围区域通过Hardnet网络进行特征提取,从而实现了航拍图像的快速匹配。实验结果表明,感兴趣区域能够有效地筛选出合适的特征点,有效提升了航拍图像匹配的速度,是单独使用Hardnet网络检测速度的1.2倍,同时略微提升了图像匹配的精度。