论文部分内容阅读
遥感图像具有图像尺寸大、目标占比小、数据量极大的特点,其中包含的空间信息在国家安全、资源监测、城市管理等重大领域都具有很高的研究价值。随着航天技术和图像传感器技术的不断完善,遥感图像的采集逐渐形成了全天时、全天候、全球范围的规模,数据量的急剧增长对相应的图像解译技术提出了更高的要求。目标检测是图像解译的重要组成部分,本文旨在采用深度学习方法实现遥感图像目标检测,并针对现有问题提出改进方法,提高了检测精度。本文的主要工作分为三个部分。第一,采用Faster R-CNN实现了遥感图像多类目标检测,针对遥感图像中目标存在倾斜标注的情况,本文设计了基于倾斜检测框的R-GIoU以代替IoU,通过增加最小外接多边形这一因素,更加严格的限制了倾斜框之间的相对位置和角度差。实验结果表明,使用R-GIoU在倾斜标注检测任务中能够提升2%的检测精度。第二,设计了一种基于密集连接和全局信息提取的特征融合方法,以提升飞机目标的检测精度。遥感图像飞机目标检测是本领域的典型课题,本文提出的方法包含自顶向下和自底向上两条特征融合支路,能够有效的将目标的高层语义信息和底层结构信息都叠加到输出特征图上,大大增加了特征图的信息量。在融合结构中增加降维处理以降低输出特征图的维度,减少后续网络的计算量。实验结果表明,本文提出的特征融合方法在减少特征提取网络深度的同时提升检测精度,在DOTA飞机目标数据集上达到了94.20%。第三,构建了基于NAS-FPN的检测网络,以提升密集小目标的检测精度。本文引入通过神经结构搜索方法得到的特征融合结构NAS-FPN作为特征融合模块,采用Faster R-CNN作为检测器。根据目标在图像上的面积占比和目标数量,从DOTA数据集中选取5类目标并构建了密集小目标数据集。NAS-FPN具有良好的复用性,通过控制复用次数和输出特征维度可以构建不同的检测网络。实验结果表明,采用ResNet-50d为特征提取网络,通过增加复用次数和输出特征维度提升密集小目标的检测精度,最高提升了10%,达到了74%,相比采用ResNet-101且不添加NAS-FPN的网络结构提升了19%,相比FPN提升了13%,验证了方法的有效性。