论文部分内容阅读
遥感影像分割是影像解译与分析任务的必要过程。近来随着遥感影像分辨率的提高,以及深度学习在特征表达上的优势逐步显现,影像分类与分割不再仅仅依靠光谱信息,而是进一步加入基于表征的影像特征信息,以实现从土地使用分类到对象层次的场景理解的过渡。在这项工作中,以深度网络为基础模型的影像语义分割已成为基于高分辨率遥感影像的高精度自动语义分割的主要研究趋势,其中基于全卷积神经网络的语义分割研究在医学影像、街景图片、遥感影像等领域应用广泛,通过深度全卷积网络能够在无需下采样、反卷积或者插值的前提下推断得到全分辨率标签数据。为了更好地利用影像特征进行高分辨率遥感影像自动分割,本文提出了一种基于深度残差网络的多尺度语义分割模型,旨在针对小样本遥感影像数据集,提高具有不同尺度分割对象的遥感影像分割精度。首先,将深度残差网络以全卷积网络形式应用于端到端分割问题,然后针对小样本数据进行随机多尺度数据增强,提高模型分类精度和鲁棒性,受限于较粗糙的全卷积网络分割结果,引入Atrous卷积进一步精细化模型特征图分辨率,进而提高输出标签图精度。所提出的方法适用于多尺度高分辨率遥感影像标记问题。为了研究多尺度残差网络模型应用于遥感影像自动语义分割的有效性,实验基于ISPRS 2D Vaihingen和Potsdam两个标准语义分割数据集,并考虑不同的网络参数以及改进方法设计了一系列实验方案,经分析得出以下结论:(1)在两个不同的遥感影像语义分割数据集上,本文模型分类精度均具竞争性,Vaihingen数据集影像分割结果的分类精度达到90.4%,Potsdam数据集影像分割结果的分类精度达到90.3%,结果表明本文模型针对不同场景的遥感影像具有较好分割效果。(2)不同模型输入和训练参数实验表明:根据不同的输入图像分块尺寸和覆盖率提取的训练样本会影响模型分割效果,合适的样本尺寸和样本覆盖率可以帮助提高规则形状对象的分割精度。此外在网络训练时选用合适的学习率策略和batchsize训练参数能够帮助提高模型训练精度。(3)样本扩张实验表明:对于遥感影像城市场景分割任务,多尺度数据增强方法能够有效提高各类对像识别精度,相较于其他分割对象,样本量少、尺度较小的车辆类别也能获取较高分类精度和分割效果。(4)经过atrous卷积策略改进的模型在提高模型精度的同时使得分割结果更加精细化,但是将多尺度atrous卷积策略应用于本文分割对象时,模型精度无提升,因此针对本文数据集,仅采用atrous卷积进行改进。