论文部分内容阅读
摘要:本文首先对卷积神经网络SAR图像识别计算流程展开分析,而后进一步讨论了当前常见的几种模型的表现特征。
关键字:卷积神经網络;SAR;图像识别
合成孔径雷达(SAR,Synthetic Aperture Radar)在实际应用中有着良好的表现,其能够有效穿透云雾和植被,实现全天候的对地检测。作为一种电磁波相干成像系统,SAR图像会随着目标姿态、俯仰角度、周围环境的微小变化而发生较大的变化,在图像稳定性方面表现状态并不好,并且具有较强的相干斑噪声,这些都成为影响SAR图像识别工作的重要不良因素。在针对SAR展开目标识别这一问题相关领域中,众多相关技术层出不穷,热卷积神经网络在这个领域中则有着不错的应用表现。
一、卷积神经网络SAR图像识别计算流程分析
在SAR图像识别领域引入的卷积神经网络,其作为一种端对端的处理方式,可以直接将原始图像进行输入,在一定程度上降低了对图像数据预处理的要求,复杂的特征工程也因此得以避免,且卷积神经网络本身的自动学习数据的分层特征相比人工设计特征提取规则可以对原始数据进行更本质的刻画。卷积神经网络在SAR图像识别领域的优势不容忽视,对应的研究也应当更加深入,才能不断实现识别的优化。
SAR图像识别的卷积神经网络计算流程参见图1。
图1 卷积神经网络计算流程示意图
结合图1展开对于SAR图像识别过程中卷积神经网络算法流程的考察,可以发现,大体可以分为三个流程。首先是数据输入,即将SAR系统捕获到的各类地面图像输入到卷积神经网络中,准备展开识别。其二为特征提取,即利用卷积层、下采样层和非线性层来实现对于待识别图像目标切片的特征提取。卷积层以及紧随其后的ReLU非线性层在这个环节,能够有效对梯度消失的问题进行解决,并且因此而加速网络本身的训练和学习速度。随后需要依据特征展开对于图像的分类,采用Softmax分类器,输入上一个阶段获取到的对应特征图,隐含层的神经元则使用sigmoid函数作为非线性函数。使用交叉熵代价函数评价模型的分类结果,并使用批量梯度下降算法(BGD,Batch Gradient Descent)进行反向传播,不断地调整优化网络参数,提高目标识别的准确率。
二、卷积神经网络模型分类概述
虽然卷积神经网络的计算流程相对固定,但是具体到算法细节上,模型之间仍然存在显著差异。不同的模型会在实际应用中表现出不同的特征,而对于这些模型的选择,则需要切实依据实际情况来谨慎确定。
1.AlexNet
AlexNet是一个八层卷积神经网络,包括五个卷积层以及三个全连接层共同构成,最后通过softmax层来实现分类评分。此种卷积模型的突出特征在于,它采用了修正线性单元(ReLU,Rectified Linear Units)作为激活函数,更加符合神经元信号激励原理,也因此会收获更快速的训练效果。除此以外,此种模型引入Dropout和数据增强等策略,对于降低神经元复杂的互适应关系,对于模型鲁棒性也有提升。除此以外,AlexNet采用两块GTX 580 GPU并行训练,两个GPU可以不用经过主机内存直接读写彼此的内存,大幅提高了网络训练速度。
2.VGGNet
VGGNet从诞生开始,其研究方向就瞄准了卷积神经网络的深度与其性能之间的关系,并且证明了才采用很小卷积的时候,增加网络深度可以有效提升整体模型性能。并且VGGNet在网络优化方面同样展开了深入的研究,其采用尺度抖动的方法对原始图片展开处理,获取到尺寸具有一定差异的图片,并且据此进行训练,有助于增强模型的鲁棒性和泛化能力。除此以外,VGGNet模型还引入了预训练的概念,其首先对浅层网络进行训练,而后进一步利用训练好的参数对深层网络进行初始化,有助于加速整个模型的收敛。并且相对于AlexNet而言,VGGNet将局部响应归一化策略剔除掉,也有助于进一步缩减计算时间,对于内存的占用也因此得到一定程度的优化。
3.GoogleNet
GoogleNet是一个基于Inception结构的22层深度卷积神经网络,其最突出的特征在于利用密集成分来近似最优的局部稀疏结构,增加了网络深度,并且引入了Inception模块拓宽了网络宽度。具体而言,GoogleNet采用了不同尺度的卷积核来进行图像处理,并且对相应的结果进行聚合,从而让模型可以从不同的尺度运算结果中获取到更多图片特征,因此增强了系统的学习能力。此种工作方式让GoogleNet的参数比AlexNet涉及到的参数大大缩减,但准确率却更高。
4.ResNet
VGGNet面世之后,网络深度成为诸多学者的关注点,希望可以通过这一途径实现性能的提升。但是网络深度的增加,会带来梯度弥散/爆炸等问题,梯度下降法却难以有效落实深层网络而带来的退化,因此网络训练和测试的误差也随之上升。在这样的背景下,ResNet应运而生,这是一个152层的残差网络结构,如果某层原始期望映射输出可以被描述为H(x),对应的x为输入,则可以通过快捷连接在网络环境中加入一个恒等映射,相当于从输入端旁边开设了一个通道使得输入可以直达输出,对应的优化目标也从原来的输出,变成输出和输入之间的差,即H(x)-x。相对于将一个映射逼近另一个非线性层而言,对残差的优化要简单的多,因此这样的计算方式有效降低了网络参数优化的速度,也能解决退化问题。
5.DenseNet
ResNet的本质在于建立一个跨层连接来连通网路中前后层,而DenseNet模型则在此基础之上进一步设计了一种具有密集连接的卷积神经网络,其网络的每一层输入,都是前面所有网络层输入的并集。并且每一个层所学习的特征图也会被直接传给其后面所有层作为输人,通过密集连接实现特征的重复利用,增强了网络的泛化能力。此种模型能够有效减弱梯度消失的问题,强化特征传播能力,并且有效限制参数的数量。
6.SENet
此种模型是从卷积神经网络特征通道之间的关系角度入手,引入包括压缩和激发操作的SE模块。其中压缩操作将每个二维特征通道变成一个实数来实现全局代表的感受野,并且输出的维度和输入的特征通道数相闪配。而激发操作则是一个类似于循环神经网络中门的机制,通过对应参数来确定不同特征通道的权重,用来显式地建模特征通道间的相关性。而后展开权重的重新标定,将激发环节的输出权重视为进行过特征选择后每个特征通道的重要性水平,并且通过乘法逐通道加权到先前的特征上,对有用的特征进行权重提升,并且压制作用有限的特征。
三、结论
卷积圣经网络在SAR目标识别领域中的价值不可忽视,并且有着极为深厚的潜力可供发掘。实际应用中唯有深入考证多种模型的表现特征,谨慎测试,才能获取良好效果。
参考文献:
[1] 徐丰,王海鹏,金亚秋.深度学习在SAR目标识别与地物分类中的应用[J].雷达学报,2017,6(2):136-148.
[2] 李君宝,杨文慧,许剑清,等.基于深度卷积网络的SAR图像目标检测识别[J].导航定位与授时,2017,4(1):60-66
关键字:卷积神经網络;SAR;图像识别
合成孔径雷达(SAR,Synthetic Aperture Radar)在实际应用中有着良好的表现,其能够有效穿透云雾和植被,实现全天候的对地检测。作为一种电磁波相干成像系统,SAR图像会随着目标姿态、俯仰角度、周围环境的微小变化而发生较大的变化,在图像稳定性方面表现状态并不好,并且具有较强的相干斑噪声,这些都成为影响SAR图像识别工作的重要不良因素。在针对SAR展开目标识别这一问题相关领域中,众多相关技术层出不穷,热卷积神经网络在这个领域中则有着不错的应用表现。
一、卷积神经网络SAR图像识别计算流程分析
在SAR图像识别领域引入的卷积神经网络,其作为一种端对端的处理方式,可以直接将原始图像进行输入,在一定程度上降低了对图像数据预处理的要求,复杂的特征工程也因此得以避免,且卷积神经网络本身的自动学习数据的分层特征相比人工设计特征提取规则可以对原始数据进行更本质的刻画。卷积神经网络在SAR图像识别领域的优势不容忽视,对应的研究也应当更加深入,才能不断实现识别的优化。
SAR图像识别的卷积神经网络计算流程参见图1。
图1 卷积神经网络计算流程示意图
结合图1展开对于SAR图像识别过程中卷积神经网络算法流程的考察,可以发现,大体可以分为三个流程。首先是数据输入,即将SAR系统捕获到的各类地面图像输入到卷积神经网络中,准备展开识别。其二为特征提取,即利用卷积层、下采样层和非线性层来实现对于待识别图像目标切片的特征提取。卷积层以及紧随其后的ReLU非线性层在这个环节,能够有效对梯度消失的问题进行解决,并且因此而加速网络本身的训练和学习速度。随后需要依据特征展开对于图像的分类,采用Softmax分类器,输入上一个阶段获取到的对应特征图,隐含层的神经元则使用sigmoid函数作为非线性函数。使用交叉熵代价函数评价模型的分类结果,并使用批量梯度下降算法(BGD,Batch Gradient Descent)进行反向传播,不断地调整优化网络参数,提高目标识别的准确率。
二、卷积神经网络模型分类概述
虽然卷积神经网络的计算流程相对固定,但是具体到算法细节上,模型之间仍然存在显著差异。不同的模型会在实际应用中表现出不同的特征,而对于这些模型的选择,则需要切实依据实际情况来谨慎确定。
1.AlexNet
AlexNet是一个八层卷积神经网络,包括五个卷积层以及三个全连接层共同构成,最后通过softmax层来实现分类评分。此种卷积模型的突出特征在于,它采用了修正线性单元(ReLU,Rectified Linear Units)作为激活函数,更加符合神经元信号激励原理,也因此会收获更快速的训练效果。除此以外,此种模型引入Dropout和数据增强等策略,对于降低神经元复杂的互适应关系,对于模型鲁棒性也有提升。除此以外,AlexNet采用两块GTX 580 GPU并行训练,两个GPU可以不用经过主机内存直接读写彼此的内存,大幅提高了网络训练速度。
2.VGGNet
VGGNet从诞生开始,其研究方向就瞄准了卷积神经网络的深度与其性能之间的关系,并且证明了才采用很小卷积的时候,增加网络深度可以有效提升整体模型性能。并且VGGNet在网络优化方面同样展开了深入的研究,其采用尺度抖动的方法对原始图片展开处理,获取到尺寸具有一定差异的图片,并且据此进行训练,有助于增强模型的鲁棒性和泛化能力。除此以外,VGGNet模型还引入了预训练的概念,其首先对浅层网络进行训练,而后进一步利用训练好的参数对深层网络进行初始化,有助于加速整个模型的收敛。并且相对于AlexNet而言,VGGNet将局部响应归一化策略剔除掉,也有助于进一步缩减计算时间,对于内存的占用也因此得到一定程度的优化。
3.GoogleNet
GoogleNet是一个基于Inception结构的22层深度卷积神经网络,其最突出的特征在于利用密集成分来近似最优的局部稀疏结构,增加了网络深度,并且引入了Inception模块拓宽了网络宽度。具体而言,GoogleNet采用了不同尺度的卷积核来进行图像处理,并且对相应的结果进行聚合,从而让模型可以从不同的尺度运算结果中获取到更多图片特征,因此增强了系统的学习能力。此种工作方式让GoogleNet的参数比AlexNet涉及到的参数大大缩减,但准确率却更高。
4.ResNet
VGGNet面世之后,网络深度成为诸多学者的关注点,希望可以通过这一途径实现性能的提升。但是网络深度的增加,会带来梯度弥散/爆炸等问题,梯度下降法却难以有效落实深层网络而带来的退化,因此网络训练和测试的误差也随之上升。在这样的背景下,ResNet应运而生,这是一个152层的残差网络结构,如果某层原始期望映射输出可以被描述为H(x),对应的x为输入,则可以通过快捷连接在网络环境中加入一个恒等映射,相当于从输入端旁边开设了一个通道使得输入可以直达输出,对应的优化目标也从原来的输出,变成输出和输入之间的差,即H(x)-x。相对于将一个映射逼近另一个非线性层而言,对残差的优化要简单的多,因此这样的计算方式有效降低了网络参数优化的速度,也能解决退化问题。
5.DenseNet
ResNet的本质在于建立一个跨层连接来连通网路中前后层,而DenseNet模型则在此基础之上进一步设计了一种具有密集连接的卷积神经网络,其网络的每一层输入,都是前面所有网络层输入的并集。并且每一个层所学习的特征图也会被直接传给其后面所有层作为输人,通过密集连接实现特征的重复利用,增强了网络的泛化能力。此种模型能够有效减弱梯度消失的问题,强化特征传播能力,并且有效限制参数的数量。
6.SENet
此种模型是从卷积神经网络特征通道之间的关系角度入手,引入包括压缩和激发操作的SE模块。其中压缩操作将每个二维特征通道变成一个实数来实现全局代表的感受野,并且输出的维度和输入的特征通道数相闪配。而激发操作则是一个类似于循环神经网络中门的机制,通过对应参数来确定不同特征通道的权重,用来显式地建模特征通道间的相关性。而后展开权重的重新标定,将激发环节的输出权重视为进行过特征选择后每个特征通道的重要性水平,并且通过乘法逐通道加权到先前的特征上,对有用的特征进行权重提升,并且压制作用有限的特征。
三、结论
卷积圣经网络在SAR目标识别领域中的价值不可忽视,并且有着极为深厚的潜力可供发掘。实际应用中唯有深入考证多种模型的表现特征,谨慎测试,才能获取良好效果。
参考文献:
[1] 徐丰,王海鹏,金亚秋.深度学习在SAR目标识别与地物分类中的应用[J].雷达学报,2017,6(2):136-148.
[2] 李君宝,杨文慧,许剑清,等.基于深度卷积网络的SAR图像目标检测识别[J].导航定位与授时,2017,4(1):60-66