论文部分内容阅读
态势感知系统对数据信息的快速自主分析能力使其越来越多地应用于作战指挥控制、智能安防及网络安全等领域。随着信息技术的发展和信息量的爆炸性增长,构建能够自主挖掘数据信息并对环境态势拥有一定感知能力的态势感知系统成为一项重要研究课题。态势感知系统的构建要对当前环境中存在的物体目标进行类别及位置等属性的感知,然后综合各类传感器信息,分析各态势要素的状态,并对其发展态势做出一定程度的预测估计。在整个态势感知系统中,对态势要素即物体目标的发现及类别、位置等的分析是实现系统整体功能的基础和关键,在众多传感器信息中,图像数据中的物体目标形象直观、时效性强、准确度高,可以作为态势要素感知的主要信息源。但对于图像数据中物体目标的判别分析技术研究一直以来都未达到实际应用水平,图像数据的复杂性和物体目标的不确定性是造成技术研究瓶颈的主要原因。在图像目标数据智能识别研究领域,近几年,深度学习技术的应用取得了突破性进展,引发了计算机视觉领域的革命性变革,引起了学术界及工业界的广泛关注及研究。本文基于可见光图像数据和雷达图像数据研究深度学习技术在态势感知系统中的应用,采用的深度神经网络模型为卷积神经网络(Convolutional Neural Network,CNN),通过实现卷积神经网络模型和以卷积神经网络为基础的扩展模型,力图解决态势感知系统中针对图像物体目标识别的精度不足及效率低下问题,为态势感知系统中态势要素感知任务的实现提供新的思路和解决方法,并为后续深度学习技术在该领域的应用提供参考。首先,本文通过在基于GPU的高速计算平台上实现卷积神经网络模型完成图像场景中物体目标的类别感知任务。根据计算平台配置,参考ImageNet挑战赛中表现优异的卷积神经网络模型,在高效的深度学习工具Caffe框架下对模型进行实现。模型通过反向传播算法进行训练,输出层选择Softmax分类器进行类别鉴定输出。使用模型对Cifar-10数据集中的图像数据进行分类处理,根据图形化的分类结果分析模型处理图像目标识别的有效性。然后,通过模型针对可见光图像和雷达图像的物体目标识别结果验证模型用于态势感知任务的可行性。其次,在完成物体目标类别感知的基础上,研究基于卷积神经网络的模型在目标位置感知任务中的应用,通过调研分析,选择实现两种图像目标位置感知模型Fast R-CNN和Faster R-CNN。分别使用两种模型针对可见光图像和雷达图像完成物体目标位置感知实验,根据实验结果,通过分析两种模型在感知精度和感知效率方面的优劣,选择Faster R-CNN模型完成目标位置感知任务。最后,根据模型对可见光图像和雷达图像中态势要素的类别和位置感知信息,分析图像场景中的主体目标和密集分布目标,给出关于图像场景的文字性描述,并根据系统设置,对图像中存在的敏感目标进行标注,至此完成态势感知系统第一阶段的态势要素感知功能。在此基础上,研究态势感知系统嵌入式平台实现的可能性,在NVIDIA Jetson TX1开发板上完成了Caffe框架的配置和卷积神经网络模型的实现,通过验证平台对模型的执行效率和针对mnist数据集的分类结果,分析态势感知系统在嵌入式平台实现的可能性,为后续研究工作奠定基础。