基于全卷积孪生网络的航拍目标跟踪算法研究

来源 :合肥工业大学 | 被引量 : 0次 | 上传用户:w9iij9ijwhr
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着无人机和计算机视觉的快速发展,基于无人机的智能目标跟踪系统在交通监控、军事反恐侦察和森林防护等很多领域均有广泛应用。航拍视频中的目标跟踪有以下特点:1)目标仅由几个像素组成,其大小与噪声非常相似;2)安装有摄像机的无人机设备的运动是任意的、不受约束的;3)感兴趣目标相对于摄像机的运动是独立的,因此有时物体可以在任意点离开或进入摄像机的视场;4)物体的外观和形状因光照和姿态的变化而变化;5)相机的视野受到限制,目标容易被树木、建筑物等背景所遮挡。现有目标跟踪算法没有完全针对这些特点进行设计和优化,所以在航拍视频中实现鲁棒且实时的跟踪仍然是一个巨大的挑战。本文的主要研究工作是以孪生网络框架为基础,针对航拍视频目标跟踪的特点与需求,对目标跟踪算法进行创新和完善。主要研究内容分为以下两点:(1)预先训练的卷积网络特征偏向于增加类间目标的差异,所以通用模型预训练的深层特征很难学习有差别的深层特征进行航拍目标跟踪。针对这一问题,提出了一种融合目标显著性和在线学习干扰因子的无人机跟踪算法。算法根据回归损失函数的梯度可以表明相应滤波器在识别目标对象方面的重要性,从预先训练的卷积神经网络层中选择最有效的滤波器来学习航拍目标显著性深度特征,而且大大减少通道特征量,加快了跟踪速度。另外,针对全卷积孪生网络算法无法在线更新目标模板从而导致目标发生显著变化时跟踪失败的问题,本文算法利用连续视频丰富的上下文信息,通过引导目标外观模型与当前帧尽可能的相似来在线学习动态目标的干扰因子,从而实现可靠的自适应匹配跟踪。(2)目前占主导地位的跟踪模式是模板匹配追踪,但在目标分辨率低、大视场和多个角度变化的航拍视频中,由于轴对称边界矩形框跟踪和低维的的转换模型降低了目标定位精度。针对这一问题,提出了一种新的无人机场景下的目标激活双匹配和补偿分割跟踪算法,将视觉目标跟踪问题转化为视频目标分割问题。与一般的跟踪器不同,本文将目标激活定位模型与目标模板的前景、背景特征的增强双匹配模型相结合来提供关于像素级的相互补偿信息,实现了目标的像素级准确分割。此外,一些大多数跟踪基准算法将目标的位置标定为轴对称矩形边界框。为了提高目标的跟踪精度,本文提出一种在线快速拟合方法将目标的逐像素分割掩模转换成更贴合目标的旋转矩形框。在具有挑战性的UAV123数据集上的实验结果表明,本文跟踪方法基本实现了空中目标跟踪准确度和实时性的需求。
其他文献
当前,深度学习技术迅速发展,在计算机视觉、自然语言处理、语音识别等领域取得了举世瞩目的成果,但是大多数深度学习模型的训练依赖于大量标注样本。在现实情景中,某些样本的标注非常困难,而较少的样本也不足以表达某个类别的特征分布。然而,人类可以在见过极少的样本后快速地识别出属于该类别的新样本,研究者们从人类这种快速学习的能力中受到启发提出了小样本学习问题,其目的就是要学习一个具有良好泛化性能的模型,能够在
随着计算机信息技术的发展,智能安防领域的相关技术也得到了很大的进步。在智能监控系统中,行人再识别算法受到广大科研人员和科研机构的密切关注。但是,行人再识别技术在现实场景应用的过程中面临着一些挑战。虽然基于有监督学习的行人再识别技术得到了巨大的提升,但是使用有监督学习的方法进行模型训练需要大量已标记的数据,这增加了人工成本和时间成本。由于在现实场景中直接获得的行人图像是无标签的,所以直接基于无标签数
随着计算机视觉领域的相关技术的快速发展,人体解析在该领域中的地位也显得愈加重要,其具体任务是为图像中的人物进行逐像素的分类标注,将图像中的人体划分为带有语义信息的不同区域,又被称为服装解析。本文研究了利用基于特征融合的方法处理人体解析任务,首先提出了多尺度特征融合网络MFBNet,创新性地为其引入了上下文嵌入模块,用于捕获丰富的上下文信息从而提高解析精度;另外,为了针对性地提高模型在单人解析任务上
随着互联网与智能移动设备的普及,各类应用平台的层出不穷引发了数据规模的爆炸式增长,在海量的产品中实现精准投放成为互联网平台获益的关键。提前对用户下一次的点击行为进行预测就显得尤为重要,点击率预测任务因其可用于评估用户点击产品的可能性的特点,目前已广泛部署在许多在线推荐和广告平台中。针对点击率数据特征学习的模型可分为两类:以学习线性特征组合进行预测的浅层模型(例如,梯度提升树),以及通过对复杂的稀疏
近年来,随着社会流动性增加,智能安防逐渐引起国内外科研学者的重视,而跨模态行人再识别系统是智能安防领域的重要研究课题,国内外科研人员都开展了相关研究,本文在现有成果的基础上进行了优化与改进,旨在深入解决跨模态行人再识别系统的难点与挑战。基于深度学习的跨模态行人再识别系统由两个重要分支组成,分别是行人检测网络和跨模态行人再识别网络,因此,本文的研究课题主要为行人检测和跨模态行人再识别两个方面。本文的
高光谱图像分类是高光谱图像分析中的一个重要研究领域。在考虑高光谱图像的光谱信息和空间信息的基础上,许多优秀的算法被提出应用于分类之中。遥感高光谱图像中大量的混合像元使可分性减弱。当前的高光谱分类都是单标签分类,从标签的角度看,用单标签来标记混合像元内的多种地物是不合适的。从分类的角度看,混合会让光谱特征空间的类内差异变大,类间差异变小,导致最终的分类结果变差。针对混合像元的存在,本文将多标签学习的
作为图像理解和计算机视觉任务中的热门课题之一,目标检测已经成为解决行人检测、人脸识别、路径跟踪等复杂任务的基础。其主要目的是确定自然图像中是否存在预定义的物体实例,并返回物体实例的空间位置和类别。随着深度学习技术的普及,基于深度学习的目标检测框架相较于传统方法获得了更好的检测性能。由于不断出现的复杂任务场景,现阶段对于检测器的实时性的要求也越来越高。单阶段目标检测器以其较少的参数和较高的推理速度,
行人再识别的目的是在智能视频监控系统非重叠摄像机视角下对同一行人进行识别匹配。该技术在实际生活中的很多领域有着越来越多的应用,包括公共安全、行为分析和交通流分析等。受光照变化、背景复杂、行人姿态变化和行人被遮挡的影响,行人再识别技术面临着巨大的挑战,成为计算机视觉领域的研究热点和难点。为了能更好地解决这些问题,本文引入了多种注意力机制,重点对于视频行人再识别技术进行了深入研究,有效地提升视频行人再
随着人工智能的兴起,深度学习发展迅速。然而传统深度学习在实现时需要大量的标注样本进行深度模型的训练,成本高昂。因此,如何让深度模型减少对训练样本数量的依赖,即实现小样本学习成为了研究的关键。基于度量学习的小样本学习方法简单高效,其主要通过将样本映射到特征空间中再进行距离度量实现。本文基于度量学习方法,首先通过多尺度特征提取网络和图神经网络提高基础方法挖掘样本特征信息的能力,再优化传统类表达特征计算
人体姿态估计的目标是定位图片中所有人的关节点,它可以应用到人体行为识别、虚拟现实等领域。近年来,基于卷积神经网络的人体姿态估计方法虽然已经取得极大进展,但仍存在一些问题:(1)不精确的监督信息导致模型退化。(2)在多尺度特征融合过程中,不同尺度特征之间的关系被忽视了。(3)由于参数量多,计算量大,这些模型无法在资源受限的设备上使用。为此,本文结合精确监督、注意力机制和知识蒸馏,来研究人体姿态估计的