论文部分内容阅读
伴随着深度学习方法的快速发展,目标检测方法也得到了快速发展。然而现实情况中,由于实验数据(源域)与实际应用场景数据(目标域)在物体外观、天气与图像质量等方面存在较大差异,导致利用源域训练获得的模型直接应用于目标域上,检测精度大大降低,出现域漂移问题。解决域漂移问题最直接的方法是重新对目标域图像数据进行标注与训练,然而重新标注却极耗费人力与时间成本。在无目标域标注信息的前提下解决域漂移问题的方法,称为领域自适应方法。但是此方法常用于分类任务的域自适应工作上,由于目标检测任务的域自适应工作不仅需要对物体类别进行预测,同时还需要对位置进行预测,难度更大,导致其研究进度缓慢。为了解决上述问题,本文对两种场景下的目标检测域自适应问题进行研究,提出了两种目标检测自适应方法,主要研究内容包含以下三部分:(1)对于相同场景下目标检测的域自适应问题,提出基于融合自适应层的目标检测自适应方法,通过在Faster R-CNN网络的特征提取模块之后添加自适应层,利用该层来促使网络学习两个域之间不敏感的特征表示,提升模型的自适应能力。基于2组对比实验,验证了本方法与其他自适应方法相比而言,约有1.22%~1.47%的性能提升。(2)对于不同场景下目标检测的域自适应问题,为了实现对共性特征的强对齐效果,提出基于CycleGAN与伪标签的目标检测自适应方法。利用CycleGAN将源域数据集转换为中间域数据集,将其输入到网络中进行训练,得到初步的域自适应模型,利用该模型得到带伪标签信息的目标域数据集。最后,将其同中间域数据集轮流输入到网络中进行迭代训练,利用伪标签信息中的置信度设计相关的损失函数,约束伪标签,最大程度地拉近两个域之间的共性特征。基于1组对比实验,验证了本方法与其他自适应方法相比而言,约有3.44%~4.21%的性能提升。(3)设计并实现了一个目标检测域自适应系统,系统可以实现对用户上传的图片数据进行检测,检测完毕后即可在浏览器界面中看到详细的检测结果。系统界面简洁直观,操作方便。