论文部分内容阅读
目标检测是当今计算机视觉领域较为热门和流行的研究方向,可在各个领域中找到应用,例如国防、安全和医疗保障等。目前目标检测算法较多,如Fast R-CNN、Faster R-CNN、YOLOv3、SSD等。其中YOLOv3算法将目标检测看作回归问题对整张图片进行检测,这大大加快了检测速度,且主干网络采用残差结构大大加深了网络深度,使检测准确率相当。但这些算法对图片中面积占比小于0.12%的小目标检测的漏检率要高于大目标,YOLOv3也不例外。针对这一问题,本文基于YOLOv3网络模型研究了小目标检测算法,主要工作如下:(1)小目标在图像中所占像素很少,经过多层卷积之后提取得到的特征不明显,为了改善YOLOv3的小目标特征提取性能,通过将原网络模型中经2倍降采样的特征图进行卷积分别叠加到第二及第三个残差块的输入端,以此增强浅层特征信息。同时,在第一个8倍降采样的特征图后连接RFB模块,增强特征提取能力。(2)原网络中采用多次步长为2卷积操作代替池化层来进行特征图的下采样操作,降低了特征的传递能力。为此,本文借鉴Dense Net的思想,采用密集连接的方式将浅层特征图直接传输到深层同尺度卷积层的输入端。这样不仅能增强浅层特征重用能力,而且还可以有效缓解梯度消失问题。(3)提出了基于泛化IoU的回归损失函数代替原回归损失函数。通过在损失函数中加入锚框与真实框中心点距离相关以及预测框与真实框面积相关的两个惩罚项,使预测框的定位更加准确;并同时解决了两框无交集时的梯度消失的问题。本文基于以上三点改进分别在PASVAL VOC数据集和VEDAI数据集上与原网络进行对比实验。训练过程中,在训练批次相同的条件下训练时长相当。实验结果表明,上述三点同时作用于原YOLOv3网络时,在小目标检测上具有更低的漏检率,定位更加准确,且检测速度相仿。