论文部分内容阅读
近年来,人工智能技术发展迅猛,其分支之一的计算机视觉技术也不断取得突破,这些新技术的应用对人们的生产生活产生了巨大的影响。视频目标检测是计算机视觉领域的一个热门研究话题,广泛应用于自动驾驶、智能交通和安防等领域,是视频信息处理分析的重要内容。目标检测算法应用在视频领域当中仍有着许多困难,比如视频目标尺寸过小,目标之间相互重叠,视频抖动,天气状况恶略等情况。本文结合相关理论对复杂情况下的视频目标检测算法进行研究。视频运动目标检测算法,主要分为运动目标检测和运动目标识别两个阶段。在运动目标检测阶段,针对传统的帧间差分法检测出的运动目标前景内部容易出现孔洞,高斯混合模型建立背景模型易受前景像素影响等问题,本文对高斯混合模型进行改进,以两帧差分法和高斯混合模型为基础,将两者检测出的运动前景做逻辑“或”操作,作为最终的检测输出,得到轮廓更加完整的运动目标前景。对于可能出现的运动目标之间相互遮挡的情况,利用凸包检测确定遮挡是否发生,遮挡发生时,使用RPN网络定位被遮挡目标;在运动目标识别阶段,通过卷积神经网络提取运动目标特征,端到端地完成运动目标的分类和坐标回归任务,提高了运动目标识别阶段的特征提取能力,降低了多目标分类和坐标回归模块的复杂度。在一些诸如自动驾驶,嵌入式设备等硬件计算能力不强、存储容量不高且要求一定实时性的场景下,以基于深度学习的单阶段图片目标检测算法为基本框架,对SSD目标检测算法进行改进,移除了厚重的VGG-16特征提取网络,以轻量化网络模型MobileNetv1作为骨干网络,构建FPN特征金字塔,在5个特征层级上进行检测结果的预测。轻量化的特征提取网络以牺牲少量检测精度为代价,显著降低模型参数量,FPN金字塔结构增强了特征提取网络的特征表征能力,改进后的算法在MS COCO测试集上取得了32.1%的mAP,检测精度超越了以ResNet-101为骨干网络的SSD513算法(mAP=31.2%),性能接近YOLOv3算法(mAP=33.0%),能够快速高效地完成恶劣天气条件下的视频目标检测任务。本文以交通监控视频为研究素材,以视频当中的车辆为研究目标,进行视频目标检测算法的研究。通过图像标注工具标注构建数据集,在公共数据集上对模型进行训练和验证,本文算法在复杂场景下,能够快速准确地完成视频目标检测任务。