论文部分内容阅读
随着计算机视觉的发展,视觉信息的感知技术在智能交通、安防等领域得到广泛的应用。在上述应用领域中,基于监控视频的行人头部姿态估计任务一直是近年来的热点研究课题。然而,与头部姿态估计相关的基于监控视频的行人检测、头部姿态估计以及行人跟踪等关键任务尚存许多困难,主要体现在图像中的行人分辨率低、监控相机的俯视安装视角、变化的自然光照和阴影以及障碍物遮挡等方面。本课题围绕监控视频中行人头部姿态估计方法研究的主题,针对监控视频中行人头部姿态估计的几个关键任务展开研究。本文主要的研究内容包含如下几个方面:1.搭建远程监控系统,采集原始视频数据,并设计辅助标注算法实现数据集制作:(1)在行人频繁穿越的路段安装监控摄像头,采集各个时段、各种天气的视频数据。监控采用俯视视角和较远的拍摄距离,采集到的图像中包含行人分辨率低、阴影干扰、光照变化、建筑物遮挡等挑战。(2)委托13名实验人员模拟行人穿行马路的场景,并利用IMU传感器记录头部姿态数据。(3)利用采集好的数据制作行人数据集,并提出了一种基于运动分析的数据辅助标注算法。2.提出了一种基于深度学习模型的低分辨率行人头部两步检测方法,该方法适用于监控图像或其他远距离拍摄图像中的低分辨率行人头部。首先,该方法训练一个行人检测器用于在原图中初步提取行人区域;接着,利用检测出的行人区域构建头部检测的数据集,利用交并比判据划分正负样本;最后,基于行人区域数据训练一个头部检测器,完成头部的精确提取。该方法采用YOLOv3框架作为行人和头部的检测网络。试验结果证明该方法能够有效地从远程监控图像中精确提取行人的头部区域。3.提出了一种基于卷积神经网络(CNN)的低分辨率行人头部方向的估计方法。考虑行人头部图像的分辨率很低,本文将行人头部方向估计定义为针对头部偏转角度的10分类任务。该方法首先利用两步检测法提取头部区域的图像,并且利用交并比判据筛选出有效样本图像。然后,将头部图像样本和对应的标签输入到以ResNet-50为骨架的神经网络,训练分类模型。该方法比传统的HOG+SVM方法具有更高的准确率。试验证明该方法能够正确估计行人头部的偏转角区间。4.提出了一种适用于监控图像序列的行人头部姿态估计算法。该算法主要由多行人跟踪模块、监控图像标定模块和头部姿态估计模块组成。其中,行人跟踪模块首先利用YOLOv3训练一个行人检测器在原图中提取行人区域,然后利用针对行人重定位任务预训练的深度神经网络描述行人区域的CNN特征,最后,基于Deep SORT框架实现行人的在线跟踪。并且在此基础上,实现了多个行人在图像序列各帧中的头部中心的物理位置检测:首先,利用阈值处理获取头部图像中的前景像素;然后,利用多方向投影分析行人直立方向和头部颈脖位置,提取精确的头部区域;最后,通过计算头部区域的几何矩获取头部中心的位置。试验证明,该算法实现了良好的行人跟踪效果,对光照变化、阴影和障碍物遮挡具有较强的鲁棒性,并且能有效检测行人头部中心的物理位置。