论文部分内容阅读
人群状态的研究分析已经成为智能图像、视频分析领域一个重要的研究课题。高精度的人群数量估计和运动状态的检测是人群状态研究分析的基础,它不仅能进行当前场景下的人数统计,为相关工作人员优化管理提供必要的信息。同时,还能对人群的运动方向以及速度进行估计,实现人流趋势的预测。更为重要的是,在人群安全问题和预防过度拥挤的检测上,有着广阔的应用前景和极其重要的价值。人群状态的研究分析同时也是一个具有挑战性的研究课题。现有方法在应用场景、特征提取处理上仍存在较大的局限性,为此本文提出一种基于卷积神经网络(Convolutional neural network,CNN)的人群状态分析方法,该方法以深度学习算法为基础,克服了传统图像处理算法中特征提取单一、泛化能力差的问题。针对人群数量的统计,采用了人群整体特征提取的方法生成人群密度图,该密度图不仅具备人群的数量信息,同时还蕴含了人群分布的空间信息。相比较通过检测单个个体来统计人数的传统方法,该方法应用场景更广,不仅可以进行高拥挤、大数量场景下的人数统计,同时还能完成人群位置分布信息的估计。针对视频数据中人群运动方向的判断,设计了一种基于CNN的运动光流提取方法,相比传统光流方法,该方法精度高、鲁棒性强。通过结合人群密度估计方法,在对人群异常状态的检测分析过程具有无可比拟的优越性。不同条件下,获取图像的设备往往存在较大差异,为了进一步减小场景的约束,针对角度不断改变的移动拍摄设备所获取的图像数据,我们提出一种基于单幅图片数据的人群密度估计方法。该方法以单张图像为输入,通过卷积、池化和反卷积最后生成密度图,后续人群异常状态分析过程中,通过充分挖掘密度图上人群数量信息和空间分布信息,提出了一种人群拥挤程度的判断方法,从而为单张图像中人群异常的判断提供了依据,完成了不同场景下人群拥挤程度的评估。而针对更加普遍的固定监控设备获取的视频数据,可以利用的信息更加丰富。因此,本研究提出一种基于多任务人群特征的提取方法,该方法将人数估计任务和运动光流提取任务联系在一起,并行进行特征的提取,最后生成对应的人群密度图和光流图。该网络输入为连续的两帧图像,在卷积层和池化层对两个任务进行参数共享,在反卷积层实现两个任务的参数分离。这样的设计使得整个网络泛化性得到提高,效率得到提升,模型参数量有了一定减小。更为重要的是,在人群异常状态检测过程中,结合生成的密度图和光流图实现了一种多状态量的异常检测方法,相比较现有方法,该方法的灵活性、准确性和实用性更强。本文主要设计了一种人群密度估计和光流特征提取的方法,通过结合这些方法,生成对应的人群数量信息、人群空间分布信息、运动方向以及速度分布信息。利用这些信息,又分别设计了人群拥挤程度的量化方法,以及基于多状态量的人群异常状态的量化方法,最后通过实验验证了这些方法的可靠性。