论文部分内容阅读
随着计算机的不断普及以及计算机的存储能力、数据处理能力、网络传输能力的不断提高,使得在计算机使用范围越来越广泛的同时,人们对计算机的依赖程度也越来越大。同时随着视频存储、处理技术的进步,人们越来越依赖于计算机智能视频处理技术去执行一些需要24小时进行的实时监控、检测工作和一些人类无法直接参与的在复杂环境下的监控、检测任务。这就对视频监控技术提出了新的和更高的要求。虽然目前的计算机智能视频跟踪技术虽然已经把人类从复杂繁重的监控、识别工作中解放出来了,但这些应用技术都有一个共同的特点:即每个摄像头都是一个相对独立的系统,需要人工去干预、协调相互之间的协同监控、识别、跟踪工作,但随着监控场景的扩大,摄像头的增加,工作量就会呈几何级的增加。同时,目前的视频跟踪应用技术绝大多数只是对监控区域进行简单的摄录、存储,以备后期调用、查询或只是进行一些简单的识别、判断和响应。为了减少人工干预,增加摄像头的智能协同性我们提出了本研究课题。为了解决上述问题,我们提出了本文的多摄像头协同跟踪系统。该系统的关键技术包括识别,跟踪,协同三大块。多摄像头协同跟踪系统主要由三个部分组成。第一部分:主系统部分,由一个枪机摄像头和一个主控程序组成,主要负责对场景的监控,对场景中的运动物体进行检测,并与服务器、子系统进行信息交互;第二部分:子系统部分(可多个),每个子系统由一个球机摄像头(云台可控)和一个子控程序组成,主要负责接收主系统的命令,对监控场景内检测到的运动物体进行实时的跟踪和显示,同时把跟踪结果发送给服务器;第三部分:协同部分即服务器和客户端IE部分,服务器部分主要负责接收主系统和子系统发送的相关摄像头的信息并转发给客户端的IE,并接受用户在客户端的输入命令,发送给相应的摄像头,从而实现对特定摄像头的实时远程交互控制。在对场景进行监控和对运动物体进行检测、识别、跟踪时,主要是把运动物体的颜色信息作为识别、分析的依据,涉及的关键算法主要包括帧间差分,平滑滤波,CAMSHIFT算法,粒子滤波算法,高斯模型等,各算法随着应用场合的不同,计算复杂度的不同,执行效果也相差很多。摄像头之间的通信是通过TCP/IP协议完成的,同时设计了自己的专属指令集。为了提高检测和跟踪效率,在对场景的检测和对运动物体的跟踪上,我们使用了不同的算法。我们在多摄像头协同跟踪系统中测试了本文的关键算法。模拟的实验环境为:3台计算机,一个主系统计算机+枪机摄像头;一个子系统计算机+带云台的球机摄像头;一个服务器计算机。模拟监控的场景是运动物体在投影仪上的投影。运动目标检测算法和运动目标跟踪算法基本达到了算法设计的要求。同时算法在部署到多摄像头协同跟踪系统上时,在模拟的实验环境下的实验效果也比较理想,唯一的不足是:随着监控环境复杂度的增加,实验效果会有所下降。