论文部分内容阅读
近年来,随着对计算机视觉应用需求的不断增加,全方位视觉(OmnidirectionalVision)被广泛地关注和研究。传统的全方位视觉系统均由基于各种反射镜的全方位视觉传感器(Omni-directional Vision Sensor ODS)所构建。ODS可以一次拍摄捕获水平360度信息,然而由于基于反射技术,相机及支架将在图像中成像,导致了盲区和冗余信息的存在。本文采用鱼眼镜头建立全方位视觉系统,鱼眼镜头能够一次性获得180度的半球域视场,无盲区,无需拼接,具有信息量大,应用范围广等特点,在公共安防、管道探测、辅助驾驶、现场检测、车载巡检、飞行器制导及空间机器人有着广泛的应用需求和前景。本文主要研究在鱼眼镜头超大视场下的动态目标识别与跟踪算法。对于动态目标识别的研究,本文首先分析了一些典型算法,如背景差法,帧间差分法和光流法。通过这三种方法的分析比较,我们最终提出一种新的动态目标检测方法,将混合高斯背景模型、背景差法和三帧差分法相融合,首先利用合高斯背景模型对背景进行及时更新,用当前帧和背景进行差分得到一个动态目标,然后运用三帧差分法得到另一个动态目标,再将这两个动态目标进行或运算,最终得到完整的动态目标。通过实验证明改进的算法具有很好的鲁棒性和实时性,适用于鱼眼镜头超大视场下的动态目标识别,并且对硬件没有特殊要求。对于动态目标跟踪的研究,本文首先回顾了Meanshift算法和Camshift算法,并利用Meanshift算法推导出Camshift算法。Camshift能够适应动态概率分布,可处理连续的图像,因此,本文采用它作为动态目标跟踪的方法的基本框架。为了提高在鱼眼图像中的跟踪性能,本文首先对Camshift算法进行了改进,又将Kalman Filter融入到了改进的Camshift算法中,实现对动态目标的下一个位置进行预测。实验结果表明,本文提出的跟踪算法具有很强的鲁棒性和实时性,可满足鱼眼镜头超大视场下的动态目标跟踪需求。并将改进的算法分别应用到全景视频监控领域和全景视觉AGV的导航中,改进的动态目标跟踪算法在AGV导航中表现出很强的鲁棒性,能够有效地进行导航。