论文部分内容阅读
传统的运动物体检测是把三维的物体信息投影到二维平面来进行处理的,而深度信息的缺失会导致一些视频处理的局限性,如在遮挡和阴影方面。遮挡会导致运动物体统计不准确,以及目标跟踪的丢失等。阴影和运动目标相同的运动属性,会导致运动目标形状的扭曲,以及前景区域中目标物体的粘连等。基于光飞行时间原理的TOF相机满足了实时获取场景深度信息的需求,但是其也存在一些缺点,如分辨率低,噪音大,测量范围小等。本文利用TOF相机能够实时获取深度和灰度信息的优势,把深度信息和RGB颜色信息进行融合,利用对应像素的深度信息判断阴影和遮挡的发生区域。首先对这两个相机组成的系统,利用双目系统的计算方法及相机参数,对RGB图像和TOF的灰度图像进行角点检测与匹配,保留匹配无误的点坐标来计算基础矩阵。再利用得到的基础矩阵对图像进行仿射变换,使图像在水平方向上一致。根据仿射变换把变换后的深度图像上相对应的点与RGB图像像素点相关联起来。利用得到的前景深度信息,采用最佳阈值分割的思想迭代出最优阈值,分割出发生遮挡物体,并利用阴影区域与背景的深度值相似特性,分割出阴影区域。但由于深度相机的局限性,对于在物体与阴影相连的区域,及运动快的物体,获取的深度信息存在很大的噪音,使检测的阴影区域不够理想。在分析上述及传统的阴影检测模式下,提出的融合亮度、纹理及连通域的自适应阴影剔除算法,首先是通过对阴影区域亮度与背景像素点的比较,统计亮度比直方图并进行拟合,计算其正态分布曲线,并结合RGB衰减幅度不同,自适应获取亮度阈值。再经纹理剔除边缘处不相似的点,保留纹理相似的区域,用连通域分析可计算出连通域的面积,去除阴影面积阈值的区域作为检测结果。实验结果显示,在不同场景下运用上述检测方式得到检测的图像达到预想的效果。