论文部分内容阅读
智能驾驶技术是未来交通工具的发展方向,具有广泛的应用前景。本文结合计算机视觉技术,提出了一个智能驾驶辅助系统,用来实时获取驾驶员注意视点,在具有潜在危险的情况下提出预警,以此提高驾驶安全系数。本文围绕该智能驾驶辅助系统,进行了几个关键技术问题的研究,主要包括三个方面:RGB-D(彩色以及深度相机)相机系统的标定,以及从彩色图像直接到深度图像的像素对准问题;没有重复视野的两个车载相机的相对姿势估计的问题;基于RGB-D相机通过单次学习的动作识别问题。在本文的驾驶辅助系统中,使用了RGB-D相机。为了提高探测精度,改善辅助驾驶系统的性能,需要对RGB-D相机系统进行标定。本文从普通相机的透视投影模型推广到红外相机,建立了彩色相机、红外相机、深度相机的相机系统模型。首先利用传统的相机标定方法分别标定彩色相机和红外相机的内部参数以及外部参数,然后结合深度相机模型标定深度相机的深度参数。实验结果证明,我们的标定达到了较高的精度。但是,在RGB-D相机系统中还存在一个问题,由于彩色图像比深度图像具有更多的纹理信息,因此我们通常都是在彩色图像上寻找到兴趣点,然后希望获得其对应的深度信息。然而目前Kinect的SDK自带的函数库,只能实现从深度图像到彩色图像的像素对应。针对这个问题,本文结合Epipolar原理,提出了从彩色图像到深度图像的像素对应方法。并通过实验证明了该方法的有效性,平均误差仅为0.4个像素。这一部分的创新点为:建立RGB-D相机模型实现RGB-D相机系统的参数标定。利用Epipolar原理,实现从彩色图像到深度图像的像素对应算法。在基于视觉的辅助驾驶系统中,通常使用多个相机组成的相机系统,而这些相机之间往往是没有重复视野的。需要将多个相机作为一个系统来使用,就必须知道这些相机之间的相互姿势。例如,在本文提出的辅助驾驶系统中:一个相机放在车内部用来观察驾驶员的行为,提取驾驶员视线方向;另一个相机放在车外部用来观察前方车况。需要将内部相机坐标系下的视线方向转换到外部相机坐标系下,才能准确获取驾驶员的注意视点,而这必须在已知两个相机坐标系的相对姿势的前提下才能实现。但是由于两个相机没有重叠的视野区域,因此传统的两个相机相对姿势的估计方法无法使用。针对这类问题,本文提出将一个激光器固定在标定板上,用激光器发出的激光束连接两个相机的视野区域,通过激光束带来的共面或者共线约束,实现两个没有重复视野的相机之间的相对姿势的估计。但是,在这之前必须估计出激光束相对于标定板的姿势,这是基于理想相机模型和激光的单向性原理实现的,通过误差分析得出结论,利用该方法估计出的激光方向的偏差在0.36度以内,因此是可行的。基于使用激光束估计没有重复视野相机相对姿势的方法,本文提出了两套算法:共面约束算法和共线约束算法。在共线约束算法中,需要再使用另外一块标定板,放在外部相机的视野内。通过仿真实验和实际实验,将提出的两套算法与国际上最新的基于镜子的无重复视野相机姿势估计算法进行了比较。实验结果证明,共面约束方法的优点在于简便,而共线约束方法则在精度上表现更好,尤其当两个相机之间的相对距离较大的时候,对于估计相机相对位置有明显优势。这一部分的创新点是:基于理想相机模型和激光单向性原理,估计固定在标定板上的激光器相对于标定板的姿势。使用一个固定在标定板上的激光器,提出共面约束算法和共线约束算法,估计两个没有重复视野的相机之间的相对姿势,精度达到国际水平。动作识别是计算机视觉领域的一个重要分支。人体动作识别具有广泛的应用前景,能够应用在诸如人机交互、游戏开发、机器人开发以及手势语言等领域。在智能辅助驾驶系统中,动作的识别也是一个重要组成模块。通过动作识别判断交警或者路人手势,通过动作识别也可以实现驾驶员对汽车的智能操控。本文提出了一种新的动作表示方法,把动作表示为关键姿势的集合,并基于关键姿势实现视频的分割和动作的识别。该方法适合于对动作进行快速预分类。其最大的特点是,相比于以前普遍的动作识别方法往往需要对大量的训练样本进行学习,该方法只需要一个训练样本。实验表明,由于该方法兼顾了动作的时间特性和空间特性,因此对于区别一些细微的动作有较好的辨别能力。这一部分的创新点是:尝试使用关键姿势的集合来表达一个动作,大大简化了动作的描述以及识别过程。