论文部分内容阅读
随着汽车的普及和人工智能的快速发展,人与汽车的交互在驾驶过程中越来越频繁。目前,人与汽车的交互主要以触控和声控为核心,然而由于方言的局限性,声控识别无法普及,同时,声控具有一定的延迟性,难以应用在汽车系统上;在驾驶过程中驾驶员需实时掌控方向盘,然而,在触控交互方式下,人的手会离开方向盘,致使产生一定的驾驶安全隐患。眼控技术的出现,既没有方言的局限性,同时解放了人的双手,在一定程度上避免了驾驶过程中触控交互所产生的安全问题。本文将眼控技术引入到车载抬头显示器(HUD)中,可以为HUD提供更好的交互能力。眼控方式采用三维视线跟踪算法和动态眨眼识别来获取人的眼部动作,将获取的视线落点模拟成触屏点击位置,两次连续有意识地眨眼模拟成触屏的点击进入,凝视模拟成选中目标并结合视线落点移动,再次眨眼表示释放目标。利用透明显示器,将处理结果显示在汽车的前方玻璃上,以保证人的视线不离开前方,进而设计一个人与汽车交互的车载HUD系统。在眼控HUD系统中,重点需要解决的技术问题有两个:视线跟踪和眨眼识别。在视线跟踪模块中,本文提出了一种基于Intel Realsense 3D摄像头提供的立体环境下三维视线估计方法,解决因头部移动而影响视线估计的问题。视线估计中,首先,用两条视线标定斑点,通过计算Intel Realsense SDK提供的人脸的标志点与斑点的距离对斑点进行跟踪;然后,通过瞳孔识别算法,找到瞳孔的世界坐标,用斑点位置和瞳孔位置来估计视线;最后,对视线估计算法的结果与实际测量的结果进行对比与分析。在眨眼识别模块中,本文提出利用人眼的两个眼角距离与上下眼睑距离的比值变化来判断是否眨眼。这种动态识别方法通过实时跟踪眼睛状态来识别眨眼,识别稳定性较高。识别过程中采用灰度化、二值化、投影等图片处理算法采集数据,并设计适合光照变化的改进二值化算法,根据人的特征进行像素个数和浓度值来提取图片特征。最后对去噪算法和识别方法进行测试和分析。结果显示该算法在一定程度上能适应光照变化,保留眨眼识别所需的眼部信息。