论文部分内容阅读
面向可穿戴设备的视觉交互是一个涵盖人机交互、计算机视觉、穿戴计算等诸多学科的交叉领域。该领域研究旨在以人、可穿戴设备和环境为对象,构建出最为自然、直观的人机交互方式。随着可穿戴设备的盛行,该研究领域的具有极大的研究价值和广阔的应用前景。本文研究重点在于面向穿戴视觉的人机交互技术,研究可以分为三个部分分别是基于手部交互方式实现、基于交互的兴趣目标识别以及面向辅助可穿戴设备的交互式地形识别三大部分。手检测作为计算机视觉中较为前端、初级的任务,在可穿戴交互领域有重要作用。稳定、快速、鲁棒的手检测可以提供可靠、有效的交互体验。本文从可穿戴设备第一视角出发,针对其中光照剧烈变化导致手部外观不稳定的问题,提出一种新型的基于学习的全局光照建模和特征选优的算法模型。该方法通过对不同场景下的光照进行学习建模,通过选优特征训练得到针对不同场景的手检测器,测试时以光照强度为索引选取与测试场景类似的手检测器作为检测器。在公开数据库CMU-EDSH上测F-measure到达0.80。以手作为人机交互接口,本文提出一种面向可穿戴设备交互式手持兴趣目标快速识别框架。该框架采用手位置作为先验信息快速的定位出目标潜在位置,然后采用识别算法对目标进行识别。这种层级序贯的结构只有在检测到有效的目标之后才会进行识别,可以减小运算量提高效率。基于该框架实现了面向辅助视障人群的纸币识别有效验证了该框架的有效性。以方向不变的ORB匹配算法为基础,本文进步提出I2C匹配的算法,一定程度上解决了光照和纸币新旧程度不一致的问题,平均准确率(mAP)提高了15.3%。最后将I2C匹配算法与上述识别框架相结合,得到了交互式的I2C纸币识别算法,有效解决了背景复杂、目标区域过小等问题。在最后结果统计中mAP达到62.4%。此外,提出一种基于BoVW框架下的面向可穿戴设备的地形识别算法,实现对典型地面的识别,提前预判用户前方的地面环境的可通行性从而有效保障视障用户在室外行走过程中的安全性。该功能除了帮助视障用户,也可应用于个人助行外骨骼机器人,将地形识别信息用于路径规划、导航。该算法采用视觉词袋模型,通过聚类学习类可以得到可以用于表征地形的视觉词典。在识别过程采用学习到的视觉词典对待识别样本进行编码,编码结果作为输入采用分类器分类识别。最终在自建的地形数据库上平均识别率mAP达到92.8%。