论文部分内容阅读
虚拟试衣技术通过计算机仿真技术,将虚拟的服装穿戴到用户身上。用户可以观看到购买的服装穿着在自身上的视觉效果,产生与现场进行试衣相似的体验。在虚拟试衣系统获取用户数据的诸多途径中,深度数据由于能够提供丰富的重建和识别信息,受到了广泛的研究和关注。然而,目前将深度数据应用到虚拟试衣系统的过程中尚存在一些诸如人体重建效率低,重建出人体模型缺少纹理信息,对运动姿态的语义识别正确率不理想的问题。如何将深度数据在重建和识别方面的优势应用到虚拟试衣系统中的同时,减少用户的等待时间。已经成为当前虚拟试衣领域研究的热点。本文针对深度数据驱动的虚拟试衣系统关键技术展开研究,重点研究了基于稀疏关键点的参数化人体重建、基于混合参数的深度相机与彩色相机高效配准、最近邻和最长公共子序列结合的动态手势识别这三个方面的内容,取得了以下研究成果:[1]基于稀疏关键点的参数化人体重建。提出了一种基于单张深度图的自动参数化人体模型重建算法。用户仅需要站立在在深度捕传感器,等待传感器扫描全身深度数据。算法将在数秒内完成用户身材和姿态的重建。相比于传统方法需要优化深度数据和网格之间的稠密对应进行重建,本文提出了一种基于稀疏关键点的重建策略。该策略使用回归算法计算深度数据上,与标记有关键点的训练数据对应的的关键点位置,并设计了两种特征描述和对应的回归策略以提高关键点位置计算的鲁棒性和准确度。使用计算的稀疏关键点作为约束,本文方法进一步优化人体姿态和身材完成重建,并在优化过程中使用矩阵预分解以提高重建计算的效率。本文方法在达到与现有方法相近的重建准确度的前提下,大大降低了重建所消耗的时间。[2]基于混合参数的深度相机与彩色相机高效配准。提出了一种基于混合参数矩阵的标定方法线性化优化过程。该混合参数将深度相机内参和深度、彩色摄像机之间旋转变换进行组合,提供了从深度参数空间(深度摄像机图像)到颜色参数空间(彩色摄像机图像)的变换。通过对混合参数矩阵进行标准QR分解可以进一步得到旋转变换和深度相机内参。我们在合成的测试数据和使用微软Kinect捕获的真实的深度数据上分别测试我们的算法。实验表明,由于使用混合参数带来的优势,我们的方法使用更少的计算时间(Herrera方法的1/50和Raposo方法的1/10)达到了与目前最先进的标定算法相当的标定精度。[3]最近邻和最长公共子序列结合的动态手势识别。提出了一种基于最长公共子序列(LCSS)方法的动态手势识别系统。通过以下两个方面的改进,提高了 LCSS方法的识别的正确率。首先,为了给LCSS方法提供表示手势运动的离散特征,本文提出了一种方向特征的离散表达对姿态特征进行编码,能够更好地表示不同姿态间的差异。其次,考虑到不同的用户在表现同一个手势的时候会在速度、轨迹和位置等方面存在差异,本文将K近邻(KNN)算法与LCSS方法相结合以适应不同用户的手势习惯。实验结果表明,在F1度量下,实验结果表明本工作的将KNN与LCSS相结合的方法对动态手势识别正确率起到了一定的提升作用。