论文部分内容阅读
虽然近年来服装电子商务发展迅速,但是由于用户无法根据图文信息,准确估计自己试穿的效果,一方面影响网购服装的数量,另一方面导致了较高的网购服装退换货率,从而限制网购服装业的发展。为解决这一限制,越来越多的科研人员致力于研究虚拟试衣系统相关技术,构建虚拟试衣系统,向用户提供虚拟试衣体验。目前,虚拟试衣系统相关技术的研究已经取得了一定成果,但是仍然存在一些问题需要进一步研究。本文对虚拟试衣系统的关键算法进行研究,主要研究如何解决如下三个方面的问题:如何生成用于虚拟试穿的衣料库,如何使得虚拟试穿效果图中使用用户头部图像,以及如何进行虚拟试穿。为了更好地满足基于图像的虚拟试衣系统中衣料库生成的需要,本文提出一种基于One Cut和共享抠图算法的自适应衣物目标抠取方法。首先,利用One Cut算法将服装目标前景从背景中分割出来。然后,使用数学形态学方法,自动地生成服装图像的三分图。最后,通过共享抠图算法得到服装图像前景和用于虚拟试穿的alpha值。为了使得虚拟试穿体验更加真实,本文提出一种全自动的个性化头部生成方法,用户可以得到专属于自己的模特图像。首先,利用人脸检测算法检测到人脸区域。然后,对人脸区域中的脸部特征点进行定位,抠取用户头部前景图像。最后,计算移植变换矩阵,合成个性化的模特图像。同时,为了使得头部移植肤色更加真实和颈部无缝移植,使用肤色融合和去除颈部区域算法实现最终的专属模特图像。本文利用模特图像和服装图像基本一致的站姿优势,通过图像变形和图像插值即可实现虚拟试穿。利用服装图像和模特图像的标记信息,用户可以实现一键试穿功能,也可以通过手动交互调整试穿效果。同时,利用上述方法设计并实现了虚拟试衣系统应用,其功能主要是根据原始服装图像,提取服装目标前景,建立衣料库;根据模特图像和用户头部图像,生成个性的模特图像;挑选衣料库中的服装图像,进行虚拟试穿。大量实验表明,本文中提出的衣物目标抠取方法既满足实时性要求,并且在较少交互的情况下服装抠取效果较好;个性化头部生成方法不需要用户交互,快速高效地实现无缝头部移植;虚拟试穿使用经典的图像变形和插值算法实现的试穿效果真实感较强。