论文部分内容阅读
现如今服装在人们的生活中占据着重要的地位。随着电子商务和互联网技术的飞速发展,服装搭配、虚拟试衣、服装检索等有了广泛的应用场景,然而目前各种应用的效果都并不理想,比如“以图搜图”的检索精度比较低等等。而服装解析正是实现或改进各类应用的瓶颈之一。服装解析指的是将穿着在人身上的全套服装划分为上衣、裙子、鞋子等多个区域,即完成服装的语义分割,为后续的单件服装特征提取、风格分类等工作奠定基础。如果能实现高效准确的服装解析,就有助于提升各类相关应用的效果。而由于服装的非刚性属性及其与人体同时出现的特性,加上现实中拍摄的图像背景复杂、人体姿态各异、服装款式和图案多变等原因,服装解析面临着诸多困难。本文主要针对纹理复杂服装易标注零散的问题进行了深入研究并提出了解决方案。首先针对单人站立街拍图像,本文改进基于图的图像分割方法和条件随机场标注模型。在进行图像分割时,从模型结构、丰富特征提取两个方面对传统的基于图的分割方法做出改进,减少复杂纹理服装的分割碎片,并为后续的条件随机场模型提供多维区域特征。在进行图像标注时,本文在条件随机场模型中融合单个像素点和区域两个尺度的特征,增强了对区域一致性的建模能力,减少了人体姿势估计错误带来的解析错误,能够更加准确的合并复杂纹理区域。其次,针对任意姿态、不同程度遮挡的日常人物照片中的服装解析问题,本文提出了融合残差网络和DeepLab的深度卷积网络。为了有效的联系上下文信息和提取图像不同尺度的特征,本文选择在残差网络中引入带孔卷积,同时在网络的最后添加带孔空间金字塔池化一—ASPP结构。最终通过引入可变形卷积来增强网络对几何变换的建模能力,从而改善多方向多尺度纹理的服装语义分割结果。在Fashionista、LIP数据集上的实验结果表明,本文提出的服装解析方法在一定程度上提高了纹理复杂服装的解析准确率,减少了过分割情况,与现有的依赖人体姿态信息的概率图模型方法和依靠数据驱动进行解析的方法相比,具有更好的效果与适用性。