论文部分内容阅读
计算机虚拟现实技术发展迅速,是当下研究热点。人是虚拟场景中最重要的角色,虚拟人技术在影视制作、游戏制作、多媒体、电子商务、视频会议和可视电话等领域应用广泛,具有面部情感表达的虚拟人能提高虚拟场景的真实感和人机交互的沉浸感,因此合成具有真实感和易于控制的三维虚拟人脸表情具有非常大的研究价值。虚拟人表情合成的研究主要分为虚拟人脸模型的建立和表情合成两部分。目前的主流方法是用3D扫描仪来建立模型,人物表演来驱动表情合成。此方法获得的人脸模型和表情真实度高,但扫描和表演驱动都需要借助价格高昂的外部设备,且获得的人脸模型数据量过大,不易对表情进行控制,需要人力来完成。针对以上问题,本课题采用不借助任何仪器和设备的建模方法来建立三维人脸模型,并且采用简单、数据量小、易于控制的基于MPEG-4标准的表情合成方法来实现虚拟人的表情动画。根据MPEG-4标准的表情合成方案建立合适的三维人脸模型。本课题需要用到的三维人脸模型分为两类,分别是用于建立表情动画数据的人脸表情合成母模型和验证表情合成方案可行性和通用性的人脸表情合成子模型。本课题选取了结构简单、能够匹配MPEG-4标准中人脸表情参数的Candide-3模型作为母模型,用Loop细分Candide-3模型建立表情合成系统的子模型。本文对从人物造型软件Poser导出的精细三维虚拟人脸模型进行了边折叠简化,建立了另一个人脸表情合成子模型,针对虚拟人脸模型的几何特征,提出了基于顶点权重的网格简化算法。本文基于MPEG-4标准的表情动画原理建立了一个三维虚拟人脸表情合成系统,该系统首先建立MPEG-4中人脸表情参数与Candie-3模型的匹配关系,然后构建人脸动画定义表,接着计算表情合成后三维人脸网格点的坐标,对其基于人脸动画参数值的算法做了不受0边界影响的改进。最后合成了6种基本人脸表情和实现了由人脸动画参数驱动的表情合成,用两个人脸表情合成子模型验证了本课题表情合成方法的可行性和通用性。