论文部分内容阅读
随着科学技术的不断进步,人们对生活品质的要求已经越来越高。以前我们通过声音或者文字进行交流就很知足。但是现在,人们已经远远不能满足于此。人们需要的是“面对面”的交流,于是,人脸动画的研究逐渐成为热点。人脸动画技术是利用计算机图形学在建模、渲染和实时动画等方面的理论与方法,以实现实时的、真实感的人脸动画仿真,广泛应用于游戏动画制作、虚拟现实、视频通信等领域。而口型动画又是人脸动画中交流的核心部分之一,所以本文展开对口型动画的研究。首先提出了本文的研究背景和研究内容,然后回顾了已有的嘴唇建模方法,嘴唇动画技术,和MPEG-4中对人脸及嘴唇的相关定义。并对其进行分类,比较优缺点。然后介绍了本文工作。本文的工作包括两个方面。一方面是本文定义了一个新的口型LAP模型,用28个LAP控制口型形状,并用Cardinal曲线进行绘制。对于一个给定的嘴唇曲线,通过照相取特征点位移的方法获取基本视位的LAP( lip animation parameter, LAP),然后用这些LAP来控制嘴唇形状,文本驱动形成连续光滑的口型动画,得到了很逼真的口型效果。考虑到LAP模型的推广,我们对多个发音人测定了一组拼音基本视位的标准LAP值。另一方面,本文提出了将已测定的拼音基本视位的标准LAP值应用到不同嘴唇上的自适应动画方法。我们在获取不同发音人的拼音基本视位的LAP值的基础上,计算得到一组标准LAP值,对于任意的游戏动画中的人物,给定一个闭合不发音的嘴唇曲线以后,首先计算出“单位LAP值”,再根据任意指定的嘴唇的宽度、高度、突出度,计算出适合这个嘴唇的每个视位的每个LAP值,最后以任意拼音文本驱动该嘴唇,生成连续动画。在动画实现过程中,采用插值来实现口型与口型之间的连续过渡,同时考虑前一口型对后续口型的影响,达到连续、光滑的视觉效果。本文提出的LAP模型和应用方法计算简单,易于推广和应用,可以应用在虚拟主持人、电影、游戏和广告等许多领域。