论文部分内容阅读
语音识别(Speech Recognition)是让机器自动将输入语音解码为对应文字的技术。近年来,随着声学模型及语言模型等建模算法的不断改进,语音识别系统的性能得到了极大的提高。而声学模型作为识别系统的基础,一直是语音识别研究领域的重点。它为每个声学基元建立发音的统计模型,在识别译码时作为匹配搜索的基础。一个鲁棒稳定的声学模型可以极大的提高系统在不同环境下的识别性能。本设计搭建一套基于统计方法的语音识别系统,主要由以下模块组成:声学特征提取、声学模型、语言模型、解码器。其中声学特征主要采用梅尔倒谱系数MFCC特征,语言模型采用Bigram模型,解码器采用令牌传递的算法。在所搭建的系统中,我们重点研究基于GMM-HMM的声学模型训练问题,特别是基于最大似然训练方法的声学模型训练问题。本设计实现了一套基于HTK的上下文相关三音素声学模型自动化训练方法及其并行化设计方案。一定程度上解决了传统的声学模型训练耗时长,训练步骤繁琐等问题。本文主要采用基于最大似然估计的声学模型训练方法,在训练过程中借助EM算法使目标函数在每次迭代更新中得到了优化;使用前后向算法等高效算法提高训练的速度。由于三音素模型基础声学单元数量很大,本文通过决策树聚类的方法减少模型的规模,以避免模型被过度训练,同时增加每个状态下的高斯分量以提高模型的精度。在公开数据集WSJ0上采用12小时语音数据进行训练,在测试集Nov92上达到90.76%的识别精度。本设计还研究了在模型训练过程中影响模型识别精度的相关因素,包括参数重估次数,数据量大小,决策树阈值设定等,给出了一套参数配置方案。最终,还在SGE平台上尝试进行多任务的并行训练,提出一种基于先进先出(FIFO)管道的声学模型训练并行化框架,极大提高了特征提取及参数重估的效率,在SGE平台上实现了7-14的并行加速比,大大减少了模型训练的时间。