论文部分内容阅读
本文是在多分类器融合基础上的语音情感识别,另外在情感数据库的建设检验、情感特征参数的提取,有效性评价和分类,模式识别等方面也进行了研究。
本文首先对情感的定义和分类进行了介绍,然后对语音情感信息处理领域的现状和存在的问题进行了总结,了解了语音情感分析处理的研究进展和一些研究成果。
然后考察了现有的情感数据库的建立方法,包括材料的选取、收集语句的方式、初始样本的进一步检验等,从语音情感识别的角度对数据库的建立提出了一些自己的观点,并将其作为我们创建中文语音情感数据库的基础,然后搜集了包括单词、短句和段落在内的喜、怒、惊、悲、恐、中性这六种不同情感的表演语句,最后运用模糊数学和层析分析法的知识对语句的主观评价进行分析研究,在一定程度上降低了主观因素的干扰。
选取了基音、共振峰、能量、说话速率和语音波形与基音曲线的分数维作为特征,其中对最大值和最小值的提取方法进行了改进,得到更有效的最大值和最小值参数。然后用一种基于模糊熵理论的综合评价指标对特征参数的有效性进行了度量。最后对特征进行分类,以进入后续的融合处理。
在分类器的选择上,本文选取协同网络分类器和本文提出的多模式SVM-KNN(支持向量机-K近邻法)分类器进行五类情感(hap,ang,sur,sad,fea)的识别,并在多模式SVM-KNN分类器和“One-Against-All”SVM分类器,协同网络分类器和基于最大可分性的FCA分类器之间作了对比,实验证实了多模式SVM-KNN分类器比“One-Against-All”SVM分类器要好,协同网络分类器的识别结果比基于最大可分性的PCA分类器的识别结果有了明显的改善。
本文还研究了模式识别分类器与融合算法的结合。把自适应权值融合方法与SVM-KNN分类器相结合;多分类器综合融合方法和协同神经网络算法相结合,情感识别率均得到了不同程度的改善。平均识别率,女性最高提高了4.46%,男性最高提高了2.66%。另外本文还把协同识别的结果与自适应权值融合算法相结合,实验证明此种融合比多分类器综合融合的协同情感识别得到的结果要好一些,女性五种情感共提高1.3个百分点,男性共提高0.8个百分点,说明自适应权值融合的方法要稍优于多分类器综合融合的算法。多组实验都证明了融合方法的合理性,融合后的情感识别率得到了提高。