论文部分内容阅读
情感是人类的本能,因为情感我们得以在工作和生活中更好地做出行为决策。同时,为了更好地实现人机交互,国内外研究学者把情感融入其中进行识别。现如今情感识别的类别主要有:人脸情感识别、语音情感识别、生理模式情感识别等,这些情感识别处理技术促进人机相互协作从而做出正确的行为决策以应用于工作生活中的各个领域。由于语音信号包含说话人多种混合信息,较具代表性,近年来,语音情感识别越来越受到人们的广泛关注,它是实现人机交互、在线交流等的重要途径。现如今深度学习已贯穿人工智能的各个领域,在语音情感识别上正发挥着如火如荼的作用,而机器学习算法的单分类器在分类效果上则表现出了劣势。然而实验时我们还需要具体问题具体分析,在处理小样本特征数据时,单隐层的神经网络模型较深度学习在分类测试的时间上有较好地体现。同时为了解决单一的弱分类器在语音情感识别中数据过拟合导致分类正确率偏低的问题,本文提出了基于AdaBoost和ELM(超限学习机)结合的提升分类模型。实验中分别提取三种不同的语音情感特征,然后分别将这些样本特征数据进行归一化、降维后放入到本文涉及到的情感分类模型中。与相关工作进行对比来说明SVM(支持向量机)和ELM的分类性能,然后又对这两个单分类器分类识别的运行时间进行了比对;继而通过设置用户依赖模型和用户混合模型来对ELM、本文提出的AdaBoost和ELM相结合的语音情感分类模型分别进行实验对分类性能进行对比分析。实验结果表明,本文提出的分类模型取得了较好的实验效果。在CASIA汉语情感语料库上,ELM的分类性能不论是在分类正确率还是分类时间上都要要优于SVM,并且本文提出AdaBoost和ELM相结合的分类模型的实验效果较用单一的ELM分类效果有明显提高,正确率提高6~7%;继而在2017年多模态情感识别竞赛数据库(MEC 2017)和IEMOCAP语料库上分别进行验证实验,在多个数据库上验证本文所提出算法的有效性和鲁棒性。实验结果显示在MEC 2017上的分类正确率比baseline高出了 7.48%;在IEMOCAP上的分类结果为67.50%,比先前工作者提出的RNN-ELM模型的分类正确率提高了 3.61%。