论文部分内容阅读
情感计算(Affective Computing)是一种赋予计算机情感识别能力的交互计算方法。情感计算是人工智能领域的研究热点,其目的是让人工智能更好地为人类服务。 在情感识别中,计算机需要对人体特征的大量信号进行采集,例如语音、人体面部微表情、肢体行为动作和人体生理信号等。单一的依靠语音或者生理特征来进行情感识别的研究已经取得了很好的成果,但当某一个通道的特征受到干扰或缺失时,识别率会降低,而利用语音、生理信号等信息之间的互补性可提高分类器的识别性能。基于此,本文提出将语音信号和能够直接、深入地反映人的情感状态的脑电信号进行融合,实现多模态情感识别,提高系统的识别率和鲁棒性。 本文通过脑电和语音实验设备,首先对被试进行脑电信号和语音信号的数据采集。在脑电实验过程中,通过Neuroscan ERP脑电系统采集被试的脑电数据,然后利用主成分分析法对共性特征降维,并采用支持向量机进行分类,得到80.5%的平均识别正确率;对采集的语音信号进行预处理,提取语音信号的韵律特征包括基频、时长、能量等和以共振峰为代表的声学特征以及Mel频率倒谱系数,然后使用高斯混合模型进行情感识别得到平均85%的识别结果。最后,基于D-S证据理论法对多分类器进行决策层融合。实验结果表明,本文提出的基于语音和脑电的情感识别方法较单一模态相比,可有效地提高情感识别率。