论文部分内容阅读
随着短视频行业的崛起,视频弹幕俨然成为播放器的特色,而网络视频、电商直播等都成为了弹幕的传播载体。用户在观看视频的同时可以通过弹幕发表对视频当前情节的评论,从而与其他观众产生即时互动。利用文本挖掘技术对弹幕数据进行情感分析能够为影视作品推荐、用户决策、节目优化以及热点事件管控起到辅助作用,而伴随着视频弹幕评论存在话题开放、内容碎片化、评价对象多元化和语法结构不完整等问题,使得面向弹幕数据的文本分析越发复杂。如何对这种特殊评论文本进行情感分析,存在一定的研究空间。表情符号和颜文字作为视频弹幕中常见的情感表达方式,常被现有弹幕文本情感分析研究所忽视。本文通过选取表情符号及颜文字构建情感符号空间,并利用双注意力机制对弹幕文本情感倾向分类方法进行优化,以此构建ES-MACNN模型对视频弹幕文本进行情感倾向分析。首先,通过情感符号注意力机制对情感符号进行重要性评判,再将内容注意力权重矩阵与情感符号注意力权重矩阵相结合,进而得到最终文本向量的语义表达,最后利用卷积神经网络进行特征提取并进行弹幕文本情感倾向分析。实验中,通过对比是否含有情感符号的数据集进行建模的分类准确率,在无情感符号的数据集上,各模型结果差异性不大,但在含有情感符号的数据集上,本文方法通过引入情感符号空间,进一步提升了弹幕文本情感分类的准确率,提升效果显著。本文针对弹幕文本口语话严重、几乎不具有完整上下文信息的成文特点,构建了基于多头注意力的卷积神经网络模型MH-ACNN对弹幕文本情绪多分类任务建模分析。首先,通过对词语位置进行编码让模型能够利用输入序列的顺序信息。其次,利用多头注意力机制获取不同子空间的语义表达,有效捕获词语内部的相关性,增强词语间依存关系,突出关键情感词的情感权重。最后,通过将多头注意力机制与卷积神经网络相融合,对弹幕文本的七个情绪类别进行建模分析。在实验中,通过与四个情绪分类模型对比,MH-ACNN模型在F1指标上均取得了最优分类效果。与其他模型相较而言,F1值最大相差达到23.31%。在此基础上,根据视频弹幕的情感倾向及情绪表达,结合弹幕量时间变化图及情感分布图从多角度对视频弹幕文本进行可视化分析,以期为视频制作、热点事件管控提供一定的数据支持。