论文部分内容阅读
在自然语言处理(NLP)中,因果关系抽取是信息提取和知识发现的重要任务。因果关系在问答、决策制定和知识发现等领域都有着广泛的应用,人们可以从多个数据源,如网页、在线期刊、电子病历中抽取因果关系,建立相对应的因果链,为相关的研究提供参考。由于自然语言文本的模糊性和多样性,因果关系抽取仍然是一个难以解决的NLP问题。传统因果关系抽取方法是使用自然语言处理工具进行特征提取后依赖机器学习相关的分类器进行因果关系抽取。但是,这些方法严重依赖词性标注、句法解析等自然语言处理方法提供的分类特征,同时也严重依赖知识库。而自然语言处理标注工具往往存在大量错误;知识库的完备性也不能达到完美。这将导致某些错误会在因果关系抽取系统中不断传递和放大,最终影响因果关系抽取的效果。近些年来,深度学习在自然语言处理中得到了越来越广泛的应用,由于卷积神经网络和循环神经网络能够很好地从句子中提取到全局和局部的特征,所以在关系抽取,机器翻译,句子分类等基础任务中取得了很好的效果。因此本文主要利用卷积神经网络(CNN)和循环神经网络的改进版GRU(Gate Recurrent Unit)来进行因果关系抽取。本文的主要内容如下:1.使用新的词向量模型ELMO来预训练词向量,并提出了两种深度学习模型:基于多注意力机制的卷积神经网络模型(MUL-PT-CNN)和基于实体感知多注意力机制的双向GRU网络模型(MUL-ET-BGRU)。2.在训练神经网络时,使用的损失函数并不是传统的交叉熵损失函数,而是使用基于间隔的排序损失函数,增大样本中分类正确的得分,减小得分最大的分类错误的得分。3.本文的数据集构建分为两部分:第一部分是是使用SemEval-2010-Task8中的因果关系数据和非因果关系数据;第二部分是使用部分非公开的Altlex因果关系数据集。我们结合了这两种数据集的优缺点,对这两种数据集中的数据格式进行改进,合并,纠错,构建了本文较为精确的有监督因果关系数据集。实验结果表明,本文提出的两种模型在因果关系抽取中取得了良好的效果。