基于Transformer模型的文本摘要生成技术研究

来源 :华南理工大学 | 被引量 : 0次 | 上传用户:dfm1999
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着互联网技术的发展,文本信息呈指数式增长,人们在文本信息处理和阅读中需要花费大量的时间和精力。如何从海量文本信息中迅速捕获到需要的信息,并对这些信息的进行合理的应用是当前急需解决的问题。自动文本摘要技术是利用计算机自动地从原始文档中生成摘要,是自然语言处理领域中的一项重要技术。近年来,序列到序列(seq2seq)模型被广泛应用到文本摘要中,为生成式文本摘要提供了可行的解决方案。高质量的摘要系统通常依赖于强大的编码器,该编码器可以从长输入文本中提取重要信息,以便解码器可以从编码器生成的上下文语境中生成重要的摘要信息。本文在标准Transformer模型的基础上,引入拟循环神经网络和门控机制对模型的特征提取部分进行改进,并融合指针生成网络,提升生成摘要的质量。在本文中,我们提出了一种基于改进Transformer模型的聚合机制来解决文本表示的挑战,主要贡献包括以下几点:1)提出一种改进的Transformer模型。具体地,标准Transformer模型由于摒弃了传统的循环神经网络RNN和卷积神经网络CNN,仅采用注意力机制来做特征抽取,虽然加入了位置编码(Positional Encoding),但其位置信息表示依然不够丰富。通过结合拟循环神经网络QRNN,模型对序列的顺序以及局部信息的捕捉能力得到提升。2)改进多头注意力(Multi-head Attention),结合门控机制。Transformer模型由多层模块堆叠而成,门控多头注意力(Gated Multi-head Attention)利用可训练的门控,可以使得模型选择与任务相关的词语或者特征。3)构建基于改进Transformer的复制生成摘要模型。针对未登录词问题(Out-ofVocabulary,OOV),引入指针生成网络构建混合模型,通过概率来决定从固定词汇表中选择一个词还是根据注意力权重分布从原文中复制一个词作为模型的输出,缓解未登录词问题。最后,本文通过一系列实验,验证了本文所改进的模型在英文文本摘要数据集Gigaword和中文文本摘要数据集LCSTS上取得更好的效果。
其他文献
随着便携式和可穿戴电子设备的普及,对储能器件(如锂离子电池、超级电容器等)的安全性和可靠性,尤其是耐物理破环性能提出更高的要求。设计具有自修复功能的智能化储能器件有
目的探讨胸大肌肌皮瓣移位重建屈肘功能的疗效。方法 2006年3月~2010年3月,收治3例屈肘功能障碍患者,均为男性,臂丛损伤2例,上臂车祸伤1例,伴肘关节脱位1例,肱骨开放骨折软组
随着机动车保有量的急剧增加,城市交通拥堵、污染、事故等问题频发,在愈加受限的通行空间条件下,必须通过智能交通手段以提升系统效率和稳定性。交通监测是研究各类交通问题
<正>目的分析20例治愈急性重度甲拌磷中毒患者血清胆碱酯酶浓度与住院时间关系;分析急性重度甲拌磷中毒患者血清甲拌磷浓度与住院时间关系。方法选取急性重度甲拌磷中毒患者
会议
随着互联网社交的发展,微信早已从即时通信软件发展成了一个综合性的社交服务平台。但随着服务范围及使用场景的扩张,大量的临时关系、弱关系冲蚀了微信以强关系为基础构建的
<正>在文化地理学研究领域中,民俗地理是一个重要内容,它是研究我国各种民俗文化事象形成、发展、演变、空间分布规律、区域特征及其与地理环境关系的一门学问。①而民间信仰
会议
汾阳人杰地灵,人文荟萃,境内景观众多.太符观是其中保存较好的一处道教建筑,位于汾阳市城区东北17公里处的杏花镇上庙村北,西依全国著名的白酒产业基地杏花村汾酒集团,南望30