基于Transformer的对话系统设计

来源 :天津工业大学 | 被引量 : 0次 | 上传用户:NSWDAR
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
近年来,随着大数据和深度学习技术的不断发展,对话系统在各个领域越来越引起人们的重视。对话系统大致可分为两种:任务导向型对话系统和非任务导向型对话系统。面向任务的系统旨在帮助用户完成实际具体的任务,非任务导向的对话系统与人类交互,提供合理的回复和娱乐消遣功能,通常情况下主要集中在开放的领域与人交谈。虽然非任务导向的系统似乎在进行聊天,但是它在许多实际应用程序中都发挥了作用。在非任务导向型对话系统中,比较常见的是用Seq2Seq生成闲聊型机器人。但普通Seq2Seq可能出现如负面情感的回复、疑问句式的回复、回复的多样性较低等问题,导致用户体验差或者对话上下文不够连贯。并且,对于多轮对话系统来说,现有的Seq2Seq模型并不能令人满意。在多轮回答选择中,重要的是要在之前的话语中找出重要的信息,并恰当地模仿话语的关系,以确保谈话的连贯性。所以多轮对话的难点为:如何明确上下文的关键信息,在上下文中如何模拟多轮对话间的关系。本论文设计并实现了一个基于Transformer和记忆网络的多轮对话系统,具体工作如下:(1)针对当前的记忆网络在复杂问答任务上表现不佳的问题,本文在端到端记忆网络的基础上提出了一种新的基于门控注意力机制的记忆网络,它将端到端记忆网络的注意力机制应用于门控机制,提高了记忆网络解决复杂推理任务的能力,在复杂的问答任务中取得了更好的结果。(2)针对Transformer和Seq2Seq模型在解决对话生成上的性能问题,本文设计了实验来验证使用Self Attention的Transformer模型表现要比使用RNN和Attention的Seq2Seq模型更好,并且本文在句向量编码上使用了更加精准的BERT句向量,使得模型能够更好的获取句子的信息。(3)原始的Transformer考虑的上下文信息较单一,注意力机制仅仅是在单个句子层面进行信息的获取,而未引入历史信息。本文针对多轮次对话的需要,设计并实现了新的多轮对话模型,在原本基于注意力机制的Transformer模型基础上引入了记忆网络存储历史信息,能够更好的获取历史对话中的重要信息,并且在模型生成对话中采用Beam Search算法,提高对话生成的多样性。
其他文献
人体尺寸数据是一项重要的基础数据资源,双手作为身体的重要部位,承担着人的大部分动作。真实有效的手部数据对于手部特征分析、相关产品设计、医学研究和刑事侦探都具有十分
在深度学习发展下,计算机对事物的认知不再局限于对数据进行分类,识别和定位上,同时可以实现数据的生成,是对数据的高维理解。古有云“知其然,知其所以然”,当可以对数据进行
随着各国对环境保护、技术进步和能源安全重视程度的加深,大量消耗化石能源的内燃机在公路交通领域的应用正逐渐被采用其他能源的各类动力系统所取代,以电动化为技术背景的新
磁斯格明子是手性铁磁材料中稳定存在的二维拓扑自旋准粒子。实验中观测到的磁斯格明子具有尺寸小、可擦写、具有极低的驱动电流密度等拓扑特性,以磁斯格明子作为计算存储单
水污染是21世纪以来人类所面临的重要挑战。近年来,我国有限的水资源不断遭受污染,造成水质恶化、水源污染,随着我国经济高速发展,污水排放量逐年增多,成分逐年复杂。膜生物
视觉是人类感知和理解世界最直接方式,客观地还原所见的世界是一直是人们的目标。传统二维显示技术只能简单反映空间景物内容,缺少深度等反映物体空间位置关系的关键信息,显
高光谱图像数据将反映地物空间几何关系的图像信息和反应地物辐射属性的光谱信息有效地结合在了一起。高光谱图像通常由数百个相邻波段和狭窄波段组成,从同一场景的可见光谱
模切件是指将原材料按照预先给定的形状进行裁切和精密加工而形成的零配件。随着电子消费品行业的飞速发展,对模切件的海量需求使得在生产过程中对模切件的质量控制显得尤为
本文针对永磁同步电机(PMSM)采用传统矢量控制方法存在转矩脉动较大,超调量大等缺点。首先采用将模糊控制和传统比例积分调节器(PI)结合起来的方式;同时针对数字信号处理器(D
近年来,区块链技术得到了快速的发展,涉及加密货币,金融,物联网,医疗等各个领域,各种类型的区块链应用中产生了海量的交易数据,这为研究人员通过分析区块链数据,了解和解决相