论文部分内容阅读
Bert模型为Google开发的基于Transformer Encoder的大规模语料预训练语言模型,在自然语言处理领域(Natural language Processing)近乎各个子领域内均获得了大幅度的突破。本文在基于Bert作为数据增强的基础上,研究对当前人工智能领域中的一个实用性任务:NL2SQL(即“自然语言转SQL语句”任务)。创新地设计了新型的针对19年发布的首个中文NL2SQL数据集的深度学习模型,并达到了87%左右的准确率,接近了当前State-Of-The-Art模型X-SQL在英文NL2SQL数据集WikiSQL上的表现。