论文部分内容阅读
随着科技时代的发展,5G(fifth generation)已经被很多国家广泛推广,5G有着更高的传输速率和更低的译码延迟,可以适应用户数据和系统容量的快速增长。信道编码是通信中非常关键的技术,因此不得不关注5G的信道编码方式。根据香农第二定理,只要信息传输速率小于信道容量,就存在一类编码,可以使信息传输的错误率任意小。根据这一定理,科研人员相继提出如卷积码、Polar码和低密度奇偶校验(Low-density Parity-check,LDPC)码等纠错码,然而,对于这些纠错码的传统的译码算法受高复杂度的影响,大多涉及很多迭代计算。因此,设计一种新的高速低延迟的译码器已经成为需要面对的新兴问题,而深度学习的最新进展为解决这一问题提供了新的方向。深度学习在一些复杂任务中表现出了巨大的潜力与优势,受此启发,试图将译码问题运用深度学习算法来解决,其中深度神经网络可以使用非线性处理单元的多层级联去学习译码结构以及噪声特性。与传统的迭代译码算法相比,深度神经网络译码器可通过使用预训练的神经网络一次性译码,并不需要迭代进行处理,称为单次译码,它为低延迟的实现提供了基础。此外,利用当前的深度学习平台,如Tensorflow,它可支持图像处理器(Graphics Processing Unit,GPU)和张量处理器(Tensor Processing Unit,TPU)高性能数值计算,可以轻松的满足高速的要求。
本论文主要展开研究的是基于深度神经网络的纠错码译码算法部分,由于是被严格能证明“达到”信道容量的信道编码方法,因此在纠错码中又主要以Polar码为研究实验的对象。本文首先搭建信道模型并提出了五种深度神经网络译码器,分别是多层感知器(Multilayer Perceptron,MLP)译码器、卷积神经网络(Convolutional Neural Network,CNN)译码器,长短期记忆网络(Long Short-Term Memory,LSTM)译码器,门控循环单元(Gated Recurrent Unit,GRU)译码器和双向门控单元(Bidirectional Gated Recurrent Unit,Bi-GRU)译码器。通过训练五种深度神经网络译码器后分析比较它们的误码率(Bit Error Ratio,BER)性能和译码时间。发现BER从低到高依次是Bi-GRU译码器、LSTM译码器、GRU译码器、CNN译码器、MLP译码器,此顺序也正是译码计算时间从高到低的顺序,其中LSTM译码器与GRU译码器的BER接近,但GRU译码器的译码时间更短。通过多次仿真,找到了影响深度神经网络译码性能主要的两个因素,训练数据集的信噪比和训练集占样本集的比率。接着,为了获得更低的BER,本文首次提出了两种基于生成对抗网络(Generative Adversarial Network,GAN)的纠错码译码模型,通过GAN的生成模型和判别模型的相互博弈去实现译码。分别对这两种GAN译码器算法做了改进,修改了两种GAN译码器的损失函数,得到了比原始GAN译码器更低的BER,并且发现当码长较短时,两种改进后的GAN译码器可以通过学习一部分样本就可以实现最大后验(maximum a posteriori,MAP)的BER性能。最后,本文验证了以上几种深度神经网络译码器都存在一个饱和码长,一旦待译码码长超过了饱和码长,深度神经网络译码器就会发生过拟合线性,甚至失效。
本论文主要展开研究的是基于深度神经网络的纠错码译码算法部分,由于是被严格能证明“达到”信道容量的信道编码方法,因此在纠错码中又主要以Polar码为研究实验的对象。本文首先搭建信道模型并提出了五种深度神经网络译码器,分别是多层感知器(Multilayer Perceptron,MLP)译码器、卷积神经网络(Convolutional Neural Network,CNN)译码器,长短期记忆网络(Long Short-Term Memory,LSTM)译码器,门控循环单元(Gated Recurrent Unit,GRU)译码器和双向门控单元(Bidirectional Gated Recurrent Unit,Bi-GRU)译码器。通过训练五种深度神经网络译码器后分析比较它们的误码率(Bit Error Ratio,BER)性能和译码时间。发现BER从低到高依次是Bi-GRU译码器、LSTM译码器、GRU译码器、CNN译码器、MLP译码器,此顺序也正是译码计算时间从高到低的顺序,其中LSTM译码器与GRU译码器的BER接近,但GRU译码器的译码时间更短。通过多次仿真,找到了影响深度神经网络译码性能主要的两个因素,训练数据集的信噪比和训练集占样本集的比率。接着,为了获得更低的BER,本文首次提出了两种基于生成对抗网络(Generative Adversarial Network,GAN)的纠错码译码模型,通过GAN的生成模型和判别模型的相互博弈去实现译码。分别对这两种GAN译码器算法做了改进,修改了两种GAN译码器的损失函数,得到了比原始GAN译码器更低的BER,并且发现当码长较短时,两种改进后的GAN译码器可以通过学习一部分样本就可以实现最大后验(maximum a posteriori,MAP)的BER性能。最后,本文验证了以上几种深度神经网络译码器都存在一个饱和码长,一旦待译码码长超过了饱和码长,深度神经网络译码器就会发生过拟合线性,甚至失效。