论文部分内容阅读
云计算、边缘计算、物联网、虚拟现实、人工智能和5G等新技术的出现导致网络数据爆发式增长。作为网络数据传输最重要的基础设施之一,光网络也一直面临着高带宽和低时延的发展需求。近年来,随着机器学习技术的快速发展,将机器学习技术引入光网络中,实现网络的智能化,成为新的发展趋势。本文围绕“利用先进的机器学习技术进行网络性能监测和资源分配,提高光网络资源利用率”这一主旨开展了相关研究工作。具体研究内容及创新如下:第一,研究了光传送网络中光路传输质量(QoT)预测问题。针对邻近信道的非线性效应的影响,提出了一种基于链路—邻近信道的特征向量表示方法,并与人工神经网络(ANN)算法相结合来预测光路的QoT。仿真表明,这种表示方法与传统的基于网络特征参数的表示方法相比可提高预测精度0.7 dB。为进一步减小训练过程消耗的时间,提出并验证了一种具有低计算复杂度的机器学习(ML)方法—极限学习机(ELM)算法,它与ANN具有相同的精度,但其训练所消耗的时间只有ANN的十分之一。仿真表明,上述基于ML的QoT预测方法还可以用于链路级的软故障检测和定位。第二,研究了光传送网络中的资源分配问题。考虑到物理层损伤对光路路由与波长分配(RWA)所产生的约束,提出将基于ML的QoT预测技术与改进型遗传算法(GA)相融合的RWA方案,仿真表明了该方案在降低光网络阻塞概率方面具有重要作用。本文还针对软故障情况下的资源分配问题进行研究,提出一种软故障感知—遗传算法(SFA-GA)。仿真表明,在不同程度衰减情形下,SFA-GA算法均能取得最好的性能;典型地,当阻塞率为1%时,SFA-GA算法支持的负载为280 Erlangs,是传统RWA算法的1.5倍。第三,研究了低时延的动态带宽分配(DBA)算法。为了降低光接入网络中上行数据传输的等待时延,提出了一种基于长短记忆神经网络(LSTM)预测的动态带宽分配算法。根据当前时刻以及历史时刻的流量来预测未来时刻的流量,通过提前分配带宽,消除了传统DBA中的请求—应答过程,从而降低网络的时延。仿真表明,基于LSTM预测的DBA算法具有更低网络时延、更小网络抖动和更低丢包率。为了进一步缩短训练时间长,提出了一种基于非迭代的在线学习的ML算法,即在线极限学习机DBA算法,仿真结果证明该算法的训练时间不到LSTM算法的千分之一,实时处理能力大大提高。