论文部分内容阅读
认知无线电(Cognitive Radio,CR)是一个自适应智能系统。对频谱资源紧张问题提供了有效的解决方法。Adhoc无线网络是一种分布式无线网络,网络中每个节点都具备路由转发功能。在军事、救灾、探险、医疗等领域具有重要的应用潜力。在Adhoc网络中引入CR技术,提高了网络带宽、频谱利用灵活性和可靠性。但是,目前CR动态频谱分配算法的研究主要是对分配策略的最优化进行讨论,在学习能力方面考虑不足,对无线网络环境适应能力差。Adhoc网络结构特殊,资源有限的特点,阻碍了该网络的进一步应用。尤其是在救灾探险这类场合中,网络电量的节省和无线频谱的合理利用至关重要。然而传统Adhoc路由协议在节能性方面考虑不足,且亦对网络环境适应能力较低,对网络性能造成极大影响。 本文在认知Adhoc网络(CRAHN)中引入强化学习(Reinforcement Learning,RL)技术以解决上述问题。本文重点分析研究了CRAHN的动态频谱分配技术和按需驱动AODV(Adhoc On-demand Distance Vector)协议,构建了基于改善Q-learning的动态频谱分配模型和基于Q-learning的功率控制路由算法模型。前者结合本文提出的CRAHN通信系统模型,将动作选择设为信道分配,回报函数即为无线通信性能指标误比特率(BER),值函数即为无线通信中的吞吐量。针对Q-learning算法中收敛速度慢的问题,提出了服从均匀分布的动作选择策略。在不同信噪比条件下,从仿真可看出Q-learning算法能够很好实现频谱智能合理分配任务,满足用户需求,且在改善了动作选择策略后,提高了收敛速度,进而提高了频谱分配的效率。后者从网络层入手,针对AODV协议能耗因素考虑不足和网络环境适应能力差的缺点,利用强化学习算法中的Q-learning对其改进。设计了Q_PCAODV协议,对节点功率消耗进行学习,智能寻找最优节能路由。建立备选节能路由表,避免路由重启寻路,减少网络资源开销。仿真发现,Q_PCAODV在节点平均能耗、端到端平均时延和丢包率方面都优于AODV,且对网络环境变化具有一定适应能力。