论文部分内容阅读
随着万物互联的不断发展,无人驾驶和智能视频等众多新型应用如雨后春笋般产生,其对时延的要求愈发严苛,由此移动边缘计算应运而生。移动边缘计算可有效解决用户时延需求和电池容量受限等难题。移动边缘计算的研究包含系统架构、资源管理、绿色节能和安全隐私等方面,其中资源管理与计算机科学研究最为相关,也广受学术界重视。
针对传统云计算利用广域网传输的高延迟问题,移动边缘计算在网络边缘节点大量部署服务器,为用户提供低延迟、近距离的本地云服务。由于移动边缘计算采取网络边缘分布式部署服务器,同时各节点计算和存储资源受限,并且系统中的计算、通信和缓存资源具有异构性和耦合性,传统资源调度难以适应其网络结构,因此需要提出灵活性的资源分配策略,降低数据传输时延。
针对以上挑战,本文基于现有研究,面向时延优化,研究移动边缘计算中的资源调度算法,主要工作及创新点如下:
一、针对多服务器单用户的计算资源调度问题,设计马尔可夫近似算法,实现更高效的系统计算资源调度。利用任务分配决策和扩展设备计算能力,建立延迟和能耗的权衡最小化的问题模型。应用马尔可夫近似算法在所有可行配置上实行马尔可夫链执行状态转换,实现在较短时间内收敛至近似最优解。通过C++编程设计仿真实验,在多种参数设置下与传统基准算法对比,验证了本文提出的算法可有效稳定生成近似最优解,并且明显优于其他基准算法。
二、针对多服务器多用户中的通信和计算资源难以协同优化问题,提出基于马尔可夫近似的分布式发射功率优化算法。基于香农定理和链路传输特性,建立用户发射功率最小化问题模型。通过Log-Sum-Exp函数将原问题转化,提出设备自调节机制,实现高效求解近似问题来获得原目标模型的近似解。实验结果表明该算法确保发射功率快速收敛,有效减少用户时延和能耗。
三、针对多服务器系统的通信、计算和缓存资源联合优化问题,设计协同缓存机制,减小回程网络拥塞,采用深度强化学习优化用户时延。基于移动边缘计算环境动态变化,设计基于服务器协同完成缓存和计算任务的联合优化框架,实现社区内多资源的动态分配,采用深度强化学习深度Q网络算法优化用户累积时延,满足用户延迟需求。通过在TensorFlow平台下Python编程进行实验仿真,验证了该方案的有效性、可靠性和自适应性。
针对传统云计算利用广域网传输的高延迟问题,移动边缘计算在网络边缘节点大量部署服务器,为用户提供低延迟、近距离的本地云服务。由于移动边缘计算采取网络边缘分布式部署服务器,同时各节点计算和存储资源受限,并且系统中的计算、通信和缓存资源具有异构性和耦合性,传统资源调度难以适应其网络结构,因此需要提出灵活性的资源分配策略,降低数据传输时延。
针对以上挑战,本文基于现有研究,面向时延优化,研究移动边缘计算中的资源调度算法,主要工作及创新点如下:
一、针对多服务器单用户的计算资源调度问题,设计马尔可夫近似算法,实现更高效的系统计算资源调度。利用任务分配决策和扩展设备计算能力,建立延迟和能耗的权衡最小化的问题模型。应用马尔可夫近似算法在所有可行配置上实行马尔可夫链执行状态转换,实现在较短时间内收敛至近似最优解。通过C++编程设计仿真实验,在多种参数设置下与传统基准算法对比,验证了本文提出的算法可有效稳定生成近似最优解,并且明显优于其他基准算法。
二、针对多服务器多用户中的通信和计算资源难以协同优化问题,提出基于马尔可夫近似的分布式发射功率优化算法。基于香农定理和链路传输特性,建立用户发射功率最小化问题模型。通过Log-Sum-Exp函数将原问题转化,提出设备自调节机制,实现高效求解近似问题来获得原目标模型的近似解。实验结果表明该算法确保发射功率快速收敛,有效减少用户时延和能耗。
三、针对多服务器系统的通信、计算和缓存资源联合优化问题,设计协同缓存机制,减小回程网络拥塞,采用深度强化学习优化用户时延。基于移动边缘计算环境动态变化,设计基于服务器协同完成缓存和计算任务的联合优化框架,实现社区内多资源的动态分配,采用深度强化学习深度Q网络算法优化用户累积时延,满足用户延迟需求。通过在TensorFlow平台下Python编程进行实验仿真,验证了该方案的有效性、可靠性和自适应性。