论文部分内容阅读
随着互联网应用的多样化发展,网络流量增速迅猛,随即而来的网络资源利用率低下、用户访问延迟增大等问题已成为网络可持续发展的阻碍。因此提出以信息为中心的智慧协同网络研究,部署全网无处不在的缓存机制,使网络中的内容路由器能够快速响应用户的请求,减少不必要的访问开销,充分利用网络资源,降低数据内容获取时延,提高网络服务质量。本文首先对互联网现状以及流量激增所带来的一系列制约网络发展的因素进行分析,总结了当前TCP/IP网络架构中传统缓存机制存在的弊端,突出以信息为中心传输机制下缓存研究的必要性。并对国内外基于以信息为中心传输机制的网络架构与缓存机制的研究现状进行阐述,重点介绍了智慧协同网络架构及其通信机制。总结提出了智慧协同网络架构下的缓存机制设计方案,旨在解决当前研究中存在的忽略网络拓扑架构、不能根据网络动态变化进行自适应性调节的缓存问题。其次,根据上述分析进行的缓存机制设计主要为四个功能模块部署:采集模块的主要功能是对网络流量数据进行采集处理并发送至预测模块;预测模块使用基于RNN(Recurrent Neural Network)神经网络的预测算法进行未来网络流量的预测,计算流量变化率,使得缓存机制能够动态适应网络变化;资源控制模块一方面需要根据内容路由器在网络拓扑中的位置信息进行缓存空间的初始化分配,并通过预测模块得出的网络流量变化率进行缓存空间大小的调整。另一方面需要通过数据内容需求量与节点的位置信息,综合计算得到数据内容的缓存有效时间,进行时间戳标记;缓存模块需要根据资源控制模块所作出的缓存决策进行缓存空间大小的初始化与动态调整,并按照时间戳标记管理缓存内容。最后,本文应对设计方案进行了各功能模块的部署与实现。首先通过真实拓扑下的网络流量数据集对基于RNN的预测算法进行有效性验证。经过预测模型训练优化得出的测试结果可知,该模型能够较为准确地预测网络流量变化。其次,将预测算法部署到预测模块中,进行整体缓存机制性能评估。通过仿真结果可知,基于网络流量预测与时间戳标记的缓存机制相较于已有缓存机制而言,能够充分考虑网络拓扑架构影响并动态适应网络变化,进而提供更高的缓存命中率,减少不必要的缓存替换开销,降低数据内容在缓存中的检索时间,提升用户请求响应速率,增加网络资源的利用率,进一步改善了网络服务质量。