论文部分内容阅读
随着Internet与计算机硬件技术的飞速发展,越来越多的人开始通过网络交换信息、获取服务。截止2003年,全球网站数量超过8,712,000个,全球Internet用户超过一亿;但是在这样一个信息、计算和存储资源都异常丰富的分布式信息系统中却存在着访问延迟、通信错误、服务器过载以及负载不平衡等一系列急待解决的问题。造成这些问题的一个重要原因是由于Internet上所广泛采用的集中数据存储与网络管理模式,即C/S架构。这种访问模式简化了资源搜索过程、网络管理方式以及安全认证策略,但是对核心网络造成了巨大压力,从而引起了网络局部应力过大,单一故障点增多以及扩展性降低等一系列弊端。通过Web Cache、集群系统(Cluster)以及CDN等技术虽然可以在一定程度上提高服务器的处理能力和鲁棒性、降低访问延迟以及减少不必要的通信负荷,但是近十年的数据表明,网络局部饱和,服务质量下降的现象仍十分普遍。为彻底解决这些问题,一个新的研究领域--对等网络与对等计算,提供了一个有效的解决思路。对等模式即P2P(Peer-to-Peer),它抛弃了C/S模式中服务器的束缚,网络中的每一个节点既可以成为服务器也可以成为客户端。在P2P网络中,资源和服务的获取不需要通过服务器,而是“资源在哪里产生就到哪里获取”。因此P2P对于解决网络延迟,提高系统扩展性,增加数据的持久性和安全性等方面都具有无可限量的优势。本文首先针对P2P网络中的核心问题--端搜索与发现算法,做了深入的分析和探讨。针对不同类型的P2P网络,本文综述了三种最典型的端搜索和发现算法--洪泛算法,目录算法和动态Hash算法,并结合Guntella、Napster、Chord和CAN等实例对这三种算法的实际应用效果进行了比较分析。结果表明洪泛算法实现简单、收敛快,但是不具有很好的扩展性,并容易导致广播风暴;目录算法具有简单的协议和较高的查找效率,但是它所采用的目录服务器是网络中的单一故障点,同时也成为了系统进一步扩展的瓶颈:动态Hash算法是P2P研究中的热点,它具有天然的散列性和动态性,并且具有快速查找的性能,但是尚未实现实际的应用。对象的最优分布策略是直接影响到P2P网络可扩展性和稳定性的又一重要问