论文部分内容阅读
网络上的分布式数据收集与分析有极其广泛的应用范围。网络上的分布式估计是指一个区域内的各个节点基于其收集的数据合作地估计所感兴趣的参数。在实际应用中,分布式信息处理存在着节点存储空间有限等约束,而自适应信息处理采用流式的信息处理方式,且只需存储少量的实时数据,因而能够节约存储空间。在本文中,作者考虑了网络上分布式自适应估计算法的研究问题。对于该问题,作者不仅考虑了线性数据模型而且考虑了非线性数据模型。在线性数据模型下,作者进一步地考虑了数据特性与参数特性。在大多数的分布式自适应估计算法中,研究者假设只有输出数据是有噪声的,而输入数据是完全精确的。但是,在实际环境中,输入输出数据可能都是有噪声的。因而噪声只加载在输入数据上的假设是不切实际的。当输入输出都有噪声时,总体最小二乘法能够最小化输入输出数据的扰动,因而会比最小二乘法有更好的性能。对于参数特性,许多自然以及人造信号都有很高的稀疏性。研究表明利用稀疏性能够提高学习性能。本文中,作者使用l1或者l0范数稀疏惩罚项来考虑待估矢量的稀疏性。另外,不同于单任务估计问题,作者进一步地考虑了不同节点的待估参数可以不同的情况,即多任务估计问题。对于多任务问题,虽然不同节点的任务可能不同,但是不同的任务间可能存在相似性。因而,不同任务间的合作能够提高学习性能。显然,设计任务间的合作策略是多任务估计问题的关键点。在本文中,作者提出一种自适应的任务间的合作策略,以提高算法对不同程度的任务间差异性的鲁棒性。对于多任务分布式估计问题,作者还考虑了待估参数的联合稀疏性。作者使用l2,1或者l2,o混合范数来利用各个任务相同的结构信息。在非线性数据模型下,基于极限学习机理论,作者把分布式非线性学习问题转化为线性学习问题,并提出分布式极限学习机算法。需要注意算法构建输入输出间的非线性映射的能力并没有改变。基于上述的讨论可知,分布式非线性自适应算法的设计与性能分析与分布式线性自适应算法的设计与性能分析非常类似。对于本文所提出的分布式自适应估计算法,作者给出了均值及均方性能分析。这些算法的性能分析与现存的分布式算法的性能分析不同,并且比现存的分布式算法的性能分析更加困难。因而,这些算法的性能分析是本文的主要贡献。另外,作者给出仿真实验来验证这些算法的有效性及优点。