论文部分内容阅读
支持向量机(SVM)是依据Vapnik统计学习理论发展起来的,以结构风险最小化(SRM)为原则的学习方法系统。支持向量机最初用于解决模式识别问题,但近些年来它在回归算法的研究方面也表现了极好的性能,其回归算法(SVR)被成功地应用于时间序列预测、非线性建模与预测、优化控制等方面。本文重点研究改进的支持向量机回归算法。
首先,由于大规模样本数据的学习问题是支持向量机的一个瓶颈问题。为了解决这个问题,本文采用一种改进的新的回归算法进行大规模数据样本的学习。在Yu等人提出的自适应分类算法(ASVM)的基础上,提出了一种自适应支持向量机回归算法(ASVR)。该算法主要是在最小二乘支持向量机回归算法(LS-SVR)的基础上提出了增量减量的策略,采用自适应迭代算法进行训练学习。在整个训练的过程中,我们交替使用增量和减量策略,让一个小工作集合进行自适应学习,使得有新的样本加入时候,能够在前面结果的基础上进行学习。这样使用这个工作集就可以快速的建立回归函数。由于工作集合中的样本数目是远远小于全部训练的样本数目,所以该算法能十分有效率进行训练学习。通过数值实验,并将该算法和LS-SVR算法的结果进行对比,证明了该算法虽然牺牲了一点点训练精度却能大大提高大规模数据样本回归学习的速度和测试精度,性能十分优秀。
其次,由于客观世界存在大量的模糊信息,所以在模糊支持向量机(FSVM)这一块也是值得深入研究的,也是较为实用的,具有一定的现实意义。基于此,本文对模糊支持向量机(FSVM)这块也进行了一定的研究。提出了基于高维特征空间的模糊隶属度函数模型,在该模型中,我们以特征空间中的样本为中心,以给定的距离d为半径作超球,根据其它样本落到超球内的个数来确定中心样本点的模糊隶属度。并将其引入到上述提到的ASVR算法中,得到了自适应模糊支持向量机回归算法(AFSVR)。最后通过数值实验证明,和ASVR相比,AFSVR具有比较好的整体预测精度和抗噪能力。