论文部分内容阅读
支持向量机(SVM)是建立在统计学习理论的VC维理论和结构风险最小化原理的基础上的,它在很大程度上解决了以往的机器学习的模型选择与过学习、非线性、维数灾难、局部极小点等问题,在模式识别和机器学习领域得到了广泛的应用。虽然SVM有很多的优越性,但也有一些局限性值得改进和提高,增量学习就是其中之一。增量学习是SVM研究中的一个重要部分。本文主要分别在提高训练速度和提高分类精度两方面对SVM增量学习算法作了一些研究。
一是在分析研究了增量学习过程中新样本加入后支持向量集的变化情况,提出了一种有效的增量支持向量机。它结合K近邻方法,分别从正负类的满足广义KKT条件的样本集中选取K+,K_个样本,后与违背几何意义上的广义KKT条件的样本共同组成边界向量集,作为新的训练集,重新构造分类器。这样,在新的训练中充分利用了历史的训练结果,从而显著地减少了后继训练的时间。经在实验数据集上的实验结果证明:该种算法在保证精度的前提下,缩短了训练时间,提高了训练速度。
二是对学习精度做了探讨。由于众多算法的重点放在大规模数据学习时如何充分利用学习的历史结果,节省训练时间上,但在学习精度上并没有很大的突破。因此针对于这种情况,本文在前面快速SVM增量算法基础上作了改进,提出循环的KNN-SVM算法:在边界向量集合的选取上采用KTT条件,加入了循环策略,并且选取了分类错误率ε作为循环训练的终止条件。通过数据集上的实验分析,这样的改进能提高分类精度。