论文部分内容阅读
支持向量机(Support Vector Machine,简称SVM)是借助于最优化方法解决数据挖掘中若干问题的有力工具,它不仅有着统计学习理论的坚实基础,而且具有直观的几何解释和完美的数学形式,并在一定程度上克服了“维数灾难”和“过学习”等传统困难。SVM自20世纪90年代由Vapnik提出以来一直处于飞速发展的阶段,并在手写数字识别、人脸识别、文本分类、生物信息、回归预测等诸多领域有了成功的应用。支持向量机主要包括分类和回归两大内容。本文主要研究支持向量机的分类算法,主要工作如下: 第一章首先阐述了SVM的研究背景和理论学习基础,介绍了线性可分、近似线性可分和非线性可分三种情况下的SVM两类分类模型,最后介绍了求解SVM模型的几种主流算法,包括分解算法、增量学习算法、并行算法等等。 第二章前半部分介绍了SVM两类分类模型的几种变形,后半部分基于与支持向量机最优化问题等价的互补模型,提出了一种新的Lagrange求解算法。该算法无需计算对偶问题中Hesse矩阵的逆,且在适当条件下具有全局收敛性。最后,通过数值实验验证了算法的有效性。 第三章先介绍了几种现有的基于SVM的多类分类模型及算法,然后在二叉树结构SVM多类分类算法的基础上,针对二叉树算法中的点和叶盲目划分的问题,提出了一种新的算法——标识二叉树的SVM多分类算法。该算法通过标识划分的方法,一方面解决了盲目划分的问题,另一方面大大减少了子分类器的数目,大幅度提高了算法的速度。最后,又通过数值实验说明了该算法的有效性。 第四章,对论文的主要工作进行了总结,并对未来的研究工作提出了展望。