论文部分内容阅读
统计学习理论是针对有限样本情况下机器学习的理论,它不仅考虑了对推广能力的要求,而且追求在有限信息的条件下得到最优结果.支持向量机是在统计学习理论的基础上发展而来的一种新的机器学习方法,它已表现出很多优于已有方法(神经网络,遗传算法等)的性能.由于采用了结构风险最小化原则代替经验风险最小化原则,使其有了良好的理论基础;又由于采用了核函数思想,使其把非线性空间的问题转换到线性空间,降低了算法的复杂度.目前支持向量机己成为机器学习界的研究热点,并在很多领域都得到了成功的应用,如人脸检测、手写体数字识别、文本自动分类等. 多类分类是机器学习的一个重要分支,而经典的支持向量机算法是针对两类的分类问题提出的,于是人们将其推广来解决多类分类问题.在一些实际问题中类与类的边界是不清晰的,为此人们又提出了模糊支持向量机的概念,来进一步完善支持向量机多类分类方法及满足一些其他实际问题的需要.基于不同的出发点,目前主要有两种建立在模糊支持向量机基础上的分类方法,但都不是很成熟,本文的工作在于对这两种方法进行深入分析,提出改进算法,并加以实例验证: 一种思想是由日本学者Takuga与Shigeo提出的.此方法主要是针对一对多组合与一对一组合支持向量机存在决策盲区而提出的,但这种方法并不能保证各个多类分类器结果的一致性,本文给出一个修正的模糊支持向量机的分类模型,从而提高此方法的性能. 另一种思想由台湾学者Chun-Fu Liu,Sheng-De Wang,Han-Pang Huang等人提出,其出发点是为了突出数据中各个样本点的重要程度的差异,同时也为了减小噪音数据对分类结果的影响.本文将这种方法和一对多组合结合起来,从而使新的多类分类算法具有很好的泛化能力. 经实例验证,本文提出的改进算法比原方法有更好的分类结果.