论文部分内容阅读
支持向量机(Support Vector Machine,SVM)是Vapnik等人于1995年首次提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势.其主要思想是将向量映射到一个更高维的空问里,在这个空间里建立一个最大间隔超平面.本文首先介绍了所研究问题的背景以及支持向量机的理论基础,主要是统计学习理论,包括学习过程的一致性,边界理论和结构风险最小化原理等内容,然后给出了最基本的支持向量机算法.接着我们讨论了各种衍生的支持向量算法,通过比较各种衍生的支持向量机算法的优缺点,为改进支持向量机算法以及提出新的支持向量机算法做了理论准备.在实际应用中,某些样本比较重要,我们更希望它能够被正确分类,而某些样本相对来说没那么重要,因此,在建立分类模型时,对重要的样本点采用较大的惩罚系数,对相对来说不那么重要的样本采用较小的惩罚系数,以期得到更符合实际的分类模型,我们称这种支持向量机为加权支持向量机,其实普通支持向量机也可以看作是所有惩罚系数都为1的特殊的加权支持向量机.现在的加权支持向量机主要是指加权C-SVM.而我们又想利用各种衍生的支持向量机算法的优点,因此在第四章,我们主要讨论了各种衍生的支持向量机的加权方法.One-class SVM主要用于解决单分类问题,比如说异常点的寻找,现在我们把该方法应用到多分类问题,通过引入归属度这个概念,该方法是可以应用到多分类问题的,我们在第五章给出了具体的操作方法.第六章是算法验证,我们通过调整训练样本中两类样本的数量比,我们首先使用基本的支持向量机算法进行计算,然后对数量偏少的样本赋予更大的惩罚系数,用加权的支持向量机对其进行训练.最终我们发现加权支持向量机相对于基本的支持向量机还是具有一定的优越性.本文的第一个主要工作是将加权的思想应用到各种衍生的支持向量机算法中去.本文第二个主要工作是将用于解决单分类类问题的One-class SVM的应用范围扩大,将该方法推广应用到多分类问题.