论文部分内容阅读
支持向量机(SupportVectorMachine,SVM)是由Vapnik等人于20世纪90年代提出来的一种基于统计学习理论的新型学习机器模型,具有很强的模型泛化能力和极强的非线性处理能力,近年来受到了很多学者的关注,并被广泛的应用到了很多领域,如模式识别,图像检索和蛋白质数据分析等。支持向量机是一种基于核的学习方法,它将输入空间中无法处理的非线性样本,通过核函数将其映射到特征空间中,使其获得有利于问题解决的线性性能。最小二乘支持向量机是支持向量机的一种变形,同支持向量机一样,也是一种基于核的学习方法。核函数是最小二乘支持向量机的主要元素,它将直接影响到最小二乘支持向量机的性能,而核参数又是核函数的主要元素,因此对其核参数的选择对于提高模型的学习和泛化能力起到了至关重要的作用。如果只是具备了高性能的核函数而缺乏适当的正则化参数,也将影响最小二乘支持向量机的性能,所以对核参数和正则化参数的选择很重要。本文提出了一种基于距离的度量的最小二乘支持向量机的参数选择方法。该方法首先通过计算特征空间中训练样本的类内距和类间距之间的比值来确定最优核参数,再利用网格搜索法确定最优正则化参数。通过数值试验证明了该方法的可行性,与传统的网格搜索法相比,在没有损失测试精度的情况下大大降低了训练时间。