论文部分内容阅读
对高维数据,使用核函数将输入样本映射到更高维的空间通常不会明显改善模型的分类精度。实验表明线性SVM(Support Vector Mchine)能够提供很好的预测能力。本文基于最小闭包球的算法求解SVM的变形问题。改进的方法保存权重w及其每个分量的公共因子,并且每次迭代只更新向量w很少的部分,算法的复杂度为0(m d),d为输入样本的平均非零属性数目,m是核集大小。实验表明与流行的对偶坐标下降法DCD以及基于割平面的SVMperf相比,此方法能更快地训练出适合的分类模型。