论文部分内容阅读
支持向量顺序回归是一种重要的有监督排序学习算法。尽管其优化问题规模与样本数呈线性关系,但在学习大容量数据集时,训练速度仍过慢。为此,提出一种支持二次误差的多项式平滑型支持向量顺序回归(psSVOR)算法,其优化方法包括3个步骤:用两个分段多项式函数分别近似(1+x)+和(1-x)+,优化目标转变为二次可微的无约束问题,从而由Newton-YUAN方法直接求平行的多个决策超平面。给出了分段多项式平滑函数的3个性质及psSVOR的收敛定理。另外引入简约核提高非线性psSVOR的优化速度。多个公开数据集及LET