论文部分内容阅读
针对支持向量回归(Support Vector Regression,SVR)的传统训练算法在大样本下内存开销大、训练速度慢的缺点,在分析SVR数学形式的基础上,充分利用二次规划自身的结构特点,将阈值量引入支持向量回归的目标函数中,采用扩展变形的方法,提出了一种用于SVR的简化连续过松弛(Successsive Over Relaxation,SOR)训练算法,并将其与传统的训练算法进行对比。仿真结果表明,简化的SOR算法是可行、有效的。它在保证拟合精度的情况下,克服了传统训练算法对系统内存要求较高的缺陷,减少了训练时间,提高了运算效率。