论文部分内容阅读
支持向量机(SVM)是九十年代中期发展起来的新的机器学习技术,与传统的神经网络(NN)技术不同,SVM是以统计学习理论(SLT)为基础,NN是以传统统计学理论为基础。传统统计学的前提条件是要有足够多的样本,而统计学习理论是着重研究小样本条件下的统计规律和学习方法的,它为机器学习问题建立了一个很好的理论框架。实践表明,建立在(SLT)之上支持向量机不仅结构简单,而且技术性能尤其是推广能力明显提高,能够解决好大量实践中的小样本学习问题,它是一个全新的人工智能技术。目前,SVM己成为国际上机器学习领域新的研究热点。本文首次提出增量支持向量机算法的回归模型,并对其进行应用研究。
论文的主要工作可归纳如下:
首先,第一章简要介绍了机器学习的缺陷,而统计学习理论的发展,导致了支持向量机的诞生,分析了支持向量机与神经网络的差异,并指出了研究和应用支持向量机的必要性和重要性以及现有支持向量机的研究成果和存在的不足,提出了本文的研究内容及目的和意义。第二章探讨了支持向量机理论基础,对支持向量机的传统模型进行了系统的阐述,为增量支持向量机的产生奠定了理论基础。
其次,第三章对支持向量机的回归进行了理论的推导和分析,并对损失函数进行了理论解释,对核函数和高维空间映射进行阐述。第四章对内点算法和子集选择算法进行了较为深入的阐述,为增量回归算法的建立奠定基础。
再次,为了进一步提高支持向量机的通用性以及推广能力、应用能力、回归速度等性能,第五章提出了增量支持向量机回归算法,并且选择了核函数的具体形式。
最后,在第六章中,在常规SVM基础上提出了增量回归算法,对算法进行实现和实验研究,用实验结果来证明算法的有效性和优越性,并把算法应用到高聚物的结构性能关系模型求解中,体现其应用价值。