论文部分内容阅读
传统的神经网络(NNS)是一种机器学习技术,其有着训练时间长,易陷入局部最优和需要人为干预等诸多缺点。最近,超限学习机作为前馈网络(SLFN)的一种扩展,由于其快速的学习速度和良好的泛化性能,已成为一种热门的分类问题解决方法。此外,在集成学习提供一种低消耗的优化方案,其通过各种集成策略将多种学习算法的预测结果结合在一起,以获得更好的预测性能。通过聚合所有候选模型,集成学习可以降低模型错选的风险,从而比单一模型更精确。准确率被认为是衡量集成策略是否成功的一个重要标准。为了提高准确率,多种技术被提出,但其中缺乏完美的方案以适应不同问题。本研究的重点是在文本分类中如何建立准确的超限学习机集成模型有监督的数据、噪声数据、不平衡数据和半监督数据。为了解决上述问题,我们提出了一种异构超限学习机集成框架。为了处理噪声数据,我们通过相关熵来减少异常数据的敏感性,同时通过负相关学习(NCL)来提高集成中的多样性。文本提出的面向分类的ELM异构集成(HE2LM)框架包括多个不同超限学习机算法:正则超限学习机(RELM)、核超限学习机(KELM)和L2范数优化超限学习机(ELML2)。为了处理不平衡数据,我们提出了一种基于超限学习机的多样化AdaBoost集成(AELME)来处理二分类和多分类问题。为了处理半监督学习问题,我们引入了多核半监督超限学习机算法(MKSSELM)。其通过匹配不同来源的不同信息,以显示区别,从而实现灵活地处理各种来源的各类离散的数据。我们优化了超限学习机的结构参数和各个核的组合权重,以替代传统的单一核方案。我们在核的组合权重上使用一个非负约束,并以L1范数作为调节项完成优化过程。我们将集成算法应用于大数据集。此外,我们将其应用于三个案例研究。即功能磁共振成像、说话人识别和覆盖型数据。