论文部分内容阅读
神经网络是人工智能的核心内容之一。由于具备特有的学习和自适应能力,使得神经网络一直是人工智能研究领域的热点。从最初的如何构建神经网络到现在的如何构建高效稳定的神经网络,神经网络的发展已经取得了巨大的进步。动态模糊神经网络的提出更是解决了以往神经网络构造的缺点,它的网络模型不是事先预定的,而是动态变化的,即在学习开始前,模糊规则没有预先给定而是在后续的学习过程中逐渐增长和形成的。它不需要任何先验知识,同时不必考虑网络构建应该如何布局以及网络节点数应该设定为多少等问题。但是,动态模糊神经网络中的所有规则节点并不是一直活跃的,随着新规则的不断加入,原来的旧规则节点可能变得不再活跃,对系统不再有贡献,最终成为冗余节点。为了优化动态模糊神经网络结构,删除冗余节点,研究学者提出了动态模糊神经网络修剪技术。现有的修剪算法有灵敏度计算方法、权减法、竞争学习、最小输出方法、奇异值分解法、特征值分解法等算法。虽然这些方法在结构优化方面都能够达到不同程度的效果,但同时也存在着一些问题,例如:灵敏度计算法进行一次修剪后要对剩下的整个网络重新计算敏感度;权减法只能用于BP学习算法;竞争学习的输出结构并非最优;特征值分解法计算特征值分解可能会导致病态解;奇异值分解法在决定哪个规则应该保留的时候没有严格的计算公式。研究发现,粗糙集理论在不确定性知识处理和挖掘数据知识潜在关系方面具有强大的功能。因此,本文引入粗糙集理论对动态模糊神经网络结构进行优化,提出一种基于粗糙集的动态模糊神经网络结构优化方法,利用粗糙集理论处理不确定性知识的能力,通过权值调整时权值参数的改变量以及实际输出误差的改变量的相关性构造决策属性表,然后对决策表进行知识约简以达到优化网络结构的目的。最后,本文通过matlab对动态模糊神经网络在Herminte函数逼近、Mackey-Glass时间序列预测、非线性动态系统辨识三个方面的应用进行仿真实验。实验证明,本文方法在规则数、训练次数、测试误差三个指标上有明显改进,同时预设参数较其他方法要少。