论文部分内容阅读
无法进行神经网络结构参数的计算使现有的诸多学习算法受到多方面的限制,如学习速度慢、容错能力差等。另外利用现有的神经网络模型进行问题求解计算同样受到限制,如计算结果不精确。上述研究内容都要求根据具体问题确定问题计算的神经网络结构。本文在简述神经网络基础知识及常见神经网络学习算法的基础上,给出如下创新性研究结果: (1)给出一个一般二进制映射问题的前馈网络学习算法。算法给出一种求解超平面以几何分割训练点的新方法,不仅相应的构造了隐层神经网络,而且使得只需再构造一个输出层网络便可实现训练样本所描述的映射。该算法在学习收敛速度方面优于BP算法和SC算法,对样本数据的分布及密集程度适应性较强,具有很好的容错能力。且特别易于集成电路实现。 (2)给出构造反馈联想记忆网络的竞争分类算法、自适应竞争分类算法和前馈联想记忆网络的前向比较算法,分别称CC、ACC和FC算法,CC算法使网络利用p+n个神经元存储p个n维样本模式,存储容量接近最优,且对任一输入模式,网络总稳定的输出与之海明距离最小的样本模式,容错能力是最佳的。ACC算法使网络联接权值随竞争过程自适应变化,从而收敛速度大大快于CC网络,容错能力与CC网络相同,存储容量约为CC网络的一半。FC算法构造前馈联想记忆网络,每次计算一步即可完成,容错能力与CC网络相同,但存储容量变为O(N1/2),N为神经元个数。 (3)在最短路问题神经网络实时计算研究中,将给出一种求解最短路问题的神经网络构造方法。并证明,该方法构造的神经网络只有一个稳定点,且从任意初始点均可收敛到该稳定点,该稳定点恰好对应图的所有最短路径。这是神经网络求解非NP难解类问题的一种新尝试。