论文部分内容阅读
大脑的工作原理以及智能是怎么产生的对于人们来说仍是一个难解的谜,来自计算机科学、生物学、神经科学、医学、物理学等众多领域的科学家们一直致力于大脑的研究。神经科学研究表明,大脑由神经元组成,这些神经元相互连接构成网络,而且整个网络的知识和记忆都分散在所有的连接之上。大脑就是通过这样的神经网络处理不断变化的输入和输出信息流。而神经网络是建立在真正的神经系统基础之上的一种智能机器。因此,神经网络自提出以来就受到极大的关注。特别是近些年来,神经网络更是吸引了许多世界一流大学的实验室和著名神经网络专家,优秀论著、重大成果不断涌现。神经网络进入了蓬勃发展的时期,许多优秀成果在国际一流学术刊物,如《Science》、《Nature》上发表。神经解剖学家们已经发现大脑中充满了大量的反馈连接,因此,对于回复式神经网络的研究更能帮助我们理解大脑是怎样工作的。近些年来,有关回复式神经网络的理论和应用也得到了充分研究。回复式网络根据网络吸引子的分布,又可分为离散吸引子网络和连续吸引子网络。特别的是,由生物计算激发的连续吸引子神经网络已经被广泛应用于研究各种脑部功能,如脑皮层信息处理,眼球跳变性运动,头部方向定位,工作记忆,空间定位等。这类模型在计算神经科学上的诸多应用表明,连续吸引子神经网络机制广泛存在于大脑的信息处理过程。从数学上讲,离散的点吸引子神经网络当中,点吸引子的周围存在吸引域,从某个吸引子所在的吸引域出发的点都收敛到这个吸引子上来。这也是为什么一个具有离散点吸引子的神经网络可以用来实现联想记忆的原因。而连续吸引子神经网络是一种具有特殊网络连接结构的回复式神经网络,这种网络模型不能用来联想记忆,因为网络初值受到微扰就会触发不同的吸引子状态。有趣的是,研究表明大脑却是利用连续吸引子网络机制进行短时记忆。尽管连续吸引子神经网络领域已经有了丰硕的研究成果,然而,在理论的完善上,依然存在很多待解决的问题。目前,缺乏必要的数学研究工具是连续吸引子网络发展以及工程应用的局限所在。本文将从动力系统角度对连续吸引子神经网络展开深入研究,主要成果如下:(1)在背景神经网络基础上,提出了新的连续吸引子神经网络模型以及该网络模型的扩展模型,并分析了网络的动力学行为,给出了网络存在连续吸引子的条件及连续吸引子的解析表达式。(2)研究了有限个神经元的LV神经网络,得到该网络在权值连接对称与非对称条件下存在连续吸引子的条件以及连续吸引子的数学表达式。(3)研究了盒中脑神经网络的“允许集”和“禁止集”理论,分析了网络的完全收敛性,并给出网络存在“允许集”与“禁止集”的充要条件,网络在具有侧抑制连接矩阵的条件下的群选择性质以及群选择与“允许集”和“禁止集”的关系。(4)利用“允许集”与“禁止集”理论,分析了背景神经网络的改进模型以及LV神经网络如何对外部刺激编码的动力学行为,发现在外部输入改变的条件下,网络由一个吸引子状态到令一个吸引子状态的改变过程中,遍历其中的每一个状态。这些成果的取得,对于进一步建立连续吸引子神经网络理论将起到积极的推动作用。