论文部分内容阅读
神经网络在许多方面都有成功的应用,如图象处理,模式识别,联合记忆和最优化问题等.因此,神经网络的数学性质吸引了众多科学家的注意,包括稳定性,吸引性,发散性和混沌性等.例如,东南大学的曹进德教授,英国布鲁奈尔大学的王子栋教授和扬州大学的刘玉荣副教授等人都取得了许多很好的结果. 本文分为两章.主要讨论了几类带有混合时滞的神经网络的稳定性. 在第一章中,我们讨论一类带有混合时滞的神经网络d(x)t/dt=-D(x)(t)+A(f)((x)(t))+B(g)((x)(t-τ(t)))+C∫tt-σ(h)((x)(s))ds+J其中t≥0,(x)(t)=((x)1((t),(x)2(t),…,(x)n(t))T∈Rn是神经网络在时刻t的状态常量,n代表神经网络中神经元的个数,D=diag(d1,d2,…,dn)>0是正定的对角矩阵,A=(aij)n×n,B=(bij)n×n,C=(cij)n×n分别代表加权连接矩阵,带离散时滞的加权连接矩阵和带分布时滞的加权连接矩阵,(f)((x)(t))=((f)1((x)1(t)),(f)2((x)2(t)),…,(f)n((x)n(t)))T,(g)((x)(t-τ(t)))=((g)1((x)1(t-τ(t))),(g)2((x)2(t-τ(t))),…,(g)n((x)n(t-τ(t))))T,(h)((x)(t))=((h)1((x)1(t)),(h)2((x)2(t)),…,(h)n((x)n(t)))T分别是神经网络在时刻t,t-τ(t)和t时刻的激活函数,J=(J1,J2,…,Jn)T∈Rn是外部输入向量,τ(t)>0,σ>0分别代表时变离散时滞和常分布时滞,并且满足0≤τ(t)≤τ,其中τ,σ为常数.初始条件为(x)i(s)=ψi(s),i=1,2,…,n.其中ψi(s)有界,并在[-ρ,0]上连续可微,其中ρ=max{τ,σ}.通过构造合适的Lyapunov-Krasovskii泛函,线性矩阵不等式技术以及一些不等式,我们得到了使带混合时滞的神经网络全局渐近稳定,全局指数稳定,全局鲁棒渐近稳定和全局鲁棒指数稳定的充分条件,推广和改进了Yurong Liu,Zidong Wang,Xiaohui Liu[Neural Networks,2006,19:667-675] and Zidong Wang, Huisheng Shu, Yurong Liu, Daniel W.C.Ho, XiaohuiLiu[Chaos,Solitons and Fractals,2006,30:886-896]等文献中的相关结论. 在第二章中,我们讨论设计一类带有混合时滞的神经网络的状态估计器,方程为dξ(t)/dt=-Dξ(t)+A(f)(ξ(t))+B(g)(ξ(t-τ(t)))+C∫tt-σ(h)(ξ(s))ds+J(t)其中t≥0,ξ(t)=(ξ1(t),ξ2(t),…,ξn(t))T∈Rn是神经网络在时刻t的状态常量,n代表神经网络中神经元的个数,D=diag(d1,d2,…,dn)>0是正定的对角矩阵,A=(aij)n×n,B=(bij)n×n,C=(cij)n×n分别代表加权连接矩阵,带离散时滞的加权连接矩阵和带分布时滞的加权连接矩阵,(f)(ξ(t))=((f)1(ξ1(t)),(f)2(ξ2(t)),…,(f)n(ξn(t)))T,(g)(ξ(t-τ(t)))=((g)1(ξ1(t-τ(t))),(g)2(ξ2(t-τ(t))),…,(g)n(ξn(t-τ(t))))T,(h)(ξ(t))=((h)1(ξ1(t)),(h)2(ξ2(t)),…,(h)n(ξn(t)))T分别是神经网络在时刻t,t-τ(t)和t时刻的激活函数,J(t)=(J1(t),J2(t),…,Jn(t))T∈Rn是外部输入向量,τ(t)>0,σ>0分别代表时变离散时滞和常分布时滞,并且满足0≤τ(t)≤τ,其中τ,σ为常数.初始条件为ξi(s)=ψi(s),i=1,2,…,n.其中ψi(s)有界,并在[-ρ,0]上连续可微,其中ρ=max{τ,σ}.通过构造合适的Lyapunov-Krasovskii泛函,线性矩阵不等式技术以及一些不等式,我们在已知输出方式的条件下,设计了神经元的状态估计子,使得带混合时滞的神经网络的误差估计子的动力学行为全局指数稳定,推广了Yurong Liu,Zidong Wang,Xiaohui Liu[Physics Letters A,2007,364:401-412]等中的相关结论.