论文部分内容阅读
本文主要讨论了如何用带有一阶隐层的神经网络去逼近有界变差函数的问题,全文的主要定理用的均是构造法证明,且仅考虑隐层的激励函数为S型函数时的情况. 在本文的第一部分,首先利用构造法给出了当目标函数为定义在一维欧氏空间R的闭子集上的有界变差函数且激励函数为单调的S型函数时,在L1范数意义下神经网络的逼近精度与其隐层节点数之间的关系,同时构造性的给出了神经网络的内外连接系数和初值具体形式;其次证明了S型激励函数的单调性条件是多余的,只要保证了S型激励函数的有界性就可以了,同时说明了S型函数的有界性是在L1范数意义下可以逼近R的闭子集上的任意有界变差函数的充要条件;然后将有界变差函数推广到了实数空间R上,并证明了当激励函数为S型函数时神经网络可以任意逼近R上的有界变差函数. 在本文的第二部分,首先考虑了激励函数为有界的S型函数且目标函数为定义在区间[a,b]×[c,d]上的有界变差函数时的逼近问题,同样用构造法给出了神经网络的逼近精度与隐层节点数的关系,和神经网络的内外连接系数与初值的具体形式;其次将目标函数推广到R2的闭子集上的有界变差函数2时,结论同样成立;最后用同样方法证明了Rn的闭子集上的有界变差函数的逼近问题.