论文部分内容阅读
摘 要 针对模糊集合在语义描述上存在的不足,为提高自适应模糊神经网络的紧凑性,提出了自适应直觉模糊神经网络。首先,推导了适合神经网络计算的直觉模糊规则。接着,给出了自适应直觉模糊神经网络的结构和各层的含义,并给出了网络学习算法和收敛性分析。最后,通过典型实例仿真试验,表明提出的自适应模糊神经网络结构更为紧凑,学习算法的泛化性能更佳。
关键词 直觉模糊逻辑;直觉模糊规则;区间值描述;自适应直觉模糊神经网络
中图分类号:TP183 文献标识码:A 文章编号:1671-7597(2013)24-0045-02
基于自适应网络的模糊推理系统(ANFIS)采用反向传播算法和最小二乘法调整模糊推理系统的参数,并能自动产生模糊规则,堪称模糊神经网络的经典之作。自此,由于自适应模糊神经网络通过控制模糊规则的自动生成和修剪,可得到一个规则数更小和泛化能力更佳的网络结构,动态模糊神经网络就成为模糊神经网络研究的热点。为了克服动态模糊神经网络的高斯隶属度函数的不足,文献[1]在采用椭圆基函数使隶属函数宽度自适应输入变量的基础上,提出广义动态模糊神经网络(GD-FNN)。Gang等进一步将隶属函数宽度自适应于神经元,提出一种结构更为紧凑的自组织模糊神经网络(SOFNN)。
直觉模糊集是对模糊集最有影响的扩展,语义描述上具有独到的优势,并成功拓展到模糊推理、信息决策、非线性计算等领域。本文针对T-S模糊规则在语义描述上存在不足,在Xu最近提出的直觉模糊数运算的基础上给出了一种适合网络计算的直觉模糊规则,并将动态模糊神经网络拓展,提出了一种自适应直觉模糊神经网(AIFNN)结构。
1 直觉模糊逻辑和规则
模糊集的隶属函数值仅是一个单一值,不能同时描述支持、反对和犹豫。20世纪80年代末,Atanassov对Zadeh的模糊集合概念进行了一系列的拓展,提出了直觉模糊集的概念和理论。Gau于1993年提Vague集合理论,并构造了Vague集隶属度的子区间描述。最近,徐泽水教授提出了基于隶属度的区间值描述的直觉模糊集,并在直觉模糊集上构造了一系列运算规则。
定义1:(直觉模糊集)设是一个给定论域,则上的一个直觉模糊集为
(1)
其中定义隶属函数为:
非隶属函数为:
且恒有
并定义犹豫度或不确定度为:
定义2:(基于Vague集隶属度的直觉模糊集)设为上的一个Vague集,则的隶属函数满足:
(2)
即为[0,1]的子区间,重新定义直觉模糊集为,其中满足式(1),当退化为模糊集。
定义3:(基于区间值描述的直觉模糊规则)设区间值为神经网络结构中定义2给定的直觉模糊数区间值表示,表示直觉模糊数的隶属度中心,表示直觉模糊数的隶属度宽度,且满足
如是自然的将T-S模糊神经网络规则拓展为直觉模糊规则,具有以下的形式:
(3)
其中是直觉模糊集,为输入变量数,是直觉模糊规则数。
2 AIFNN结构和直觉模糊算子的数值计算
AIFNN的结构是一个六层的网络结构,如图1所示。
图1 AIFNN的结构
第一层:输入层,每个节点分别表示一个输入语言变量。
第二层:隶属函数层,每个节点分别表示一个直觉模糊隶属函数。隶属函数如下式所示:
(4)
其中,作为高斯隶属函数的中心,和 ( )是高斯隶属函数的宽度。因此,节点隶属度函数的区间值输出。
第三层:范数层,每个节点分别代表一条直觉模糊规则中的if部分,采用一个简化的直觉模糊Bonferroni平均算子,第个节点的条件输出为区间值:
(5)
第四层:结论层,每个节点分别代表一条直觉模糊规则中的then部分,采用直觉模糊权重平均算子的变形,计算第个节点的结论输出为一区间值:
(6)
第五层:输出处理层,输出为,通过面积中心法进行求解,如下式所示:
(7)
其中和由归一化计算隶属度函数求得:
(8)
第六层:输出层,每一个节点都与一个语言变量相关联,通过去模糊化算子计算输出。
(9)
3 基于AIFNN的非线性函数逼近
通过典型的非线性函数逼近验证AIFNN算法的有效性,其试验效果图如图2所示。从图(a)可以看出,规则是一条一条地生成的;从图(b)可以看出,均方根误差陡峭的地方,表明该处生成了或删除了规则;图(c)为训练集的目标值和AIFNN输出的实际值的比较,期望值与实际值基本重合在一起;图(d)为训练集目标值与AIFNN输出的实际值之间的误差;图(e)为测试集的目标值和AIFNN输出的实际值的比较;图(f)为测试集目标值与AIFNN输出的实际值之间的误差。
为评估非线性函数逼近性能,采用误差平均百分比(APE)度量算法性能。
定义如下:
(10)
其中为第个样本的理想目标值,为第个样本的网络实际输出。
采用典型的三变量非线性函数为例,描述如下:
(11)
在定义域中随机选取216个训练样本和125个测试样本。
表1 非线性函数逼近性能比较
算法 规则数目 参数数目 训练APE 测试APE
ANFIS 8 50 0.043 1.066
GD-FNN 10 64 2.11 1.54
SOFNN 9 60 1.1380 1.1244
FAOS-PFNN 7 35 1.89 2.95
AIFNN 5 50 0.7420 0.9051
从表1可以看出,AIFNN生成的规则数最小,测试的APE最小,因此,生成的网络具有结构最紧凑和泛化性能最佳的特点。相对于GD-FNN和SOFNN性能显著提高,究其原因,高斯隶属函数的宽度对网络的结构和泛化能力影响巨大。AIFNN采用UKF学习高斯隶属函数宽度的环节,减小了对初值的依赖,并且精度能够达到二阶以上。更重要的是,AIFNN将高斯隶属函数的宽度定义为一个直觉模糊数的区间值表示,在不确定性表达和处理上更为灵活。
(a)规则的生成和删除 (b)均方根误差
(c)训练期望值与实际值 (d)训练函数值的误差
(e)测试期望值与实际值 (f)测试函数值的误差
图2 AIFNN非线性函数逼近
4 结束语
本文提出了AIFNN的结构,结构辨识和参数学习同时进行,采用动态的模糊规则的修剪策略。AIFNN将高斯隶属函数的宽度定义为一个直觉模糊数描述的区间值,在不确定性表达和处理上更为灵活。此外,AIFNN增加了一个用UKF学习高斯隶属函数宽度的环节,减小了对初值的依赖,并且精度能够达到二阶以上。因此,AIFNN训练的网络结构更为紧凑,泛化性能更佳。通过函数逼近实例,表明本文算法训练的神经网络的有效性,并且性能具有整体优势。
参考文献
[1]林剑,雷英杰.基于神经网络的直觉模糊推理方法[J].系统工程与电子技术,2009,31(5):1172-1175.
关键词 直觉模糊逻辑;直觉模糊规则;区间值描述;自适应直觉模糊神经网络
中图分类号:TP183 文献标识码:A 文章编号:1671-7597(2013)24-0045-02
基于自适应网络的模糊推理系统(ANFIS)采用反向传播算法和最小二乘法调整模糊推理系统的参数,并能自动产生模糊规则,堪称模糊神经网络的经典之作。自此,由于自适应模糊神经网络通过控制模糊规则的自动生成和修剪,可得到一个规则数更小和泛化能力更佳的网络结构,动态模糊神经网络就成为模糊神经网络研究的热点。为了克服动态模糊神经网络的高斯隶属度函数的不足,文献[1]在采用椭圆基函数使隶属函数宽度自适应输入变量的基础上,提出广义动态模糊神经网络(GD-FNN)。Gang等进一步将隶属函数宽度自适应于神经元,提出一种结构更为紧凑的自组织模糊神经网络(SOFNN)。
直觉模糊集是对模糊集最有影响的扩展,语义描述上具有独到的优势,并成功拓展到模糊推理、信息决策、非线性计算等领域。本文针对T-S模糊规则在语义描述上存在不足,在Xu最近提出的直觉模糊数运算的基础上给出了一种适合网络计算的直觉模糊规则,并将动态模糊神经网络拓展,提出了一种自适应直觉模糊神经网(AIFNN)结构。
1 直觉模糊逻辑和规则
模糊集的隶属函数值仅是一个单一值,不能同时描述支持、反对和犹豫。20世纪80年代末,Atanassov对Zadeh的模糊集合概念进行了一系列的拓展,提出了直觉模糊集的概念和理论。Gau于1993年提Vague集合理论,并构造了Vague集隶属度的子区间描述。最近,徐泽水教授提出了基于隶属度的区间值描述的直觉模糊集,并在直觉模糊集上构造了一系列运算规则。
定义1:(直觉模糊集)设是一个给定论域,则上的一个直觉模糊集为
(1)
其中定义隶属函数为:
非隶属函数为:
且恒有
并定义犹豫度或不确定度为:
定义2:(基于Vague集隶属度的直觉模糊集)设为上的一个Vague集,则的隶属函数满足:
(2)
即为[0,1]的子区间,重新定义直觉模糊集为,其中满足式(1),当退化为模糊集。
定义3:(基于区间值描述的直觉模糊规则)设区间值为神经网络结构中定义2给定的直觉模糊数区间值表示,表示直觉模糊数的隶属度中心,表示直觉模糊数的隶属度宽度,且满足
如是自然的将T-S模糊神经网络规则拓展为直觉模糊规则,具有以下的形式:
(3)
其中是直觉模糊集,为输入变量数,是直觉模糊规则数。
2 AIFNN结构和直觉模糊算子的数值计算
AIFNN的结构是一个六层的网络结构,如图1所示。
图1 AIFNN的结构
第一层:输入层,每个节点分别表示一个输入语言变量。
第二层:隶属函数层,每个节点分别表示一个直觉模糊隶属函数。隶属函数如下式所示:
(4)
其中,作为高斯隶属函数的中心,和 ( )是高斯隶属函数的宽度。因此,节点隶属度函数的区间值输出。
第三层:范数层,每个节点分别代表一条直觉模糊规则中的if部分,采用一个简化的直觉模糊Bonferroni平均算子,第个节点的条件输出为区间值:
(5)
第四层:结论层,每个节点分别代表一条直觉模糊规则中的then部分,采用直觉模糊权重平均算子的变形,计算第个节点的结论输出为一区间值:
(6)
第五层:输出处理层,输出为,通过面积中心法进行求解,如下式所示:
(7)
其中和由归一化计算隶属度函数求得:
(8)
第六层:输出层,每一个节点都与一个语言变量相关联,通过去模糊化算子计算输出。
(9)
3 基于AIFNN的非线性函数逼近
通过典型的非线性函数逼近验证AIFNN算法的有效性,其试验效果图如图2所示。从图(a)可以看出,规则是一条一条地生成的;从图(b)可以看出,均方根误差陡峭的地方,表明该处生成了或删除了规则;图(c)为训练集的目标值和AIFNN输出的实际值的比较,期望值与实际值基本重合在一起;图(d)为训练集目标值与AIFNN输出的实际值之间的误差;图(e)为测试集的目标值和AIFNN输出的实际值的比较;图(f)为测试集目标值与AIFNN输出的实际值之间的误差。
为评估非线性函数逼近性能,采用误差平均百分比(APE)度量算法性能。
定义如下:
(10)
其中为第个样本的理想目标值,为第个样本的网络实际输出。
采用典型的三变量非线性函数为例,描述如下:
(11)
在定义域中随机选取216个训练样本和125个测试样本。
表1 非线性函数逼近性能比较
算法 规则数目 参数数目 训练APE 测试APE
ANFIS 8 50 0.043 1.066
GD-FNN 10 64 2.11 1.54
SOFNN 9 60 1.1380 1.1244
FAOS-PFNN 7 35 1.89 2.95
AIFNN 5 50 0.7420 0.9051
从表1可以看出,AIFNN生成的规则数最小,测试的APE最小,因此,生成的网络具有结构最紧凑和泛化性能最佳的特点。相对于GD-FNN和SOFNN性能显著提高,究其原因,高斯隶属函数的宽度对网络的结构和泛化能力影响巨大。AIFNN采用UKF学习高斯隶属函数宽度的环节,减小了对初值的依赖,并且精度能够达到二阶以上。更重要的是,AIFNN将高斯隶属函数的宽度定义为一个直觉模糊数的区间值表示,在不确定性表达和处理上更为灵活。
(a)规则的生成和删除 (b)均方根误差
(c)训练期望值与实际值 (d)训练函数值的误差
(e)测试期望值与实际值 (f)测试函数值的误差
图2 AIFNN非线性函数逼近
4 结束语
本文提出了AIFNN的结构,结构辨识和参数学习同时进行,采用动态的模糊规则的修剪策略。AIFNN将高斯隶属函数的宽度定义为一个直觉模糊数描述的区间值,在不确定性表达和处理上更为灵活。此外,AIFNN增加了一个用UKF学习高斯隶属函数宽度的环节,减小了对初值的依赖,并且精度能够达到二阶以上。因此,AIFNN训练的网络结构更为紧凑,泛化性能更佳。通过函数逼近实例,表明本文算法训练的神经网络的有效性,并且性能具有整体优势。
参考文献
[1]林剑,雷英杰.基于神经网络的直觉模糊推理方法[J].系统工程与电子技术,2009,31(5):1172-1175.