Softplus函数相关论文
							
							
                                 修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;......
                                
                                
                            
                                 为提高Softplus函数在神经网络中的性能,针对Softplus函数的缺点提出了一种基于改进Softplus激活函数的卷积神经网络模型。根据“......
                                
                                
                            
                                 为了提高预测模型的精度,提出一种基于Softplus激活函数的双隐含层BP神经网络的预测方法,提高了模型的非线性学习和泛化能力及预测......
                                
                                
                            
