论文部分内容阅读
内容针对传统指数滑动平均(EMA)算法在AlexNet卷积神经网络的训练后期无法持续优化网络参数,而导致网络过拟合问题.提出一种基于Tanh动态衰减指数滑动平均算法(T-ADEMA),采用变系数Tanh函数作为衰减率函数,根据训练次数动态调整优化参数,减小数据集中噪声对网络学习影响,提高模型泛化性能.实验结果表明,基于T-ADEMA算法的AlexNet网络在MNIST,CIFAR_10,CIFAR_100三个数据集上与传统EMA算法相比具有更好的泛化性能和分类正确率.