论文部分内容阅读
随着深度神经网络的大规模研究应用,其面对对抗样本的脆弱性也随之被发现。通过向神经网络的输入数据中添加微小的扰动,即可造成神经网络出现误判。因此提高神经网络的安全性和鲁棒性也是深度学习和安全领域的热点。研究人员设计通过利用生成对抗网络并引入深度残差网络,重新构建判别器和生成器,从而在现有的对抗样本生成基础上提高生成图像的质量。在Mnist和Cifar10数据集上与已知的对抗样本生成算法进行比较,结果表明性能有所提升。