论文部分内容阅读
伴随数据量和硬件水平的提升,深度学习凭借端到端的高效推理方式,在图像分类、目标检测和人机对话等任务上取得了突破,同时也在无人驾驶、人脸识别和入侵检测等高安全性需求任务中广泛应用。因此,深度学习的深入研究和相关的丰富应用极大地推动了计算机视觉、自然语言处理等领域的发展。然而尽管深度学习被应用于众多高安全性需求场景中(Deep Learning for Security),但是深度学习依然是一把双刃剑,其技术本身带来的安全性问题(Security of Deep Learning)也需要重视。因此,AI安全就成为了与深度学习伴生的热门研究领域。研究对抗样本就是研究如何增强模型甚至整个系统的鲁棒性,实现更高的安全性。现阶段对抗样本的研究基本上集中在计算机视觉领域,且可以将相关研究分为对抗样本攻击、防御和应用三个方面。对抗样本的攻击通过生成对抗样本完成对目标模型的攻击,使其作出错误推理;对抗样本的防御通过各种安全技术消除对抗样本对目标模型造成的负面影响。以上研究从攻防两个对立的角度提升深度学习的安全性,同时也对深度学习这种黑盒技术的可解释性做出贡献。此外,如何合理利用对抗样本特性实现图像加密和盲水印等实际应用也是一个新兴的研究方向。因此,论文从对抗样本上述三个研究方向各提出了一种算法。首先,论文研究并分析了现有的对抗样本攻击算法,发现大多数算法仅在理想条件下生成微小的、不含合理语义信息的对抗扰动,在现实应用中这些扰动极易被破坏。论文针对这一问题,提出了一种在隐层特征空间中生成合理语义扰动的隐层编码定向迁移算法LETT,通过黑盒攻击的方式实现了一种新的特征级扰动攻击算法。其次,检测算法作为对抗样本防御的一种算法,通过合理提取特征,计算各种人为设定的规则完成检测,因此如何设计相关指标和规则是对抗样本检测算法的思路之一。针对这一思路,论文提出了一种改进k近邻并引入自适应权重投票的隐层编码异常检测算法LEAD,通过距离度量的方式实现高质量检测,同时利用数据降维提升了检测速度。最后,针对对抗样本扰动特性,研究如何实现端到端的盲水印技术。针对这一问题,论文提出了一种将定长编码嵌入图像的隐层编码无痕嵌入算法LETE,通过设计含特征复用的生成对抗网络和相关损失函数,在加速网络模型训练的同时,提高了模型的图像重构、编码重构以及抗噪能力。