一种基于差分隐私的可追踪深度学习分类器

来源 :信息安全研究 | 被引量 : 0次 | 上传用户:qq1226
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着深度学习在各个领域的广泛应用,数据收集和训练过程中产生的隐私泄露问题已成为阻碍人工智能进一步发展的原因之一.目前已有很多研究将深度学习与同态加密或者差分隐私等技术结合以实现对深度学习中的隐私保护.从另一个角度尝试解决这个问题,即在一定程度上保证训练数据集隐私性的基础上,实现对训练数据计算节点的可追踪性.提出了一种基于差分隐私的可追踪深度学习分类器,结合差分隐私和数字指纹技术,在为训练数据集提供隐私保护的同时保证在出现非法传播的训练模型或者数据集时,能根据其中的指纹信息定位到问题训练节点.该分类器既能保证安全判定分类功能,又能保证指纹的不可感知性、鲁棒性、可信度和可行性等基本特征.从后续的公式推导、理论分析和在真实数据的仿真结果表明,该方案能够满足深度学习中对隐私信息的安全可追踪性的需求.
其他文献
当前,联邦学习已被认为是解决数据孤岛和隐私保护的有效解决方案,其自身安全性和隐私保护问题一直备受工业界和学术界关注.现有的联邦学习系统已被证明存在诸多漏洞,这些漏洞可被联邦学习系统内部或外部的攻击者所利用,破坏联邦学习数据的安全性.首先对特定场景下联邦学习的概念、分类和威胁模型进行介绍;其次介绍联邦学习的机密性、完整性、可用性(CIA)模型;然后对破坏联邦学习CIA模型的攻击方法进行分类研究;最后对CIA模型当前面临的问题挑战和未来研究方向进行分析和总结.
近年来兴起的深度伪造技术能够高度逼真地模拟和伪造音视频内容,并得到了广泛的良性和恶意应用.针对深度伪造的生成和检测,国内外专家学者进行了深入研究,并提出了相应的生成和检测方案.对现有的基于深度学习的音视频深度伪造生成技术、检测技术、数据集以及未来研究方向进行了全面的概述和详细分析,这些工作将有助于相关人员对深度伪造的理解和对恶意深度伪造防御检测的研究.
近年来,以深度学习为代表的人工智能技术飞速发展,在图像分类、自然语言处理等多个任务中超过了人类表现.在金融、教育、医疗、军事、制造、服务等多个领域,人工智能技术应用不断深化,和社会生活的融合愈加紧密.然而,在这一过程中,人工智能系统自身暴露出众多安全问题,不断涌现出针对人工智能系统的新型安全攻击,包括对抗攻击、投毒攻击、后门攻击、伪造攻击、模型逆向攻击、成员推理攻击等.这些攻击损害了人工智能数据、算法和系统的机密性、完整性和可用性,迫切需要学术界和产业界的共同关注.
期刊