深度学习模型鲁棒性研究综述

来源 :计算机学报 | 被引量 : 0次 | 上传用户:yuehungulei
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
在大数据时代下,深度学习理论和技术取得的突破性进展,为人工智能提供了数据和算法层面的强有力支撑,同时促进了深度学习的规模化和产业化发展.然而,尽管深度学习模型在现实应用中有着出色的表现,但其本身仍然面临着诸多的安全威胁.为了构建安全可靠的深度学习系统,消除深度学习模型在实际部署应用中的潜在安全风险,深度学习模型鲁棒性分析问题吸引了学术界和工业界的广泛关注,一大批学者分别从精确和近似的角度对深度学习模型鲁棒性问题进行了深入的研究,并且提出了一系列的模型鲁棒性量化分析方法.在本综述中,我们回顾了深度学习模型鲁棒性分析问题当前所面临的挑战,并对现有的研究工作进行了系统的总结和科学的归纳,同时明确了当前研究的优势和不足,最后探讨了深度学习模型鲁棒性研究以及未来潜在的研究方向.
其他文献
基数估计是基于代价查询优化的关键步骤,已经被研究了近40年.传统方法如基于直方图的方法在一些假设如属性相互独立、相交的表满足包含原则等成立时能基本满足准确性要求.然而,在真实运行环境中这些假设往往不再成立,可能导致基数估计严重错误进而造成查询延迟.近年来,随着数据的增多和新硬件的发展,使用机器学习方法来提高基数估计的质量成为了可能.由于基于代价的查询优化主要根据查询中子执行计划的估计代价来选择最优的查询执行计划,因此,有一些最近的工作针对一些关键的子执行计划模板建立相应的局部学习模型,取得了不错的进展.但
如何准确高效地预测销量是企业一直以来关注的重要问题.传统的时间序列预测方法虽然在研究和实践中占主导地位,但是存在一定的局限性.随着大数据的发展,电商企业能获取前所未有的数据量和数据特征,仅利用过去的行为和趋势很难准确地对销量进行预测.本文提出一种基于随机森林、GBDT、XGBoost算法的成本厌恶偏向性组合预测模型,并利用每个商品的成本数据实现对样本的精细化赋权,进而输出预测结果.结果表明,组合预测模型能更精确预测销量,对电商企业降低商品管理成本有重要意义.
学生知识点熟练度是教师为学生制定学习计划的重要依据.为解决认知诊断中无法概率化学生知识点熟练度的问题,提出了将知识点作为特征嵌入的预测方法.该方法分别对学生和试题建立知识点向量,并且构造卷积神经网络进行监督学习,根据学生的答题情况不断调整他们的知识点熟练度.实验结果与现有的方法进行对比,验证了该方法的准确率的确有所提升.
随着形式化方法的普及和应用,定理证明器HOL4在形式化建模过程中无法自动完成终止证明的情况越来越多,而手动终止证明又缺少通用的证明思路.针对这种情况,提出规范化的手动终止证明方法.该方法从问题产生的本质入手,首先保证目标具备解决终止问题的必要条件,然后通过等效替换简化证明目标,最后以原有定理库为基础,寻找证明过程中缺失的引理,推进证明.实例表明,该方法逻辑清晰,能够有效地解决HOL4中大部分情况下的手动终止证明问题.
针对多标签学习中实例标签的缺失补全和预测问题,本文提出一种基于正则化的半监督弱标签分类方法(简称SWCMR),方法同时兼顾实例相似性和标签相关性.SWCMR首先根据标签相关性对弱标签实例的缺失标签进行初步预估,然后利用弱标签实例和无标签实例构造邻域图,从实例相似性和标签相关性角度构建基于平滑性假设的正则化项,接下来利用预估后的弱标签实例结合无标签实例训练半监督弱标签分类模型.在多种公共多标签数据集上的实验结果表明,SWCMR提高了分类性能,尤其是标签信息较少时,分类效果提升更显著.
移动边缘计算作为新型的计算范式,为降低网络延迟、能耗开销提供了新的思路.其将中心云的强大算力下沉至网络边缘,使得用户能够将计算任务卸载至物理位置更近的边缘服务器执行,从而节省经由核心网的时延与能耗开销.然而,由于移动边缘计算技术通常受到计算资源、网络传输带宽、设备电量等因素的制约,如何在有限的资源中获取最大的利用率成为亟待解决的难题.此外,复杂的网络服务可以被抽象为由若干个子服务按照一定拓扑结构组成的组合服务,然而紊乱多变的移动网络环境为用户策略赋予了时空特性、决策耦合、边缘节点异构以及计算复杂度高的特性
近年来,越来越多的研究人员尝试将边缘计算场景中收集的数据存储在区块链上,以解决传统数据存储方案中数据安全性差、防篡改性弱的问题.然而在已有的设计方案中,设备往往需要保存完整的区块数据,并且在对链上的特定数据进行取回或验证时,需要遍历大量的区块以找到对应的数据,降低了边缘计算场景中用户侧的响应速度.此外,传统共识算法也不适用于资源受限的终端设备.针对上述问题,本文提出了一种面向边缘计算的多层区块链网络模型.具体地,该模型被分为了核心层、边缘层和终端层三层:终端层被划分为多个局部网络,每一个局部网络中都包含了
云存储为用户提供文件外包存储功能,然而随着数据外包数量的激增,数据去重复变得至关重要.目前数据压缩非常有效也是很常用的一个手段是去重,即识别数据中冗余的数据块,只存储其中的一份.以前的方案可以满足不同的用户将相同的文件加密为相同的密文,这样暴露了文件的一致性,随后的方案提出基于集中式服务器作为去重辅助的方案,随着用户的增加,数据去重效率也随之降低.针对目前云存储的安全性及数据去重效率低等问题,本文提出了跨区域的重复数据删除方案.所提方案为每个数据生成随机标签和固定长度的随机密文,确保多域重复数据消除下的数
目前通过3D扫描仪获取的点云仍旧存在一些缺陷:点云含有噪声,点云在不同方向上分布不均匀等.本文针对上述问题开展研究.主要工作为提出一种新的算法用于在点云上进行高质量的重采样,即使用较为稀疏的重采样点集去表达较为密集的原始点云的几何形状,同时重采样点集的分布可以满足用户预先指定的目标分布,并具备一定的蓝噪声性质.在最优传输理论的基础之上,本文方法将传统的点云重采样问题转化为一个最优化问题,并在点云上构建离散网格,使得针对网格的受限制的Power剖分方法能够迁移至点云上.随后利用交叉优化框架对该优化问题进行求
如何识别同一物体的不同结构的表现形式,对于机器而言,是一个比较困难的识别工作.本文以易变形的纸币为例,提出了一种基于异构特征聚合的局部视图扭曲型纸币识别方法.首先利用灰度梯度共生矩阵、Haishoku算法和圆形LBP分别获得纹理风格、色谱风格和纹理,这些特征从不同的角度描述了局部纸币图像,然后通过VGG-16、ResNet-18和DenseNet-121网络学习这些不变形特征得到输出特征,将输出特征聚合后输入识别层Softmax,达到三模型融合效果,进而识别局部视图扭曲型纸币.实验结果表明,多特征聚合和不