随着高计算设备的发展,深度神经网络(DNNs)近年来在人工智能(AI)领域得到了广泛的应用。然而,之前的研究表明,DNN在经过策略性修改的样本(称为对抗性样本)面前是脆弱的。这些样本是由一些不易察觉的扰动产生的,但可以欺骗DNN做出错误的预测。受图像DNNs中生成对抗性示例的流行启发,近年来出现了针对文本应用的攻击DNNs的研究工作。然而,现有的图像扰动方法不能直接应用于文本,因为文本数据是离散的。在这篇文章中,我们回顾了针对这一差异的研究工作,并产生了关于DNN的电子对抗实例。我们对这些作品进行了全面的收集、选择、总结、讨论和分析,涵盖了所有相关的信息,使文章自成一体。最后,在文献回顾的基础上,我们提出了进一步的讨论和建议。

成为VIP会员查看完整内容
0
39

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

基于协同过滤(CF)的潜在因素模型(LFM),如矩阵分解(MF)和深度CF方法,由于其良好的性能和推荐精度,在现代推荐系统(RS)中得到了广泛的应用。尽管近年来取得了巨大的成功,但事实表明,这些方法易受对抗性例子的影响,即,这是一种微妙但非随机的扰动,旨在迫使推荐模型产生错误的输出。这种行为的主要原因是,用于LFM训练的用户交互数据可能会受到恶意活动或用户误操作的污染,从而导致不可预测的自然噪声和危害推荐结果。另一方面,研究表明,这些最初设想用于攻击机器学习应用程序的系统可以成功地用于增强它们对攻击的鲁棒性,以及训练更精确的推荐引擎。在这方面,本调查的目标有两方面:(i)介绍关于AML-RS的最新进展,以保障AML-RS的安全性。(ii)展示了AML在生成对抗网络(GANs)中的另一个成功应用,生成对抗网络(GANs)使用了AML学习的核心概念(即用于生成应用程序。在这项综述中,我们提供了一个详尽的文献回顾60篇文章发表在主要的RS和ML杂志和会议。这篇综述为RS社区提供了参考,研究RS和推荐模型的安全性,利用生成模型来提高它们的质量。

成为VIP会员查看完整内容
0
72

尽管生成式对抗网络(GAN)的历史并不长,但它已被广泛地研究和用于各种任务,包括其最初的目的,即合成样品的生成。然而,将GAN用于具有不同神经网络结构的不同数据类型,由于其在训练方面的局限性,使得模型很容易出现混乱。这种臭名昭著的GAN训练是众所周知的,并已在许多研究中提出。因此,为了使GAN的训练更加稳定,近年来提出了许多正则化方法。本文综述了近年来引入的正则化方法,其中大部分是近三年来发表的。具体地说,我们关注的是那些可以被普遍使用的方法,而不管神经网络体系结构如何。根据其运算原理将其分为若干组,并分析了各方法之间的差异。此外,为了提供使用这些方法的实际知识,我们调研了在最先进的GANs中经常使用的流行方法。此外,我们还讨论了现有方法的局限性,并提出了未来的研究方向。

成为VIP会员查看完整内容
0
71

智能视频监控(IVS)是当前计算机视觉和机器学习领域的一个活跃研究领域,为监控操作员和取证视频调查者提供了有用的工具。人的再识别(PReID)是IVS中最关键的问题之一,它包括识别一个人是否已经通过网络中的摄像机被观察到。PReID的解决方案有无数的应用,包括检索显示感兴趣的个体的视频序列,甚至在多个摄像机视图上进行行人跟踪。文献中已经提出了不同的技术来提高PReID的性能,最近研究人员利用了深度神经网络(DNNs),因为它在类似的视觉问题上具有令人信服的性能,而且在测试时执行速度也很快。鉴于再识别解决方案的重要性和广泛的应用范围,我们的目标是讨论在该领域开展的工作,并提出一项最先进的DNN模型用于这项任务的调查。我们提供了每个模型的描述以及它们在一组基准数据集上的评估。最后,我们对这些模型进行了详细的比较,并讨论了它们的局限性,为今后的研究提供了指导。

成为VIP会员查看完整内容
0
48

【简介】深度神经网络(DNNs)在各项任务上都取得了不俗的表现。然而,最近的研究表明通过对输入进行很小的扰动就可以轻易的骗过DNNs,这被称作对抗式攻击。作为DNNs在图上的扩展,图神经网络(GNNs)也继承了这一缺陷。对手通过修改图中的一些边等操作来改变图的结构可以误导GNNs作出错误的预测。这一漏洞已经引起了人们对在安全领域关键应用中采用GNNs的极大关注,并在近年来引起了越来越多的人的研究兴趣。因此,对目前的图对抗式攻击和反制措施进行一个全面的梳理和回顾是相当有必要的。在这篇综述中,我们对目前的攻击和防御进行了分类,以及回顾了相关表现优异的模型。最后,我们开发了一个具有代表性算法的知识库,该知识库可以使我们进行相关的研究来加深我们对基于图的攻击和防御的理解。

成为VIP会员查看完整内容
0
34

简介:

如今,深度学习已被广泛应用于图像分类和图像识别的问题中,取得了令人满意的实际效果,成为许多人 工智能应用的关键所在.在对于模型准确率的不断探究中,研究人员在近期提出了“对抗样本”这一概念.通过在原有 样本中添加微小扰动的方法,成功地大幅度降低原有分类深度模型的准确率,实现了对于深度学习的对抗目的,同时 也给深度学习的攻方提供了新的思路,对如何开展防御提出了新的要求.在介绍对抗样本生成技术的起源和原理的 基础上,对近年来有关对抗样本的研究和文献进行了总结,按照各自的算法原理将经典的生成算法分成两大类——全像素添加扰动和部分像素添加扰动.之后,以目标定向和目标非定向、黑盒测试和白盒测试、肉眼可见和肉眼不可见的二级分类标准进行二次分类.同时,使用 MNIST 数据集对各类代表性的方法进行了实验验证,以探究各种方法的优缺点.最后总结了生成对抗样本所面临的挑战及其可以发展的方向,并就该技术的发展前景进行了探讨.

内容简介:

本文重点对生成对抗样本的已有研究工作进行综述,主要选取了近年来有代表性的或取得比较显著效果的方法进行详细的原理介绍和优缺点分析.按照其生成方式和原理的不同,分为全像素添加扰动和部分像素添 加扰动两类.在此基础上,根据目标是否定向、是否黑盒和是否肉眼可见这 3 个标准进行细分,将各类方法中的 代表性算法在统一数据集(MNIST)上进行测试,验证并分析其优缺点,终总结提出未来的发展前景. 本文第 1 节主要介绍对抗样本的基本概念和基础知识,包括对抗样本本身的定义、其延伸有关的相关概念 以及基本操作流程.第 2 节则指出对抗样本是从深度学习中衍生出来的概念,同时介绍了对抗样本有效性的评估方法.第 3 节则介绍对抗样本的起源,说明了对抗样本的产生契机和原理解释.第 4 节介绍生成对抗样本的发展状况,以全像素添加扰动和部分像素添加扰动两大类进行算法说明,同时总结生成方法中常用的数据集.第 5 节是对第 4 节中代表方法的实验,结合对同一数据集的效果测试来说明各类方法的优缺点.通过这些优缺点,在 第 6 节中讨论对抗样本生成技术面临的挑战和前景预测.

目录:

  • 1 简 介

    • 1.1 样本的定义
    • 1.2 相关概念
    • 1.3 基本操作流程
  • 2 前 传

    • 2.1机器学习在分类问题中的运用
    • 2.2 深度学习在分类问题中的运用
    • 2.3 评估方法
  • 3 起源

    • 3.1 首次发现
    • 3.2 基本原理
  • 4 发 展

    • 4.1 分类方式及代表模型
    • 4.2 常用数据集
  • 5 实验结果对比

  • 6 面临挑战与前景预测

成为VIP会员查看完整内容
0
49

论文题目: Adversarial Attacks and Defenses in Images, Graphs and Text: A Review

简介: 深度神经网络(DNN)在不同领域的大量机器学习任务中取得了前所未有的成功。然而,对抗性例子的存在引起了人们对将深度学习应用于对安全性有严苛要求的应用程序的关注。因此,人们对研究不同数据类型(如图像数据、图数据和文本数据)上的DNN模型的攻击和防御机制越来越感兴趣。近期,来自密歇根州立大学的老师和同学们,对网络攻击的主要威胁及其成功应对措施进行系统全面的综述。特别的,他们在这篇综述中,针对性的回顾了三种流行数据类型(即、图像数据、图数据和文本数据)。

成为VIP会员查看完整内容
深度学习攻防对抗在图像数据、图数据以及文本数据上的应用.pdf
0
33

随着基于机器学习(ML)系统在医学、军事、汽车、基因组以及多媒体和社交网络等多种应用中的广泛应用,对抗式学习(AL)攻击(adversarial learning attacks)有很大的潜在危害。此篇AL的综述,针对统计分类器的攻击的防御。在介绍了相关术语以及攻击者和维护者的目标和可能的知识范围后,我们回顾了最近在test-time evasion (TTE)、数据中毒(DP)和反向工程(RE)攻击方面的工作,特别是针对这些攻击的防御。在此过程中,我们将鲁棒分类与异常检测(AD)、无监督和基于统计假设的防御和无攻击(no attack)假设的防御区分开来;我们识别了特定方法所需的超参数、其计算复杂性以及评估其性能的指标和质量。然后,我们深入挖掘,提供新的见解,挑战传统智慧,并针对尚未解决的问题,包括:1)稳健的分类与AD作为防御策略;2)认为攻击的成功程度随攻击强度的增加而增加,这忽略了对AD的敏感性;3)test-time evasion (TTE)攻击的小扰动:谬误或需求?4)一般假设的有效性,即攻击者知道要攻击的示例的真实程度;5)黑、灰或白盒攻击作为防御评估标准;6)基于查询的RE对广告防御的敏感性。 然后,我们给出了几种针对TTE、RE和DP攻击图像的防御的基准比较。论文最后讨论了持续的研究方向,包括检测攻击的最大挑战,其目的不是改变分类决策,而是简单地嵌入“假新闻”或其他虚假内容,而不被发现。

成为VIP会员查看完整内容
Adversarial Learning in Statistical Classification.pdf
0
18

异常检测是一个在各个研究领域和应用领域内得到广泛研究的重要问题。本研究的目的有两个方面:首先,我们对基于深度学习的异常检测的研究方法进行了系统全面的综述。此外,我们还回顾了这些方法对不同应用领域异常的应用,并评估了它们的有效性。我们根据所采用的基本假设和方法,将最先进的研究技术分为不同的类别。在每一类中,我们概述了基本的异常检测技术,以及它的变体,并给出了关键的假设,以区分正常行为和异常行为。对于我们介绍的每一类技术,我们还介绍了它们的优点和局限性,并讨论了这些技术在实际应用领域中的计算复杂性。最后,我们概述了研究中的未决问题和采用这些技术时所面临的挑战。

成为VIP会员查看完整内容
20190114-DEEP LEARNING FOR ANOMALY DETECTION A SURVEY.pdf
0
124
小贴士
相关VIP内容
专知会员服务
140+阅读 · 2020年6月16日
专知会员服务
71+阅读 · 2020年5月21日
专知会员服务
48+阅读 · 2020年5月5日
专知会员服务
34+阅读 · 2020年3月5日
【浙江大学】对抗样本生成技术综述
专知会员服务
49+阅读 · 2020年1月6日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
125+阅读 · 2019年10月12日
相关论文
Adversarial Attacks and Defenses in Images, Graphs and Text: A Review
Han Xu,Yao Ma,Haochen Liu,Debayan Deb,Hui Liu,Jiliang Tang,Anil K. Jain
13+阅读 · 2019年10月9日
Generative Adversarial Networks: A Survey and Taxonomy
Zhengwei Wang,Qi She,Tomas E. Ward
10+阅读 · 2019年6月4日
Sneha Chaudhari,Gungor Polatkan,Rohan Ramanath,Varun Mithal
12+阅读 · 2019年4月5日
A Comprehensive Survey on Graph Neural Networks
Zonghan Wu,Shirui Pan,Fengwen Chen,Guodong Long,Chengqi Zhang,Philip S. Yu
8+阅读 · 2019年3月10日
Ziwei Zhang,Peng Cui,Wenwu Zhu
37+阅读 · 2018年12月11日
He Huang,Changhu Wang,Philip S. Yu,Chang-Dong Wang
4+阅读 · 2018年11月12日
Thomas Elsken,Jan Hendrik Metzen,Frank Hutter
10+阅读 · 2018年9月5日
Mustansar Fiaz,Arif Mahmood,Soon Ki Jung
9+阅读 · 2018年2月14日
Chaowei Xiao,Bo Li,Jun-Yan Zhu,Warren He,Mingyan Liu,Dawn Song
8+阅读 · 2018年1月15日
Nicholas Carlini,David Wagner
10+阅读 · 2018年1月5日
Top