论文题目: Adversarial Explanations for Understanding Image Classification Decisions and Improved Neural Network Robustness

论文摘要: 对于敏感问题,如医学成像或欺诈检测,由于担心其可靠性,神经网络(NN)的采用进程一直很慢。NNs还容易受到一类不可察觉的攻击,称为对抗性攻击,这些攻击会任意改变网络的输出。在这里,我们证明了这些攻击可以使先前解释NNs决策的尝试失效,并且对于非常健壮的网络,攻击本身可以作为对模型更精确的解释。我们证明,在Lipschitz约束的启发下引入一种新的正则化技术,以及其他提出的改进,极大地提高了神经网络对对抗性例子的抵抗能力。在ImageNet分类任务中,我们展示了一个精度稳健性区域(ARA)为0.0053的网络,ARA比现有技术高2.4倍。提高对决策的理解是在敏感领域建立信任和进一步了解神经网络对刺激的反应的重要方向。

作者简介:

Jack Chen,美国戴尔公司,首席数据科学家。

Christof Teuscher,波特兰州立大学(PSU)电子与计算机工程系(ECE)的正式教授。他的研究团队研究下一代计算模型和技术。

下载链接: https://arxiv.org/pdf/1906.02896.pdf

成为VIP会员查看完整内容
12

相关内容

图像分类是指给定一组各自被标记为单一类别的图像,然后对一组新的测试图像的类别进行预测,并测量预测的准确性结果。
ICLR 2019论文解读:量化神经网络
机器之心
9+阅读 · 2019年6月13日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
Nature 一周论文导读 | 2019 年 2 月 14 日
科研圈
7+阅读 · 2019年2月24日
理解 YOLO 目标检测
AI研习社
19+阅读 · 2018年11月5日
Nature 一周论文导读 | 2018 年 3 月 29 日
科研圈
12+阅读 · 2018年4月7日
论文分类
统计学习与视觉计算组
5+阅读 · 2018年3月13日
一文帮你理解什么是深层置信网络(DBN)
Arxiv
8+阅读 · 2019年2月15日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Arxiv
9+阅读 · 2018年1月4日
VIP会员
相关VIP内容
相关资讯
ICLR 2019论文解读:量化神经网络
机器之心
9+阅读 · 2019年6月13日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
Nature 一周论文导读 | 2019 年 2 月 14 日
科研圈
7+阅读 · 2019年2月24日
理解 YOLO 目标检测
AI研习社
19+阅读 · 2018年11月5日
Nature 一周论文导读 | 2018 年 3 月 29 日
科研圈
12+阅读 · 2018年4月7日
论文分类
统计学习与视觉计算组
5+阅读 · 2018年3月13日
一文帮你理解什么是深层置信网络(DBN)
微信扫码咨询专知VIP会员