Graph Neural Networks (GNNs) have received significant attention due to their state-of-the-art performance on various graph representation learning tasks. However, recent studies reveal that GNNs are vulnerable to adversarial attacks, i.e. an attacker is able to fool the GNNs by perturbing the graph structure or node features deliberately. While being able to successfully decrease the performance of GNNs, most existing attacking algorithms require access to either the model parameters or the training data, which is not practical in the real world. In this paper, we develop deeper insights into the Mettack algorithm, which is a representative grey-box attacking method, and then we propose a gradient-based black-box attacking algorithm. Firstly, we show that the Mettack algorithm will perturb the edges unevenly, thus the attack will be highly dependent on a specific training set. As a result, a simple yet useful strategy to defense against Mettack is to train the GNN with the validation set. Secondly, to overcome the drawbacks, we propose the Black-Box Gradient Attack (BBGA) algorithm. Extensive experiments demonstrate that out proposed method is able to achieve stable attack performance without accessing the training sets of the GNNs. Further results shows that our proposed method is also applicable when attacking against various defense methods.


翻译:神经网图(GNNs)因其在各种图形化教学任务方面的最先进的表现而受到高度重视。然而,最近的研究表明,GNNs很容易受到对抗性攻击,即攻击者能够故意干扰图形结构或节点特征,从而愚弄GNNs。虽然大多数现有的攻击算法能够成功地降低GNNs的性能,但大多数现有的攻击算法需要获得模型参数或培训数据,这在现实世界并不现实。在本文中,我们对Mettack算法有了更深刻的洞察力,该算法是一种具有代表性的灰箱攻击方法,然后我们提出一种基于梯度的黑箱攻击算法。首先,我们表明Mettack算法将不平均地干扰GNNs。因此,针对Mettack的大多数攻击算法都需要一个简单但有用的战略,即用验证数据集来训练GNNNCs。第二,为了克服后退,我们提议采用黑-Box Gradent 进攻(BBGGA) 算法,我们提出的一个基于梯子的黑-BBG的黑箱攻击性研究算法也表明,在不使用各种攻击性方法时,进取进取了各种攻击性方法。

1
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
一份简单《图神经网络》教程,28页ppt
专知会员服务
120+阅读 · 2020年8月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月20日
Arxiv
12+阅读 · 2020年12月10日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关VIP内容
相关资讯
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员