Graph or network data is ubiquitous in the real world, including social networks, information networks, traffic networks, biological networks and various technical networks. The non-Euclidean nature of graph data poses the challenge for modeling and analyzing graph data. Recently, Graph Neural Network (GNNs) are proposed as a general and powerful framework to handle tasks on graph data, e.g., node embedding, link prediction and node classification. As a representative implementation of GNNs, Graph Attention Networks (GATs) are successfully applied in a variety of tasks on real datasets. However, GAT is designed to networks with only positive links and fails to handle signed networks which contain both positive and negative links. In this paper, we propose Signed Graph Attention Networks (SiGATs), generalizing GAT to signed networks. SiGAT incorporates graph motifs into GAT to capture two well-known theories in signed network research, i.e., balance theory and status theory. In SiGAT, motifs offer us the flexible structural pattern to aggregate and propagate messages on the signed network to generate node embeddings. We evaluate the proposed SiGAT method by applying it to the signed link prediction task. Experimental results on three real datasets demonstrate that SiGAT outperforms feature-based method, network embedding method and state-of-the-art GNN-based methods like signed graph convolutional network (SGCN).


翻译:图表或网络数据在现实世界中无处不在,包括社交网络、信息网络、交通网络、生物网络和各种技术网络。但是,图形数据的非欧化性质对建模和分析图形数据构成挑战。最近,提出了图表神经网络(GNN)作为处理图形数据任务的一般和强大的框架,例如节点嵌入、链接预测和节点分类。作为GNNS、图关注网络(GATs)在真实数据集上成功应用的多种任务的代表性实施。然而,GAT是设计给网络的,只有已签字的正链接,无法处理含有正和负链接的已签字网络。在本文件中,我们提议签署图形关注网络(SiGATs),将GATs向已签字的网络概括化。SiGAT将图形模型模型纳入GAT,以在已签字的网络研究中捕捉到两个众所周知的理论,即平衡理论和现状理论。在SiGATAT中,我们用已签字的网络的缩略图模式向我们提供了一个灵活的结构模式,在已签字的网络上将SiSGAT 格式转换为不显示实际任务状态。

7
下载
关闭预览

相关内容

图注意力网络(Graph Attention Network,GAT),它通过注意力机制(Attention Mechanism)来对邻居节点做聚合操作,实现了对不同邻居权重的自适应分配,从而大大提高了图神经网络模型的表达能力。
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
131+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
161+阅读 · 2020年4月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
101+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
CCF推荐 | 国际会议信息6条
Call4Papers
8+阅读 · 2019年8月13日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
333+阅读 · 2019年7月9日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
9+阅读 · 2017年9月24日
Arxiv
14+阅读 · 2019年4月4日
Arxiv
8+阅读 · 2019年2月19日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
6+阅读 · 2018年1月10日
VIP会员
相关VIP内容
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
131+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
161+阅读 · 2020年4月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
101+阅读 · 2019年11月25日
相关论文
Arxiv
14+阅读 · 2019年4月4日
Arxiv
8+阅读 · 2019年2月19日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
6+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员