Graph Neural Networks (GNNs) have shown promising results on a broad spectrum of applications. Most empirical studies of GNNs directly take the observed graph as input, assuming the observed structure perfectly depicts the accurate and complete relations between nodes. However, graphs in the real world are inevitably noisy or incomplete, which could even exacerbate the quality of graph representations. In this work, we propose a novel Variational Information Bottleneck guided Graph Structure Learning framework, namely VIB-GSL, in the perspective of information theory. VIB-GSL advances the Information Bottleneck (IB) principle for graph structure learning, providing a more elegant and universal framework for mining underlying task-relevant relations. VIB-GSL learns an informative and compressive graph structure to distill the actionable information for specific downstream tasks. VIB-GSL deduces a variational approximation for irregular graph data to form a tractable IB objective function, which facilitates training stability. Extensive experimental results demonstrate that the superior effectiveness and robustness of VIB-GSL.


翻译:神经网络图(GNNs)在广泛的应用方面显示了令人乐观的结果。对GNNs的大多数实验性研究都直接将观测到的图形作为投入,假设观察的结构完全能描述节点之间的准确和完整关系。然而,现实世界中的图表不可避免地噪音或不完整,甚至可能加剧图表的显示质量。在这项工作中,我们从信息理论的角度提出了一个新的变异信息数据库数据库指导图表结构学习框架,即VIB-GSL。VIB-GSL推进了图形结构学习的信息瓶点原则,为挖掘与任务有关的基本关系提供了一个更加优雅和普遍的框架。VIB-GSL学会了一种信息化和压缩的图形结构结构,为具体的下游任务收集可操作的信息。VIB-GSL为不规则的图形数据提出了一个变近似近度,以形成可移动的IB目标功能,从而便利培训的稳定。广泛的实验结果表明VIB-GSL的优势和稳健性。

11
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【图与几何深度学习】Graph and geometric deep learning,49页ppt
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
Graph: 表现再差,也不进行Pre-Training? Self-Supervised Learning真香!
机器学习与推荐算法
3+阅读 · 2020年6月30日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
8+阅读 · 2020年10月12日
Arxiv
13+阅读 · 2019年11月14日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关资讯
Graph: 表现再差,也不进行Pre-Training? Self-Supervised Learning真香!
机器学习与推荐算法
3+阅读 · 2020年6月30日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
7+阅读 · 2021年10月19日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
8+阅读 · 2020年10月12日
Arxiv
13+阅读 · 2019年11月14日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Arxiv
17+阅读 · 2019年3月28日
Top
微信扫码咨询专知VIP会员