Code:https://github.com/Shen-Lab/GraphCL Paper: https://arxiv.org/abs/2010.13902

对于当前的图神经网络(GNNs)来说,图结构数据的可泛化、可迁移和鲁棒表示学习仍然是一个挑战。与为图像数据而开发的卷积神经网络(CNNs)不同,自监督学习和预训练很少用于GNNs。在这篇文章中,我们提出了一个图对比学习(GraphCL)框架来学习图数据的无监督表示。我们首先设计了四种类型的图扩充来包含不同的先验。然后,我们在四种不同的环境下系统地研究了图扩充的各种组合对多个数据集的影响:半监督、无监督、迁移学习和对抗性攻击。结果表明,与最先进的方法相比,即使不调优扩展范围,也不使用复杂的GNN架构,我们的GraphCL框架也可以生成类似或更好的可泛化性、可迁移性和健壮性的图表示。我们还研究了参数化图增强的范围和模式的影响,并在初步实验中观察了性能的进一步提高。

成为VIP会员查看完整内容
48

相关内容

【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
专知会员服务
32+阅读 · 2020年10月2日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
虚拟对抗训练:一种新颖的半监督学习正则化方法
人工智能前沿讲习班
8+阅读 · 2019年6月9日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
卷积神经网络四种卷积类型
炼数成金订阅号
18+阅读 · 2019年4月16日
如何处理多种退化类型的卷积超分辨率
算法与数学之美
6+阅读 · 2018年6月1日
该如何对「半监督学习算法」实际性应用进行评估?
炼数成金订阅号
7+阅读 · 2018年4月27日
Arxiv
8+阅读 · 2020年10月9日
Arxiv
4+阅读 · 2019年11月21日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
VIP会员
相关VIP内容
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
专知会员服务
32+阅读 · 2020年10月2日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
微信扫码咨询专知VIP会员