Facebook@ICLR2021 比GNN快100倍的标签传播

2021 年 2 月 6 日 专知


图神经网络(GNN)是学习图的主要技术,并且已经得到非常广泛的应用。但是GNN训练往往需要大量的参数训练时间很长。这里我们可以通过组合忽略图结构的浅层模型利用标签结构相关性的两个简单后处理步骤,来获得GNN性能的提升。例如,在OGB-Products数据集上,相对性能最好的GNN模型,我们将参数减少137倍训练时间减少超过100倍,还能获得更好的性能


(1)“误差相关性”,它分散训练数据中的残留错误以纠正测试数据中的错误


(2)“预测相关性”,它使测试数据上的预测变平滑。我们称此过程为“纠正和平滑”(C&S)


后处理步骤是通过从早期基于图的半监督学习方法对标准标签传播技术进行简单修改而实现的。我们的方法在各种各样的网络上都超过或接近了最新的GNN的性能基准,并且参数和运行时间大大减小。我们将标签信息直接整合到学习算法中,从而获得简单而可观的性能提升。我们还将该技术融合到大型GNN模型中,从而获得性能的提升。


01

前言


近年来,研究人员提出了各种GNN,但是它们的性能提升却非常困难,也很难将 它们扩展到大型数据集。因此我们决定结合简单的多个模型来达到同样的目标。

我们提出了包含三个主要部分的简单管道,如图1所示

(1)使用节点特征(忽略图结构)做出 基本预测(例如MLP或线性模型)

(2)校正步骤,其将训练数据中的 不确定性传播到整个图上,以校正基本预测

(3) 平滑图上的预测

图1
左群集用橙色表示,右群集用蓝色表示。我们忽略图结构使用MLP进行基本预测,我们假设在此示例中的所有节点上都得到了相同的预测。然后,通过在训练数据中传播错误来校正基本预测。最后,用标签传播对校正的预测进行平滑。

通过对这些经典思想的修改和应用,我们可以在多个节点分类任务上获得最先进的性能,胜过了大型GNN模型。在我们的框架中,图结构 不用于学习参数,而是用作后处理。这种简单性导致模型的 参数 减少了几个数量级,从而训练所需的 时间也减少了几个数量级。我们还可以将我们的想法与最新的GNN相结合,并看到性能提升。

总体而言,结合几个简单的模型就可以在转导节点分类中获得出色的性能,而 参数数量和训练时间都很少。我们发现 将标签更直接地整合到学习算法中是关键。我们希望我们的方法能够激发出新的想法,这些 想法可以帮助完成其他图学习任务,例如归纳节点分类,链路预测和图预测。


02

纠正和平滑模型


我们首先用一个不依赖于图结构的基本预测器( 这里我们用线性预测或MLP即后处理来预测),得到基础预测   。之后,我们通过在训练数据上传播已知错误来估计错误   ,从而得到错误校正的预测   。最后,我们将它们视为未标记节点上的得分向量,并通过另一个LP步骤将它们与已知标记组合以生成平滑的最终预测。我们将此通用管道称为“纠正和平滑”(C&S)。


03

实验


首先只在C&S框架中使用训练标签,在九个数据集上得到结果如表1所示


表1


结果中包括(i)减少参数数量;(ii)与最新的GNN方法相比,我们最佳C&S模型的准确性变化;(iii)训练时间。可以看到我们的方法在 较少的参数,较快的训练速度上得到了 更准确的结果。

然后我们利用 训练和确认标签一起进行训练,其中确认标签不是用来更新基本预测模型的,是用来选择超参数的。得到了表4的结果。


表4


我们发现:

       1.大而难以训练的GNN在节点分类中不是必要的。


2.将分类标签传播和简单预测器结合可以比图神经网络表现更好。

与GNN或其他最先进的解决方案相比,我们的C&S框架通常需要更少的参数。我们在图2中绘制了产品的参数与性能的关系图。虽然使用较少的参数收益很大,但真正的收益在于训练时间的缩短,而且与具有相当的准确性的模型相比,我们的训练模型通常要快 几个数量级,因为我们没有将图结构用于基本预测。

图2


04

总结


近年来,GNN模型虽然性能变得 更好,但是其参数也越来越多,训练时间也越来越长。 因此我们考虑用其他方法来改善其性能,比如利用标签传播和特征增强技术。 特别地,标签传播及其变体是非常具有前瞻性的想法。 我们已经证明,将其纳入图学习模型可以获得更好的预测,更短的训练时间。

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
29+阅读 · 2021年2月26日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
107+阅读 · 2020年12月21日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
3倍加速CPU上的BERT模型部署
ApacheMXNet
11+阅读 · 2020年7月13日
【GNN】MPNN:消息传递神经网络
深度学习自然语言处理
17+阅读 · 2020年4月11日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Arxiv
4+阅读 · 2018年12月20日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年1月12日
VIP会员
相关VIP内容
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
29+阅读 · 2021年2月26日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
107+阅读 · 2020年12月21日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
相关资讯
3倍加速CPU上的BERT模型部署
ApacheMXNet
11+阅读 · 2020年7月13日
【GNN】MPNN:消息传递神经网络
深度学习自然语言处理
17+阅读 · 2020年4月11日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
相关论文
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Arxiv
4+阅读 · 2018年12月20日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员