灾难性遗忘是指神经网络在学习新任务时“忘记”之前所学知识的倾向。以往的方法在克服这一问题上主要集中在卷积神经网络(CNNs),图像等输入样本位于一个网格域中,但在很大程度上忽略了处理非网格数据的图神经网络(GNNs)。在本文中,我们提出了一种新的方法来克服灾难性遗忘问题,从而加强网络中的持续学习。我们的方法的核心是一个通用模块,称为拓扑感知权值保持~(TWP),以即插即用的方式适用于任意形式的GNNs。主流的基于CNN的连续学习方法只依赖于减慢对下游任务很重要的参数的更新速度,而TWP不同于这种方法,它明确地探索了输入图的局部结构,并试图稳定在拓扑聚合中起关键作用的参数。我们在几个数据集上评估了TWP在不同GNN骨干上的性能,并证明了它产生的性能优于目前的技术状态。

成为VIP会员查看完整内容
17

相关内容

AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
37+阅读 · 2021年1月27日
专知会员服务
103+阅读 · 2020年12月22日
专知会员服务
107+阅读 · 2020年12月21日
最新《图神经网络实用指南》2020论文,28页pdf
专知会员服务
221+阅读 · 2020年10月17日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
专知会员服务
50+阅读 · 2020年7月16日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
图神经网络(GNN)结构化数据分析
专知
5+阅读 · 2020年3月22日
基于图卷积(GCN)和规则卷积(CNN)的情绪识别
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
图卷积神经网络(GCN)文本分类详述
专知
278+阅读 · 2019年4月5日
Arxiv
100+阅读 · 2020年3月4日
VIP会员
相关VIP内容
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
37+阅读 · 2021年1月27日
专知会员服务
103+阅读 · 2020年12月22日
专知会员服务
107+阅读 · 2020年12月21日
最新《图神经网络实用指南》2020论文,28页pdf
专知会员服务
221+阅读 · 2020年10月17日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
专知会员服务
50+阅读 · 2020年7月16日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
相关资讯
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
图神经网络(GNN)结构化数据分析
专知
5+阅读 · 2020年3月22日
基于图卷积(GCN)和规则卷积(CNN)的情绪识别
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
图卷积神经网络(GCN)文本分类详述
专知
278+阅读 · 2019年4月5日
微信扫码咨询专知VIP会员