本文研究了一种知识迁移的新范式,旨在通过将知识从在完全图上训练的教师GNN模型提取到在更小或更稀疏的图上操作的学生GNN模型,将图拓扑信息编码到图神经网络(GNN)中。为此,我们回顾了热力学和GNN行为之间的联系,在此基础上,我们提出了神经热核(NHK)来封装与GNN体系结构有关的底层流形的几何特性。一个基本的和原则性的解决方案是通过对齐教师和学生模型的NHKs,称为几何知识蒸馏。我们开发了非参数实例化和参数化实例化,并在不同的实验设置中演示了它们的有效性,用于不同类型的特权拓扑信息和师生方案的知识蒸馏。

https://arxiv.org/pdf/2210.13014.pdf

成为VIP会员查看完整内容
24

相关内容

【NeurIPS22系列】几何视角下 GNN 的拓扑知识表示与迁移
专知会员服务
19+阅读 · 2022年12月7日
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【WWW2022】互信息压缩的紧凑图结构学习
专知会员服务
31+阅读 · 2022年1月17日
【NeurIPS2021】任务导向的无监督域自适应
专知会员服务
16+阅读 · 2021年11月20日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
26+阅读 · 2021年6月18日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【NeurIPS2022】具有自适应读出的图神经网络
WSDM2022 | 基于双曲几何无标度图建模的知识感知推荐算法
机器学习与推荐算法
0+阅读 · 2022年8月2日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
21+阅读 · 2021年12月2日
Arxiv
11+阅读 · 2018年10月17日
VIP会员
相关VIP内容
【NeurIPS22系列】几何视角下 GNN 的拓扑知识表示与迁移
专知会员服务
19+阅读 · 2022年12月7日
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【WWW2022】互信息压缩的紧凑图结构学习
专知会员服务
31+阅读 · 2022年1月17日
【NeurIPS2021】任务导向的无监督域自适应
专知会员服务
16+阅读 · 2021年11月20日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
26+阅读 · 2021年6月18日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员