【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩

2022 年 6 月 10 日 专知

深度图神经网络(Deep graph neural networks, GNNs)能够很好地表达图结构数据的建模。然而,深度图模型的过载架构使得其难以在移动或嵌入式系统上部署和快速测试。为了压缩重叠的GNN,通过师生架构进行知识蒸馏是一种有效的技术,其中的关键步骤是用预定义的距离函数测量教师和学生网络之间的差异。然而,对各种结构的图使用相同的距离可能是不合适的,最优距离公式难以确定。为了解决这些问题,我们提出了一种新的对抗性知识蒸馏框架,命名为GraphAKD,它对抗性训练一个鉴别器和一个生成器,自适应检测和减少差异。特别地,注意到良好捕获的节点间和类间相关性有利于深度GNN的成功,我们提出使用可训练的鉴别器来批判从节点级和类级视图继承的知识。鉴别器区分老师的知识和学生继承的知识,而学生GNN作为生成器,目的是欺骗鉴别器。据我们所知,GraphAKD是第一个将对抗性训练引入到图领域知识蒸馏的系统。在节点级和图级分类基准上的实验表明,GraphAKD在很大程度上提高了学生的表现。结果表明,GraphAKD能够准确地将知识从复杂的教师GNN传递到紧凑的学生GNN。


https://arxiv.org/pdf/2205.11678.pdf



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GAKD” 就可以获取【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
0

相关内容

【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
专知会员服务
14+阅读 · 2021年8月10日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
45+阅读 · 2021年6月20日
专知会员服务
47+阅读 · 2020年9月20日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
【CVPR2022】基于知识蒸馏的高效预训练
专知
4+阅读 · 2022年4月23日
【AAAI2022】锚框排序知识蒸馏的目标检测
专知
0+阅读 · 2022年2月10日
【WSDM2022】具有分层注意力的图嵌入
专知
0+阅读 · 2021年11月17日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年7月27日
Arxiv
28+阅读 · 2018年4月6日
VIP会员
相关VIP内容
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
专知会员服务
14+阅读 · 2021年8月10日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
45+阅读 · 2021年6月20日
专知会员服务
47+阅读 · 2020年9月20日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员