推荐系统(RS)采用知识蒸馏,这是一种模型压缩技术,用从预训练的大型教师模型迁移的知识来训练紧凑的学生模型。最近的研究表明,从教师的中间层迁移知识显著提高了学生的推荐质量。但是,它们是逐点迁移个体表示的知识,因此存在一个局限,即RS的主要信息在于表示空间中的关系。本文提出了一种新的拓扑蒸馏方法,通过将建立在教师空间关系上的拓扑结构传递给学生来指导学生进行拓扑蒸馏。我们首先观察到,简单地让学生学习整个拓扑结构并不总是有效的,甚至会降低学生的表现。我们证明,因为与老师相比,学生的能力是非常有限的,学习整个拓扑结构对学生来说是令人生畏的。为了解决这一问题,我们提出了一种新的分层拓扑蒸馏(HTD)方法,该方法可以分层地对拓扑进行蒸馏,以应对较大的容量缺口。我们在真实数据集上的大量实验表明,提出的方法明显优于先进的竞争对手。我们还提供了深入的分析,以确定提取RS拓扑的好处。

https://www.zhuanzhi.ai/paper/4eff9a6ca0a1450628e09261c3b9dd2d

成为VIP会员查看完整内容
26

相关内容

专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
17+阅读 · 2021年7月20日
专知会员服务
24+阅读 · 2021年6月17日
【WWW2021】场矩阵分解机推荐系统
专知会员服务
31+阅读 · 2021年2月27日
【WSDM2021】通过学习中间监督信号改进多跳知识库问答
专知会员服务
10+阅读 · 2021年1月14日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【KDD2020】图神经网络:基础与应用,322页ppt
【KDD2020】复杂异构网络中的高阶聚类
专知
8+阅读 · 2020年8月27日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
7+阅读 · 2020年8月26日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
模型压缩 | 知识蒸馏经典解读
AINLP
9+阅读 · 2020年5月31日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
Arxiv
9+阅读 · 2021年6月16日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
17+阅读 · 2021年7月20日
专知会员服务
24+阅读 · 2021年6月17日
【WWW2021】场矩阵分解机推荐系统
专知会员服务
31+阅读 · 2021年2月27日
【WSDM2021】通过学习中间监督信号改进多跳知识库问答
专知会员服务
10+阅读 · 2021年1月14日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
相关资讯
【KDD2020】图神经网络:基础与应用,322页ppt
【KDD2020】复杂异构网络中的高阶聚类
专知
8+阅读 · 2020年8月27日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
7+阅读 · 2020年8月26日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
模型压缩 | 知识蒸馏经典解读
AINLP
9+阅读 · 2020年5月31日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
微信扫码咨询专知VIP会员