Knowledge Distillation (KD), which transfers the knowledge of a well-trained large model (teacher) to a small model (student), has become an important area of research for practical deployment of recommender systems. Recently, Relaxed Ranking Distillation (RRD) has shown that distilling the ranking information in the recommendation list significantly improves the performance. However, the method still has limitations in that 1) it does not fully utilize the prediction errors of the student model, which makes the training not fully efficient, and 2) it only distills the user-side ranking information, which provides an insufficient view under the sparse implicit feedback. This paper presents Dual Correction strategy for Distillation (DCD), which transfers the ranking information from the teacher model to the student model in a more efficient manner. Most importantly, DCD uses the discrepancy between the teacher model and the student model predictions to decide which knowledge to be distilled. By doing so, DCD essentially provides the learning guidance tailored to "correcting" what the student model has failed to accurately predict. This process is applied for transferring the ranking information from the user-side as well as the item-side to address sparse implicit user feedback. Our experiments show that the proposed method outperforms the state-of-the-art baselines, and ablation studies validate the effectiveness of each component.


翻译:知识蒸馏(KD)将受过良好训练的大型模型(教师)的知识传授给一个小型模型(学生),它已成为实际应用推荐者系统的一个重要研究领域。最近,放松排名蒸馏(RRD)显示,在建议列表中蒸馏排名信息显著改进了绩效。然而,该方法仍然有以下局限性:1)它没有充分利用学生模型的预测错误,使培训不完全有效,2它只是蒸馏用户排位信息,这种信息在稀少的隐含反馈下没有提供足够的视图。本文介绍了双重校正蒸馏(DCD)战略,它以更有效的方式将教师模型的排名信息传递给学生模型。最重要的是,DCD使用教师模型与学生模型预测之间的差异来决定哪些知识要蒸馏。DCD这样做,基本上提供了针对学生模型未能准确预测的“校正”的学习指导。这个程序用于将排名信息从用户一侧传输,作为每个用户模型的测试部分,作为项目格式,展示了我们提出的隐性用户模型,并展示了我们提出的隐性用户模型的版本。

0
下载
关闭预览

相关内容

KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
已删除
将门创投
8+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Arxiv
9+阅读 · 2021年6月16日
Arxiv
91+阅读 · 2020年2月28日
Arxiv
9+阅读 · 2018年1月30日
VIP会员
相关VIP内容
相关资讯
KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
已删除
将门创投
8+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Top
微信扫码咨询专知VIP会员