WWW2020|基于知识图谱的负采样模型在推荐系统中的应用(已开源)

2020 年 4 月 3 日 THU数据派


来源:机器学习blog


本文约2215字,建议阅读6分钟
本文介绍了一种新的负采样模型,知识图谱策略网络(KGPolicy),以强化学习智能体的形式来探索高质量负样本。  
Reinforced Negative Sampling over Knowledge Graph for Recommendation
Xiang Wang, Yaokun Xu , Xiangnan He, Yixin Cao, Meng Wang, Tat-Seng Chua
National University of Singapore, Southeast University, University of Science and Technology of China, HeFei University of Technology
http://staff.ustc.edu.cn/~hexn/papers/www20-KGPolicy.pdf

在推荐系统中,适当的处理缺失数据具有一定的挑战性。

目前,大多数工作都会从未观测数据中进行负采样,进而能够训练带有负信号的推荐模型。但是,目前的负采样策略,无论是静态负采样还是自适应负采样,都无法得到高质量的负样本,这些负样本对辅助模型训练和反应用户真实需求方面的能力都有所欠缺。

这篇文章中,作出这样一个假设,即商品的知识图谱能够对商品和知识图谱实体之间提供比较丰富的信息,这有助于得到信息丰富和比较真实的负样本。

为此,作者们提出一种新的负采样模型,知识图谱策略网络(KGPolicy),以强化学习智能体的形式来探索高质量负样本。具体而言即为,通过设计适当的探索操作,该模型从目标正样本的交互中自适应接收带有知识的负样本信息,最终产生潜在的负样本商品来训练推荐模型。

将矩阵分解跟KGPolicy结合后,相对STOA采样方法(比如DNS和IRGAN)和利用知识图谱强化的推荐模型(如KGAT)取得了显著提升。

负采样主要可以分为三类

这三类侧重点的不同主要体现在以下方面

高质量负样本具有以下两个特点

负样本蒸馏图示如下

本文所提模型为

这篇文章的主要贡献有以下几点

下面是一些符号约定

下面是问题描述

下面是多跳路径以及负样本的示例

模型框架以及基于知识图谱的负采样图示如下

目标函数定义如下

信息量较大的负样本具有以下特性

负采样作为强化学习的细节过程如下

下面是状态的定义

行为的定义如下

状态转移动力学定义如下

奖励函数基于以下两个因素来定义

下面是目标函数的定义

下面是图学习模块的形式

探索操作可以分为两步

下面是如何得到带有注意力的知识图谱紧邻点

下面是得到带有注意力的商品邻点方式

关于模型训练及优化,作者们采取了以下策略

数据集信息统计如下

参与对比的几种采样方法如下

参与对比的几种基于知识图谱的推荐模型有以下几个

评价指标为

参数设置如下

不同推荐模型的效果对比如下

不同的采样方法效果对比如下

探索操作的个数效果对比如下

奖励函数的影响对比如下

平均梯度随训练迭代次数的变化趋势如下

代码地址
https://github.com/xiangwang1223/kgpolicy

——END——


登录查看更多
10

相关内容

自然语言处理领域中,判断两个单词是不是一对上下文词(context)与目标词(target),如果是一对,则是正样本,如果不是一对,则是负样本。采样得到一个上下文词和一个目标词,生成一个正样本(positive example),生成一个负样本(negative example),则是用与正样本相同的上下文词,再在字典中随机选择一个单词,这就是负采样(negative sampling)。
【SIGIR2020-微软】知识图谱上的增强推荐推理
专知会员服务
72+阅读 · 2020年5月30日
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
68+阅读 · 2020年4月7日
近期必读的6篇AI顶会WWW2020【推荐系统】相关论文
专知会员服务
56+阅读 · 2020年2月25日
专知会员服务
84+阅读 · 2020年1月20日
ACL 2019开源论文 | 基于Attention的知识图谱关系预测
论文浅尝 | 基于知识图谱中图卷积神经网络的推荐系统
开放知识图谱
67+阅读 · 2019年8月27日
论文浅尝 | 面向知识图谱补全的共享嵌入神经网络模型
开放知识图谱
30+阅读 · 2019年4月7日
如何将知识图谱特征学习应用到推荐系统?
微软研究院AI头条
7+阅读 · 2018年6月5日
Arxiv
19+阅读 · 2019年11月23日
Arxiv
7+阅读 · 2018年8月28日
VIP会员
Top
微信扫码咨询专知VIP会员