Session-based recommender systems have attracted much attention recently. To capture the sequential dependencies, previous sequential recommendation models resort either to data augmentation techniques or a left-to-right style autoregressive training approach. While effective, an obvious drawback is that future user behaviors are always missing during model training. In this paper, we argue that users' future action signals can be exploited to boost the recommendation quality. We present GRec, a simple Gap-filling based encoder-decoder Recommendation framework to generative modelling using both past and future contexts. GfedRec encodes a partially-complete item sequence with blank masks, and autoregressively reconstructs the missing item distributions. In contrast with the typical encoder-decoder paradigm used in the computer vision and NLP domains, GfedRec does not have the data leakage problem when jointly training the encoder and decoder conditioned on the same user action sequence. Experiments on real-word datasets with short-, medium- and long-range user sessions show that GRec largely exceeds the performance of its left-to-right counterparts. Empirical evidence confirms that training sequential recommendation models with future contexts is a promising way to offer better recommendation accuracy.


翻译:最近,基于会话的推荐系统引起了许多关注。 为了捕捉相继依赖关系, 先前的顺序建议模式要么采用数据增强技术, 要么采用左对右式自动递减式自动递减式培训方法。 虽然有效, 明显的缺点是, 在模式培训期间, 未来的用户行为总是缺失。 在本文中, 我们争论用户未来的行动信号可以被利用以提高建议质量。 我们展示了一个简单的基于空白的基于编码解码器- 解码器建议框架, 用于使用过去和今后环境的基因化建模。 GfedRec 将一个部分完整的项目序列编码为空白遮罩, 自动递增地重建缺失的项目分布。 与计算机视觉和 NLP 域中使用的典型编码解码器- 模式不同, GfedRec 在联合培训编码器和解码器以同一用户动作序列为条件时, 没有数据泄漏问题。 GreadRec 在短、 中、 长程用户会议中, 实验显示GRec 大大超过其左向右偏向对应方显示的功能的运行环境建议。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
CCF推荐 | 国际会议信息6条
Call4Papers
9+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
10+阅读 · 2019年2月19日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
22+阅读 · 2018年8月3日
Arxiv
13+阅读 · 2018年4月18日
Arxiv
8+阅读 · 2018年2月23日
Arxiv
6+阅读 · 2017年12月2日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
CCF推荐 | 国际会议信息6条
Call4Papers
9+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Arxiv
10+阅读 · 2019年2月19日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
22+阅读 · 2018年8月3日
Arxiv
13+阅读 · 2018年4月18日
Arxiv
8+阅读 · 2018年2月23日
Arxiv
6+阅读 · 2017年12月2日
Arxiv
5+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员