开创性的工作已经验证了扩散模型在探索推荐系统中信息不确定性方面的有效性。考虑到推荐任务与图像合成任务之间的差异,现有方法对扩散和逆过程进行了针对性的改进。然而,这些方法通常使用语料库中得分最高的项目来预测用户兴趣,导致忽视了用户在其他项目中包含的泛化偏好,从而仍受限于数据稀疏问题。为了解决这个问题,本文提出了一种新颖的推荐用插件扩散模型(PDRec)框架,该框架将扩散模型作为一个灵活的插件,共同充分利用在所有项目上扩散生成用户偏好的优势。具体而言,PDRec首先通过时间间隔扩散模型推断用户在所有项目上的动态偏好,并提出了历史行为重新加权(HBR)机制,以识别高质量行为并抑制噪声行为。除了观察到的项目,PDRec提出了基于扩散的正向增强(DPA)策略,利用排名靠前的未观察项目作为潜在正样本,引入信息丰富且多样化的软信号来缓解数据稀疏。为了缓解假阴性采样问题,PDRec采用无噪声负采样(NNS)来选择稳定的负样本,以确保有效的模型优化。在四个数据集上的广泛实验和分析验证了所提出的PDRec相较于最先进的基准模型的优越性,并展示了PDRec作为常用顺序编码器的灵活插件在不同推荐场景下的普遍性。代码可在https://github.com/hulkima/PDRec获得。

https://www.zhuanzhi.ai/paper/bb736441f0199d6b7e23e536a18d55fe

成为VIP会员查看完整内容
23

相关内容

【WSDM2024】DiffKG:面向推荐的知识图谱扩散模型
专知会员服务
22+阅读 · 1月17日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
21+阅读 · 2023年7月23日
【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
323+阅读 · 2023年3月31日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关VIP内容
【WSDM2024】DiffKG:面向推荐的知识图谱扩散模型
专知会员服务
22+阅读 · 1月17日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
21+阅读 · 2023年7月23日
【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员