Collaborative Filtering~(CF) plays a crucial role in modern recommender systems, leveraging historical user-item interactions to provide personalized suggestions. However, CF-based methods often encounter biases due to imbalances in training data. This phenomenon makes CF-based methods tend to prioritize recommending popular items and performing unsatisfactorily on inactive users. Existing works address this issue by rebalancing training samples, reranking recommendation results, or making the modeling process robust to the bias. Despite their effectiveness, these approaches can compromise accuracy or be sensitive to weighting strategies, making them challenging to train. In this paper, we deeply analyze the causes and effects of the biases and propose a framework to alleviate biases in recommendation from the perspective of representation distribution, namely Group-Alignment and Global-Uniformity Enhanced Representation Learning for Debiasing Recommendation (AURL). Specifically, we identify two significant problems in the representation distribution of users and items, namely group-discrepancy and global-collapse. These two problems directly lead to biases in the recommendation results. To this end, we propose two simple but effective regularizers in the representation space, respectively named group-alignment and global-uniformity. The goal of group-alignment is to bring the representation distribution of long-tail entities closer to that of popular entities, while global-uniformity aims to preserve the information of entities as much as possible by evenly distributing representations. Our method directly optimizes both the group-alignment and global-uniformity regularization terms to mitigate recommendation biases. Extensive experiments on three real datasets and various recommendation backbones verify the superiority of our proposed framework.


翻译:协同过滤(CF)在现代推荐系统中发挥着关键作用,其通过利用历史用户-物品交互数据来提供个性化推荐。然而,基于CF的方法常因训练数据的不平衡而遭遇偏差问题。这一现象导致CF方法倾向于优先推荐热门物品,并对非活跃用户表现不佳。现有研究通过重平衡训练样本、重排序推荐结果或增强模型对偏差的鲁棒性来解决该问题。尽管这些方法有效,但它们可能损害推荐准确性或对加权策略敏感,导致训练过程复杂。本文深入分析了推荐偏差的成因与影响,并从表征分布的角度提出一个缓解推荐偏差的框架,即基于组对齐与全局均匀性增强表征学习的去偏差推荐框架(AURL)。具体而言,我们识别出用户与物品表征分布中存在的两个关键问题:组间差异与全局坍缩。这两个问题直接导致了推荐结果的偏差。为此,我们在表征空间中提出两个简单而有效的正则化项,分别称为组对齐与全局均匀性。组对齐的目标是使长尾实体的表征分布更接近热门实体,而全局均匀性旨在通过均匀分布表征来尽可能保留实体信息。我们的方法通过直接优化组对齐与全局均匀性正则项来缓解推荐偏差。在三个真实数据集及多种推荐骨干模型上的大量实验验证了所提框架的优越性。

0
下载
关闭预览

相关内容

【IJCAI2021】基于图学习的推荐系统综述
专知会员服务
97+阅读 · 2021年5月7日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员