The powerful reasoning and generative capabilities of large language models (LLMs) have inspired researchers to apply them to reasoning-based recommendation tasks, which require in-depth reasoning about user interests and the generation of recommended items. However, previous reasoning-based recommendation methods have typically performed inference within the language space alone, without incorporating the actual item space. This has led to over-interpreting user interests and deviating from real items. Towards this research gap, we propose performing multiple rounds of grounding during inference to help the LLM better understand the actual item space, which could ensure that its reasoning remains aligned with real items. Furthermore, we introduce a user agent that provides feedback during each grounding step, enabling the LLM to better recognize and adapt to user interests. Comprehensive experiments conducted on three Amazon review datasets demonstrate the effectiveness of incorporating multiple groundings and feedback. These findings underscore the critical importance of reasoning within the actual item space, rather than being confined to the language space, for recommendation tasks.


翻译:大语言模型(LLMs)强大的推理与生成能力激发了研究者将其应用于基于推理的推荐任务,这类任务需要深入推理用户兴趣并生成推荐项目。然而,先前的基于推理的推荐方法通常仅在语言空间内进行推断,未结合实际项目空间,这导致了对用户兴趣的过度解读并偏离了真实项目。针对这一研究空白,我们提出在推理过程中执行多轮锚定,以帮助大语言模型更好地理解实际项目空间,从而确保其推理与真实项目保持一致。此外,我们引入了一个用户代理,在每轮锚定步骤中提供反馈,使大语言模型能够更好地识别并适应用户兴趣。在三个亚马逊评论数据集上进行的全面实验证明了结合多轮锚定与反馈的有效性。这些发现强调了在推荐任务中,于实际项目空间而非局限于语言空间内进行推理的至关重要性。

0
下载
关闭预览

相关内容

【WSDM2024】DiffKG:面向推荐的知识图谱扩散模型
专知会员服务
28+阅读 · 2024年1月17日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
49+阅读 · 2020年9月6日
【CIKM2020】多模态知识图谱推荐系统,Multi-modal KG for RS
专知会员服务
98+阅读 · 2020年8月24日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员