Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.


翻译:大型语言模型(LLMs)通过生成类人响应,在对话系统中取得了显著成功。然而,当需要考量个性化或特定知识时,它们可能表现不足。在实际场景中,依赖用户检测这些错误并请求新响应是不切实际的。解决此问题的一种方法是在将响应返回给用户前对其进行精炼。现有方法侧重于在单个LLM内精炼响应,但难以兼顾有效对话所需的多样化方面。本研究提出通过多智能体框架精炼响应,其中每个智能体被分配负责特定方面的角色。我们聚焦于对话质量的三个关键方面:事实性、个性化和连贯性。每个智能体负责审查和精炼其中一个方面,其反馈随后被整合以提升整体响应质量。为增强智能体间的协作,我们引入了一种动态通信策略。不同于固定顺序的智能体调用,我们的方法根据每个查询的具体需求自适应地选择和协调最相关的智能体。我们在具有挑战性的对话数据集上验证了该框架,结果表明我们的方法显著优于相关基线,尤其是在涉及知识、用户角色或两者兼具的任务中。

0
下载
关闭预览

相关内容

【ICML2024】社区不变图对比学习
专知会员服务
24+阅读 · 2024年5月4日
Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员