基于知识的对话(KGD)学习基于给定对话环境和外部知识(例如,知识图谱;KGs)生成有信息量的回应。近期,大型语言模型(LLMs)和预训练技术的出现为基于知识的对话带来了巨大成功。然而,在实际应用中构建KGD系统时,各种现实世界的噪声是不可避免的。例如,对话环境可能涉及到的扰动包括拼写错误和缩写等。此外,知识图谱通常存在不完整性,也可能包含错误和过时的事实。这些现实世界的噪声对KGD系统的鲁棒性构成挑战,并阻碍了其在现实世界中的应用。在这篇论文中,我们提出了一个基于实体的对比学习框架,以提高KGD的鲁棒性。具体而言,我们利用KGD样本中的实体信息创建包含语义无关和语义相关扰动的正负样本。对比学习框架确保KGD模型意识到这两种类型的扰动,从而在现实应用中面对潜在噪声输入时生成有信息量的回应。在三个基准数据集上的实验结果显示,我们的方法在自动评估分数方面实现了新的最佳性能,验证了其有效性和潜力。此外,我们展示了我们的方法在噪声环境和少样本设置下都能比对比模型生成更好的回应。

成为VIP会员查看完整内容
20

相关内容

【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
13+阅读 · 2023年11月18日
【CIKM2023教程】会话人工智能的数据增强,170页ppt
专知会员服务
40+阅读 · 2023年11月11日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
41+阅读 · 2023年9月20日
模仿学习综述:算法、最新进展和挑战
专知会员服务
60+阅读 · 2023年9月9日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
36+阅读 · 2021年4月25日
专知会员服务
44+阅读 · 2020年3月6日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
18+阅读 · 2019年10月28日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
13+阅读 · 2023年11月18日
【CIKM2023教程】会话人工智能的数据增强,170页ppt
专知会员服务
40+阅读 · 2023年11月11日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
41+阅读 · 2023年9月20日
模仿学习综述:算法、最新进展和挑战
专知会员服务
60+阅读 · 2023年9月9日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
36+阅读 · 2021年4月25日
专知会员服务
44+阅读 · 2020年3月6日
相关基金
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员