基于知识库的问题生成(KBQG)任务旨在将逻辑形式转换为自然语言问题。由于大规模问题标注的成本昂贵,迫切需要开发低资源场景下的KBQG方法。然而,现有方法严重依赖于标注数据进行微调,不适合少样本问题生成。大型语言模型(LLM)的出现在小样本任务中表现出了令人印象深刻的泛化能力。受思维链(CoT)提示的启发,该文将KBQG任务表述为一个推理问题,将一个完整问题的生成分解为一系列子问题的生成。所提出的提示方法KQG-CoT首先考虑逻辑形式的特征,从未标记的数据池中选择支持逻辑形式。然后,构建一个特定于任务的提示,以指导LLM基于所选逻辑形式生成复杂的问题。为了进一步确保提示质量,我们通过对逻辑形式的复杂性进行排序,将KQG-CoT扩展为KQG-CoT+。在三个公开的KBQG数据集上进行了广泛的实验。结果表明,我们的提示方法在评估数据集上始终优于其他提示基线。值得注意的是,我们的KQG-CoT+方法可以在BLEU-4、METEOR和ROUGE-L上分别超过PathQuestions数据集现有的少样本SoTA结果18.25、10.72和10.18个绝对点。

成为VIP会员查看完整内容
56

相关内容

【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
20+阅读 · 2023年10月21日
【CVPR2023】探索少样本图像生成中的不兼容知识迁移
专知会员服务
20+阅读 · 2023年4月18日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
21+阅读 · 2021年9月27日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
专知会员服务
34+阅读 · 2020年11月29日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
72+阅读 · 2020年9月25日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
140+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
343+阅读 · 2023年3月31日
Arxiv
57+阅读 · 2023年3月26日
Arxiv
68+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
20+阅读 · 2023年10月21日
【CVPR2023】探索少样本图像生成中的不兼容知识迁移
专知会员服务
20+阅读 · 2023年4月18日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
21+阅读 · 2021年9月27日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
专知会员服务
34+阅读 · 2020年11月29日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
72+阅读 · 2020年9月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员