In this paper, we investigate the following two limitations for the existing distractor generation (DG) methods. First, the quality of the existing DG methods are still far from practical use. There is still room for DG quality improvement. Second, the existing DG designs are mainly for single distractor generation. However, for practical MCQ preparation, multiple distractors are desired. Aiming at these goals, in this paper, we present a new distractor generation scheme with multi-tasking and negative answer training strategies for effectively generating \textit{multiple} distractors. The experimental results show that (1) our model advances the state-of-the-art result from 28.65 to 39.81 (BLEU 1 score) and (2) the generated multiple distractors are diverse and show strong distracting power for multiple choice question.


翻译:在本文中,我们调查了现有分流器产生(DG)方法的以下两个限制:第一,现有DG方法的质量仍然远远没有实际使用,DG质量仍有改进的余地;第二,现有的DG设计主要用于单一分流器产生;然而,为了实际的 MMCQ 准备,需要多种分流器。为了实现这些目标,我们在本文件中提出了一个新的分流器产生(DG)产生(Textit{倍增)分流器的多重任务和负回答培训策略。实验结果表明:(1) 我们的模型推进了28.65至39.81(BLU 1分)的最新结果,以及(2) 产生的多重分流器是多种多样的,显示出对多重选择问题的强烈分散力。

0
下载
关闭预览

相关内容

最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
6+阅读 · 2018年4月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员