In multi-turn dialog, utterances do not always take the full form of sentences \cite{Carbonell1983DiscoursePA}, which naturally makes understanding the dialog context more difficult. However, it is essential to fully grasp the dialog context to generate a reasonable response. Hence, in this paper, we propose to improve the response generation performance by examining the model's ability to answer a reading comprehension question, where the question is focused on the omitted information in the dialog. Enlightened by the multi-task learning scheme, we propose a joint framework that unifies these two tasks, sharing the same encoder to extract the common and task-invariant features with different decoders to learn task-specific features. To better fusing information from the question and the dialog history in the encoding part, we propose to augment the Transformer architecture with a memory updater, which is designed to selectively store and update the history dialog information so as to support downstream tasks. For the experiment, we employ human annotators to write and examine a large-scale dialog reading comprehension dataset. Extensive experiments are conducted on this dataset, and the results show that the proposed model brings substantial improvements over several strong baselines on both tasks. In this way, we demonstrate that reasoning can indeed help better response generation and vice versa. We release our large-scale dataset for further research.


翻译:在多方向的对话框中,语句并不总是采取完整的句子形式\cite{Carbonell1983Carbonell1983DiscoursePA},这自然会使对对话框背景的理解更加困难。然而,要完全掌握对话框背景以产生合理的响应,就必须充分掌握对话框背景,从而产生合理的响应。因此,在本文中,我们提议通过审查模型回答阅读理解问题的能力来改进响应生成的性能,问题集中在对话中遗漏的信息上。在多任务学习计划的启发下,我们提议一个联合框架,将这两项任务统一起来,与不同的解析器共享相同的编码,以提取共同和任务差异性特征,学习具体任务性能。为了更好地从问题和编码部分的对话历史中获取信息,我们建议用记忆更新器来增强变换结构,以便有选择地储存和更新历史对话信息,从而支持下游任务。在实验中,我们使用人类说明员来撰写和研究大规模对话读取数据集。在这个数据集上进行了广泛的实验,在进行广泛的实验中,并且结果显示我们提出的大尺度的模型的推理学方法,我们可以展示了模型的推算。

12
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
22+阅读 · 2019年10月18日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Arxiv
3+阅读 · 2018年11月29日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
VIP会员
Top
微信扫码咨询专知VIP会员