In conversational machine reading, systems need to interpret natural language rules, answer high-level questions such as "May I qualify for VA health care benefits?", and ask follow-up clarification questions whose answer is necessary to answer the original question. However, existing works assume the rule text is provided for each user question, which neglects the essential retrieval step in real scenarios. In this work, we propose and investigate an open-retrieval setting of conversational machine reading. In the open-retrieval setting, the relevant rule texts are unknown so that a system needs to retrieve question-relevant evidence from a collection of rule texts, and answer users' high-level questions according to multiple retrieved rule texts in a conversational manner. We propose MUDERN, a Multi-passage Discourse-aware Entailment Reasoning Network which extracts conditions in the rule texts through discourse segmentation, conducts multi-passage entailment reasoning to answer user questions directly, or asks clarification follow-up questions to inquiry more information. On our created OR-ShARC dataset, MUDERN achieves the state-of-the-art performance, outperforming existing single-passage conversational machine reading models as well as a new multi-passage conversational machine reading baseline by a large margin. In addition, we conduct in-depth analyses to provide new insights into this new setting and our model.


翻译:在谈话机器阅读中,系统需要解释自然语言规则,回答诸如“我是否有资格获得健康护理福利”等高级问题,并询问后续的澄清问题,而这些问题的答案对于回答最初的问题是必要的。然而,现有的工作假设每个用户问题都提供规则文本,而这种文本忽视了真实情况下的基本检索步骤。在这项工作中,我们提议并调查一个开放的对讲机阅读的检索设置。在公开的检索环境中,有关规则文本是未知的,因此,一个系统需要从规则文本汇编中检索与问题相关的证据,并用对话方式根据多重检索的规则文本回答用户的高层次问题。我们建议MUDERN,一个多路分流分流的多路分流理解理由网络,在规则文本中提取条件,进行多路分流的推理,或要求澄清后续问题,以了解更多信息。关于我们创建的OR-SHAR数据集,MUDERNERN以新版的状态和最新版本的深度分析方式读取用户的状态,在新的单路深层次对话中,通过新的单路深度分析提供我们新的、演制式的大型的新的单路对话。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年6月12日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
22+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年11月6日
Incremental Reading for Question Answering
Arxiv
5+阅读 · 2019年1月15日
Arxiv
26+阅读 · 2018年9月21日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关VIP内容
专知会员服务
30+阅读 · 2021年6月12日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
22+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年11月6日
相关论文
Incremental Reading for Question Answering
Arxiv
5+阅读 · 2019年1月15日
Arxiv
26+阅读 · 2018年9月21日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
5+阅读 · 2018年5月1日
Top
微信扫码咨询专知VIP会员