Achieving human-level performance on some of Machine Reading Comprehension (MRC) datasets is no longer challenging with the help of powerful Pre-trained Language Models (PLMs). However, it is necessary to provide both answer prediction and its explanation to further improve the MRC system's reliability, especially for real-life applications. In this paper, we propose a new benchmark called ExpMRC for evaluating the explainability of the MRC systems. ExpMRC contains four subsets, including SQuAD, CMRC 2018, RACE$^+$, and C$^3$ with additional annotations of the answer's evidence. The MRC systems are required to give not only the correct answer but also its explanation. We use state-of-the-art pre-trained language models to build baseline systems and adopt various unsupervised approaches to extract evidence without a human-annotated training set. The experimental results show that these models are still far from human performance, suggesting that the ExpMRC is challenging. Resources will be available through https://github.com/ymcui/expmrc


翻译:在强大的预先培训语言模型(PLM)的帮助下,实现某些机器阅读综合(MRC)数据集的人类水平绩效已不再具有挑战性,但是,有必要提供答案预测及其解释,以进一步提高MRC系统的可靠性,特别是实际应用的可靠性。在本文件中,我们提议了一个新的基准,称为ExpMRC,用于评价MRC系统的可解释性。ExmMRC包含四个子集,包括SQuAD、CMRC 2018、RAC$ $ 和C$3$,并附有对答案证据的补充说明。MRC系统不仅需要给出正确的答案,而且还需要给出解释。我们使用最先进的预先培训语言模型来建立基线系统,并采用各种不受监督的方法在没有人类附加说明的培训设备的情况下提取证据。实验结果表明,这些模型仍然远离人类的绩效,表明ExpMRC具有挑战性。资源将通过https://github.com/ymcui/cricrc提供。

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
34+阅读 · 2020年9月3日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
24+阅读 · 2019年10月18日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
38+阅读 · 2019年10月9日
NLP、KG相关软件、工具、资源汇总
AINLP
8+阅读 · 2020年7月8日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
搜狗开源机器阅读理解工具箱
专知
19+阅读 · 2019年5月16日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
自然语言处理 (NLP)资源大全
机械鸡
35+阅读 · 2017年9月17日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
8+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2018年11月29日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
VIP会员
相关资讯
NLP、KG相关软件、工具、资源汇总
AINLP
8+阅读 · 2020年7月8日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
搜狗开源机器阅读理解工具箱
专知
19+阅读 · 2019年5月16日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
自然语言处理 (NLP)资源大全
机械鸡
35+阅读 · 2017年9月17日
Top
微信扫码咨询专知VIP会员