Given a natural language statement, how to verify its veracity against a large-scale textual knowledge source like Wikipedia? Most existing neural models make predictions without giving clues about which part of a false claim goes wrong. In this paper, we propose LOREN, an approach for interpretable fact verification. We decompose the verification of the whole claim at phrase-level, where the veracity of the phrases serves as explanations and can be aggregated into the final verdict according to logical rules. The key insight of LOREN is to represent claim phrase veracity as three-valued latent variables, which are regularized by aggregation logical rules. The final claim verification is based on all latent variables. Thus, LOREN enjoys the additional benefit of interpretability -- it is easy to explain how it reaches certain results with claim phrase veracity. Experiments on a public fact verification benchmark show that LOREN is competitive against previous approaches while enjoying the merit of faithful and accurate interpretability. The resources of LOREN are available at: https://github.com/jiangjiechen/LOREN.


翻译:根据自然语言说明,如何对照像维基百科这样的大规模文本知识来源核实其真实性?大多数现有神经模型在不提供线索的情况下作出预测,而没有说明虚假主张的哪一部分是错误的。在本文件中,我们提议LOREN,这是可解释事实核实的一种方法。我们将整个主张的核查分解到短语一级,这些短语的真实性可以作为解释,并可以按照逻辑规则汇总到最终裁决中。LOREN的关键见解是将真实性作为三价潜在变数来表示,这三价潜在变数通过合并逻辑规则加以规范。最后的索赔核查以所有潜在变数为基础。因此,LOREN享有解释性的额外好处。因此,LOREN很容易解释它如何用真实性短语取得某些结果。关于公共事实核查基准的实验表明,LOREN在享有忠诚和准确解释的优点的同时,与以前的办法相比具有竞争力。LOREN的资源见https://github.com/jiangjiechen/LOREN。

8
下载
关闭预览

相关内容

【Cell】神经算法推理,Neural algorithmic reasoning
专知会员服务
27+阅读 · 2021年7月16日
专知会员服务
61+阅读 · 2021年6月22日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
49+阅读 · 2020年8月25日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
195+阅读 · 2020年2月24日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2019年11月20日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
多目标的强化学习教程
CreateAMind
4+阅读 · 2018年1月25日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Logic Rules Powered Knowledge Graph Embedding
Arxiv
7+阅读 · 2019年3月9日
Arxiv
11+阅读 · 2018年1月18日
Arxiv
3+阅读 · 2017年12月23日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年11月20日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
多目标的强化学习教程
CreateAMind
4+阅读 · 2018年1月25日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员