大多数关于自动事实核查的现有工作都是基于元数据、社会网络传播、声明中使用的语言,以及最近支持或否认声明的证据,来预测声明的准确性。这个谜题中仍然缺失的一个关键部分是,理解如何自动化这个过程中最复杂的部分——为声明的裁决生成理由。本文首次研究了如何根据可用的声明上下文自动生成这些解释,以及如何将此任务与准确性预测联合建模。我们的结果表明,同时优化这两个目标,而不是分别训练它们,可以提高事实核查系统的性能。手工评估的结果进一步表明,在多任务模型中生成的解释的信息量、覆盖率和整体质量也得到了提高。

成为VIP会员查看完整内容
16

相关内容

【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
干货 | 可解释的机器学习
AI科技评论
18+阅读 · 2019年7月3日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
相对的判别器:现有GAN存在关键属性缺失
论智
33+阅读 · 2018年7月4日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
3+阅读 · 2019年10月31日
Arxiv
7+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关VIP内容
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
相关论文
微信扫码咨询专知VIP会员