Temporal Knowledge Graphs (Temporal KGs) extend regular Knowledge Graphs by providing temporal scopes (start and end times) on each edge in the KG. While Question Answering over KG (KGQA) has received some attention from the research community, QA over Temporal KGs (Temporal KGQA) is a relatively unexplored area. Lack of broad coverage datasets has been another factor limiting progress in this area. We address this challenge by presenting CRONQUESTIONS, the largest known Temporal KGQA dataset, clearly stratified into buckets of structural complexity. CRONQUESTIONS expands the only known previous dataset by a factor of 340x. We find that various state-of-the-art KGQA methods fall far short of the desired performance on this new dataset. In response, we also propose CRONKGQA, a transformer-based solution that exploits recent advances in Temporal KG embeddings, and achieves performance superior to all baselines, with an increase of 120% in accuracy over the next best performing method. Through extensive experiments, we give detailed insights into the workings of CRONKGQA, as well as situations where significant further improvements appear possible. In addition to the dataset, we have released our code as well.


翻译:时间知识图(Temporal KGGs)通过在KG的每个边缘提供时间范围(启动和结束时间),扩展常规知识图。 KG的每个边缘都有时间范围(启动和结束时间)。 KG(KGQA)的回答问题得到了研究界的某种关注,但Temporal KGGs(Temporal KGQA)的QA(Temporal KGQA)是一个相对未探索的领域。缺乏广泛的覆盖数据集是制约这个领域进展的另一个因素。我们通过展示CRONQG问题来应对这一挑战,这是已知的最大Temporal KGQA数据集,明确分为结构复杂性的桶。CRONQM问题扩大了已知的仅有的先前数据,由340x系数组成。我们发现,各种先进的KGQQA方法远远低于新数据集的预期性能。作为回应,我们还提议CRONKQQQA, 一种基于变压器的解决方案,利用Temporal KG嵌入最近的进展,并且实现所有基线的性优等基准的性,在下一个深度的精确度上增加了120%的精确度。我们作为CROSet的状态。通过广泛的实验, 。我们所释放的数据。

1
下载
关闭预览

相关内容

【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
66+阅读 · 2020年7月12日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
172+阅读 · 2020年2月13日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
280+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2017年12月12日
Arxiv
102+阅读 · 2020年3月4日
Arxiv
12+阅读 · 2019年2月26日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2017年12月12日
Top
微信扫码咨询专知VIP会员