Temporal Knowledge Graph Question Answering (TKGQA) aims to answer time-sensitive questions by leveraging factual information from Temporal Knowledge Graphs (TKGs). While previous studies have employed pre-trained TKG embeddings or graph neural networks to inject temporal knowledge, they fail to fully understand the complex semantic information of time constraints. Recently, Large Language Models (LLMs) have shown remarkable progress, benefiting from their strong semantic understanding and reasoning generalization capabilities. However, their temporal reasoning ability remains limited. LLMs frequently suffer from hallucination and a lack of knowledge. To address these limitations, we propose the Plan of Knowledge framework with a contrastive temporal retriever, which is named PoK. Specifically, the proposed Plan of Knowledge module decomposes a complex temporal question into a sequence of sub-objectives from the pre-defined tools, serving as intermediate guidance for reasoning exploration. In parallel, we construct a Temporal Knowledge Store (TKS) with a contrastive retrieval framework, enabling the model to selectively retrieve semantically and temporally aligned facts from TKGs. By combining structured planning with temporal knowledge retrieval, PoK effectively enhances the interpretability and factual consistency of temporal reasoning. Extensive experiments on four benchmark TKGQA datasets demonstrate that PoK significantly improves the retrieval precision and reasoning accuracy of LLMs, surpassing the performance of the state-of-the-art TKGQA methods by 56.0% at most.


翻译:时序知识图谱问答(TKGQA)旨在通过利用时序知识图谱(TKGs)中的事实信息来回答时间敏感性问题。尽管先前的研究已采用预训练的TKG嵌入或图神经网络来注入时序知识,但它们未能充分理解时间约束的复杂语义信息。近年来,大型语言模型(LLMs)凭借其强大的语义理解和推理泛化能力取得了显著进展。然而,其时序推理能力仍有限制,LLMs常出现幻觉现象且知识储备不足。为应对这些局限,我们提出了名为PoK的框架,该框架包含一个对比时序检索器,即知识规划框架。具体而言,所提出的知识规划模块将复杂的时序问题分解为一系列来自预定义工具的子目标,作为推理探索的中间指导。同时,我们构建了一个基于对比检索框架的时序知识存储库(TKS),使模型能够从TKGs中有选择地检索语义和时序对齐的事实。通过将结构化规划与时序知识检索相结合,PoK有效增强了时序推理的可解释性和事实一致性。在四个基准TKGQA数据集上的大量实验表明,PoK显著提升了LLMs的检索精度和推理准确率,最高超越当前最先进的TKGQA方法性能达56.0%。

0
下载
关闭预览

相关内容

RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
87+阅读 · 2024年5月3日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员