大型语言模型(LLMs)在广泛的自然语言处理任务中展现出了卓越的性能。然而,时间推理,尤其是在复杂时间约束下的推理,仍然是一项重大挑战。为此,现有方法探索了两类方向:其一是符号方法,通过显式编码时间结构来处理时间关系;其二是反思机制,通过多步推理对推理错误进行修正。然而,符号方法往往未能充分发挥 LLM 的推理能力,而反思方法通常缺乏结构化的时间表示,这可能导致推理不一致或产生幻觉式结论。因此,即便正确的时间上下文已具备,LLMs 仍可能误解或误用时间信息,从而导致答案不完整或不准确。

为克服这些局限性,我们提出 Neuro-Symbolic Temporal Reasoning (NeSTR),一种将结构化符号表示与混合式反思推理相结合的新型框架,用于增强 LLM 推理过程中的时间敏感性。NeSTR 通过符号编码保留显式的时间关系,通过验证机制强化逻辑一致性,并通过溯因式反思(abductive reflection)纠正有缺陷的推理。我们在多个时间类问答基准上的大量实验表明,NeSTR 在零样本设置下取得了更优性能,并在无需任何微调的情况下持续提升时间推理质量,展示了神经-符号融合在增强大型语言模型时间理解能力方面的显著优势。

成为VIP会员查看完整内容
0

相关内容

【IJCAI2025】用于大型语言模型的块循环适配器
专知会员服务
10+阅读 · 5月2日
【AAAI2025】SAIL:面向样本的上下文学习用于文档信息提取
专知会员服务
21+阅读 · 2024年12月24日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
63+阅读 · 2021年4月21日
【AAAI2023】用于图对比学习的谱特征增强
专知
20+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
177+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员