Structural knowledge graph foundation models aim to generalize reasoning to completely new graphs with unseen entities and relations. A key limitation of existing approaches like Ultra is their reliance on a single relational transformation (e.g., element-wise multiplication) in message passing, which can constrain expressiveness and fail to capture diverse relational and structural patterns exhibited on diverse graphs. In this paper, we propose Gamma, a novel foundation model that introduces multi-head geometric attention to knowledge graph reasoning. Gamma replaces the single relational transformation with multiple parallel ones, including real, complex, split-complex, and dual number based transformations, each designed to model different relational structures. A relational conditioned attention fusion mechanism then adaptively fuses them at link level via a lightweight gating with entropy regularization, allowing the model to robustly emphasize the most appropriate relational bias for each triple pattern. We present a full formalization of these algebraic message functions and discuss how their combination increases expressiveness beyond any single space. Comprehensive experiments on 56 diverse knowledge graphs demonstrate that Gamma consistently outperforms Ultra in zero-shot inductive link prediction, with a 5.5% improvement in mean reciprocal rank on the inductive benchmarks and a 4.4% improvement across all benchmarks, highlighting benefits from complementary geometric representations.


翻译:结构知识图谱基础模型旨在将推理能力泛化至包含未见实体与关系的全新图谱。现有方法(如Ultra)的核心局限在于其消息传递过程中依赖单一关系变换(例如逐元素乘法),这会限制表达能力,并难以捕捉不同图谱所呈现的多样关系与结构模式。本文提出Gamma,一种新颖的基础模型,它将多头几何注意力机制引入知识图谱推理。Gamma以多个并行变换取代单一关系变换,这些变换基于实数、复数、分裂复数及对偶数构建,各自设计用于建模不同的关系结构。随后,一个关系条件注意力融合机制通过带熵正则化的轻量门控,在链接级别自适应地融合这些表示,使模型能够鲁棒地强调每个三元组模式最合适的关系偏置。我们完整形式化了这些代数消息函数,并讨论了它们的组合如何将表达能力提升至超越任何单一空间。在56个多样化知识图谱上的综合实验表明,Gamma在零样本归纳链接预测任务中持续优于Ultra,在归纳基准测试中平均倒数排名提升5.5%,在所有基准测试中整体提升4.4%,这凸显了互补几何表示带来的优势。

0
下载
关闭预览

相关内容

从语言模型到语言智能体,普林斯顿Shunyu Yao
专知会员服务
63+阅读 · 2023年9月18日
【CIKM2020】多模态知识图谱推荐系统,Multi-modal KG for RS
专知会员服务
98+阅读 · 2020年8月24日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
1+阅读 · 2025年12月31日
Arxiv
0+阅读 · 2025年12月29日
Arxiv
0+阅读 · 2025年12月29日
Arxiv
0+阅读 · 2025年12月29日
VIP会员
相关论文
Arxiv
1+阅读 · 2025年12月31日
Arxiv
0+阅读 · 2025年12月29日
Arxiv
0+阅读 · 2025年12月29日
Arxiv
0+阅读 · 2025年12月29日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员