Graph foundation models represent a transformative paradigm for learning transferable representations across diverse graph domains. Recent methods leverage large language models to unify graph and text modalities into a shared representation space using contrastive learning. However, systematic evaluations reveal significant performance degradation at structural boundaries where distinct topological patterns converge, with accuracy losses exceeding 20 percentage points. This issue arises from a key limitation: current methods assume all graph structures can be encoded within a single Euclidean space. In reality, tree structures require hyperbolic geometry to preserve hierarchical branching, while cyclic patterns depend on spherical geometry for closure properties. At structural boundaries, nodes experience conflicting geometric constraints that uniform encoding spaces cannot resolve. This raises a crucial challenge: \textbf{Can alignment frameworks be designed to respect the intrinsic geometric diversity of graph structures?} We introduce \textbf{GraphShaper}, a geometry-aware framework that enhances graph encoding through multi-geometric specialization. Our approach employs expert networks tailored to different geometric spaces, dynamically computing fusion weights to adaptively integrate geometric properties based on local structural characteristics. This adaptive fusion preserves structural integrity before alignment with text embeddings. Extensive experiments demonstrate that GraphShaper achieves 9.47\% accuracy improvements on citation networks and 7.63\% on social networks in zero-shot settings.


翻译:图基础模型代表了跨不同图领域学习可迁移表示的一种变革性范式。现有方法利用大语言模型,通过对比学习将图与文本模态统一到共享表示空间中。然而,系统评估揭示,在具有不同拓扑模式的结构边界处存在显著的性能下降,准确率损失超过20个百分点。该问题源于一个关键局限:当前方法假设所有图结构均可在单一欧几里得空间内编码。实际上,树结构需要双曲几何以保持其层次分支特性,而环状模式则依赖于球面几何的闭合性质。在结构边界处,节点会面临相互冲突的几何约束,而统一的编码空间无法解决此问题。这引出了一个核心挑战:\textbf{能否设计出尊重图结构内在几何多样性的对齐框架?} 我们提出\textbf{GraphShaper},一种几何感知框架,通过多几何专业化增强图编码。该方法采用针对不同几何空间定制的专家网络,动态计算融合权重,从而依据局部结构特征自适应地整合几何特性。这种自适应融合在与文本嵌入对齐前保持了结构的完整性。大量实验表明,GraphShaper在零样本设置下,于引文网络上实现了9.47\%的准确率提升,在社交网络上实现了7.63\%的准确率提升。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员