Multimodal regression aims to predict a continuous target from heterogeneous input sources and typically relies on fusion strategies such as early or late fusion. However, existing methods lack principled tools to disentangle and quantify the individual contributions of each modality and their interactions, limiting the interpretability of multimodal fusion. We propose a novel multimodal regression framework grounded in Partial Information Decomposition (PID), which decomposes modality-specific representations into unique, redundant, and synergistic components. The basic PID framework is inherently underdetermined. To resolve this, we introduce inductive bias by enforcing Gaussianity in the joint distribution of latent representations and the transformed response variable (after inverse normal transformation), thereby enabling analytical computation of the PID terms. Additionally, we derive a closed-form conditional independence regularizer to promote the isolation of unique information within each modality. Experiments on six real-world datasets, including a case study on large-scale brain age prediction from multimodal neuroimaging data, demonstrate that our framework outperforms state-of-the-art methods in both predictive accuracy and interpretability, while also enabling informed modality selection for efficient inference. Implementation is available at https://github.com/zhaozhaoma/PIDReg.


翻译:多模态回归旨在从异构输入源预测连续目标,通常依赖于早期或晚期融合等策略。然而,现有方法缺乏系统化工具来解耦和量化各模态的个体贡献及其交互作用,限制了多模态融合的可解释性。我们提出一种基于偏信息分解的新型多模态回归框架,将模态特定表征分解为独特、冗余和协同分量。基础PID框架本质上是欠定的。为解决此问题,我们通过在潜在表征与变换后响应变量(经逆正态变换后)的联合分布中强制高斯性来引入归纳偏置,从而实现PID项的解析计算。此外,我们推导出闭式条件独立性正则化器,以促进各模态内独特信息的分离。在六个真实数据集上的实验(包括基于多模态神经影像数据的大规模脑年龄预测案例研究)表明,我们的框架在预测准确性和可解释性方面均优于现有先进方法,同时能够为高效推理提供明智的模态选择。代码实现详见 https://github.com/zhaozhaoma/PIDReg。

0
下载
关闭预览

相关内容

【NeurIPS2019】图变换网络:Graph Transformer Network
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员