Kernel-based conditional independence (KCI) testing is a powerful nonparametric method commonly employed in causal discovery tasks. Despite its flexibility and statistical reliability, cubic computational complexity limits its application to large datasets. To address this computational bottleneck, we propose \textit{FastKCI}, a scalable and parallelizable kernel-based conditional independence test that utilizes a mixture-of-experts approach inspired by embarrassingly parallel inference techniques for Gaussian processes. By partitioning the dataset based on a Gaussian mixture model over the conditioning variables, FastKCI conducts local KCI tests in parallel, aggregating the results using an importance-weighted sampling scheme. Experiments on synthetic datasets and benchmarks on real-world production data validate that FastKCI maintains the statistical power of the original KCI test while achieving substantial computational speedups. FastKCI thus represents a practical and efficient solution for conditional independence testing in causal inference on large-scale data.


翻译:基于核函数的条件独立性(KCI)检验是一种强大的非参数方法,常用于因果发现任务。尽管其具有灵活性和统计可靠性,但立方级计算复杂度限制了其在大规模数据集上的应用。为应对这一计算瓶颈,我们提出FastKCI——一种可扩展且可并行化的基于核函数的条件独立性检验方法,该方法采用混合专家策略,其设计灵感来源于高斯过程的易并行推理技术。通过对条件变量构建高斯混合模型来划分数据集,FastKCI并行执行局部KCI检验,并采用重要性加权采样方案整合结果。在合成数据集上的实验及实际生产数据基准测试表明,FastKCI在保持原始KCI检验统计功效的同时,实现了显著的计算加速。因此,FastKCI为大规模数据因果推断中的条件独立性检验提供了实用高效的解决方案。

0
下载
关闭预览

相关内容

【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
Segment Anything模型的高效变体:综述
专知会员服务
27+阅读 · 2024年10月11日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
37+阅读 · 2021年3月28日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
Segment Anything模型的高效变体:综述
专知会员服务
27+阅读 · 2024年10月11日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
37+阅读 · 2021年3月28日
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员