DeepMind出品,图神经网络与因果推理的联合

2021 年 9 月 11 日 图与推荐

【导读】图神经网络与因果推理是当下大家关注的焦点,GNN有强大的图结构建模表达能力,因果推理旨在探究因果关系结构,如何将两者联系起来是一个挑战性的问题?来自TU&DeepMind的研究人员将这两者做了研究,建立基于GNN的因果推理

注:Petar是著名的Graph Attention Network的一作。

因果性可以用结构因果模型(SCM)来描述,该模型承载了有关兴趣变量及其机械关系的信息。对于大多数感兴趣的过程来说,底层的SCM将只是部分可见的,因此因果推理试图利用任何观察的信息。图神经网络(GNN)作为结构化输入的通用逼近器,为因果学习提供了一个可行的候选者,建议与SCM更紧密的集成。

为此,我们提出了从第一原理出发的理论分析,在GNN和SCM之间建立了新的联系,同时提供了一般神经因果模型的扩展观点。然后我们建立了一个新的基于GNN的因果推理模型类,该模型类是因果效应识别的必要和充分条件。我们对模拟和标准基准的实证说明验证了我们的理论证明。

https://arxiv.org/pdf/2109.04173.pdf

引言

理解因果关系是人类认知的核心,因此对科学、工程、商业和法律具有很高的价值。发展心理学向我们展示了孩子们是如何像科学家一样进行探索的,都是通过问“如果……会怎么样?””和“为什么?这类问题,而人工智能研究梦想将科学家的行为方式自动化。深度学习带来了可优化的逼近普适性,这是指对于任何函数都存在一个接近任意精度的神经网络。这种能力已经在各种应用中获得了巨大的成功。因此,将因果关系与深度学习相结合,对于即将达到人类智能水平的研究具有至关重要的意义。对所谓的神经-因果模型进行紧密整合的初步尝试的存在,并显示出有望实现一个系统的梦想,该系统在其最令人印象深刻的应用中,可以执行与现代神经模块同样规模的有效性的因果推理。

另一方面,深度学习在实际应用中取得了成功,理论突破仍然很少。Bronstein等人率先提出了几何深度学习的概念,从几何观点出发并将其推广到现代架构的一类重要神经网络是图神经网络(GNN) 。与其他专门的神经网络类似,GNN在药物发现和谷歌地图的ETA预测等专门应用中取得了最先进的性能。

DeepMind/Amazon/Facebook等联手,将GNN用于谷歌地图

KDD20 | 百度地图上用于估计旅行时间的上下文时空图注意网络

这些特性,我们称之为归纳偏差,可以利用其他证明不可能的推论。

顾名思义,GNN在输入的结构上放置了一个归纳偏差,即,输入的维度是相关的,这样它们就形成了一个图结构。要回到因果关系,其核心是结构因果模型(SCM),它被认为是负责数据生成的现实模型。SCM在其所建模的变量上暗示了一个图结构,而由于GNN研究的是图,对这两个模型之间的关系进行更仔细的检查似乎对神经因果人工智能的研究进展是合理的。我们没有从因果关系的原则中获得灵感来改进机器学习,而是展示了GNN如何用于执行因果计算,即因果关系如何在神经模型中出现。更准确地说,因果推理是指Pearl因果层次(PCH)模型。也就是说,我们以(部分)因果图和/或来自层次结构不同层次的数据的形式获得了关于SCM的部分知识。

总的来说,我们做出了一些关键贡献:

  • (1) 我们从第一性原理推导出GNN和SCM之间的理论联系;
  • (2)定义一个更细粒度的NCM;
  • (3) 我们形式化了GNN的干预,并由此建立了一个新的神经因果模型类,利用自动编码器;
  • (4) 在与现有工作相关的情况下,我们提供了关于这一新的模型类的可行性、表达性和可识别性的理论结果和证明。
  • (5) 我们实证检验了我们的理论模型在识别和估计任务中的实际因果推理。

The GNN-SCM-NCM 联系

为了进一步扩展因果和机器学习之间的整合边界,我们对图神经网络(GNN)和结构因果模型(SCM)之间的关系进行了理论研究,从而也传递到神经因果模型(NCM)。虽然因果识别的所有已建立的结果已经证明,干预/操纵对于因果推理来说不是必要的,干预/操纵的概念仍然是因果关系的核心,正如Peter Holland和Don Rubin长期以来的座右铭“没有操纵就没有因果关系”(Holland 1986)所暗示的那样。干预的中心地位是我们选择将干预作为理论研究的起点的原因。因此,我们首先在GNN计算层中定义了一个干预过程,随后将揭示该过程的合理属性,类似于SCM上的干预。

基于GNN的因果推理


登录查看更多
4

相关内容

因果推断是研究如何更加科学地识别变量间的因果关系。 客观事物普遍存在着内在的因果联系,人们只有弄清事物发展变化的前因后果,才能全面地、本质地认识事物。基干事物发展的这种规律,在论证观点时,有时就可以直接从事物本身的因果关系中进行推论,这就叫因果推断法
专知会员服务
48+阅读 · 2021年6月2日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
49+阅读 · 2020年8月25日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
DeepMind的AI能指导人类的直觉吗?
AI前线
0+阅读 · 2022年3月21日
去伪存真:因果约束下的图神经网络泛化
PaperWeekly
0+阅读 · 2022年2月10日
CNN已老,GNN来了!清华大学孙茂松组一文综述GNN
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
Arxiv
1+阅读 · 2022年4月19日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
18+阅读 · 2020年7月13日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
15+阅读 · 2019年4月4日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员