Causal DAG(Directed Acyclic Graph) usually lies in a 2D plane without distinguishing correlation changes and causal effects. Also, the causal effect is often approximately estimated by averaging the population's correlation changes. Now, AI(Artificial Intelligence) enables much larger-scale structural modeling, whose complex hidden confoundings make the approximation errors no longer ignorable but can snowball to considerable population-level Causal Representation Bias. Such bias has caused significant problems: ungeneralizable causal models, unrevealed individual-level features, not utilizable causal knowledge in DL(Deep Learning), etc. In short, DAG must be redefined to enable a new framework for causal AI. Observational time series can only reflect correlation changes in statistics. But the DL-based autoencoder can represent them as individual-level feature changes in latent space to reflect causal effects. In this paper, we introduce the redefined do-DAG concept and propose Causal Representation Learning (CRL) framework as the generic solution, along with a novel architecture to realize CRL and experimentally verify its feasibility.


翻译:因果有向无环图(DAG)通常位于2D平面上,无法区分相关性变化和因果作用。此外,因果效应往往通过对人群的相关性变化进行平均计算来进行近似估计。现在,人工智能(AI)使得更大规模的结构建模成为可能,其复杂的隐藏混淆使得近似误差不能再被忽略,而且可能会造成可观的人口级因果表示偏差。这种偏见已经引起了重要的问题:无法泛化的因果模型,未揭示的个体级特征,不能在深度学习(DL)中利用的因果知识等。简言之,必须重新定义DAG以实现因果人工智能的新框架。观察性时间序列只能反映统计上的相关性变化。但是,基于DL的自编码器可以将它们表示为潜在空间中的个体级特征变化,以反映因果效应。在本文中,我们介绍了重新定义的“do-DAG”概念,并提出了因果表示学习(CRL)框架作为通用解决方案,以及一个新的架构,以实现CRL并实验验证其可行性。

0
下载
关闭预览

相关内容

不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
68+阅读 · 2022年7月11日
【Yoshua Bengio最新一作论文】GFlowNet基础,GFlowNet Foundations
专知会员服务
25+阅读 · 2021年11月22日
因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
因果关联学习,Causal Relational Learning
专知会员服务
179+阅读 · 2020年4月21日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月31日
Arxiv
0+阅读 · 2023年5月31日
Arxiv
0+阅读 · 2023年5月26日
Arxiv
40+阅读 · 2022年9月19日
Arxiv
10+阅读 · 2021年11月3日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
108+阅读 · 2020年2月5日
VIP会员
相关VIP内容
不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
68+阅读 · 2022年7月11日
【Yoshua Bengio最新一作论文】GFlowNet基础,GFlowNet Foundations
专知会员服务
25+阅读 · 2021年11月22日
因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
因果关联学习,Causal Relational Learning
专知会员服务
179+阅读 · 2020年4月21日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
相关论文
Arxiv
0+阅读 · 2023年5月31日
Arxiv
0+阅读 · 2023年5月31日
Arxiv
0+阅读 · 2023年5月26日
Arxiv
40+阅读 · 2022年9月19日
Arxiv
10+阅读 · 2021年11月3日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
108+阅读 · 2020年2月5日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员