We study the problem of reconstructing a causal graphical model from data in the presence of latent variables. The main problem of interest is recovering the causal structure over the latent variables while allowing for general, potentially nonlinear dependence between the variables. In many practical problems, the dependence between raw observations (e.g. pixels in an image) is much less relevant than the dependence between certain high-level, latent features (e.g. concepts or objects), and this is the setting of interest. We provide conditions under which both the latent representations and the underlying latent causal model are identifiable by a reduction to a mixture oracle. The proof is constructive, and leads to several algorithms for explicitly reconstructing the full graphical model. We discuss efficient algorithms and provide experiments illustrating the algorithms in practice.


翻译:我们研究从存在潜在变数的数据中重建因果图形模型的问题。主要的关注问题是恢复潜在变数的因果结构,同时允许变量之间的一般、潜在的非线性依赖。在许多实际问题中,原始观测(如图像中的像素)之间的依赖性远不如某些高层次潜在特征(如概念或对象)之间的依赖性,而这正是利息的设定。我们提供了各种条件,使潜在表现和潜在潜在因果模型能够通过减少混凝土来识别。证据是建设性的,并导致若干算法,以明确重建完整的图形模型。我们讨论了高效的算法,并提供实验,说明实际中的算法。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
123+阅读 · 2020年11月20日
【2020新书】使用R和Python的高级BI分析,425页pdf
专知会员服务
32+阅读 · 2020年10月14日
因果关联学习,Causal Relational Learning
专知会员服务
180+阅读 · 2020年4月21日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Bayesian learning of forest and tree graphical models
Arxiv
14+阅读 · 2020年12月17日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
6+阅读 · 2018年2月24日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
123+阅读 · 2020年11月20日
【2020新书】使用R和Python的高级BI分析,425页pdf
专知会员服务
32+阅读 · 2020年10月14日
因果关联学习,Causal Relational Learning
专知会员服务
180+阅读 · 2020年4月21日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员