Bayesian inference without the access of likelihood, or likelihood-free inference, has been a key research topic in simulations, to yield a more realistic generation result. Recent likelihood-free inference updates an approximate posterior sequentially with the dataset of the cumulative simulation input-output pairs over inference rounds. Therefore, the dataset is gathered through the iterative simulations with sampled inputs from a proposal distribution by MCMC, which becomes the key of inference quality in this sequential framework. This paper introduces a new proposal modeling, named as Implicit Surrogate Proposal (ISP), to generate a cumulated dataset with further sample efficiency. ISP constructs the cumulative dataset in the most diverse way by drawing i.i.d samples via a feed-forward fashion, so the posterior inference does not suffer from the disadvantages of MCMC caused by its non-i.i.d nature, such as auto-correlation and slow mixing. We analyze the convergence property of ISP in both theoretical and empirical aspects to guarantee that ISP provides an asymptotically exact sampler. We demonstrate that ISP outperforms the baseline inference algorithms on simulations with multi-modal posteriors.


翻译:在模拟中,没有可能性或无可能性推断的贝叶斯推论一直是关键的研究课题,以产生更现实的生成结果。最近没有可能性的推论以累积模拟投入-产出对对数的数据集相继更新了一个近似后部,因此,数据集是通过迭代模拟收集的,由监测监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测和评价等建议分发的抽样投入收集出来的。本文介绍了一个新的提案模型,称为隐性代谢提议(ISP),以产生具有进一步取样效率的累积数据集。ISP以最多样化的方式,通过进料-前向方式绘制i.i.d样本,以构建累积数据集,因此,后部推论不会因非一.d性质(如自动调节和缓慢混合)而使监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、监测、

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
CCF推荐 | 国际会议信息10条
Call4Papers
7+阅读 · 2019年5月27日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
14+阅读 · 2019年9月11日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
6+阅读 · 2018年11月29日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
VIP会员
相关资讯
CCF推荐 | 国际会议信息10条
Call4Papers
7+阅读 · 2019年5月27日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员