Stochastic gradient Markov chain Monte Carlo (SGMCMC) has become a popular method for scalable Bayesian inference. These methods are based on sampling a discrete-time approximation to a continuous time process, such as the Langevin diffusion. When applied to distributions defined on a constrained space, such as the simplex, the time-discretisation error can dominate when we are near the boundary of the space. We demonstrate that while current SGMCMC methods for the simplex perform well in certain cases, they struggle with sparse simplex spaces; when many of the components are close to zero. However, most popular large-scale applications of Bayesian inference on simplex spaces, such as network or topic models, are sparse. We argue that this poor performance is due to the biases of SGMCMC caused by the discretization error. To get around this, we propose the stochastic CIR process, which removes all discretization error and we prove that samples from the stochastic CIR process are asymptotically unbiased. Use of the stochastic CIR process within a SGMCMC algorithm is shown to give substantially better performance for a topic model and a Dirichlet process mixture model than existing SGMCMC approaches.


翻译:石化梯度 Markov 链 Monte Carlo (SGMC ) 已成为一种流行的可缩放贝叶斯人的推算方法。 这些方法基于对离散时间近似到连续时间过程的取样, 如 Langevin 扩散。 当应用到限制空间定义的分布时, 如简单x, 当我们接近空间边界时, 时间分解错误会占主导地位 。 我们证明当前 SGMC 简单x 的SGMC 方法在某些情况下效果良好, 它们与稀疏的简单x 空间搏斗; 当许多部件接近于零时 。 然而, 在简单x 空间, 如网络或主题模型上, 最受欢迎的巴伊西亚人大规模推论应用非常少 。 我们争论说, 这种不良的性能是由于离散错误导致的 SGMC 偏差。 为了绕过这个过程, 我们建议采用SGMC 模型化 CIR 进程, 消除所有离散错误, 并且我们证明从 Schatic CIR 进程中提取的样品是不带偏见的。 在 SGMC MIC 的模型中使用一个比 模型模型模型模型的模型模型模型模型模型化进程, 显示SGMC 。

3
下载
关闭预览

相关内容

【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2018年10月11日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
4+阅读 · 2018年4月26日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
3+阅读 · 2018年10月11日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
4+阅读 · 2018年4月26日
Arxiv
3+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员