Density tempering (also called density annealing) for state space models is a sequential Monte Carlo (SMC) approach to Bayesian inference for general state models, that provides an alternative to MCMC. It moves a collection of parameters and latent states (which we call particles) through a number of stages, with each stage having its own target density. Initially, the particles are generated from a distribution that is easy to sample from, e.g. the prior; the target density at the final stage is the posterior density of interest. Tempering is usually carried out either in batch mode, involving all of the data at each stage, or in sequential mode, where the tempering involves adding observations at each stage; we call this data tempering. Our article proposes two innovations for particle based density tempering. First, data tempering is made more robust to outliers and structural changes by adding batch tempering at each stage. Second, we propose generating the parameters and states at each stage using two Gibbs type Markov moves, where the parameters are generated conditional on the states and conversely. We explain how this allows the tempering to scale up in terms of the number parameters and states it can handle. Most of the current literature uses a pseudo-marginal Markov move step with the states integrated out and the parameters generated by a random walk proposal; this strategy is inefficient when the states or parameters are high dimensional. The article demonstrates the performance of the proposed methods using univariate stochastic volatility models with outliers and structural breaks and high dimensional factor stochastic volatility models having both a large number of parameters and a large number of latent state.


翻译:州空间模型的密度调温( 也称为密度 annealing) 州空间模型的密度调温( 也称为密度 anneal) 是一种连续的 Monte Carlo (SMC ) 方法, 以Bayesian 推导通用状态模型的连续方式, 提供通用状态模型的替代。 它通过几个阶段, 在每个阶段都有自己的目标密度, 将一系列参数和潜在状态( 我们称之为粒子 ) 移动到多个阶段。 最初, 粒子来自一个易于取样的分布, 例如前一阶段; 最后阶段的目标密度是后方的密度密度。 火化通常以批量模式进行, 涉及每个阶段的所有数据, 或者以顺序参数的方式进行, 调和每个阶段的参数, 其中调和顺序的参数 。 我们解释这如何让当前低位结构参数 向上移动, 以高层次参数 将当前结构参数 向上移动, 以高阶值 向上移动 。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
150+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年5月28日
Bayesian Optimisation for Constrained Problems
Arxiv
0+阅读 · 2021年5月27日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员