Imputation of data with general structures (e.g., data with continuous, binary, unordered categorical, and ordinal variables) is commonly performed with fully conditional specification (FCS) instead of joint modeling. A key drawback of FCS is that it does not invoke an appropriate data augmentation mechanism and as such convergence of the resulting Markov chain Monte Carlo procedure is not assured. Methods that use joint modeling lack these drawbacks but have not been efficiently implemented in data of general structures. We address these issues by developing a new method, the so-called GERBIL algorithm, that draws imputations from a latent joint multivariate normal model that underpins the generally structured data. This model is constructed using a sequence of flexible conditional linear models that enables the resulting procedure to be efficiently implemented on high dimensional datasets in practice. Simulations show that GERBIL performs well when compared to those that utilize FCS. Furthermore, the new method is computationally efficient relative to existing FCS procedures.


翻译:用一般结构(如连续、二进制、无序绝对变量和正态变量的数据)对数据进行估计,通常采用完全有条件的规格(FCS),而不是联合建模。FCS的一个主要缺点是,它没有采用适当的数据增强机制,因此无法保证由此形成的Markov链 Monte Carlo程序的趋同。使用联合建模的方法缺乏这些缺陷,但在一般结构的数据中没有有效地实施。我们通过开发一种新的方法来解决这些问题,即所谓的GENRBIL算法,从支持一般结构化数据的潜在的联合多变量正常模型中提取估算值。这一模型是使用一个灵活的、灵活的有条件的线性模型序列来构建的,使由此产生的程序能够在实践中在高维数据集中高效实施。模拟表明,与使用FCS的数据相比,GRBIL在使用联合建模时表现良好。此外,新的方法与现有的FCS程序相比,具有计算效率。

0
下载
关闭预览

相关内容

FCS:Frontiers of Computer Science。 Explanation:计算机科学前沿。 Publisher:Higher Education Press。 SIT: http://dblp.uni-trier.de/db/journals/fcsc/
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
197+阅读 · 2019年9月30日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
3+阅读 · 2019年10月31日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员