Minimization of suitable statistical distances~(between the data and model densities) has proved to be a very useful technique in the field of robust inference. Apart from the class of $\phi$-divergences of \cite{a} and \cite{b}, the Bregman divergence (\cite{c}) has been extensively used for this purpose. However, since the data density must have a linear presence in the cross product term of the Bregman divergence involving both the data and model densities, several useful divergences cannot be captured by the usual Bregman form. In this respect, we provide an extension of the ordinary Bregman divergence by considering an exponent of the density function as the argument rather than the density function itself. We demonstrate that many useful divergence families, which are not ordinarily Bregman divergences, can be accommodated within this extended description. Using this formulation, one can develop many new families of divergences which may be useful in robust inference. In particular, through an application of this extension, we propose the new class of the GSB divergence family. We explore the applicability of the minimum GSB divergence estimator in discrete parametric models. Simulation studies as well as conforming real data examples are given to demonstrate the performance of the estimator and to substantiate the theory developed.


翻译:适当统计距离的最小化 ~ (在数据和模型密度之间) 已证明是稳健推断领域的一个非常有用的技术。 除了 $\ phe$- divegences of\ cite{a} 和\ cite{b} 类外, Bregman 差异(\ cite{c}) 被广泛用于此目的。 但是,由于数据密度必须在涉及数据和模型密度的布雷格曼差异的跨产品术语中有一个线性存在,因此,通常的布雷格曼格式无法捕捉一些有用的差异。 在这方面,我们提供了普通布雷格曼差异的延伸,将密度函数的推举作为参数而不是密度函数本身。我们表明,许多有用的差异型号(通常不是布雷格曼差异)可以在这一较长的描述范围内得到适应。 使用这一表述,人们可以开发许多新的差异型新的差异型群,可能有益于稳健的引用。 特别是通过应用这一扩展,我们提议将新的GSB 差异类中的精确度分类作为精确度模型的精确度模型。 我们探索Simimimimimaleximalexal dislation 。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年3月15日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
16+阅读 · 2018年4月2日
Arxiv
4+阅读 · 2018年1月15日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员