For distributions p and q with different supports, the divergence D(p|q) may not exist. We define a spread divergence on modified p and q and describe sufficient conditions for the existence of such a divergence. We demonstrate how to maximize the discriminatory power of a given divergence by parameterizing and learning the spread. We also give examples of using a spread divergence to train and improve implicit generative models, including linear models (Independent Components Analysis) and non-linear models (Deep Generative Networks).


翻译:对于有不同支持的分布 p 和 q, 差异 D (p ⁇ q) 可能不存在 。 我们定义了修改 p 和 q 上的分布差异, 并描述了存在这种差异的足够条件 。 我们通过参数化和学习分布, 展示了如何最大限度地扩大特定差异的歧视性力量 。 我们还举例说明了使用分布差异来培训和改进隐含的基因模型, 包括线性模型( 独立构件分析) 和非线性模型( 深基因网络 ) 。

0
下载
关闭预览

相关内容

专知会员服务
63+阅读 · 2020年3月4日
已删除
将门创投
4+阅读 · 2019年6月5日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Comprehensive Survey on Transfer Learning
Arxiv
121+阅读 · 2019年11月7日
Arxiv
6+阅读 · 2019年3月19日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年6月5日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员