深度生成模型基本都是以某种方式寻找并表达(多变量)数据的概率分布。有基于无向图模型(马尔可夫模型)的联合概率分布模型,另外就是基于有向图模型(贝叶斯模型)的条件概率分布。前者的模型是构建隐含层(latent)和显示层(visible)的联合概率,然后去采样。基于有向图的则是寻找latent和visible之间的条件概率分布,也就是给定一个随机采样的隐含层,模型可以生成数据。 生成模型的训练是一个非监督过程,输入只需要无标签的数据。除了可以生成数据,还可以用于半监督的学习。

VIP内容

生成模型是一类机器学习算法,它定义了图像、序列和图等复杂高维物体的概率分布。深度神经网络和优化算法的最新进展显著地增强了这些模型的能力,并重新激发了对它们的研究兴趣。本课程探讨深度生成模型的基本概率原理、它们的学习算法和流行的模型族,包括变分自编码器、生成对抗网络、自回归模型和规范化流。本课程还涵盖了计算机视觉、自然语言处理和生物医学等领域的应用,并将其与强化学习领域联系起来。

Introduction and Background Autoregressive Models Variational Autoencoders Normalizing Flow Models Energy-Based Models Generative Adversarial Networks Probabilistic Reasoning, Combining Generative Model Discreteness in Generative Modeling Evaluating Generative Models

成为VIP会员查看完整内容
0
19
Top