【导读】Pieter Abbeel 是加州大学伯克利分校的教授,伯克利机器人学习实验室的主任,其新开课程CS294深度无监督学习包含两个领域,分别是生成模型和自监督学习。这个15周的课程包含视频PPT能资源,有助于读者对深度学习无监督的理解。最新一期是生成式对抗网络Generative Adversarial Networks的课程,共有257页ppt,包括GAN, DC GAN, ImprovedGAN, WGAN, WGAN-GP, Progr.GAN, SN-GAN, SAGAN, BigGAN(-Deep), StyleGAN-v1,2, VIB-GAN, GANs as Energy Models,非常值得关注!

目录内容:

  • 隐式模型的动机和定义
  • 原始GAN (Goodfellow et al, 2014)
  • 评估: Parzen、Inception、Frechet
  • 一些理论: 贝叶斯最优鉴别器; Jensen-Shannon散度; 模式崩溃; 避免饱和
  • GAN进展
  • DC GAN (Radford et al, 2016)
  • 改进GANs训练(Salimans et al, 2016)
  • WGAN, WGAN- gp, Progressive GAN, SN-GAN, SAGAN
  • BigGAN, BigGAN- deep, StyleGAN, StyleGAN-v2, VIB-GAN
  • 创意条件GAN
  • GANs与申述
  • GANs作为能量模型
  • GANs与最优传输,隐式似然模型,矩匹配
  • 对抗性损失的其他用途:转移学习、公平
  • GANs和模仿学习
成为VIP会员查看完整内容
0
76

相关内容

本课程将涵盖深度学习中不需要标注数据的两个领域:深度生成模型和自监督学习。生成模型的最新进展使得对自然图像、音频波形和文本语料库等高维原始数据进行真实建模成为可能。自监督学习的进步已经开始缩小监督表示学习和非监督表示学习之间的差距,本课程将涵盖这些主题的理论基础以及它们的新应用。

课程目录

  • 第1a讲: 课程安排;
  • 第1b讲: 课程动机;
  • 第1c讲: 基于似然的模型 Part I: 自回归模型
  • 第2a讲: 基于似然的模型 Part I: 自回归模型 (ctd)
  • 第2b讲: 无损压缩(Lossless Compression)
  • 第2c讲: 基于似然的模型 Part II: 流模型
  • 第3a讲:基于似然的模型 Part II:流模型(ctd)
  • 第3b讲:隐变量模型
  • 第4a讲:隐变量模型(ctd)(与第3周ppt相同)
  • 第5讲:隐式模型/生成对抗网络
  • 第六讲:非生成性表征学
  • 第7a讲:非生成表征学习(ctd)
  • 第7b讲:半监督学习
  • 第8讲:表征学习+其他问题
  • 第9a讲:无监督分布对齐
  • 第9b讲:客座讲座:Ilya Sutskever
  • 第10a讲:无监督分配对齐(ctd)
  • 第10b讲:客座讲座:Durk Kingma
  • 第11讲:语言模型(Alec Radford)
  • 第12a讲:无监督的表征学习
  • 第12b讲:客座讲座Alyosha Efros
  • 第13a讲:待定(TBD)
  • 第13b讲:客座讲座Aaron van den Oord
成为VIP会员查看完整内容
Lecture 5c+6a - Implicit Models (GANs).pdf
1a-4b_merged.pdf
6b-11_merged .pdf
0
17
Top