内容简介:

生成对抗网络(GAN)是训练模型的新思想,生成器和鉴别器相互对抗以提高生成质量。最近,GAN在图像生成方面取得了惊人的成果,并在此基础上迸发发了大量新的思想,技术和应用。虽然只有少数成功的案例,但GAN在文本和语音领域具有很大的潜力,以克服传统方法的局限性。

本教程分为三个部分。在第一部分中,我们将介绍生成对抗网络(GAN)并提供有关此技术的全面介绍。在第二部分中,我们将重点介绍GAN在语音信号处理中的应用,包括语音增强,语音转换,语音合成,以及域对抗训练在说话人识别和唇读等方面的应用。在第三部分中,我们将描述GAN生成句子的主要挑战,并回顾一系列应对挑战的方法。同时,我们将提出使用GAN实现文本样式转换,机器翻译和抽象摘要的算法,而无需配对数据。

讲者简介: 李宏毅教授分别于2010年和2012年在国立台湾大学获得了硕士与博士学位。2012年9月至2013年8月,他是中国科学院信息技术创新研究中心的博士后。2013年9月至2014年7月,他是麻省理工学院计算机科学与人工智能实验室(CSAIL)语言系统组的访问科学家。现任国立台湾大学电气工程系助理教授,并任职于该大学计算机科学与信息工程系。他的研究重点是机器学习(尤其是深度学习),口语理解和语音识别。

曹昱副研究员分别于1999年和2001年获得台湾大学电子工程学士学位和硕士学位。他于2008年获得佐治亚理工学院电气与计算机工程博士学位. 2009至2011年,曹博士是日本国家信息与通信技术研究所(NICT)的研究员,从事自动语音研究和产品开发,识别多语言语音到语音翻译。目前,他是台湾台北中央研究院信息技术创新研究中心(CITI)的副研究员。他于2017年获得了中央研究院职业发展奖。曹博士的研究兴趣包括语音和说话人识别,声学和语言建模,音频编码和生物信号处理。

目录: GAN的基本思想及一些基础的理论知识

  • GAN的三种类别
  • GAN的基本理论
  • 一些有用的技巧
  • 如何评估GAN
  • 与强化学习的关系

GAN在语音方面的应用

  • 语音信号生成
  • 语音信号识别
  • 结论

GAN在自然语言处理方面的应用

  • GAN序列生成
  • 无监督条件序列生成
成为VIP会员查看完整内容
0
72

相关内容

生成对抗网络 (Generative Adversarial Network, GAN) 是一类神经网络,通过轮流训练判别器 (Discriminator) 和生成器 (Generator),令其相互对抗,来从复杂概率分布中采样,例如生成图片、文字、语音等。GAN 最初由 Ian Goodfellow 提出,原论文见 Generative Adversarial Networks

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

【导读】来自加州大学圣地亚哥分校《计算机视觉中的领域自适应》中生成式对抗网络GAN介绍

成为VIP会员查看完整内容
0
68

【导读】慕尼黑大学开设的《高级深度学习》技术课程,重点介绍计算机视觉的前沿深度学习技术。最新一期介绍了《生成式对抗网络》进展,讲述了GAN的知识体系,值得关注。

成为VIP会员查看完整内容
0
93

报告主题: 生成对抗网络

报告摘要: 生成对抗网络(Generative Adversarial Network,GAN)是非监督式学习的一种生成模型,其由一个生成网络与一个判别网络组成,通过让两个神经网络相互博弈的方式进行学习。生成网络从潜在空间(latent space)中随机取样 作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的 是使判别网络无法判断生成网络的输出结果是否真实。虽然生成对抗网络原先是为了无监督学习提出的,它也被证明对半监督学习、监督学习、强化学习同样有用。本报告主要讲述生成对抗网络的基本原理和最新研究进展。

邀请嘉宾: 复旦大学计算机科学技术学院副教授,博士生导师。于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,在ACL、EMNLP、AAAI、IJCAI等计算机学会A/B类期刊、会议上发表50余篇学术论文,引用 1900余次。开源中文自然语言处理工具FudanNLP作者,FastNLP项目负责人。2015年入选首届中国科协人才托举工程,2017年ACL杰出论文奖,2018年获中国中文信息学会“钱伟长中文信息处理科学技术奖—汉王青年创新奖”。

成为VIP会员查看完整内容
0
28

报告题目: Discreteness in Neural Natural Language Processin

报告摘要: 本教程对神经NLP离散化过程提供了全面的介绍。首先,我们将简要介绍基于NLP的深度学习的背景,指出自然语言普遍存在的离散性及其在神经信息处理中的挑战。特别地,我们将集中在这样的离散性如何在一个神经网络的输入空间、潜在空间和输出空间中发挥作用。在每个部分中,我们将提供示例,讨论机器学习技术,并演示NLP应用程序。

*邀请嘉宾: Lili Mou博士是阿尔伯塔大学计算机科学系的助理教授。Lili分别于2012年和2017年在北京大学EECS学院获得了学士和博士学位。之后,他在滑铁卢大学(University of Waterloo)担任博士后,并在Adeptmind(加拿大多伦多的一家初创公司)担任研究科学家。他的研究兴趣包括应用于自然语言处理以及编程语言处理的深度学习。他在顶级会议和期刊上都有出版物,包括AAAI,ACL,CIKM,COLING,EMNLP,ICASSP,ICML,IJCAI,INTERSPEECH,NAACL-HLT和TACL(按字母顺序)。

周浩是Bytedance AI实验室的研究员 ,从事自然语言处理。2017年获得南京大学计算机科学博士学位。他的研究兴趣是机器学习及其在自然语言处理中的应用。目前,他专注于自然语言生成的深度生成模型。

李磊博士是今日头条的研究科学家和今日头条实验室的主任。Lei拥有上海交通大学计算机科学与工程学士学位(ACM类)和博士学位。分别从卡内基梅隆大学获得计算机科学博士学位。他的有关挖掘共同演化时间序列的快速算法的论文工作被ACM KDD授予最佳论文奖(排名提高)。在加入头条之前,他曾在百度的硅谷深度学习研究所担任首席研究科学家(“少帅学者”)。在此之前,他曾在Microsoft Research(亚洲和Redmond),Google(Mountain View)和IBM(TJ Watson Reserch Center)工作过。在加入百度之前,他曾在加州大学伯克利分校的EECS部门担任博士后研究员。他的研究兴趣在于深度学习,统计推断,自然语言理解和时间序列分析。他曾在ICML 2014,ECML / PKDD 2014/2015,SDM 2013/2014,IJCAI 2011/2013/2016,KDD 2015 / 2016、2017 KDD Cup联合主席的程序委员会中任职,并在2014年暑期学校担任讲师促进机器学习的概率编程研究。他发表了30多篇技术论文,并拥有3项美国专利。

成为VIP会员查看完整内容
0
22
小贴士
相关论文
WaveTTS: Tacotron-based TTS with Joint Time-Frequency Domain Loss
Rui Liu,Berrak Sisman,Feilong Bao,Guanglai Gao,Haizhou Li
3+阅读 · 2020年4月6日
A Review on Generative Adversarial Networks: Algorithms, Theory, and Applications
Jie Gui,Zhenan Sun,Yonggang Wen,Dacheng Tao,Jieping Ye
37+阅读 · 2020年1月20日
Training Generative Adversarial Networks Via Turing Test
Jianlin Su
3+阅读 · 2018年10月25日
Andrew Brock,Jeff Donahue,Karen Simonyan
4+阅读 · 2018年9月28日
ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
Xintao Wang,Ke Yu,Shixiang Wu,Jinjin Gu,Yihao Liu,Chao Dong,Chen Change Loy,Yu Qiao,Xiaoou Tang
5+阅读 · 2018年9月17日
Han Zhang,Ian Goodfellow,Dimitris Metaxas,Augustus Odena
4+阅读 · 2018年5月21日
Liwei Cai,William Yang Wang
6+阅读 · 2018年4月16日
Ngoc-Trung Tran,Tuan-Anh Bui,Ngai-Man Cheung
9+阅读 · 2018年3月23日
Hao Ge,Yin Xia,Xu Chen,Randall Berry,Ying Wu
3+阅读 · 2018年3月23日
Lantao Yu,Weinan Zhang,Jun Wang,Yong Yu
5+阅读 · 2017年8月25日
Top