【Facebook AI】无监督机器翻译,336页ppt,Unsupervised Machine Translation

2020 年 11 月 17 日 专知



Mikel Artetxe是Facebook人工智能研究中心的一名研究多语言的科学家。他主要研究跨语言表示学习和机器翻译,主要研究无监督和无监督的方法。在此之前,他最近在巴斯克国家大学完成了无监督机器翻译的博士学位,导师是Eneko Agirre和Gorka Labaka,并在谷歌、DeepMind和Facebook实习过。


http://www.mikelartetxe.com/




Unsupervised Machine Translation




虽然现代机器翻译依赖于大量的平行语料库,但最近的一项研究已经成功地在无监督的情况下训练机器翻译系统,仅使用单语语料库。现有的方法大多依赖于跨语言单词嵌入或深度多语言预训练来进行初始化,并通过迭代反翻译来进一步完善该系统。在这次演讲中,我将对这一领域做一个概述,重点介绍我们自己在跨语言单词嵌入映射以及无监督神经和统计机器翻译方面的工作。


https://nlp.stanford.edu/seminar/details/mikelartetxe.shtml


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“MT336” 就可以获取【Facebook AI】无监督机器翻译,336页ppt,Unsupervised Machine Translation》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
25+阅读 · 2020年9月9日
【Facebook AI】低资源机器翻译,74页ppt
专知会员服务
29+阅读 · 2020年4月8日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
【资源】机器学习资源大列表
专知
58+阅读 · 2019年10月16日
机器学习数学基础【附PPT下载】
专知
45+阅读 · 2018年9月17日
Arxiv
5+阅读 · 2018年10月23日
Phrase-Based & Neural Unsupervised Machine Translation
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
5+阅读 · 2018年5月28日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2018年2月26日
Arxiv
4+阅读 · 2018年1月29日
VIP会员
相关论文
Arxiv
5+阅读 · 2018年10月23日
Phrase-Based & Neural Unsupervised Machine Translation
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
5+阅读 · 2018年5月28日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2018年2月26日
Arxiv
4+阅读 · 2018年1月29日
Top
微信扫码咨询专知VIP会员