无监督跨语言表示初始化方法与去噪、反翻译等机制一起,发展了无监督神经机器翻译(UNMT),取得了令人印象深刻的效果。与此同时,UNMT仍面临若干挑战。本教程首先介绍UNMT的背景和最新进展。然后,我们审查了UNMT面临的一些挑战,并就该技术目前的表现给出了实证结果。

https://2021.eacl.org/downloads/tutorials/Advances-in-UNMT.pdf

成为VIP会员查看完整内容
24

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
专知会员服务
79+阅读 · 2021年7月23日
最新《Transformers模型》教程,64页ppt
专知会员服务
325+阅读 · 2020年11月26日
专知会员服务
326+阅读 · 2020年11月24日
AAAI 2020 最新“可解释人工智能 XAI”教程
学术头条
5+阅读 · 2020年2月11日
下载 | 193页无监督深度学习PPT教程
机器学习算法与Python学习
8+阅读 · 2018年12月5日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
相关VIP内容
专知会员服务
79+阅读 · 2021年7月23日
最新《Transformers模型》教程,64页ppt
专知会员服务
325+阅读 · 2020年11月26日
专知会员服务
326+阅读 · 2020年11月24日
相关论文
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
3+阅读 · 2018年8月27日
微信扫码咨询专知VIP会员