【NAACL2021-Google】通过词汇替换实现对多语言机器翻译的持续学习

2021 年 3 月 14 日 专知


我们提出了一个简单的词汇适应方案来扩展多语言机器翻译模型的语言能力,为多语言机器翻译的高效持续学习铺平了道路。该方法适用于大规模的数据集,适用于具有不可见脚本的远程语言,仅对原语言对的翻译性能有较小的降低,即使在仅对新语言拥有单语数据的情况下,也能提供具有很好的性能。


https://www.zhuanzhi.ai/paper/e0b15338f98c37775bd0113ceaa1d9dd


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“CLMT” 就可以获取【NAACL2021-Google】通过词汇替换实现对多语言机器翻译的持续学习》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
29+阅读 · 2020年9月18日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【干货】ACL 2018 鲁棒、无偏的NLP训练方法
专知
4+阅读 · 2018年7月25日
Arxiv
0+阅读 · 2021年6月20日
Arxiv
0+阅读 · 2021年6月17日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关VIP内容
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
29+阅读 · 2020年9月18日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
Top
微信扫码咨询专知VIP会员