我们提出了一个简单的词汇适应方案来扩展多语言机器翻译模型的语言能力,为多语言机器翻译的高效持续学习铺平了道路。该方法适用于大规模的数据集,适用于具有不可见脚本的远程语言,仅对原语言对的翻译性能有较小的降低,即使在仅对新语言拥有单语数据的情况下,也能提供具有很好的性能。

https://www.zhuanzhi.ai/paper/e0b15338f98c37775bd0113ceaa1d9dd

成为VIP会员查看完整内容
15

相关内容

持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【DeepMind】无归一化的高性能大规模图像识别
专知会员服务
8+阅读 · 2021年2月14日
专知会员服务
26+阅读 · 2021年2月2日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
29+阅读 · 2020年9月18日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
SFFAI 37 报名通知 | 机器翻译专场之同步双向与多语言机器翻译
人工智能前沿讲习班
3+阅读 · 2019年6月25日
干货 | 揭开多语言词嵌入模型的神秘面纱
AI科技评论
5+阅读 · 2018年4月3日
Arxiv
21+阅读 · 2019年8月21日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
3+阅读 · 2017年8月15日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关VIP内容
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【DeepMind】无归一化的高性能大规模图像识别
专知会员服务
8+阅读 · 2021年2月14日
专知会员服务
26+阅读 · 2021年2月2日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
29+阅读 · 2020年9月18日
相关论文
Arxiv
21+阅读 · 2019年8月21日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
3+阅读 · 2017年8月15日
Arxiv
3+阅读 · 2015年5月16日
微信扫码咨询专知VIP会员