This paper describes Facebook FAIR's submission to the WMT19 shared news translation task. We participate in two language pairs and four language directions, English <-> German and English <-> Russian. Following our submission from last year, our baseline systems are large BPE-based transformer models trained with the Fairseq sequence modeling toolkit which rely on sampled back-translations. This year we experiment with different bitext data filtering schemes, as well as with adding filtered back-translated data. We also ensemble and fine-tune our models on domain-specific data, then decode using noisy channel model reranking. Our submissions are ranked first in all four directions of the human evaluation campaign. On En->De, our system significantly outperforms other systems as well as human translations. This system improves upon our WMT'18 submission by 4.5 BLEU points.


翻译:本文描述了 Facebook FAIR 向 WMT19 共享新闻翻译任务提交的呈件。 我们以两种语言对和四种语言方向参与, 即英语 < - > 德语和英语 < - > 俄语。 在我们去年提交呈件后, 我们的基线系统是大型 BPE 基变压器模型模型, 使用Fairseq 序列模型工具包培训, 依靠抽样反译工具。 今年我们实验了不同的位数数据过滤方案, 并添加了过滤的回译数据。 我们还联合并精细调整了我们关于特定域数据的模型, 然后用吵闹的频道模型重新排位。 我们的呈件在人类评估运动的所有四个方向中排名第一。 在 En > De 上, 我们的系统大大超越了其他系统以及人类翻译。 该系统在我们WMT 18 提交4.5 BLEU 点时得到了改进 。

0
下载
关闭预览

相关内容

【Facebook AI】低资源机器翻译,74页ppt
专知会员服务
29+阅读 · 2020年4月8日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
3+阅读 · 2018年6月1日
Arxiv
3+阅读 · 2018年4月11日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2018年2月26日
VIP会员
相关论文
Arxiv
3+阅读 · 2018年6月1日
Arxiv
3+阅读 · 2018年4月11日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2018年2月26日
Top
微信扫码咨询专知VIP会员