【IJCAI2020南大】上下文在神经机器翻译中的充分利用

2020 年 8 月 17 日 专知

论文提出了一个文档级NMT框架,对每个句子的本地上下文、源语言和目标语言文档的全局上下文建模,能够处理包含任意数量的句子的文档,比sota baseline高2.1个BLEU score。传统文档级NMT的缺点有:不能完全利用上下文,深层使得模型对环境中的噪声更加敏感;由于深度混合hybrid需要全局文档上下文作为额外的输入,不能翻译单个句子。

 

新框架在源语句中独立地编码本地上下文,而不是从一开始就将它与全局上下文混在一起,因此当全局上下文很大且有噪声时,这个框架是健壮的。此外,架构将部分生成的文档翻译作为目标全局上下文进行逐句翻译,从而允许本地上下文控制单句文档的翻译过程。

https://www.ijcai.org/Proceedings/2020/0551.pdf



参考链接:

https://blog.csdn.net/liuy9803/article/details/104654066

https://mp.weixin.qq.com/s/mRfyeHdlV5Y636jvQj5SAw


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“CNMT” 可以获取《【IJCAI2020南大】上下文在神经机器翻译中的充分利用》专知下载链接索引

专 · 知
专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
登录查看更多
0

相关内容

神经机器翻译NMT使用基于神经网络的技术来实现更多上下文精确的翻译,而不是一次翻译一个单词的破碎句子。使用大型人工神经网络计算单词序列的概率,NMT将完整的句子放入一个集成模型中。
专知会员服务
25+阅读 · 2020年9月9日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
论文写作修辞速查:单词、短语、句子
专知
6+阅读 · 2018年10月29日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
Top
微信扫码咨询专知VIP会员