【Tom Kocmi博士论文】探索迁移学习在神经机器翻译中的益处,附162页PDF下载

2020 年 1 月 10 日 专知

【导读】统计机器翻译(SMT)和神经机器翻译(NMT)都是需要大量数据的机器学习方法,因此缺乏数据是训练合适机器翻译(MT)系统的一个严重问题。Tom Kocmi在博士论文中探讨了用迁移学习解决神经机器翻译预料缺乏问题的各种益处。


随着技术的传播,世界各地的人们比以往任何时候都更加紧密地联系在一起,无缝沟通和理解的需求变得至关重要。根据Simons 2018年的研究,世界上现存的语言有7097种。然而,语料中,大多数成对的语言最多有几百到几千个平行的句子,而且成对的语言数量有限。由于统计机器翻译(SMT)和神经机器翻译(NMT)都是需要大量数据的机器学习方法,因此缺乏数据是训练合适机器翻译(MT)系统的一个严重问题。


Tom Kocmi的博士论文《Exploring Benefits of Transfer Learning in Neural Machine Translation》(《探索迁移学习在神经机器翻译中的益处》)提出相关的迁移学习技术,并提供了详细地分析。论文展示了几种利用基于大量资源语言对训练的模型来提升少量资源情况下的模型训练。在分析过程中,作者发现:

  • 迁移学习同时适用于少量资源和大量资源的语言对,并且比随机初始化训练的性能更好。

  • 迁移学习在神经机器翻译中没有其他领域所知的负面影响,可以作为神经机器翻译实验的初始化方法。

  • 结果表明,在迁移学习中,平行语料库的数量比语言对的相关性更重要。

  • 作者观察到,迁移学习是一种更好的初始化技术,即使两个模型面向的语言没有交集,性能也能得到提升。


除了上述主要的贡献,论文也描述其他几个研究的想法,包括作者对Czech-English平行语料库的贡献(Bojar et al., 2016a)、使用预训练词嵌入的实验(Kocmi and Bojar, 2017c)、使用子词信息的词嵌入(Kocmi and Bojar, 2016)、神经语言识别工具(Kocmi and Bojar, 2017b)。另外,作者还为一个sequence-to-sequence的研究框架Nerual Monkey(Helcl et al., 2018)的实现做了贡献。


博士论文《Exploring Benefits of Transfer Learning in Neural Machine Translation》的内容大致如下:

  • 简介

    • 贡献

    • 论文结构

  • 背景

    • 语言资源

    • LanideNN:语言识别工具

    • 训练数据

    • 机器翻译评价

  • 神经机器翻译

    • 词嵌入

    • 子词表示

    • 神经机器翻译架构

    • 神经机器翻译模型设置

    • 度量训练过程

  • 迁移学习

    • 术语

    • 域适应

    • 迁移学习

    • 冷启动迁移学习

    • 冷启动直系迁移

    • 冷启动词汇变换

    • 热启动迁移学习

    • 热启动和冷启动对比

    • 相关工作

    • 总结

  • 分析

    • 负迁移

    • 共享语言的位置是否影响迁移学习

    • 语言相关性和数据量

    • 语言特征和更好的初始化

    • 迁移学习分析汇总

    • 案例:反翻译迁移学习

  • 总结

    • 生态追踪

    • 结束语


完整PPT下载


请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“TLNMT” 就可以获取完整PDF的专知下载链接索引~ 


导论部分截图如下所示:

参考链接:

  • https://arxiv.org/abs/2001.01622


-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册使用专知
登录查看更多
0

相关内容

Tom Kocmi,查尔斯大学,数学与物理学院,形式与应用语言学研究所博士,他的主要研究方向是基于神经网络的机器翻译。个人主页:[https://ufal.mff.cuni.cz/tom-kocmi](https://ufal.mff.cuni.cz/tom-kocmi)
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
专知会员服务
142+阅读 · 2020年6月15日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
赛尔笔记 | 自然语言处理中的迁移学习(下)
AI科技评论
11+阅读 · 2019年10月21日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
一文看懂自然语言处理中迁移学习的现状
AI前线
10+阅读 · 2019年8月27日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
不只有BERT!盘点2018年NLP令人激动的10大想法
黑龙江大学自然语言处理实验室
4+阅读 · 2018年12月24日
概览迁移学习在NLP领域中的应用
论智
4+阅读 · 2018年7月31日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
7+阅读 · 2018年6月1日
VIP会员
相关资讯
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
赛尔笔记 | 自然语言处理中的迁移学习(下)
AI科技评论
11+阅读 · 2019年10月21日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
一文看懂自然语言处理中迁移学习的现状
AI前线
10+阅读 · 2019年8月27日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
不只有BERT!盘点2018年NLP令人激动的10大想法
黑龙江大学自然语言处理实验室
4+阅读 · 2018年12月24日
概览迁移学习在NLP领域中的应用
论智
4+阅读 · 2018年7月31日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
相关论文
Arxiv
35+阅读 · 2020年1月2日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
7+阅读 · 2018年6月1日
Top
微信扫码咨询专知VIP会员