题目: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

摘要: 迁移学习是自然语言处理(NLP)中的一项强大技术,它首先对一个数据丰富的任务进行预训练,然后再对下游任务进行微调。迁移学习的有效性带来了方法、方法和实践的多样性。本文通过引入一个统一的框架,将每一个语言问题转换成文本到文本的格式,探讨了NLP的迁移学习技术的发展前景。我们的系统研究比较了数十种语言理解任务的训练前目标、体系结构、无标记数据集、迁移方法和其他因素。通过结合我们的探索和规模的见解和我们新的“巨大的干净的爬网语料库”,我们在总结、问答、文本分类等许多基准上取得了最新的成果。为了促进NLP迁移学习的未来工作,我们发布了我们的数据集、预先训练的模型和代码。

成为VIP会员查看完整内容
19

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
谷歌 | 最新110亿参数的T5模型17项NLP任务霸榜SuperGLUE!
机器学习算法与Python学习
8+阅读 · 2019年10月27日
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
3分钟看懂史上最强NLP模型BERT
新智元
22+阅读 · 2019年2月27日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关VIP内容
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
微信扫码咨询专知VIP会员