DeepStruct: 面向结构化预测任务的预训练语言模型 | 论文荐读

2022 年 3 月 22 日 学术头条

作者:

Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song

Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, and Dawn Song. DeepStruct: Pre-Training of Language Models for Structure Prediction. In Proceedings of the 60th Annual Meeting of the Association of Computational Linguistics (Findings of ACL'22).

本文介绍了一种提高语言模型的结构理解能力的方法。与以往面向特定任务设计和优化模型不同,我们对语言模型进行预训练,使其在一系列与任务无关的语料库上从文本中生成结构化的预测。我们的结构预训练使模型在结构任务方面所学到的知识得到零的转移。我们在 27 个数据集上研究了这种方法的性能,这些数据集横跨 10 个结构预测任务,包括开放信息提取、联合实体和关系提取、命名实体识别、关系分类、语义角色标记、事件抽取、指代消歧、知识探测、意图检测和对话状态跟踪。我们通过特定任务的训练集进一步进行多任务学习。我们表明,一个百亿参数的语言模型可以轻松地转移到大多数任务上,并以单一模型在我们评估的 27 个数据集中的 20 个上获得了最先进的性能。

点击【在看】及时获取更多讯息

登录查看更多
2

相关内容

基于预训练语言模型的文本生成
专知会员服务
27+阅读 · 2022年1月28日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
91+阅读 · 2021年11月4日
【Hinton新论文】语言建模目标检测Pix2seq
专知会员服务
25+阅读 · 2021年9月23日
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
41+阅读 · 2021年6月6日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
有效且稳健的数据增强小样本学习 | 论文荐读
学术头条
6+阅读 · 2022年3月25日
小样本自然语言理解的基准测试FewNLU | 论文荐读
学术头条
1+阅读 · 2022年3月23日
基于预训练语言模型的文本生成
专知
0+阅读 · 2022年1月28日
论文浅尝 | 将结构预测作为增广自然语言间的翻译任务
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
1+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
23+阅读 · 2017年3月9日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员