Named entity recognition (NER) is an important task in NLP, which is all the more challenging in conversational domain with their noisy facets. Moreover, conversational texts are often available in limited amount, making supervised tasks infeasible. To learn from small data, strong inductive biases are required. Previous work relied on hand-crafted features to encode these biases until transfer learning emerges. Here, we explore a transfer learning method, namely language model pretraining, on NER task in Indonesian conversational texts. We utilize large unlabeled data (generic domain) to be transferred to conversational texts, enabling supervised training on limited in-domain data. We report two transfer learning variants, namely supervised model fine-tuning and unsupervised pretrained LM fine-tuning. Our experiments show that both variants outperform baseline neural models when trained on small data (100 sentences), yielding an absolute improvement of 32 points of test F1 score. Furthermore, we find that the pretrained LM encodes part-of-speech information which is a strong predictor for NER.


翻译:在NLP中,命名实体识别(NER)是一项重要任务,在与吵闹的方方面面的谈话领域,这是一个更具挑战性的任务。此外,对话文本往往数量有限,使得监督任务不可行。要从小数据中学习,需要强烈的感应偏差。以前的工作依靠手工制作的特征来编码这些偏差,直到转移学习出现。在这里,我们探索一种转让学习方法,即语言模型预培训,印度尼西亚谈话文本中的NER任务。我们使用大量未标记的数据(generic 域)将传输到谈话文本中,从而能够就有限的域内数据进行有监督的培训。我们报告两种传输学习变体,即受监督的模型微调和未经监督的LM微调。我们的实验表明,两种变体在小数据(100句)培训时超越了基准神经模型,从而绝对改进了32分的F1测试。此外,我们发现,预先培训的LM编码部分语音信息是国家清单的强大预测器。

0
下载
关闭预览

相关内容

Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
15+阅读 · 2018年2月4日
VIP会员
相关VIP内容
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员