Fine-tuning pre-trained language models (PTLMs), such as BERT and its better variant RoBERTa, has been a common practice for advancing performance in natural language understanding (NLU) tasks. Recent advance in representation learning shows that isotropic (i.e., unit-variance and uncorrelated) embeddings can significantly improve performance on downstream tasks with faster convergence and better generalization. The isotropy of the pre-trained embeddings in PTLMs, however, is relatively under-explored. In this paper, we analyze the isotropy of the pre-trained [CLS] embeddings of PTLMs with straightforward visualization, and point out two major issues: high variance in their standard deviation, and high correlation between different dimensions. We also propose a new network regularization method, isotropic batch normalization (IsoBN) to address the issues, towards learning more isotropic representations in fine-tuning by dynamically penalizing dominating principal components. This simple yet effective fine-tuning method yields about 1.0 absolute increment on the average of seven NLU tasks.


翻译:微调培训前语言模型(PTLM),如BERT及其更好的变式RoBERTA等,是提高自然语言理解(NLU)任务绩效的常见做法。最近的代表性学习进展表明,异热带(即单位差异和与非相关)嵌入可以大大改善下游任务的业绩,更快地趋同和更好地概括。但是,在PTLMS中预先培训的嵌入的偏移度相对较低。在本文中,我们用直观的可视化方式分析了预先培训的PTLM[CLS]嵌入的偏移度,并指出了两大问题:标准偏差很大,不同层面之间高度相关。我们还提出了一个新的网络规范化方法,即分级正常化(IsoBN),以解决问题,通过动态地惩罚主要组成部分,在微调中学习更多的偏移表示。这一简单而有效的微调方法在7个NLU任务的平均水平上产生大约1.0绝对增量。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
语言模型及Word2vec与Bert简析
AINLP
6+阅读 · 2020年5月7日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
一文详解Google最新NLP模型XLNet
PaperWeekly
17+阅读 · 2019年7月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Arxiv
2+阅读 · 2021年3月29日
Arxiv
1+阅读 · 2021年3月29日
Arxiv
0+阅读 · 2021年3月29日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关VIP内容
相关资讯
语言模型及Word2vec与Bert简析
AINLP
6+阅读 · 2020年5月7日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
一文详解Google最新NLP模型XLNet
PaperWeekly
17+阅读 · 2019年7月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
相关论文
Arxiv
2+阅读 · 2021年3月29日
Arxiv
1+阅读 · 2021年3月29日
Arxiv
0+阅读 · 2021年3月29日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2018年3月22日
Top
微信扫码咨询专知VIP会员