论文题目: Pruning a BERT-based Question Answering Model

论文摘要: 我们研究了通过从基本的BERT模型中剪除参数来压缩基于BERT的问答系统。我们从为2.0小队训练的模型开始,引入允许变压器的选定部分被单独消除的门。具体来说,我们研究:(1)减少每个变压器中的注意头数目,(2)减少每个变压器的前向子层的中间宽度,以及(3)减少嵌入尺寸。我们比较了几种确定这些阈值的方法。我们发现剪枝注意头和前馈层的结合几乎使解码速度加倍,只有1.5f点的精度损失。

作者介绍: Jeffrey McCarley,IBM T.J.沃森研究中心

成为VIP会员查看完整内容
29

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
BERT霸榜问答任务,谷歌新基准模型缩小AI与人类差距50%
未来产业促进会
4+阅读 · 2019年1月31日
Arxiv
8+阅读 · 2019年3月21日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员