知识增强预训练语言模型(Knowledge enhanced pre- training language model, K-PLMs)已被证明对许多公共任务是有效的,但在实践中成功应用的却很少。为了解决这一问题,我们提出了一种系统的方法K-AID,包括一个低成本的获取领域知识的过程,一个有效的知识注入模块,以提高模型的性能,以及一个知识蒸馏组件,以减少模型尺寸和部署K-PLMs资源受限的设备(如:CPU)为现实世界的应用。重要的是,我们的方法捕获的是关系知识,而不是像大多数现有的 K-PLMs那样捕获实体知识,这有助于更好地改进句子级别的文本分类和文本匹配任务,这些任务在回答问题(QA)中扮演着关键角色。我们对电子商务、政府、影视三个领域的5个文本分类任务和3个文本匹配任务进行了一系列实验,并在电子商务领域进行了在线A /B测试。实验结果表明,该方法能够在句子水平的问题回答任务上取得显著的提高,在工业环境中带来有益的商业价值。

https://www.zhuanzhi.ai/paper/f2b18d6b3b8fd0eef9f9f6142e452f42

成为VIP会员查看完整内容
16

相关内容

近年来,预训练模型(例如ELMo、GPT、BERT和XLNet等)的快速发展大幅提升了诸多NLP任务的整体水平,同时也使得很多应用场景进入到实际落地阶段。预训练语言模型本身就是神经网络语言模型,它的特点包括:第一,可以使用大规模无标注纯文本语料进行训练;第二,可以用于各类下游NLP任务,不是针对某项定制的,但以后可用在下游NIP任务上,你不需要为下游任务专门设计一种神经网络,或者提供一种结构,直接在几种给定的固定框架中选择一种进行 fine-tune,就可以从而得到很好的结果。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【CIKM2021】基于等效共享记忆研究的神经会话生成模型
专知会员服务
9+阅读 · 2021年11月19日
专知会员服务
12+阅读 · 2021年10月6日
专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
33+阅读 · 2020年11月25日
Bert知识蒸馏系列(一):什么是知识蒸馏
AINLP
3+阅读 · 2020年10月15日
【清华ACL2020长文】KdConv:多领域知识驱动的中文多轮对话数据集
深度学习自然语言处理
11+阅读 · 2020年4月12日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
2018年自然语言取得不错的研究有哪些?
人工智能前沿讲习班
4+阅读 · 2019年2月22日
Arxiv
21+阅读 · 2021年12月31日
Arxiv
23+阅读 · 2021年10月11日
Arxiv
3+阅读 · 2019年11月28日
Arxiv
4+阅读 · 2019年9月5日
VIP会员
相关VIP内容
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【CIKM2021】基于等效共享记忆研究的神经会话生成模型
专知会员服务
9+阅读 · 2021年11月19日
专知会员服务
12+阅读 · 2021年10月6日
专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
33+阅读 · 2020年11月25日
微信扫码咨询专知VIP会员