【斯坦福CS224N硬核课】如何融合知识到语言模型中,60页ppt

2021 年 3 月 8 日 专知

以ELMO (Peters et al., 2018)、GPT (Radford et al., 2018)和BERT (Devlin et al., 2019)为代表的预训练语言模型受到了广泛关注,并提出了大量的变体模型。在这些研究中,一些研究人员致力于将知识引入语言模型(Levine et al., 2019; Lauscher et al., 2019; Liu et al., 2019; Zhang et al., 2019b)。ERNIE-Baidu (Sun et al., 2019)引入新的掩蔽单元,如短语和实体,在这些掩蔽单元中学习知识信息。作为奖励,来自短语和实体的语法和语义信息被隐式地集成到语言模型中。此外,ERNIE-Tsinghua (Zhang et al., 2019a)探索了一种不同的知识信息,将知识图谱整合到BERT中,同时学习词汇、句法和知识信息。Xiong et al. (2019) 将实体替换检查任务引入到预先训练的语言模型中,并改进若干与实体相关的下游任务,如问答和实体类型。Wang et al.(2020)提出了一种将知识注入语言模型的插件方式,他们的方法将不同种类的知识保存在不同的适配器中。这些方法所引入的知识信息并没有很重视KG中图表化的知识。


http://web.stanford.edu/class/cs224n/index.html#schedule





专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“LM60” 可以获取《【斯坦福CS224N硬核课】如何融合知识到语言模型中,60页ppt》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

【斯坦福CS224W】图神经网络GNN高级主题,60页ppt
专知会员服务
69+阅读 · 2021年3月5日
【斯坦福CS224N硬核课】 问答系统,陈丹琦讲解,79页ppt
专知会员服务
72+阅读 · 2021年2月23日
专知会员服务
36+阅读 · 2021年2月22日
专知会员服务
64+阅读 · 2021年2月17日
专知会员服务
58+阅读 · 2021年2月16日
【斯坦福CS330】终身学习: 问题陈述,前后迁移,30页ppt
专知会员服务
25+阅读 · 2020年12月13日
图神经网络推理,27页ppt精炼讲解
专知
3+阅读 · 2020年4月24日
Arxiv
3+阅读 · 2019年8月19日
Arxiv
4+阅读 · 2019年2月18日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关VIP内容
相关论文
Top
微信扫码咨询专知VIP会员