端到端关系抽取旨在识别命名实体,同时抽取其关系。近期研究大多采取 joint 方式建模这两项子任务,要么将二者统一在一个结构化预测网络中,要么通过共享表示进行多任务学习。

而近期来自普林斯顿大学的 Zexuan Zhong、陈丹琦介绍了一种非常简单的方法,并在标准基准(ACE04、ACE05 和 SciERC)上取得了新的 SOTA 成绩。该方法基于两个独立的预训练编码器构建而成,只使用实体模型为关系模型提供输入特征。通过一系列精心检验,该研究验证了学习不同的语境表示对实体和关系的重要性,即在关系模型的输入层融合实体信息,并集成全局语境信息。

此外,该研究还提出了这一方法的高效近似方法,只需要在推断时对两个编码器各执行一次,即可获得 8-16 倍的加速,同时准确率仅小幅下降。

成为VIP会员查看完整内容
0
26

相关内容

陈丹琦,清华本科(姚班),斯坦福博士即将毕业,师从Christopher Manning,毕业后成为普林斯顿大学计算机学院助理教授,在学期间曾在ACL,EMNLP,NIPS等自然语言处理与机器学习定会发表多篇文章。
小贴士
相关资讯
相关论文
Markus Eberts,Adrian Ulges
5+阅读 · 2019年9月17日
Generating Question Relevant Captions to Aid Visual Question Answering
Jialin Wu,Zeyuan Hu,Raymond J. Mooney
4+阅读 · 2019年9月9日
Tao Kong,Fuchun Sun,Huaping Liu,Yuning Jiang,Jianbo Shi
5+阅读 · 2019年4月8日
Yang Liu
17+阅读 · 2019年3月25日
Junlang Zhan,Hai Zhao
3+阅读 · 2019年3月1日
Michael Motro,Joydeep Ghosh
3+阅读 · 2018年5月21日
Yang Shi,Tommaso Furlanello,Sheng Zha,Animashree Anandkumar
5+阅读 · 2018年4月6日
Luowei Zhou,Yingbo Zhou,Jason J. Corso,Richard Socher,Caiming Xiong
12+阅读 · 2018年4月3日
Kaiming He,Georgia Gkioxari,Piotr Dollár,Ross Girshick
7+阅读 · 2018年1月24日
Weiyu Lan,Xirong Li,Jianfeng Dong
3+阅读 · 2017年8月15日
Top