【CMU-TACL2020】低资源跨语言实体链接,Low-resource Crosslingual EntityLinking

2020 年 3 月 29 日 专知


跨语言实体链接(Cross-lingual entity linking, XEL)的任务是在目标语言知识库(target-language知识库,KB)中查找从源语言文本中提取的提及内容。(X)EL的第一步是生成候选实体,它从目标语言知识库中为每个提到的候选实体检索貌似合理的候选实体列表。基于Wikipedia资源的方法已经在资源相对较多的语言(HRL)领域被证明是成功的,但是这些方法不能很好地扩展到资源较少的语言(LRL),即使有,也只有很少的Wikipedia页面。近年来,迁移学习方法已被证明可以利用相近语言的资源来降低语言学习对资源的需求,但其性能仍远远落后于资源丰富的语言学习。在本文中,我们首先评估了当前低资源XEL的实体候选生成方法所面临的问题,然后提出了三个改进:(1)减少实体提及和知识库条目之间的脱节,(2)提高模型对低资源场景的鲁棒性。这些方法很简单,但是很有效:我们在7个XEL数据集上对我们的方法进行了实验,发现与最先进的基线相比,它们在前30名标准候选召回中平均产生16.9%的收益。我们改进的模型还使端到端XEL的in-KB精度平均提高了7.9%。


https://www.zhuanzhi.ai/paper/e8972843597f44adc664c0abc282c3ee

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“CEL” 就可以获取低资源跨语言实体链接,Low-resource Crosslingual EntityLinking》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
4

相关内容

【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
【微软亚研130PPT教程】强化学习简介
专知
36+阅读 · 2018年10月26日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
3+阅读 · 2018年3月2日
Arxiv
3+阅读 · 2017年12月18日
Arxiv
3+阅读 · 2017年8月15日
VIP会员
相关VIP内容
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
Top
微信扫码咨询专知VIP会员