零样本学习依赖语义类表示,如属性或预训练的嵌入来预测类,而不需要任何标记示例。我们提出从常识知识图谱学习类表示。常识知识图谱是显性高级知识,它只需要很少的人力投入就可以应用到一系列任务中。为了捕获图中的知识,我们引入了ZSL-KG,这是一个基于图神经网络的框架,带有非线性聚合器来生成类表示。尽管之前大多数关于图神经网络的工作都是使用线性函数来聚合邻近节点的信息,但我们发现,非线性聚合器(如LSTMs或transformer)可以显著改善零目标任务。在跨三个数据集的两个自然语言任务中,ZSL-KG显示出与最先进的方法相比平均提高9.2点的准确性。此外,在对象分类任务上,ZSL-KG与不需要手工设计类表示的最佳方法相比,精度点提高了2.2。最后,我们发现ZSL-KG在这四个数据集上的平均准确率比使用线性聚合器的最佳图神经网络高出3.8点。

成为VIP会员查看完整内容
39

相关内容

最新《图神经网络知识图谱补全》综述论文
专知会员服务
153+阅读 · 2020年7月29日
注意力图神经网络的小样本学习
专知会员服务
190+阅读 · 2020年7月16日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
81+阅读 · 2020年6月9日
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【清华大学】元知识图谱推理
专知
127+阅读 · 2019年9月2日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
4+阅读 · 2018年2月19日
Arxiv
10+阅读 · 2017年12月29日
Arxiv
4+阅读 · 2017年10月30日
VIP会员
微信扫码咨询专知VIP会员