【论文推荐】结合KB和answer selection的相关论文推荐

2020 年 4 月 22 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要11分钟

跟随小博主,每天进步一丢丢


来自 | 知乎

地址 | https://zhuanlan.zhihu.com/p/52057462

作者 | 是江晚晚呀

编辑 | 机器学习算法与自然语言处理公众号

本文仅作学术分享,若侵权,请联系后台删文处理


《Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering》

来源:AAAI2019

链接:arxiv.org/pdf/1812.0235

MOTIVATION

1、KBQA和AS任务都可以看作是一个排序问题,一个在text-level,一个在knowledge-level。

2、AS可以整合来自KB的外部知识,KBQA可以通过在AS中学习到的上下文信息来改善。

3、为了实现联合学习这两项任务,本文考虑用多任务学习。现有的多任务学习框架一般把模型分为task-specific layers和shared layers。所有任务共享shared layers,对于每个任务,task-specific layers是独立的。这会忽略task-specific layers和shared layers的内部联系。


CONTRIBUTIONS

这篇文章提出了一种multi-task learning方案,从多个视角学习multi-view attention,使得KBQA和AS任务相互作用。具体来说:

1、通过组合来自task-specific层的attentive信息以在shared层学习更复杂的句子表示。

2、另外,multi-view attention机制通过结合word-level和knowledge-level信息增强句子表示学习。即:通过multi-view attention方案,word-level和konwledge-level的attentive信息在不同任务中共享和迁移。

最后在每个单任务上,这篇论文都实现了非常不错的效果。而且证明了多视角的注意力机制可以有效地从不同的表示视角上组合注意力信息。


MODEL

  • Multi-Task Question Answering Network

首先,AS任务和KBQA任务的多任务学习起始于实体链接结果。如表1所示,对于每个问题和每个候选答案,有单词序列  和知识序列  。对于AS任务的问题、答案和KBQA中的问题,通过实体链接获得句子的知识。对于KBQA中的answer fact,从标记好的实体名称和关系名称得到单词序列。

1、Task-specific Encoder Layer

这里对于问题和答案都用了task-specific siamese encoder

(1)Word Encoder

输入词向量序列:

(2)Knowledge Encoder

输入知识嵌入序列:

知识嵌入序列由一系列标记好的实体或者关系名称组成,而我们在后面的学习过程中需要更high-level的knowledge-based表示,所以将知识嵌入序列通过一个CNN,在知识嵌入矩阵上滑动,窗口大小为n,捕捉局部的n-gram特征。隐层向量计算如下:

由于实体长度的不确定性,用了多种size的filters,得到不同的输出向量:

将这些输出向量通过一个全连接层以获得knowledge-based句子表示,L是句子长度,df是CNN的filter大小。

对于问题q和答案a,knowledge-based句子表示分别为:


得到word-based句子表示和knowledge-based句子表示后,把它们连接起来:

2、Shared Representation Learning Layer 
用task-specific encoder把句子编码成向量表示后,通过一个共享表示学习层将不同任务的high-level信息进行共享。

整合两个任务的编码向量并通过一个high-level shared Siamese Bi-LSTM,生成最终的QA表示:


然后还整合了一些word overlap和knowledge overlap特征  ,包括 word overlap score, non-stop word overlap score, weighted word overlap score, non-stop weighted word overlap score, knowledge overlap score and weighted knowledge overlap score。

最后的特征空间是:

3、Task-specific Softmax Layer

给定question-answer pair q(t) and a(t)和它在第k个任务的的标签y(t),分类层:

  • Multi-Task Model with Multi-View Attention
    1、Multi-View Attention Scheme 
    为了在表示空间增强不同任务之间的相互作用,提出一种multi-view注意力机制。首先,不仅仅利用task-specific层的attention,还结合了shared层的attention。其次,从word-level和knowledge-level这两个视角分别获得注意力信息。具体来说,有5个视角的attention:the views of word, knowledge, semantic, knowledge semantic and co-attention.

2、Word View & Knowledge View
这里用了双向注意力机制来得到word view和knowledge view的注意力权重。

首先计算两个注意力矩阵:

然后分别对行和列做max pooling,分别得到word view和knowledge view的问题和答案的注意力权重:

3、Semantic View & Knowledge Semantic View 
对task-specific编码层的输出进行max/mean pooling以获得一个句子的整体语义信息,通过实验,下面这种pooling方法表现最好:

semantic view:

knowledge semantic view:

4、Co-attention View 
这里也用了双向attention机制,以生成最终问题和答案表示之间的co-attention:

5、Multi-View Attentive Representation

最后的attentive QA表示如下:

  • Multi-View Attention Sharing 
    因为多视角的attention是用在共享表示层的隐层状态上的,所以计算注意力的参数应该在多个任务上共享。同时,由于多视角attention聚集task-specific层和shared层的信息,多个任务是通过多视角attention联系的。

EXPERIMENTS


《Knowledge-aware Attentive Neural Network for Ranking Question Answer Pairs》

来源:SIGIR 2018

链接:delivery.acm.org/10.114

本文的主要亮点在于交互地学习knowledge-based and context-based句子表示。具体如下:

1、用knowledge embedding方法预训练来自KB的知识向量。

2、设计了一个context-guided注意力CNN,从KG中的离散候选实体中学习knowledge-based的句子表示。

3、用knowledge-aware的注意力机制学习问题和答案的knowledge-aware句子表示,这个可以根据上下文和背景知识适应性地决定问题和答案的重要信息。

MODEL

1、Basic Model

生成问题和答案的初始contextual句子表示:

2、Knowledge Module: Knowledge-based Sentence Representation Learning
(1)通过n-gram matching进行实体论述检测,对于句子中每个实体论述都提供一个来自KG的top-K实体候选E(t) 。KG中的实体嵌入用TransE进行预训练。

(2)然后通过聚合KG中对应的候选实体,设计了一个context-guided attention机制来学习句子中每个实体论述的知识表示。

(3)为句子中每个实体论述都生成一个context-guided表示  后,用CNN捕捉局部的n-gram信息,学习一个更高级别的knowledge-based句子表示。

3、 Knowledge-aware Attention: Context-based Sentence Representation Learning 
首先计算context-based句子表示和knowledge-based句子表示的注意力矩阵  和  :

对  进行列pooling得到问题的context-based注意力向量,行pooling得到答案的context-based注意力向量;对  进行列pooling得到问题的knowledge-based注意力向量,行pooling得到答案的knowledge-based注意力向量 。然后融合这两个注意力向量,以获得最终的knowledge-aware attention向量:

最后得到问题和答案的knowledge-aware attention句子表示:

4、Hidden Layer and Softmax Layer 
添加了两个额外特征:

(1)问题和答案向量的双线性相似度分数

(2)wordoverlap特征  
所以隐藏层的输入为:

然后输出通过一个softmax层进行二元分类,损失函数为:

EXPERIMENTS

交流学习,进群备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
广告商、博主勿入!


登录查看更多
1

相关内容

【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | 面向简单知识库问答的模式修正强化策略
开放知识图谱
3+阅读 · 2018年11月7日
论文浅尝 | 问题生成(QG)与答案生成(QA)的结合
开放知识图谱
16+阅读 · 2018年7月15日
论文浅尝 | 近期论文精选
开放知识图谱
5+阅读 · 2018年7月8日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
论文浅尝 | CFO: Conditional Focused Neural Question Answering
开放知识图谱
6+阅读 · 2017年12月15日
KBQA从入门到放弃 - Part 2 | 每周话题精选 #09
PaperWeekly
9+阅读 · 2017年8月16日
An Analysis of Object Embeddings for Image Retrieval
Arxiv
4+阅读 · 2019年5月28日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
相关资讯
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | 面向简单知识库问答的模式修正强化策略
开放知识图谱
3+阅读 · 2018年11月7日
论文浅尝 | 问题生成(QG)与答案生成(QA)的结合
开放知识图谱
16+阅读 · 2018年7月15日
论文浅尝 | 近期论文精选
开放知识图谱
5+阅读 · 2018年7月8日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
论文浅尝 | CFO: Conditional Focused Neural Question Answering
开放知识图谱
6+阅读 · 2017年12月15日
KBQA从入门到放弃 - Part 2 | 每周话题精选 #09
PaperWeekly
9+阅读 · 2017年8月16日
Top
微信扫码咨询专知VIP会员