最近小编推出CVPR2019图卷积网络、CVPR2019生成对抗网络、【可解释性】,CVPR视觉目标跟踪,CVPR视觉问答,医学图像分割,图神经网络的推荐,CVPR域自适应, ICML图神经网络,ICML元学习相关论文,反响热烈。最近,ACL 2019最新接受文章出炉,大会共收到2905 篇论文投稿,其中660 篇被接收(接收率为22.7%)。小编发现,今年接受的文章结合GNN的工作有二三十篇,看来,图神经网络已经攻占NLP领域,希望其他领域的同学多多学习,看能否结合,期待好的工作!今天小编专门整理最新十篇ACL长文,图神经网络(GNN)+NLP—注意力机制引导图神经网络、Graph-to-Sequence、动态融合图网络、实体和关系抽取、Multi-hop阅读理解、多模态上下文图理解等。

1、Attention Guided Graph Convolutional Networks for Relation Extraction (注意力机制引导图神经网络的关系抽取)

ACL ’19

作者:Zhijiang Guo*, Yan Zhang* and Wei Lu

摘要:Dependency trees传递丰富的结构信息,这些信息对于提取文本中实体之间的关系非常有用。然而,如何有效利用相关信息而忽略Dependency trees中的无关信息仍然是一个具有挑战性的研究问题。现有的方法使用基于规则的hard-pruning策略来选择相关的部分依赖结构,可能并不总是产生最佳结果。本文提出了一种直接以全依赖树为输入的Attention Guided图卷积网络(AGGCNs)模型。我们的模型可以理解为一种soft-pruning方法,它自动学习如何有选择地关注对关系提取任务有用的相关子结构。在包括跨句n元关系提取和大规模句级关系提取在内的各种任务上的大量结果表明,我们的模型能够更好地利用全依赖树的结构信息,其结果显著优于之前的方法。

网址: http://www.statnlp.org/paper/2019/attention-guided-graph-convolutional-networks-relation-extraction.html

代码链接:

https://github.com/Cartus/AGGCN_TACRED

2、Cognitive Graph for Multi-Hop Reading Comprehension at Scale(大规模认知图的Multi-Hop阅读理解)

ACL ’19

作者:Ming Ding, Chang Zhou, Qibin Chen, Hongxia Yang, Jie Tang

摘要:我们提出了一种新的基于CogQA的web级文档multi-hop问答框架。该框架以认知科学的对偶过程理论为基础,通过协调隐式抽取模块(System 1)和显式推理模块(System 2),在迭代过程中逐步构建认知图,在给出准确答案的同时,进一步提供了可解释的推理路径。具体来说,我们基于BERT和graph neural network (GNN)的实现有效地处理了HotpotQA fullwiki数据集中数百万个multi-hop推理问题的文档,在排行榜上获得了34.9的F1 score,而最佳竞争对手的得分为23.6。

网址: https://arxiv.org/abs/1905.05460

代码链接: https://github.com/THUDM/CogQA

3、Coherent Comment Generation for Chinese Articles with a Graph-to-Sequence Model(使用Graph-to-Sequence模型为中文文章生成连贯的评论)

ACL ’19

作者:Wei Li, Jingjing Xu, Yancheng He, Shengli Yan, Yunfang Wu, Xu sun

摘要:自动文章评论有助于鼓励用户参与和在线新闻平台上的互动。然而,对于传统的基于encoder-decoder的模型来说,新闻文档通常太长,这往往会导致一般性和不相关的评论。在本文中,我们提出使用一个Graph-to-Sequence的模型来生成评论,该模型将输入的新闻建模为一个主题交互图。通过将文章组织成图结构,我们的模型可以更好地理解文章的内部结构和主题之间的联系,这使得它能够更好地理解故事。我们从中国流行的在线新闻平台Tencent Kuaibao上收集并发布了一个大规模的新闻评论语料库。广泛的实验结果表明,与几个强大的baseline模型相比,我们的模型可以产生更多的连贯性和信息丰富性的评论。

网址: https://arxiv.org/abs/1906.01231

代码链接: https://github.com/lancopku/Graph-to-seq-comment-generation

4、Dynamically Fused Graph Network for Multi-hop Reasoning(基于动态融合图网络的Multi-hop Reasoning)

ACL ’19

作者:Yunxuan Xiao, Yanru Qu, Lin Qiu, Hao Zhou, Lei Li, Weinan Zhang, Yong Yu

摘要:近年来,基于文本的问答(TBQA)得到了广泛的研究。大多数现有的方法侧重于在一段话内找到问题的答案。然而,许多有难度的问题需要来自两个或多个文档的分散文本的支持证据。本文提出了动态融合图网络(Dynamically Fused Graph Network ,DFGN),这是一种解决需要多个分散证据和推理的问题的新方法。受人类逐步推理行为的启发,DFGN包含一个动态融合层,从给定查询中提到的实体开始,沿着文本动态构建的实体图进行探索,并逐步从给定文档中找到相关的支持实体。我们在需要multi-hop reasoning的公共TBQA数据集HotpotQA上评估了DFGN。DFGN在公共数据集上取得了有竞争力的成绩。此外,我们的分析表明,DFGN可以产生可解释的推理链。

网址: https://arxiv.org/abs/1905.06933

5、 Encoding Social Information with Graph Convolutional Networks for Political Perspective Detection in News Media(利用图卷积网络对Social Information进行编码,用于新闻媒体中的政治倾向性检测)

ACL ’19

作者:Chang Li, Dan Goldwasser

摘要:确定新闻事件在媒体中讨论方式的政治视角是一项重要而富有挑战性的任务。在这篇文章中,我们强调了将社交网络置于情景化的重要性,捕捉这些信息如何在社交网络中传播。我们使用最近提出的一种表示关系信息的神经网络结构——图卷积网络(Graph Convolutional Network)来捕获这些信息,并证明即使在很少的social information分类中也可以得到显著改进。

网址: https://www.cs.purdue.edu/homes/dgoldwas//downloads/papers/LiG_acl_2019.pdf

6、Graph Neural Networks with Generated Parameters for Relation Extraction(用于关系抽取的具有生成参数的图神经网络)

ACL ’19

作者:Hao Zhu, Yankai Lin, Zhiyuan Liu, Jie Fu, Tat-seng Chua, Maosong Sun

摘要:近年来,在改进机器学习领域的关系推理方面取得了一些进展。在现有的模型中,图神经网络(GNNs)是最有效的multi-hop关系推理方法之一。事实上,在关系抽取等自然语言处理任务中,multi-hop关系推理是必不可少的。本文提出了一种基于自然语言语句生成图神经网络(GP-GNNs)参数的方法,使神经网络能够对非结构化文本输入进行关系推理。我们验证了从文本中提取关系的GPGNN。 实验结果表明,与baseline相比,我们的模型取得了显著的改进。我们还进行了定性分析,证明我们的模型可以通过multi-hop关系推理发现更精确的关系。

网址: https://arxiv.org/abs/1902.00756

7、Incorporating Syntactic and Semantic Information in Word Embeddings using Graph Convolutional Networks(使用图卷积网络在词嵌入中结合句法和语义信息)

ACL ’19

作者:Shikhar Vashishth, Manik Bhandari, Prateek Yadav, Piyush Rai, Chiranjib Bhattacharyya, Partha Talukdar

摘要:词嵌入已被广泛应用于多种NLP应用程序中。现有的词嵌入方法大多利用词的sequential context来学习词的嵌入。虽然有一些尝试利用词的syntactic context,但这种方法会导致词表数的爆炸。在本文中,我们通过提出SynGCN来解决这个问题,SynGCN是一种灵活的基于图卷积的学习词嵌入的方法。SynGCN在不增加词表大小的情况下利用单词的dependency context。SynGCN学习的词嵌入在各种内部和外部任务上都优于现有方法,在与ELMo一起使用时提供优势。我们还提出了SemGCN,这是一个有效的框架,用于整合不同的语义知识,以进一步增强所学习的单词表示。我们提供了两个模型的源代码,以鼓励可重复的研究。

网址: https://arxiv.org/abs/1809.04283

代码链接: http://github.com/malllabiisc/WordGCN

8、 GraphRel: Modeling Text as Relational Graphs for Joint Entity and Relation Extraction(GraphRel: 将文本建模为关系图,用于实体和关系抽取)

ACL ’19

作者:Tsu-Jui Fu, Peng-Hsuan Li, Wei-Yun Ma

摘要:本文提出了一种利用图卷积网络(GCNs)联合学习命名实体和关系的端到端关系抽取模型GraphRel。与之前的baseline相比,我们通过关系加权GCN来考虑命名实体和关系之间的交互,从而更好地提取关系。线性结构和依赖结构都用于提取文本的序列特征和区域特征,并利用完整的词图进一步提取文本所有词对之间的隐式特征。基于图的方法大大提高了对重叠关系的预测能力。我们在两个公共数据集NYT和webnlg上评估了GraphRel。结果表明,GraphRel在大幅度提高recall的同时,保持了较高的precision。GraphRel的性能也比之前的工作好3.2%和5.8% (F1 score),实现了关系抽取的最先进的方法。

网址: https://tsujuifu.github.io/projs/acl19_graph-rel.html

代码链接: https://github.com/tsujuifu/pytorch_graph-rel

9、Multi-hop Reading Comprehension across Multiple Documents by Reasoning over Heterogeneous Graphs(通过对异构图进行推理,实现跨多个文档的Multi-hop阅读理解)

ACL ’19

作者:Ming Tu, Guangtao Wang, Jing Huang, Yun Tang, Xiaodong He, Bowen Zhou

摘要:跨文档的Multi-hop阅读理解(RC)对单文本RC提出了新的挑战,因为它需要对多个文档进行推理才能得到最终答案。在本文中,我们提出了一个新的模型来解决multi-hop RC问题。我们引入了具有不同类型的节点和边的异构图,称为异构文档-实体(HDE)图。HDE图的优点是它包含不同粒度级别的信息,包括特定文档上下文中的候选信息、文档和实体。我们提出的模型可以对HDE图进行推理,节点表示由基于co-attention 和 self-attention的上下文编码器初始化。我们使用基于图神经网络(GNN)的消息传递算法,在提出的HDE图上累积evidence。通过对Qangaroo WIKIHOP数据集的blind测试集的评估,我们的基于HDE图的单模型给出了具有竞争力的结果,并且集成模型达到了最先进的性能。

网址: https://arxiv.org/abs/1905.07374

10、Textbook Question Answering with Multi-modal Context Graph Understanding and Self-supervised Open-set Comprehension(多模态上下文图理解和自监督开放集理解的Textbook问答)

ACL ’19

作者:Daesik Kim, Seonhoon Kim, Nojun Kwak

摘要:在本文中,我们介绍了一种解决教科书问答(TQA)任务的新算法。在分析TQA数据集时,我们主要关注两个相关问题。首先,解决TQA问题需要理解复杂输入数据中的多模态上下文。为了解决从长文本中提取知识特征并与视觉特征相结合的问题,我们从文本和图像中建立了上下文图,并提出了一种基于图卷积网络(GCN)的f-GCN模块。其次,科学术语不会分散在各个章节中,而且主题在TQA数据集中是分开的。为了克服这个所谓的“领域外”问题,在学习QA问题之前,我们引入了一种新的没有任何标注的自监督开放集学习过程。实验结果表明,我们的模型明显优于现有的最先进的方法。此外,消融研究证实,将f-GCN用于从多模态上下文中提取知识的方法和我们新提出的自监督学习过程对于TQA问题都是有效的。

网址: https://arxiv.org/abs/1811.00232

下载链接:https://pan.baidu.com/s/1xDKxGyvF4pGa7_8ipuS0bw 提取码:rr1c

成为VIP会员查看完整内容
0
53

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

【导读】计算语言学协会(the Association for Computational Linguistics, ACL)年度会议作为顶级的国际会议,在计算语言学和自然语言处理领域一直备受关注。其接收的论文覆盖了语义分析、文本挖掘、信息抽取、问答系统、机器翻译、情感分析和意见挖掘等众多自然语言处理领域的研究方向。今年,第58届计算语言学协会(the Association for Computational Linguistics, ACL)年度会议将于2020年7月5日至10日在美国华盛顿西雅图举行。受COVID-19疫情影响,ACL 2020将全部改为线上举行。本次ACL大会共提交了3429篇论文,共有571篇长论文、以及208篇短论文入选。不久之前,专知小编为大家整理了大会的图神经网络(GNN)相关论文,这期小编继续为大家奉上ACL 2020图神经网络(GNN)相关论文-Part 2供参考——多文档摘要、多粒度机器阅读理解、帖子争议检测、GAE。

ACL2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN

1. Leveraging Graph to Improve Abstractive Multi-Document Summarization

作者:Wei Li, Xinyan Xiao, Jiachen Liu, Hua Wu, Haifeng Wang, Junping Du

摘要:捕捉文本单元之间关系图对于从多个文档中检测显著信息和生成整体连贯的摘要有很大好处。本文提出了一种神经抽取多文档摘要(MDS)模型,该模型可以利用文档的常见图表示,如相似度图和话语图(discourse graph),来更有效地处理多个输入文档并生成摘要。我们的模型使用图对文档进行编码,以捕获跨文档关系,这对于总结长文档至关重要。我们的模型还可以利用图来指导摘要的生成过程,这有利于生成连贯而简洁的摘要。此外,预训练的语言模型可以很容易地与我们的模型相结合,进一步提高了摘要的性能。在WikiSum和MultiNews数据集上的实验结果表明,所提出的体系结构在几个强大的基线上带来了实质性的改进。

网址: https://arxiv.org/abs/2005.10043

2. Document Modeling with Graph Attention Networks for Multi-grained Machine Reading Comprehension

作者:Bo Zheng, Haoyang Wen, Yaobo Liang, Nan Duan, Wanxiang Che, Daxin Jiang, Ming Zhou, Ting Liu

摘要:“自然问题”是一种具有挑战性的新的机器阅读理解基准,其中包含两个答案:长答案(通常是一个段落)和短答案(长答案中的一个或多个实体)。尽管此基准测试的现有方法很有效,但它们在训练期间单独处理这两个子任务,忽略了它们间的依赖关系。为了解决这个问题,我们提出了一种新颖的多粒度机器阅读理解框架,该框架专注于对文档的分层性质进行建模,这些文档具有不同的粒度级别:文档、段落、句子和词。我们利用图注意力网络来获得不同层次的表示,以便它们可以同时学习。长答案和短答案可以分别从段落级表示和词级表示中提取。通过这种方式,我们可以对两个粒度的答案之间的依赖关系进行建模,以便为彼此提供证据。我们联合训练这两个子任务,实验表明,我们的方法在长答案和短答案标准上都明显优于以前的系统。

网址: https://arxiv.org/abs/2005.05806

代码链接:

https://github.com/DancingSoul/NQ_BERT-DM

3. Integrating Semantic and Structural Information with Graph Convolutional Network for Controversy Detection

作者:Lei Zhong, Juan Cao, Qiang Sheng, Junbo Guo, Ziang Wang

摘要:识别社交媒体上有争议的帖子是挖掘公众情绪、评估事件影响、缓解两极分化观点的基础任务。然而,现有的方法不能1)有效地融合来自相关帖子内容的语义信息;2)保留回复关系建模的结构信息;3)正确处理与训练集中主题不同的帖子。为了克服前两个局限性,我们提出了主题-帖子-评论图卷积网络(TPC-GCN),它综合了来自主题、帖子和评论的图结构和内容的信息,用于帖子级别的争议检测。对于第三个限制,我们将模型扩展到分离的TPC-GCN(DTPC-GCN),将主题相关和主题无关的特征分离出来,然后进行动态融合。在两个真实数据集上的大量实验表明,我们的模型优于现有的方法。结果和实例分析表明,该模型能够将语义信息和结构信息有机地结合在一起,具有较强的通用性。

网址: https://arxiv.org/abs/2005.07886

4. Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven Cloze Reward

作者:Luyang Huang, Lingfei Wu, Lu Wang

摘要:用于抽取摘要的序列到序列(sequence-to-sequence )模型已经被广泛研究,但是生成的摘要通常受到捏造的内容的影响,并且经常被发现是near-extractive的。我们认为,为了解决这些问题,摘要生成器应通过输入获取语义解释,例如通过结构化表示,以允许生成更多信息的摘要。在本文中,我们提出了一种新的抽取摘要框架--Asgard,它具有图形增强和语义驱动的特点。我们建议使用双重编码器-序列文档编码器和图形结构编码器-来保持实体的全局上下文和局部特征,并且相互补充。我们进一步设计了基于多项选择完形填空测试的奖励,以驱动模型更好地捕捉实体交互。结果表明,我们的模型在纽约时报和CNN/每日邮报的数据集上都比没有知识图作为输入的变体产生了更高的Rouge分数。与从大型预训练的语言模型中优化的系统相比,我们也获得了更好或可比的性能。评委进一步认为我们的模型输出信息更丰富,包含的不实错误更少。

网址: https://arxiv.org/abs/2005.01159

5. A Graph Auto-encoder Model of Derivational Morphology

作者:Valentin Hofmann, Hinrich Schutze, Janet B. Pierrehumberty

摘要:关于派生词的形态良好性(morphological well-formedness, MWF)建模工作在语言学中被认为是一个复杂而困难的问题,并且这方面的研究工作较少。我们提出了一个图自编码器学习嵌入以捕捉派生词中词缀和词干的兼容性信息。自编码器通过将句法和语义信息与来自心理词典的关联信息相结合,很好地模拟了英语中的MWF。

网址: http://www.phon.ox.ac.uk/jpierrehumbert/publications/Hofmann_etal_DGA_ACL2020.pdf

成为VIP会员查看完整内容
0
71

【导读】计算语言学协会(the Association for Computational Linguistics, ACL)年度会议作为顶级的国际会议,在计算语言学和自然语言处理领域一直备受关注。其接收的论文覆盖了语义分析、文本挖掘、信息抽取、问答系统、机器翻译、情感分析和意见挖掘等众多自然语言处理领域的研究方向。今年,第58届计算语言学协会(the Association for Computational Linguistics, ACL)年度会议将于2020年7月5日至10日在美国华盛顿西雅图举行。受COVID-19疫情影响,ACL 2020将全部改为线上举行。为此,专知小编提前为大家整理了ACL 2020图神经网络(GNN)相关论文,让大家先睹为快——事实验证、法律文书、谣言检测、自动摘要、情感分析。

WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、ACL2019GNN、CVPR2019GNN、ICML2019GNN

1. Fine-grained Fact Verification with Kernel Graph Attention Network

作者:Zhenghao Liu, Chenyan Xiong, Maosong Sun, Zhiyuan Liu

摘要:事实验证(Fact V erification)需要细粒度的自然语言推理能力来找到微妙的线索去识别句法和语义上正确但没有强有力支持的声明(well-supported claims)。本文提出了基于核方法的图注意力网络(KGAT),该网络使用基于核的注意力进行更细粒度的事实验证。给定一个声明和一组形成证据图潜在证据的句子,KGAT在图注意力网络中引入了可以更好地衡量证据节点重要性的节点核,以及可以在图中进行细粒度证据传播的边缘核,以实现更准确的事实验证。KGAT达到了70.38%的FEVER得分,在FEVER上大大超过了现有的事实验证模型(FEVER是事实验证的大规模基准)。我们的分析表明,与点积注意力相比,基于核的注意力更多地集中在证据图中的相关证据句子和有意义的线索上,这是KGAT有效性的主要来源。

网址:https://arxiv.org/pdf/1910.09796.pdf

2. Distinguish Confusing Law Articles for Legal Judgment Prediction

作者:Nuo Xu, Pinghui Wang, Long Chen, Li Pan, Xiaoyan Wang, Junzhou Zhao

摘要:法律审判预测(LJP)是在给出案件事实描述文本的情况下,自动预测案件判决结果的任务,其在司法协助系统中具有良好的应用前景,为公众提供方便的服务。实际上,由于适用于类似法律条款的法律案件很容易被误判,经常会产生混淆的指控。在本文中,我们提出了一个端到端的模型--LADAN来解决LJP的任务。为了解决这一问题,现有的方法严重依赖领域专家,这阻碍了它在不同法律制度中的应用。为了区分混淆的指控,我们提出了一种新的图神经网络来自动学习混淆法律文章之间的细微差别,并设计了一种新的注意力机制,该机制充分利用学习到的差别从事实描述中提取令人信服的鉴别特征。在真实数据集上进行的实验证明了我们的LADAN算法的优越性。

网址:

https://arxiv.org/pdf/2004.02557.pdf

3. GCAN: Graph-aware Co-Attention Networks for Explainable Fake News Detection on Social Media

作者:Yi-Ju Lu, Cheng-Te Li

摘要:本文解决了在更现实的社交媒体场景下的假新闻检测问题。给定源短文本推文和相应的没有文本评论的转发用户序列,我们的目的是预测源推文是否是假的,并通过突出可疑转发者的证据和他们关注的词语来产生解释。为了实现这一目标,我们提出了一种新的基于神经网络的模型--图感知协同注意网络(GCAN)。在真实推文数据集上进行的广泛实验表明,GCAN的平均准确率比最先进的方法高出16%。此外,案例研究还表明,GCAN可以给出合理的解释。

网址:

https://arxiv.org/pdf/2004.11648.pdf

4. Heterogeneous Graph Neural Networks for Extractive Document Summarization

作者:Danqing Wang, Pengfei Liu, Yining Zheng, Xipeng Qiu, Xuanjing Huang

摘要:作为提取文档摘要的关键步骤,跨句关系学习已经有了大量的研究方法。一种直观的方法是将它们放入基于图的神经网络中,该网络具有更复杂的结构来捕获句间关系。本文提出了一种基于图的异构神经网络抽取摘要算法(HeterSUMGraph),该算法除句子外,还包含不同粒度的语义节点。这些额外的结点起到句子之间的中介作用,丰富了句子之间的关系。此外,通过引入文档节点,我们的图结构可以灵活地从单文档设置自然扩展到多文档设置。据我们所知,我们是第一个将不同类型的节点引入到基于图的神经网络中进行提取文档摘要的,我们还进行了全面的定性分析,以考察它们的好处。

网址:

https://arxiv.org/pdf/2004.12393.pdf

代码链接:

https://github.com/brxx122/HeterSUMGraph

5. Relational Graph Attention Network for Aspect-based Sentiment Analysis

作者:Kai Wang, Weizhou Shen, Yunyi Yang, Xiaojun Quan, Rui Wang

摘要:Aspect级的情感分析旨在确定在线评论中对某一特定方面的情感极性。最近的大多数努力采用了基于注意力的神经网络模型来隐式地将aspect与观点词联系起来。然而,由于语言的复杂性和单句中多个aspect的存在,这些模型往往混淆了它们之间的联系。在本文中,我们通过对语法信息进行有效的编码来解决这个问题。首先,我们通过重塑和修剪常规依赖关系树,定义了一个以目标方面为根的统一的面向aspect的依赖树结构。然后,我们提出了一种关系图注意力网络(R-GAT)来编码新的树结构用于情感预测。我们在SemEval 2014和Twitter数据集上进行了广泛的实验,实验结果证实,该方法可以更好地建立aspect和观点词之间的联系,从而显著提高了图注意网络(GAT)的性能。

网址:

https://arxiv.org/pdf/2004.12362.pdf

成为VIP会员查看完整内容
0
64

【导读】国际万维网大会(The Web Conference,简称WWW会议)是由国际万维网会议委员会发起主办的国际顶级学术会议,创办于1994年,每年举办一届,是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经召开,会议论文集已经公开,大家可以自己查看感兴趣的论文,专知小编继续整理WWW 2020 系列论文,这期小编为大家奉上的是WWW 2020五篇知识图谱+图神经网络(KG+GNN)相关论文,供大家参考!——多关系实体对齐、问答推理、动态图实体链接、序列实体链接、知识图谱补全。

WWW 2020 会议论文集: https://dl.acm.org/doi/proceedings/10.1145/3366423

WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、ACL2019GNN、CVPR2019GNN、ICML2019GNN

  1. Collective Multi-type Entity Alignment Between Knowledge Graphs

作者:Qi Zhu, Hao Wei, Bunyamin Sisman, Da Zheng, Christos Faloutsos, Xin Luna Dong and Jiawei Han

摘要:知识图(如Freebase、Yago)是表示各类实体之间丰富真实信息的多关系图。实体对齐是实现多源知识图集成的关键步骤。它旨在识别涉及同一真实世界实体的不同知识图中的实体。然而,现有的实体对齐系统忽略了不同知识图的稀疏性,不能通过单一模型对多类型实体进行对齐。在本文中,我们提出了一种用于多类型实体对齐的联合图神经网络(Collective Graph neural network),称为CG-MuAlign。与以前的工作不同,CG-MuAlign联合对齐多种类型的实体,共同利用邻域信息并将其推广到未标记的实体类型。具体地说,我们提出了一种新的集中聚集函数1)通过交叉图和自注意力来缓解知识图的不完全性,2)通过小批量训练范例和有效的邻域抽样策略,有效地提高了可伸缩性。我们在具有数百万个实体的真实知识图上进行了实验,观察到了比现有方法更优越的性能。此外,我们的方法的运行时间比目前最先进的深度学习方法要少得多。

网址:

https://dl.acm.org/doi/abs/10.1145/3366423.3380289

  1. Complex Factoid Question Answering with a Free-Text Knowledge Graph

作者:Chen Zhao, Chenyan Xiong, Xin Qian and Jordan Boyd-Graber

摘要:我们介绍了Delft,一个事实问答系统,它将知识图问答方法的细微和深度与更广泛的free-文本结合在一起。Delft从Wikipedia构建了一个自由文本知识图,以实体为节点和句子,其中实体同时出现做为边。对于每个问题,Delft使用文本句子作为边,找到将问题实体节点链接到候选对象的子图,创建了密集且覆盖率高的语义图。一种新颖的图神经网络在free-文本图上进行推理-通过沿边句子的信息组合节点上的证据-以选择最终答案。在三个问答数据集上的实验表明,Delft能够比基于机器阅读的模型、基于BERT的答案排序和记忆网络更好地回答实体丰富的问题。Delft的优势既来自于其free-文本知识图谱的高覆盖率--是DBpedia关系的两倍多--也来自于新颖的图神经网络,它基于丰富而嘈杂的free-文本证据进行推理。

网址:

https://dl.acm.org/doi/abs/10.1145/3366423.3380197

  1. Dynamic Graph Convolutional Networks for Entity Linking

作者:Junshuang Wu, Richong Zhang, Yongyi Mao, Hongyu Guo, Masoumeh Soflaei and Jinpeng Huai

摘要:实体链接将文档中提及的命名实体映射到给定知识图中的合适的实体,已被证明能够从基于图卷积网络(GCN)对实体相关性建模中获得显著好处。然而,现有的GCN实体链接模型没有考虑到,一组实体的结构化图不仅依赖于给定文档的上下文信息,而且在GCN的不同聚合层上自适应地变化,导致在捕捉实体之间的结构信息方面存在不足。在本文中,我们提出了一种动态的GCN体系结构来有效地应对这一挑战。模型中的图结构是在训练过程中动态计算和修改的。通过聚合动态链接节点的知识,我们的GCN模型可以集中识别文档和知识图之间的实体映射,并有效地捕捉整个文档中各个实体提及( mentions)之间的主题一致性。在基准实体连接数据集上的实证研究证实了我们提出的策略的优越性能和动态图结构的好处。

网址:

https://dl.acm.org/doi/abs/10.1145/3366423.3380192

  1. High Quality Candidate Generation and Sequential Graph Attention Network for Entity Linking

作者:Yichao Zhou, Shaunak Mishra, Manisha Verma, Narayan Bhamidipati and Wei Wang

摘要:实体链接(EL)是将文本中提及的内容映射到知识库(KB)中相应实体的任务。这项任务通常包括候选生成(CG)和实体消歧(ED)两个阶段。目前基于神经网络模型的EL系统取得了较好的性能,但仍然面临着两个挑战:(1)以往的研究在评估模型时没有考虑候选实体之间的差异。事实上,候选集的质量(特别是黄金召回)对EL结果有影响。因此,如何提候选的素质需要引起更多的关注。(Ii)为了利用提及实体之间的主题一致性,提出了许多聚集ED的图和序列模型。然而,基于图的模型对所有候选实体一视同仁,这可能会引入大量的噪声信息。相反,序列模型只能观察先前引用的实体,而忽略了当前提及的实体与其后续实体之间的相关性。针对第一个问题,我们提出了一种基于多策略的CG方法来生成高召回率的候选集。对于第二个问题,我们设计了一个序列图注意力网络(SeqGat),它结合了图和序列方法的优点。在我们的模型中,提及( mentions)是按顺序处理的。在当前提到的情况下,SeqGAT对其先前引用的实体和后续实体进行动态编码,并为这些实体分配不同的重要性。这样既充分利用了主题的一致性,又减少了噪声干扰。我们在不同类型的数据集上进行了实验,并在开放的评测平台上与以前的EL系统进行了比较。比较结果表明,与现有的方法相比,我们的模型有了很大的改进。

网址:

https://dl.acm.org/doi/abs/10.1145/3366423.3380146

  1. Mining Implicit Entity Preference from User-Item Interaction Data for Knowledge Graph Completion via Adversarial Learning

作者:Gaole He, Junyi Li, Wayne Xin Zhao, Peiju Liu and Ji-Rong Wen

摘要:知识图补全(KGC)任务旨在自动推断知识图(KG)中缺失的事实信息。在本文中,我们采取了一个新的视角,旨在利用丰富的用户-项目交互数据(简称用户交互数据)来改进KGC任务。我们的工作灵感来自于观察到许多KG实体对应于应用系统中的在线项目。然而,这两种数据源的固有特性有很大的不同,使用简单的融合策略很可能会损害原有的性能。为了应对这一挑战,我们提出了一种新的对抗性学习方法,通过利用用户交互数据来执行KGC任务。我们的生成器是从用户交互数据中分离出来的,用来提高鉴别器的性能。鉴别器将从用户交互数据中学习到的有用信息作为输入,并逐步增强评估能力,以识别生成器生成的假样本。为了发现用户的隐含实体偏好,设计了一种基于图神经网络的协同学习算法,并与鉴别器进行联合优化。这种方法有效地缓解了KGC任务的数据异构性和语义复杂性问题。在三个真实世界数据集上的广泛实验已经证明了我们在KGC任务上的方法的有效性。

网址:

https://dl.acm.org/doi/abs/10.1145/3366423.3380155

成为VIP会员查看完整内容
0
105

1、MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing(MixHop: 通过稀疏邻域混合实现的高阶图卷积结构)

作者:Sami Abu-El-Haija, Bryan Perozzi, Amol Kapoor, Nazanin Alipourfard, Kristina Lerman, Hrayr Harutyunyan, Greg Ver Steeg, Aram Galstyan

摘要:现有的基于图神经网络的半监督学习方法(如图卷积网络)不能学习一般的邻域混合关系。为了解决这个缺点,我们提出了一个新的模型,MixHop,它可以通过在不同距离重复混合邻居的特征表示来学习这些关系,包括不同的操作符。MixHop不需要额外的内存或计算复杂度,并且在一些具有挑战性的baseline上性能更好。此外,我们建议使用稀疏正则化,使我们能够可视化网络如何跨不同的图数据集对邻居信息进行优先级排序。我们对所学体系结构的分析表明,每个数据集的邻域混合是不同的。

网址:http://proceedings.mlr.press/v97/abu-el-haija19a.html

代码链接: https://github.com/samihaija/mixhop

2、Compositional Fairness Constraints for Graph Embeddings(图嵌入的组合公平性约束)

作者:Avishek Bose, William Hamilton

摘要:学习高质量的节点嵌入是基于图数据(如社交网络和推荐系统)的机器学习模型的关键步骤。然而,现有的图嵌入技术无法处理公平约束,例如,确保所学习的表示与某些属性(如年龄或性别)不相关。在这里,我们引入一个对抗框架来对图嵌入实施公平性约束。我们的方法是组合的,这意味着它可以灵活地适应推理过程中公平约束的不同组合。例如,在社会推荐的上下文中,我们的框架允许一个用户要求他们的推荐对他们的年龄和性别都是不变的,同时也允许另一个用户只对他们的年龄要求不变。在标准知识图和推荐系统基准测试上的实验突出了我们提出的框架的实用性。

网址:http://proceedings.mlr.press/v97/bose19a.html

代码链接: https://github.com/joeybose/Flexible-Fairness-Constraints

3、Learning Discrete Structures for Graph Neural Networks(学习图神经网络的离散结构)

作者:Luca Franceschi, Mathias Niepert, Massimiliano Pontil, Xiao He

摘要:图神经网络(GNNs)是一种流行的机器学习模型,已成功地应用于一系列问题。它们的主要优势在于能够显式地合并数据点之间的稀疏和离散依赖结构。不幸的是,只有在这种图结构可用时才能使用GNN。然而,在实践中,真实世界中的图常常是嘈杂的、不完整的,或者根本就不可用。在此基础上,我们提出通过近似求解一个学习图边缘离散概率分布的双层程序来共同学习图卷积网络(GCNs)的图结构和参数。这不仅允许在给定图不完整或损坏的场景中应用GCNs,还允许在图不可用的场景中应用GCNs。我们进行了一系列的实验,分析了该方法的行为,并证明了它比相关的方法有显著的优势。

网址:http://proceedings.mlr.press/v97/franceschi19a.html

代码链接: https://github.com/lucfra/LDS

4、Graph U-Nets

作者:Hongyang Gao, Shuiwang Ji

摘要:我们研究了图数据的表示学习问题。卷积神经网络可以很自然地对图像进行操作,但在处理图数据方面存在很大的挑战。由于图像是二维网格上节点图的特殊情况,图的嵌入任务与图像的分割等像素级预测任务具有天然的对应关系。虽然像U-Nets这样的编解码器结构已经成功地应用于许多图像的像素级预测任务,但是类似的方法在图数据上还是很缺乏。这是由于池化操作和上采样操作对图数据不是自然的。为了解决这些挑战,我们提出了新的图池化(gPool)和反池化(gUnpool)操作。gPool层根据节点在可训练投影向量上的标量投影值,自适应地选择节点,形成较小的图。我们进一步提出了gUnpool层作为gPool层的逆操作。gUnpool层使用在相应gPool层中选择的节点位置信息将图恢复到其原始结构。基于我们提出的gPool和gUnpool层,我们开发了一个基于图的编解码器模型,称为Graph U-Nets。我们在节点分类和图分类任务上的实验结果表明,我们的方法比以前的模型具有更好的性能。

网址:http://proceedings.mlr.press/v97/gao19a.html

代码链接: https://github.com/HongyangGao/gunet

5、Graph Neural Network for Music Score Data and Modeling Expressive Piano Performance(图神经网络用于乐谱数据和钢琴演奏表现力的建模)

作者:Dasaem Jeong, Taegyun Kwon, Yoojin Kim, Juhan Nam

摘要:乐谱通常被处理为一维序列数据。与文本文档中的单词不同,乐谱中的音符可以由复调性质同时演奏,并且每个音符都有自己的持续时间。在本文中,我们使用图神经网络表示乐谱的独特形式,并将其应用于从乐谱中渲染表现力的钢琴演奏。具体地,我们设计了使用note-level门控图神经网络和采用迭代反馈方法的双向LSTM测量级层次注意网络的模型。此外,为了对给定输入分数的不同性能风格建模,我们使用了一个变分自编码器。听力测试结果表明,与baseline模型和层次注意网络模型相比,我们提出的模型生成了更多的类人性能,而层次注意网络模型将音乐得分处理为类词序列。

网址:http://proceedings.mlr.press/v97/jeong19a.html

代码链接: https://github.com/jdasam/virtuosoNet

6、Graph Matching Networks for Learning the Similarity of Graph Structured Objects(用于学习图结构物体相似性的图匹配网络)

作者:Yujia Li, Chenjie Gu, Thomas Dullien, Oriol Vinyals, Pushmeet Kohli

摘要:本文针对图结构物体的检索与匹配这一具有挑战性的问题,做了两个关键的贡献。首先,我们演示了如何训练图神经网络(GNN)在向量空间中嵌入图,从而实现高效的相似性推理。其次,提出了一种新的图匹配网络模型,该模型以一对图作为输入,通过一种新的基于注意力的交叉图匹配机制,对图对进行联合推理,计算出图对之间的相似度评分。我们证明了我们的模型在不同领域的有效性,包括具有挑战性的基于控制流图的功能相似性搜索问题,该问题在软件系统漏洞检测中发挥着重要作用。实验分析表明,我们的模型不仅能够在相似性学习的背景下利用结构,而且它们还比那些为这些问题精心手工设计的领域特定baseline系统表现得更好。

网址:http://proceedings.mlr.press/v97/li19d.html

7、Disentangled Graph Convolutional Networks(Disentangled图卷积网络)

作者:Jianxin Ma, Peng Cui, Kun Kuang, Xin Wang, Wenwu Zhu

摘要:真实世界图形的形成通常来自于许多潜在因素之间高度复杂的交互作用。现有的基于图结构数据的深度学习方法忽略了潜在因素的纠缠,使得学习表示不鲁棒,难以解释。然而,在图神经网络的研究中,如何将潜在因素分解出来的学习表示方法面临着巨大的挑战,并且在很大程度上还没有得到探索。本文引入解纠缠(Disentangled)图卷积网络(DisenGCN)来学习disentangled节点表示。特别地,我们提出了一种新的邻域路由机制,它能够动态地识别可能导致节点与其相邻节点之间产生边的潜在因素,并相应地将相邻节点分配到一个提取和卷积特定于该因素的特性的信道。从理论上证明了该路由机制的收敛性。实验结果表明,我们提出的模型可以获得显著的性能提升,特别是当数据表明存在许多纠缠因素时。

网址:http://proceedings.mlr.press/v97/ma19a.html

8、GMNN: Graph Markov Neural Networks(GMNN: 图马尔可夫神经网络)

作者:Meng Qu, Yoshua Bengio, Jian Tang

摘要:本文研究关系数据中的半监督对象分类问题,这是关系数据建模中的一个基本问题。在统计关系学习(如关系马尔可夫网络)和图神经网络(如图卷积网络)的文献中,这一问题得到了广泛的研究。统计关系学习方法可以通过条件随机场对对象标签的依赖关系进行有效的建模,用于集体分类,而图神经网络则通过端到端训练学习有效的对象表示来分类。在本文中,我们提出了一种集两种方法优点于一体的Graph Markov Neural Networks (GMNN)。GMNN利用条件随机场对目标标签的联合分布进行建模,利用变分EM算法对其进行有效训练。在E-step中,一个图神经网络学习有效的对象表示,逼近对象标签的后验分布。在M-step中,利用另一个图神经网络对局部标签依赖关系进行建模。在对象分类、链路分类和无监督节点表示学习等方面的实验表明,GMNN取得了较好的效果。

网址:http://proceedings.mlr.press/v97/qu19a.html

代码链接: https://github.com/DeepGraphLearning/GMNN

9、Simplifying Graph Convolutional Networks(简化图卷积网络)

作者:Felix Wu, Amauri Souza, Tianyi Zhang, Christopher Fifty, Tao Yu, Kilian Weinberger

摘要:图卷积网络(GCNs)及其变体得到了广泛的关注,已成为学习图表示的实际方法。GCNs的灵感主要来自最近的深度学习方法,因此可能会继承不必要的复杂性和冗余计算。在本文中,我们通过连续消除非线性和折叠连续层之间的权重矩阵来减少这种额外的复杂性。我们从理论上分析了得到的线性模型,结果表明它对应于一个固定的低通滤波器,然后是一个线性分类器。值得注意的是,我们的实验评估表明,这些简化不会对许多下游应用程序的准确性产生负面影响。此外,生成的模型可以扩展到更大的数据集,这是自然可解释的,并且比FastGCN的速度提高了两个数量级。

网址:http://proceedings.mlr.press/v97/wu19e.html

代码链接: https://github.com/Tiiiger/SGC

10、Position-aware Graph Neural Networks(位置感知图神经网络)

作者:Jiaxuan You, Rex Ying, Jure Leskovec

摘要:学习节点嵌入,捕捉节点在更广泛的图结构中的位置,对于图上的许多预测任务是至关重要的。然而,现有的图神经网络(GNN)结构在获取给定节点相对于图中所有其他节点的position/location方面的能力有限。本文提出了一种计算位置感知节点嵌入的新型神经网络—Position-aware Graph Neural Networks (P-GNNs)。P-GNN首先对锚节点集进行采样,计算给定目标节点到每个锚集的距离,然后学习锚集上的非线性距离加权聚集方案。通过这种方式,P-GNNs可以捕获节点相对于锚节点的位置。P-GNN有几个优点: 它们具有归纳性,可扩展性,并且可以包含节点特征信息。我们将P-GNNs应用于多个预测任务,包括链路预测和社区检测。我们显示,P-GNNs始终优于最先进的GNNs, 在ROC AUC分数方面提高了66%。

网址:http://proceedings.mlr.press/v97/you19b.html

代码链接: https://github.com/JiaxuanYou/P-GNN

论文下载

百度云链接:https://pan.baidu.com/s/1hOSkrDD2VWRJCTj9_uGrjw

提取码:vcc3

成为VIP会员查看完整内容
0
47

1、 Adversarial Graph Embedding for Ensemble Clustering

作者:Zhiqiang Tao , Hongfu Liu , Jun Li , ZhaowenWang and Yun Fu;

摘要:Ensemble Clustering通常通过图分区方法将基本分区集成到共识分区(consensus partition)中,但这种方法存在两个局限性: 1) 它忽略了重用原始特征; 2)获得具有可学习图表示的共识分区(consensus partition)仍未得到充分研究。在本文中,我们提出了一种新颖的对抗图自动编码器(AGAE)模型,将集成聚类结合到深度图嵌入过程中。具体地,采用图卷积网络作为概率编码器,将特征内容信息与共识图信息进行联合集成,并使用简单的内积层作为解码器,利用编码的潜变量(即嵌入表示)重建图。此外,我们还开发了一个对抗正则化器来指导具有自适应分区依赖先验的网络训练。通过对8个实际数据集的实验,证明了AGAE在几种先进的深度嵌入和集成聚类方法上的有效性。

网址:https://www.ijcai.org/proceedings/2019/0494.pdf

2、Attributed Graph Clustering via Adaptive Graph Convolution

作者:Xiaotong Zhang, Han Liu, Qimai Li and Xiao-Ming Wu;

摘要:Attributed Graph聚类是一项具有挑战性的工作,它要求对图结构和节点属性进行联合建模。图卷积网络的研究进展表明,图卷积能够有效地将结构信息和内容信息结合起来,近年来基于图卷积的方法在一些实际属性网络上取得了良好的聚类性能。然而,对于图卷积如何影响聚类性能以及如何正确地使用它来优化不同图的性能,人们的了解有限。现有的方法本质上是利用固定低阶的图卷积,只考虑每个节点几跳内的邻居,没有充分利用节点关系,忽略了图的多样性。本文提出了一种自适应图卷积方法,利用高阶图卷积捕获全局聚类结构,并自适应地为不同的图选择合适的顺序。通过对基准数据集的理论分析和大量实验,验证了该方法的有效性。实验结果表明,该方法与现有的方法相比具有较好的优越性。

网址:https://www.zhuanzhi.ai/paper/bae18963457b08322d58e01c90e8e467

3、Dynamic Hypergraph Neural Networks

作者:Jianwen Jiang , Yuxuan Wei , Yifan Feng , Jingxuan Cao and Yue Gao;

摘要:近年来,基于图/超图(graph/hypergraph)的深度学习方法引起了研究者的广泛关注。这些深度学习方法以图/超图结构作为模型的先验知识。然而,隐藏的重要关系并没有直接表现在内在结构中。为了解决这个问题,我们提出了一个动态超图神经网络框架(DHGNN),它由两个模块的堆叠层组成:动态超图构造(DHG)和超图卷积(HGC)。考虑到最初构造的超图可能不适合表示数据,DHG模块在每一层上动态更新超图结构。然后引入超图卷积对超图结构中的高阶数据关系进行编码。HGC模块包括两个阶段:顶点卷积和超边界卷积,它们分别用于聚合顶点和超边界之间的特征。我们已经在标准数据集、Cora引文网络和微博数据集上评估了我们的方法。我们的方法优于最先进的方法。通过更多的实验验证了该方法对不同数据分布的有效性和鲁棒性。

网址:https://www.ijcai.org/proceedings/2019/0366.pdf

4、Exploiting Interaction Links for Node Classification with Deep Graph Neural Networks

作者:Hogun Park and Jennifer Neville;

摘要:节点分类是关系机器学习中的一个重要问题。然而,在图边表示实体间交互的场景中(例如,随着时间的推移),大多数当前方法要么将交互信息汇总为链接权重,要么聚合链接以生成静态图。在本文中,我们提出了一种神经网络结构,它可以同时捕获时间和静态交互模式,我们称之为Temporal-Static-Graph-Net(TSGNet)。我们的主要观点是,利用静态邻居编码器(可以学习聚合邻居模式)和基于图神经网络的递归单元(可以捕获复杂的交互模式),可以提高节点分类的性能。在我们对节点分类任务的实验中,与最先进的方法相比,TSGNet取得了显著的进步——与四个真实网络和一个合成数据集中的最佳竞争模型相比,TSGNet的分类错误减少了24%,平均减少了10%。

网址:https://www.ijcai.org/proceedings/2019/0447.pdf

5、Fine-grained Event Categorization with Heterogeneous Graph Convolutional Networks

作者:Hao Peng, Jianxin Li, Qiran Gong, Yangqiu Song, Yuanxing Ning, Kunfeng Lai and Philip S. Yu;

摘要:事件在现实世界中实时发生,可以是涉及多个人和物体的计划和组织场合。社交媒体平台发布了大量包含公共事件和综合话题的文本消息。然而,由于文本中事件元素的异构性以及显式和隐式的社交网络结构,挖掘社会事件是一项具有挑战性的工作。本文设计了一个事件元模式来表征社会事件的语义关联,并构建了一个基于事件的异构信息网络(HIN),该网络融合了外部知识库中的信息,提出了一种基于对偶流行度图卷积网络(PP-GCN)的细粒度社会事件分类模型。我们提出了一种基于事件间社会事件相似度(KIES)的知识元路径实例,并建立了一个加权邻域矩阵作为PP-GCN模型的输入。通过对真实数据收集的综合实验,比较各种社会事件检测和聚类任务。实验结果表明,我们提出的框架优于其他可选的社会事件分类技术。

网址:https://www.zhuanzhi.ai/paper/65dbfd1c2b65d01b2db1b66a3b4efdb6

6、Graph Contextualized Self-Attention Network for Session-based Recommendation

作者:Chengfeng Xu, Pengpeng Zhao, Yanchi Liu, Victor S. Sheng, Jiajie Xu, Fuzhen Zhuang, Junhua Fang and Xiaofang Zhou;

摘要:基于会话的推荐旨在预测用户基于匿名会话的下一步行动,是许多在线服务(比如电子商务,媒体流)中的关键任务。近年来,在不使用递归网络和卷积网络的情况下,自注意力网络(SAN)在各种序列建模任务中取得了显著的成功。然而,SAN缺乏存在于相邻商品上的本地依赖关系,并且限制了其学习序列中商品的上下文表示的能力。本文提出了一种利用图神经网络和自注意力机制的图上下文自注意力模型(GC-SAN),用于基于会话的推荐。在GC-SAN中,我们动态地为会话序列构造一个图结构,并通过图神经网络(GNN)捕获丰富的局部依赖关系。然后,每个会话通过应用自注意力机制学习长期依赖关系。最后,每个会话都表示为全局首选项和当前会话兴趣的线性组合。对两个真实数据集的大量实验表明,GC-SAN始终优于最先进的方法。

网址:https://www.ijcai.org/proceedings/2019/0547.pdf

7、Graph Convolutional Network Hashing for Cross-Modal Retrieval

作者:Ruiqing Xu , Chao Li , Junchi Yan , Cheng Deng and Xianglong Liu;

摘要:基于深度网络的跨模态检索近年来取得了显著的进展。然而,弥补模态差异,进一步提高检索精度仍然是一个关键的瓶颈。本文提出了一种图卷积哈希(GCH)方法,该方法通过关联图学习模态统一的二进制码。一个端到端深度体系结构由三个主要组件构成:语义编码模块、两个特征编码网络和一个图卷积网络(GCN)。我们设计了一个语义编码器作为教师模块来指导特征编码过程,即学生模块,用于语义信息的挖掘。此外,利用GCN研究数据点之间的内在相似性结构,有助于产生有区别的哈希码。在三个基准数据集上的大量实验表明,所提出的GCH方法优于最先进的方法。

网址:https://www.ijcai.org/proceedings/2019/0138.pdf

成为VIP会员查看完整内容
0
70

【导读】自然语言处理国际顶级会议EMNLP 2019于11月3日至11月7日在中国香港举行。为了带大家领略高质量论文,专知小编特意整理了六篇EMNLP 2019GNN相关论文,并附上论文链接供参考——命名实体识别、情感分类、对话图卷积网络、数据生成文本、短文本分类、Aspect-level情感分类等。

1、A Lexicon-Based Graph Neural Network for Chinese NER

作者:Tao Gui, Yicheng Zou, Qi Zhang;

摘要:递归神经网络(RNN)用于中文命名实体识别(NER)中,能够对文字信息进行顺序跟踪,取得了很大的成功。然而,由于链式结构的特点和缺乏全局语义,基于RNN的模型容易产生歧义。本文试图通过引入一种全局语义的基于词典的图神经网络来解决这一问题,该网络利用词典知识连接字符来捕获局部成分,而全局中继节点则可以捕获全局句子语义和长距离依赖。基于字符、潜在单词和整个句子语义之间的多重交互,可以有效地解决单词歧义。在4个NER数据集的实验表明,该模型与其他基线模型相比有显著的改进。

网址:

http://qizhang.info/paper/emnlp-2019.ner.pdf

2、Aspect-based Sentiment Classification with Aspect-specific Graph Convolutional Networks

作者:Chen Zhang, Qiuchi Li, Dawei Song;

摘要:注意机制和卷积神经网络(CNNs)由于其固有的方面和上下文词的语义对齐能力,被广泛应用于基于方面的情感分类。然而,这些模型缺乏一种机制来解释相关的句法约束和长距离的词语依赖,因此可能会错误地将句法无关的上下文词作为判断方面情绪的线索。为了解决这个问题,我们提出在句子的依存树上建立一个图卷积网络(GCN),以利用句法信息和词的依存关系。在此基础上,提出了一种新的面向方面的情感分类框架。在三个基准集合上的实验表明,我们所提出的模型比一系列最先进的模型更具有相当的有效性,并且进一步证明了图卷积结构能够恰当地捕获语法信息和长距离字的依赖关系。

网址: https://www.zhuanzhi.ai/paper/c995fe87d66236f1a22ba1c861647085

3、DialogueGCN A Graph Convolutional Neural Network for Emotion Recognition in Conversation

作者:Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander Gelbukh;

摘要:会话情感识别(ECC)由于其在医疗、教育、人力资源等多个领域的广泛应用,近年来受到了研究者的广泛关注。在本文中,我们提出了对话图卷积网络(DialogueGCN),基于图神经网络的ERC方法。我们利用对话者的自言和对话人之间的依赖关系来为情绪识别建立会话环境模型。DialogueGCN通过图形网络解决了当前基于RNN的方法中存在的上下文传播问题。我们经验表明,这种方法缓解了这样的问题,同时在一些基准的情绪分类数据集上超过了目前的状态。

网址:https://www.zhuanzhi.ai/paper/d1c2ea04a1170cd5a5541f606186a125

4、Enhancing AMR-to-Text Generation with Dual Graph Representations

作者:Leonardo F. R. Ribeiro, Claire Gardent, Iryna Gurevych;

摘要:基于图的数据生成文本,如抽象意义表示(AMR),是一个具有挑战性的任务,因为如何正确地对具有标记边的图的结构进行编码存在固有的困难。为了解决这一难题,我们提出了一种新的图-序列模型,该模型对AMR图中包含的结构信息的不同但互补的透视图进行编码。该模型学习节点的自顶向下和自下而上的并行表示,以捕获图的对比视图。我们还研究了不同节点消息传递策略的使用,使用不同的最先进的图形编码器来计算基于传入和传出透视图的节点表示。在我们的实验中,我们证明了对偶图表示法可以改进AMR到文本的生成,从而在两个AMR数据集上取得了最先进的效果。

网址: https://arxiv.org/abs/1909.00352

5、Heterogeneous Graph Attention Networks for Semi-supervised Short Text Classification

作者:Linmei Hu, Tianchi Yang, Chuan Shi, Houye Ji, Xiaoli Li ;

摘要:短文本分类在新闻和推特标记中得到了丰富而重要的应用,以帮助用户查找相关信息。由于在许多实际用例中缺乏标记的训练数据,因此迫切需要研究半监督短文本分类。现有的研究大多集中在长文本上,由于标记数据的稀疏性和局限性,在短文本上的表现不尽人意。本文提出了一种新的基于异构图神经网络的半监督短文本分类方法,该方法充分利用了标记数据少和未标记数据大的优点,实现了信息在图上的传播。特别是,我们提出了一种灵活的HIN(异构信息网络)框架,用于建模短文本,它可以集成任何类型的附加信息,并捕获它们之间的关系来解决语义稀疏性。然后,我们提出了基于节点级和类型级注意的双重注意机制的异构图注意网络(HGAT)嵌入HIN进行短文本分类。注意机制可以学习不同相邻节点的重要性,以及不同节点(信息)类型对当前节点的重要性。大量的实验结果表明,我们提出的模型在6个基准数据集上的性能显著优于最先进的方法。

网址: http://shichuan.org/doc/74.pdf

6、Syntax-Aware Aspect Level Sentiment Classification with Graph Attention Networks

作者:Binxuan Huang, Kathleen M. Carley ;

摘要:Aspect-level情感分类旨在识别向上下文语句给出的aspect表达的情绪。以往的基于神经网络的方法在很大程度上忽略了句子的句法结构。在本文中,我们提出了一种新的目标依赖图注意力网络(TD-GAT)来进行方面层次的情感分类,该网络明确利用了词语之间的依赖关系。使用依赖图,它直接从一个方面目标的语法上下文传播情感特征。在我们的实验中,我们证明了我们的方法优于使用GloVe嵌入的多个基线。我们还证明了使用BERT表示可以进一步显著地提高性能。

网址:

https://www.zhuanzhi.ai/paper/f1eb3b3fe03a1b84427aaebb68021054

成为VIP会员查看完整内容
0
55
小贴士
相关VIP内容
相关论文
Filippo Maria Bianchi,Daniele Grattarola,Cesare Alippi
20+阅读 · 2020年6月3日
Hyper-SAGNN: a self-attention based graph neural network for hypergraphs
Ruochi Zhang,Yuesong Zou,Jian Ma
12+阅读 · 2019年11月6日
Lu Liu,Tianyi Zhou,Guodong Long,Jing Jiang,Chengqi Zhang
13+阅读 · 2019年9月11日
Ye Liu,Hui Li,Alberto Garcia-Duran,Mathias Niepert,Daniel Onoro-Rubio,David S. Rosenblum
15+阅读 · 2019年3月13日
Contextualized Non-local Neural Networks for Sequence Learning
Pengfei Liu,Shuaichen Chang,Xuanjing Huang,Jian Tang,Jackie Chi Kit Cheung
3+阅读 · 2018年11月21日
Question Answering by Reasoning Across Documents with Graph Convolutional Networks
Nicola De Cao,Wilker Aziz,Ivan Titov
3+阅读 · 2018年8月29日
Ivana Balazevic,Carl Allen,Timothy M. Hospedales
7+阅读 · 2018年8月21日
Jeremy Howard,Sebastian Ruder
3+阅读 · 2018年5月23日
Terra Blevins,Omer Levy,Luke Zettlemoyer
3+阅读 · 2018年5月11日
Lei Qi,Jing Huo,Lei Wang,Yinghuan Shi,Yang Gao
7+阅读 · 2018年4月11日
Top