值得收藏 | ACL2020知识图谱相关文章集合与简要概述

值得收藏 | ACL2020知识图谱相关文章集合与简要概述

来源:AINLP

作者:Elesdspline

原文链接:请点击

文章仅用于学习交流,如有侵权请联系删除

导语

作者对ACL2020上面的知识图谱相关文章进行了整理学习,每篇文章都有简要概述,包括信息抽取、知识表示学习与知识图谱应用等。其中信息抽取(实体相关)有25篇、信息抽取(关系相关)有13篇、知识表示学习相关有9篇以及知识图谱相关应用有3篇,共计50篇。

整理与学习过程中可能有遗漏或错误之处,请大家多多包含~(●'◡'●)

ACL2020论文直达

aclweb.org/anthology/ev

文章会同步到知乎专栏:AI自然语言处理与知识图谱,若有修改增加等,会在专栏更新,点击文末阅读原文,直达知乎

50篇文章已经打包分享,有需要的同学在AI自然语言处理与知识图谱后台回复关键词(acl2020)获取下载链接或直接联系作者获取所需。

一、信息抽取(实体相关)

(1) Named Entity Recognition without Labelled Data: A Weak Supervision Approach

Pierre Lison, Jeremy Barnes, Aliaksandr Hubin, and Samia Touileb
github.com/NorskRegnese

这篇文章的出发点是当命名实体识别(NER)模型在应用于与训练文本不同的目标领域时,其性能往往会迅速下降;当有可获取的目标领域数据时,可以采用迁移学习的方法将已有的NER模型应用到目标领域;但是当目标领域没有可获取的标注数据呢?该怎么办?本文提出在没有标记数据时采用弱监督的学习方式学习NER模型。

(2) Improving Multimodal Named Entity Recognition via Entity Span Detection with Unified Multimodal Transformer

Jianfei Yu, Jing Jiang, Li Yang, Rui Xia

这篇文章研究社交媒体帖子的多模式命名实体识别(MNER)。现有的MNER方法主要存在两个缺点:(1)虽然生成了词感知的视觉表示,但词表示对视觉语境不敏感;(2)大多数方法忽略了视觉语境带来的偏差。针对(1),文中构建多模态交互模块来获得图像感知的单词表示和单词感知的视觉表示。为了缓解(2)视觉偏差,进一步提出纯文本的实体范围识别作为辅助模块,并设计一个统一的多模态Transformer框架指导实体范围的最终预测。

(3) Code and Named Entity Recognition in StackOverflow

Jeniya Tabassum, Mounica Maddela, Wei Xu, Alan Ritter
github.com/jeniyat/Stac

这篇文章研究了一个有趣的问题,识别代码中的实体。目前StackOverflow有850万用户编写了超过1500万个与编程相关的问题,但是缺少相关的NER技术。文中发布了一个StackOverflow NER数据集,包含20中实体类型。利用发布的数据集训练BERT,比现有的BERT在NER任务上高出10%的性能,同时还提出了SoftNER模型。

(4) A Unified MRC Framework for Named Entity Recognition

Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei Wu, Jiwei Li
github.com/ShannonAI/mr

NER通常分为Nested NER(嵌套)和Flat NER(非嵌套),大多数采用不同的方式解决,序列标注模型仅仅能够将一个token有一个label,这不适用于一个token可能有多个label的情况,即 Nested NER。这篇文章提出不在采用序列标注这样的形式,而是采用阅读理解的方式构建统一框架,同时解决Nested NER 和 Flat NER。

(5) An Effective Transition-based Model for Discontinuous NER

Xiang Dai, Sarvnaz Karimi, Ben Hachey, Cecile Paris
github.com/daixiangau/a

这篇文章研究的是生物医学方面的NER任务,与一般领域中广泛使用的NER数据集不同,生物医学NER数据的实体可能是不连续的,可能是中断的,这与Nested NER 和 Flat NER不同。这篇文章提出了一种简单、有效的Transition-Based的方法,在三个生物医学数据集的做了大量实验。

(6) Improving Low-Resource Named Entity Recognition using Joint Sentence and Token Labeling

Canasai Kruengkrai, Thien Hai Nguyen, Sharifah Mahani Aljunied, Lidong Bing

这篇文章针对低资源NER任务提出解决方案,提出对容易获取的句子级别标签以及标注的词级别标签联合建模,并引入self-attention的变种,在三种低资源数据上面验证效果。

(7) Multi-Cell Compositional LSTM for NER Domain Adaptation

Chen Jia, Yue Zhang
github.com/jiachenwestl

不同领域之间的信息不一样,这也导致跨领域NER成为一个难点。这篇文章中考虑到虽然不同领域的信息不同,但是不同领域的实体类型相对稳定,例如人名地名等,提出 multi-cell compositional LSTM的结构,其中考虑每个单词所有实体类型的可能性。

(8) Pyramid: A Layered Model for Nested Named Entity Recognition

Jue Wang, Lidan Shou, Ke Chen, Gang Chen

这篇文章针对Nested NER提出了一个类似金字塔形状的分层模型:Pyramid, 由下到上,不同的层堆叠成为金字塔形状,每层相当于一个文本的N-gram。除此之外,还有逆向金字塔。

(9) Simplify the Usage of Lexicon in Chinese NER

Ruotian Ma, Minlong Peng, Qi Zhang, Zhongyu Wei, Xuanjing Huang
github.com/v-mipeng/Lex

这篇文章针对Lattice LSTM无法满足实际业界需要的问题,提出在Embedding层利用多种方法融合词汇信息,该方法简单有效。

(10) Bipartite Flat-Graph Network for Nested Named Entity Recognition

Ying Luo, Hai Zhao
github.com/cslydia/BiFl

这篇文章针对Nested NER提出bipartite flat-graph (BiFlaG)模型,包含两个子模块,一个Flat模块负责最外部实体和一个Graph模块负责内部实体,两个模块之间实现了信息交互,最大程度实现共同学习。

(11) Connecting Embeddings for Knowledge Graph Entity Typing

Yu Zhao, anxiang zhang, Ruobing Xie, Kang Liu, Xiaojie WANG
github.com/Adam1679/Con

这篇文章针对知识图谱补全的一个子任务实体类型推断提出一个新的框架,主要利用局部的实体类型信息以及全局的三元组信息,在此基础之上,还提出了两种Embedding模型用于联合推断实体类型。

(12) Named Entity Recognition as Dependency Parsing

Juntao Yu, Bernd Bohnet, Massimo Poesio
github.com/juntaoy/biaf

这篇文章也是研究Nested NER,借鉴graph-based dependency parsing的思想,采用biaffine模型来给句子中所有实体的start和end索引打分,后续并未采用biaffine建tree的方式,而是采用re-rank的方式返回相关实体范围。在8个数据集上面进行实验评估。

(13) Neighborhood Matching Network for Entity Alignment

Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Dongyan Zhao
github.com/StephanieWyt

这篇文章研究的是实体对齐(Entity Alignment),实体对齐是将来自不同域的知识图谱(KG)的实体对齐到相同的真实世界,对于知识融合是非常重要的技术。但是不同KG之间的结构异质性是实体对齐的一项巨大额挑战。这篇文章提出一个新的框架Neighborhood Matching Network (NMN),NMN的目标是捕获信息最丰富的邻域,并准确估计不同KG中实体之间邻域的相似性。

(14) Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on Unlabeled Data in Target Language

Qianhui Wu, Zijia Lin, Börje Karlsson, Jian-Guang LOU, Biqing Huang

这篇文章提出了一种单/多源跨语言NER的teacher-student学习方法,即利用源语言模型作为teacher,对目标语言未标记数据进行student模型训练。该方法不依赖于源语言中的标记数据,并且能够利用未标记的目标语言数据中的额外信息,这解决了以往基于标签投影和基于模型转移的方法的局限性。

(15) FLAT: Chinese NER Using Flat-Lattice Transformer

Xiaonan Li, Hang Yan, Xipeng Qiu, Xuanjing Huang
github.com/LeeSureman/F

这篇文章针对中文NER提出了一种整合词汇信息的FLAT(Flat-Lattice Transformer)框架,将Lattice结构转变为Flat结构,改变以往Lattice结构的复杂运算,并引入特定位置编码。

(16) Improving Entity Linking through Semantic Reinforced Entity Embeddings

Feng Hou, Ruili Wang, Jun He, Yi Zhou
github.com/fhou80/EntEm

实体Embedding是实体链接预测任务的一个核心部分,这篇文章提出一个新的实体Embedding方法:FGS2EE,将细粒度的语义信息注入到实体Embedding中,以减少现有方法学习到的特殊性信息,方便促进上下文共性信息的学习。

(17) From Zero to Hero: Human-In-The-Loop Entity Linking in Low Resource Domains

Jan-Christoph Klie, Richard Eckart de Castilho, Iryna Gurevych
github.com/UKPLab/acl20

低资源领域的数据具有很少或者没有标注数据,需要从零构建,这篇文章主要提出了一个标注的方法,其中采用推荐排序的方法给予标注人员候选集合,使之不会乏味。

(18) Temporally-Informed Analysis of Named Entity Recognition

Shruti Rijhwani, Daniel Preotiuc-Pietro

自然语言处理往往要对文本进行相关分析预测,但是由于文本中的信息伴随着时间的推移而改变,现有的数据中并未考虑这一点,这篇文章针对NER任务数据中的时间变化导致的信息变化进行了研究和建模。

(19) Sources of Transfer in Multilingual Named Entity Recognition

David Mueller, Nicholas Andrews, Mark Dredze
github.com/davidandym/m

任何语言的数据都可能是有限的,针对NER来说,考虑多语言命名实体识别(Multilingual NER)是一个方向,简单来看就是NER模型是使用来自多种语言的带标注的数据进行训练的。然而,这个简单想法的直接实现在实践中并不总是有效:可能比不上单语言数据上训练的模型表现效果好。这篇文章出发点是针对这个问题的一个简单解决方案,即在单语言数据上对多语言模型进行微调,期望达到一致或者显著地优于单语言模型。

(20) Soft Gazetteers for Low-Resource Named Entity Recognition

Shruti Rijhwani, Shuyan Zhou, Graham Neubig, Jaime Carbonell

这篇文章提出了一种低资源NER的特征创建方法,并在四种低资源语言上证明了它的有效性。

(21) Empower Entity Set Expansion via Language Model Probing

Yunyi Zhang, Jiaming Shen, Jingbo Shang, Jiawei Han
github.com/yzhan238/CGE

实体集扩展的目的是用属于同一语义类的新实体扩展一个小的种子实体集,这是一项非常重要的任务,有利于许多下游的NLP和IR应用,如问题回答、查询理解和分类构建。这篇文章提出了一种新的实体集扩展框架,该框架使用预先训练好的LM为种子集生成候选类名,并根据所提供的文本语料库对候选类名进行排序,利用所选的类名指导实体选择过程。

(22) Hierarchical Entity Typing via Multi-level Learning to Rank

Tongfei Chen, Yunmo Chen, Benjamin Van Durme

这篇文章提出了一种新的层次实体分类方法,在训练和预测过程中包含本体结构。

(23) Multi-Domain Named Entity Recognition with Genre-Aware and Agnostic Inference

Jing Wang, Mayank Kulkarni, Daniel Preotiuc-Pietro

NLP模型的健壮性对其广泛采用和可用性至关重要。当应用于跨多个领域的数据时,现有的NER方法普遍面临可伸缩性限制的问题。这篇介绍了三种实验设置,提供了一个框架来评估NER模型的鲁棒性。这包括从多个领域的数据中训练模型并在所有领域上测试,或者当测试领域标签是未知的,亦或者当测试领域不属于训练领域。

(24) TriggerNER: Learning with Entity Triggers as Explanations for Named Entity Recognition

Bill Yuchen Lin, Dong-Ho Lee, Ming Shen, Ryan Moreno, Xiao Huang, Prashant Shiralkar, Xiang Ren
github.com/INK-USC/Trig

获取高质量的标注数据是需要大量的人力、物力,特别是在NER任务上面,对新领域获取大量的且高质量的标注数据既昂贵又耗时,如何以低成本但却高效益的方式完成NER是一个重要的问题。这篇文章引入了 entity triggers (实体触发器),在数据中标注 trigger,以 trigger 的角度增加 NER 效果,20% 的数据量便能够达到以往 70% 数据量的效果。

(25) Embeddings of Label Components for Sequence Labeling: A Case Study of Fine-grained Named Entity Recognition

Takuma Kato, Kaori Abe, Hiroki Ouchi, Shumpei Miyawaki, Jun Suzuki, Kentaro Inui

通常,序列标注中使用的标签由不同类型的元素组成。例如,B-Person和I-Person等格式可以分解为边界(B和I)和类型信息(Person)。然而,大多数模型不考虑这样的标签组件信息,但标签间的共享信息,如Person,有利于标签预测,这篇文章将标签组件信息作为Embedding集成到模型中。

二、信息抽取(关系相关)

(1) A Novel Cascade Binary Tagging Framework for Relational Triple Extraction

Zhepei Wei, Jianlin Su, Yue Wang, Yuan Tian, Yi Chang
github.com/weizhepei/Ca

从非结构化文本中抽取三元组是构建大规模知识图谱的必备关键,然而现有的研究工作鲜有去解决三元组重叠的问题,针对此问题,这篇从全新的视角提出一个新的关系抽取框架:CASREL,不同以往采用分类的视角解决问题,而是将关系建模为 S 到 O 的映射函数。从实验结果来看,框架非常有效,加上 BERT 之后,更为惊人,在两份数据集上面,分别提升 17% 和 32%。

(2) In Layman’s Terms: Semi-Open Relation Extraction from Scientific Texts

Ruben Kruiper, Julian Vincent, Jessica Chen-Burger, Marc Desmulliez, Ioannis Konstas
github.com/rubenkruiper

从科学文献中的信息抽取(Information Extraction, IE)可以引导读者找到科学文献的重要信息。但是,有一些IE系统只提取捕获信息的一小部分,而开放IE系统在处理科学文本中遇到的长句子和复杂句子时表现不佳。这篇论文结合两种类型的系统的输出,以实现半开放的关系抽取(Semi-Open Relation Extraction)。

(3) Probing Linguistic Features of Sentence-Level Representations in Neural Relation Extraction

Christoph Alt, Aleksandra Gabryszak, Leonhard Hennig
github.com/DFKI-NLP/REv
github.com/DFKI-NLP/Rel

最近神经关系抽取研究工作变得多了起来,但人们对最先进的神经关系抽取(NRE)模型所捕获的特征知之甚少。常用的方法在对关系进行分类之前,对源句进行编码,条件是实体提及。然而,这项任务的复杂性使得我们很难理解编码器架构和支持语言的知识是如何影响编码器所学习的特性的。这篇文章引入了14个与RE相关的语言特性的探测任务,来探究理解编码架构和语言知识是如何影响编码器所学习的特性的。

(4) Reasoning with Latent Structure Refinement for Document-Level Relation Extraction

Guoshun Nan, Zhijiang Guo, Ivan Sekulic, Wei Lu
github.com/nanguoshun/L

文档级关系抽取需要在文档的句间或者多个句子中提取信息,并捕获句子间实体之间的复杂交互。为了更好地进行文档级关系抽取,这篇文章引入了一种新的Latent Structure Refinement(LSR)模型。与以前依赖语法树、协同引用或启发式的方法不同,LSR动态地学习文档级结构,并以端到端方式进行预测。

(5) TACRED Revisited: A Thorough Evaluation of the TACRED Relation Extraction Task

Christoph Alt, Aleksandra Gabryszak, Leonhard Hennig
github.com/DFKI-NLP/tac

TACRED是关系抽取(RE)中最大、使用最广泛的众包数据集之一。但是,即使最近在无监督的预训练和知识增强的神经关系抽取方面取得了进展,模型仍然显示出很高的错误率,这篇论文针对这个问题提出了三个疑惑,并一一进行了相关分析。

(6) Towards Understanding Gender Bias in Neural Relation Extraction

Andrew Gaut, Tony Sun, Shirlyn Tang, Yuxin Huang, Jing Qian, Mai ElSherief, Jieyu Zhao, Diba Mirza, Elizabeth Belding, Kai-Wei Chang, William Yang Wang

神经关系抽取(NRE)虽然取得了重大进展,但是很多注意力重点都集中在提高准确性上,很少的工作试图评估NRE系统中所表现出的偏见问题。这篇文章创建了WikiGenderBias数据集,用于分析NRE系统中的性别偏见。最终发现在对男性句子的预测和对女性句子的预测中,在配偶关系方面的性能存在差异。

(7) Dialogue-Based Relation Extraction

Dian Yu, Kai Sun, Claire Cardie, Dong Yu
dataset.org/dialogre/

这篇文章是腾讯AI Lab的工作,发布了基于对话的关系抽取数据集:DialogRE,并进行了跨句的关系抽取研究。在分析对话型任务与传统重复任务异同的基础上,认为与说话人相关的信息在所提出的任务中起着至关重要的作用。考虑到对话中沟通的及时性,设计了一个新的度量标准来评估在对话环境中RE方法的性能,并考察了几种有代表性的RE方法在对话中的性能。

(8) Relabel the Noise: Joint Extraction of Entities and Relations via Cooperative Multiagents

Daoyuan Chen, Yaliang Li, Kai Lei, Ying Shen

因为远程监督需要少量的人工标记数据,因此基于远程监督的实体和关系抽取方法越来越受欢迎,但是其中存在噪声标记和移位标记分布问题,这篇文章提出一种联合抽取的方法以此来解决这种问题。

(9) Relation Extraction with Explanation

Hamed Shahbazi, Xiaoli Fern, Reza Ghaeini, Prasad Tadepalli

基于远程监督学习的关系抽取神经模型通过学习句子的重要性权重减轻了不相关句子的影响。迄今为止,人们的工作主要集中在提高性能上,但对其可解释性的研究工作很少。这篇文章提供了一个标注的测试集,以评估在远程监督下的关系抽取模型的解释质量好坏,并做了相关的实验分析。

(10) Revisiting Unsupervised Relation Extraction

Thy Thy Tran, Phong Le, Sophia Ananiadou
github.com/ttthy/ure

无监督关系抽取(Unsupervised relation extractionm, URE)从原始文本中抽取实体的关系,而不需要手动标记数据和现有知识库。URE的方法可以分为生成和区别的方法,它们依赖于手工制作的特征。这篇文章仅仅通过使用实体来抽取关系类型,便可以在两个流行的数据集上取得最优的性能。

(11) Exploiting the Syntax-Model Consistency for Neural Relation Extraction

Amir Pouran Ben Veyseh, Franck Dernoncourt, Dejing Dou, Thien Huu Nguyen

这篇文章提出了一种新的关系抽取深度学习模型,该模型使用句法树抽取单词在基于语法上的重要性得分,以树的表示形式将句法信息引入到模型中,增加模型的泛化能力。

(12) Rationalizing Medical Relation Prediction from Corpus-level Statistics

Zhen Wang, Jennifer Lee, Simon Lin, Huan Sun
github.com/zhenwang9102

这篇文章也是一个可解释性的研究工作,提出了一种新的可解释的医学关系预测框架,以期为医学关系预测的合理化提供参考。

(13) ZeroShotCeres: Zero-Shot Relation Extraction from Semi-Structured Webpages

Colin Lockard, Prashant Shiralkar, Xin Luna Dong, Hannaneh Hajishirzi

在许多文档中,比如半结构化的web页面,文本语义通过使用视觉元素传达的附加信息得到增强。之前从半结构化网站提取信息的工作需要学习特定于给定模板模型,该模板通过手工标记或远程监督的数据。这篇文章提出了一种“Zero-Shot”开放域关系抽取的解决方案,使用基于图神经网络的方法在网页上构建文本的丰富表示以及它们之间的关系,使泛化成为新的模板。

三、知识表示学习相关

(1) Knowledge Graph Embedding Compression

Mrinmaya Sachan

由于知识图谱中大量的三元组数据,知识图表示学习技术会消耗大量的存储和内存,这阻碍了在许多现实世界设置中部署这些技术,因此,这篇文章提出了一种压缩KG Embedding的方法。

(2) Orthogonal Relation Transforms with Graph Context Modeling for Knowledge Graph Embedding

Yun Tang, Jing Huang, Guangtao Wang, Xiaodong He, Bowen Zhou
github.com/JD-AI-Resear

这篇文章也是针对知识表示学习中复杂关系建模进行研究,提出了一种基于距离的链接预测知识图嵌入方法。它包括两方面。首先,通过正交关系变换将RotatE扩展到高维空间。其次,提出图上下文将图结构信息集成到距离评分函数中,用于在训练和推理过程中度量三元组的似然性。

(3) A Relational Memory-based Embedding Model for Triple Classification and Search Personalization

Dai Quoc Nguyen, Tu Dinh Nguyen, Dinh Phung
github.com/daiquocnguye

知识图谱Embedding对于知识图谱补全以及下游任务扮演着重要的角色,然而现有的研究方法没有充分利用三元组之间潜在的依赖关系。以此为出发点,提出基于关系记忆网络的Embedding模型:R-MeN, 其中包含多头注意力机制编码,并在三元组分类以及个性化搜索任务中验证模型效果。

(4) SEEK: Segmented Embedding of Knowledge Graphs

Wentao Xu, Shun Zheng, Liang He, Bin Shao, Jian Yin, Tie-Yan Liu
github.com/Wentao-Xu/SE

图谱Embedding在推荐、问答等下游任务中扮演着重要的角色,然而,目前的方法并没有很好的权衡模型复杂度与模型高效表达之间的关系。为了缓解这样的问题,这篇专注于得分函数的设计,提出轻量级的模型框架SEEK,并在公开数据集上验证有效。

(5) Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings

Apoorv Saxena, Aditay Tripathi, Partha Talukdar
github.com/malllabiisc/

KGQA的任务目标是在KG上获取提出的问题正确答案,Multi-hop KGQA需要对KG的多个边进行推理,以得到正确的答案,当KG并不完整时,对这个任务更加增加了挑战。这篇文章针对Multi-hop QA提出了一种新的方法EmbedKGQA,利用KG嵌入的链接预测特性,在不使用任何附加数据的情况下缓解KG不完整问题。

(6) Can We Predict New Facts with Open Knowledge Graph Embeddings? A Benchmark for Open Link Prediction

Samuel Broscheit, Kiril Gashteovski, Yanjie Wang, Rainer Gemulla

这篇文章研究是否可能直接从开放知识图谱Embedding中推理论断,而不需要任何规范化或任何对已有知识的监督,为此提出开放链接预测任务,以及构建开放链接预测基准测试数据集的方法,并构建了一个大型的基准测试数据集OLPBENCH。

(7) A Re-evaluation of Knowledge Graph Completion Methods

Zhiqing Sun, Shikhar Vashishth, Soumya Sanyal, Partha Talukdar, Yiming Yang
github.com/svjan5/kg-re

知识图补全(Knowledge Graph Completion, KGC)的目的是自动预测大规模知识图谱中的缺失的链接。这篇文章在近期的研究中注意到最近的几篇论文报告了非常高的性能,这在很大程度上超过了以前的最先进的方法,发现这是由于使用了不恰当的评估方案,并提出了一个简单的评估方案来解决这一问题。

(8) ReInceptionE: Relation-Aware Inception Network with Joint Local-Global Structural Information for Knowledge Graph Embedding

Zhiwen Xie, Guangyou Zhou, Jin Liu, Jimmy Xiangji Huang
github.com/JuneTse/ReIn

这篇文章借鉴已有两种方法(ConvE和KBGAT)的优点,提出一种新型的知识表示学习方法:ReInceptionE。该方法首先利用Inception网络来学习query向量,目的是在保持参数有效性的同时增加head和relation之间的多次交互。然后,利用Attention收集关系感知的局部邻域和全局实体信息,并丰富query。

(9) Low-Dimensional Hyperbolic Knowledge Graph Embeddings

Ines Chami, Adva Wolf, Da-Cheng Juan, Frederic Sala, Sujith Ravi, Christopher Ré
github.com/tensorflow/n

这篇文章介绍了一种新的知识表示学习方法:ATTH,一个双曲KG Embedding模型,它利用双曲空间的表现力和基于注意力的几何变换来改进学习低维的图谱中的实体和关系表示。

四、应用/其他

(1) Grounded Conversation Generation as Guided Traverses in Commonsense Knowledge Graphs

Houyu Zhang, Zhenghao Liu, Chenyan Xiong, Zhiyuan Liu
github.com/thunlp/Conce

人类的对话自然地围绕相关的概念发展,并分散到多跳概念。这篇文章提出了一种新的对话生成模型:ConceptFlow,它利用常识KG来显式地对对话流进行建模,值得一读。

(2) Breaking Through the 80% Glass Ceiling: Raising the State of the Art in Word Sense Disambiguation by Incorporating Knowledge Graph Information

Michele Bevilacqua, Roberto Navigli
github.com/SapienzaNLP/

这篇文章针对词义消歧(Word Sense Disambiguation, WSD)提出了一种新的神经网络:EWISER,通过将WordNet graph中的信息嵌入到神经结构中,也可以利用KG中的关系信息。EWISER结合利用WordNet graph和预先训练好的synset Embedding,能够预测训练集中不存在的词义,从而缓解了知识获取的瓶颈。

(3) Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven Cloze Reward

Luyang Huang, Lingfei Wu, Lu Wang
github.com/luyang-huang

这篇文章提出了一种新的基于知识图谱增强和语义驱动激励的Abstractive Summarization 框架:ASGARD,而且设计了基于多项选择完形填空测试的激励,以驱动模型更好地捕捉实体交互。

参考资料

[1] ACL2020官网, aclweb.org/anthology/ev
[2] 知乎(ACL2020信息抽取相关论文汇总), zhuanlan.zhihu.com/p/14
[3] 知乎(ACL2020放榜!事件抽取、关系抽取、NER、Few-Shot相关论文整理~), zhuanlan.zhihu.com/p/14



「华来知识」成立于2017年,孵化于清华大学智能技术与系统国家重点实验室,是一家技术领先的人工智能企业。公司专注于提供新一代人工智能人机交互解决方案,利用自身技术为企业打造由人工智能驱动的知识体系,借此改善人类生活。
「华来知识」将持续为企业客户提供优质服务,助力企业在专业领域的人工智能应用,提供完善可靠高效的产品解决方案。

发布于 2020-07-14 16:51