知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。 知识图谱是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。它能为学科研究提供切实的、有价值的参考。

知识荟萃

知识图谱 (Knowledge Graph) 专知荟萃

综述

  1. 知识图谱简史:从1950到2019

  2. 知识表示学习研究进展 刘知远 2016

  3. 知识图谱研究进展 漆桂林 2017

  4. 知识图谱技术综述 徐增林

  5. 基于表示学习的知识库问答研究进展与展望 刘康

  6. Knowledge Graph Refinement: A Survey of Approaches and Evaluation Methods Heiko Paulheim

  7. 【专知综述】 [干货] 最全知识图谱综述

  8. 万字长文| 中文知识图谱构建技术以及应用的综述

  9. Quan Wang, Zhendong Mao, Bin Wang, Li Guo: Knowledge Graph Embedding: A Survey of Approaches and Applications. IEEE Trans. Knowl. Data Eng. 29(12): 2724-2743 (2017)

  10. Seyed Mehran Kazemi, Rishab Goel, Kshitij Jain, Ivan Kobyzev, Akshay Sethi, Peter Forsyth, Pascal Poupart: Relational Representation Learning for Dynamic (Knowledge) Graphs: A Survey. CoRR abs/1905.11485 (2019)

白皮书

  1. 《知识图谱标准化白皮书》(2019版)发布,200页pdf,中国电子技术标准化研究院主编
  2. 中国中文信息学会,《2018知识图谱发展报告》,163页pdf

模型算法

知识图谱构建

语义单元挖掘
信息抽取:实体、属性与关系、事件
本体构建

知识图谱表示嵌入

知识图谱融合

知识图谱校验

知识图谱生长

多模态知识图谱

应用

智能搜索

推荐系统

深度问答

人机对话

社区发现

入门学习

  1. 大规模知识图谱技术 王昊奋 华东理工大学
    [http://history.ccf.org.cn/sites/ccf/xhdtnry.jsp?contentId=2794147245202]
    [https://pan.baidu.com/s/1i5w2RcD]
  2. 知识图谱技术原理介绍 王昊奋
    [http://www.36dsj.com/archives/39306]
  3. 大规模知识图谱的表示学习及其应用   刘知远
    [http://www.cipsc.org.cn/kg3/]
  4. 知识图谱的知识表现方法回顾与展望   鲍捷
    [http://www.cipsc.org.cn/kg3/]
  5. 基于翻译模型(Trans系列)的知识表示学习 paperweekly
    [http://www.sohu.com/a/116866488_465975]
  6. 中文知识图谱构建方法研究1,2,3
    [http://blog.csdn.net/zhangqiang1104/article/details/50212227]
    [http://blog.csdn.net/zhangqiang1104/article/details/50212261]
    [http://blog.csdn.net/zhangqiang1104/article/details/50212341]
  7. TransE算法(Translating Embedding)
    [http://blog.csdn.net/u011274209/article/details/50991385]
  8. OpenKE 刘知远 清华大学 知识表示学习(Knowledge Embedding)旨在将知识图谱中实体与关系嵌入到低维向量空间中,有效提升知识计算效率。
    [ http://openke.thunlp.org/]
  9. 面向大规模知识图谱的表示学习技术 刘知远
    [http://www.cbdio.com/BigData/2016-03/03/content_4675344.htm]
  10. 当知识图谱“遇见”深度学习 肖仰华
    [http://caai.cn/index.php?s=/Home/Article/qikandetail/year/2017/month/04.html]
  11. NLP与知识图谱的对接 白硕
    [http://caai.cn/index.php?s=/Home/Article/qikandetail/year/2017/month/04.html]

12.【干货】最全知识图谱综述#1: 概念以及构建技术 专知
- [http://mp.weixin.qq.com/s/bhk6iZdphif74HJlyUZOBQ]

  1. 知识图谱综述: 构建技术与典型应用 专知

14.知识图谱相关会议之观后感分享与学习总结
- [http://blog.csdn.net/eastmount/article/details/46672701]
- PPT: [http://download.csdn.net/detail/eastmount/9159689]

重要报告

  1. Jingbo Shang, Jiaming Shen, Liyuan Liu, Jiawei Han,Computer Science Department, University of Illinois at Urbana-Champaign,SIGKDD 2019 Tutorial

Tutorial

  1. 知识图谱导论 刘  康   韩先培 [http://cips-upload.bj.bcebos.com/ccks2017/upload/CCKS2017V5.pdf]
  2. 知识图谱构建 邹  磊   徐波 [http://cips-upload.bj.bcebos.com/ccks2017/upload/zl.pdf]
  3. 知识获取方法 劳  逆   邱锡鹏 [http://cips-upload.bj.bcebos.com/ccks2017/upload/2017-ccks-Knowledge-Acquisition-.pdf]
  4. 知识图谱实践 王昊奋   胡芳槐 [http://www.ccks2017.com/?page_id=46]
  5. 知识图谱学习小组学习 • 第一期w1:知识提取 • 第一期w2:知识表示 • 第一期w3:知识存储 • 第一期w4:知识检索 [https://github.com/memect/kg-beijing]
  6. 深度学习与知识图谱 刘知远 韩先培 CCL2016 [http://www.cips-cl.org/static/CCL2016/tutorialpdf/T2A_%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1_part3.pdf]
  7. 中文知识图谱-复旦大学

课程

  1. 东南大学《知识图谱》研究生课程

  2. 浙江大学《知识图谱》课程

    • 知识图谱的早期理念源于万维网之父 Tim Berners Lee 关于语义网(The Semantic Web) 的设想,旨在采用图的结构(Graph Structure)来建模和记录世界万物之间的关联关系和知识, 以便有效实现更加精准的对象级搜索。经过近二十年的发展,知识图谱的相关技术已经在搜索引擎、智能问答、语言及视觉理解、大数据决策分析、智能设备物联等众多领域得到广泛应用,被公认为是实现认知智能的重要基石。近年来,随着自然语言处理、深度学习、图数据处理等众多领域的飞速发展,知识图谱在自动化知识获取、 基于知识的自然语言处理、基于表示学习的机器推理、基于图神经网络的图挖掘与分析等领域又取得了很多新进展。本课程是面向浙江大学研究生开设的专业选修课程。课程系统性介绍知识图谱的基本概念、核心技术内涵和应用实践方法,具体内容涉及知识表示与推理、图数据库、关系抽取与知识图谱构建、知识图谱表示学习与嵌入、语义搜索与知识问答、图神经网络与图挖掘分析等。课程内容的设计以“基础、前沿与实践”相结合为基本原则,既包括基本概念介绍和实践应用内容,也包括学术界的最新前沿进展的介绍。 [https://person.zju.edu.cn/huajun#kg]
  3. 复旦大学知识图谱暑期课程,2018年 本次课程体系由复旦大学肖仰华教授策划,讲者来自复旦大学、南加州大学、湖南大学、香港中文大学、华东师范大学、微软亚洲研究院、上海财经大学、东华大学、苏州大学等青年学者。本次课程由上海财经大学承办,由上海财经大学崔万云博士负责课程的本地组织工作。 [百度云链接:https://pan.baidu.com/s/11DdkfxN4JG_naD1ySkIHeQ, 密码:r5d3]

视频教程

  1. Google 知识图谱系列教程(1-21)

代码

  1. ComplEx @ https://github.com/ttrouill/complex
  2. EbemKG @ https://github.com/pminervini/ebemkg
  3. HolE @ https://github.com/mnick/holographic-embeddings
  4. Inferbeddings @ https://github.com/uclmr/inferbeddings
  5. KGE-LDA @ https://github.com/yao8839836/KGE-LDA
  6. KR-EAR @ https://github.com/thunlp/KR-EAR
  7. mFold @ https://github.com/v-shinc/mFoldEmbedding
  8. ProjE @ https://github.com/bxshi/ProjE
  9. RDF2Vec @ http://data.dws.informatik.uni-mannheim.de/rdf2vec/code/
  10. Resource2Vec @ https://github.com/AKSW/Resource2Vec/tree/master/resource2vec-core
  11. TranslatingModel @ https://github.com/ZichaoHuang/TranslatingModel
  12. wiki2vec (for DBpedia only) @ https://github.com/idio/wiki2vec

领域专家

  1. Antoine Bordes [https://research.fb.com/people/bordes-antoine/]
  2. Estevam Rafael Hruschka Junior(Federal University of Sao Carlos) [http://www.cs.cmu.edu/~estevam/]
  3. 鲍捷(Memect) [[http://baojie.org/blog/]]
  4. 陈华钧(浙江大学) [http://mypage.zju.edu.cn/huajun]
  5. 刘知远(清华大学) [http://nlp.csai.tsinghua.edu.cn/~lzy/]
  6. 秦兵(哈尔滨工业大学) [https://m.weibo.cn/u/1880324342?sudaref=login.sina.com.cn&retcode=6102]
  7. 赵军(中科院自动化所) http://www.nlpr.ia.ac.cn/cip/jzhao.htm
  8. 王昊奋 狗尾草智能科技公司 [http://www.gowild.cn/home/ours/index.html]
  9. 漆桂林 东南大学 [http://cse.seu.edu.cn/people/qgl/index.htm]
  10. 刘  康   中科院自动化 [http://people.ucas.ac.cn/~liukang]
  11. 韩先培 中国科学院软件研究所 [http://www.icip.org.cn/Homepages/hanxianpei/index.htm] 12 肖仰华 复旦大学 [http://gdm.fudan.edu.cn/GDMWiki/Wiki.jsp?page=Yanghuaxiao]
  12. 李娟子 清华大学 [http://keg.cs.tsinghua.edu.cn/persons/ljz/]

Datasets

  1. DBpedia DBpedia 是一个大规模的多语言百科知识图谱,可视为是维基百科的结构化版本。DBpedia 使用固定的模式对维基百科中的实体信息进行抽取,包括 abstract、infobox、category 和 page link 等信息。图 2 示例了如何将维基百科中的实体“Busan”的 infobox 信息转换成 RDF 三元组。DBpedia 目前拥有 127 种语言的超过两千八百万个实体与数亿个 RDF 三元组,并且作为链接数据的核心,与许多其他数据集均存在实体映射关系。而根据抽样评测,DBpedia 中 RDF 三元组的正确率达 88%。DBpedia 支持数据集的完全下载。 [http://wiki.dbpedia.org/]

  2. Yago 是一个整合了维基百科与 WordNet的大规模本体,它首先制定一些固定的规则对维基百科中每个实体的 infobox 进行抽取,然后利用维基百科的category进行实体类别推断(Type Inference)获得了大量的实体与概念之间的 IsA 关系(如:“Elvis Presley” IsA “American Rock Singers”),最后将维基百科的 category 与 WordNet 中的 Synset(一个 Synset 表示一个概念)进行映射,从而利用了 WordNet 严格定义的 Taxonomy 完成大规模本体的构建。随着时间的推移,Yago 的开发人员为该本体中的 RDF 三元组增加了时间与空间信息,从而完成了 Yago2的构建,又利用相同的方法对不同语言维基百科的进行抽取,完成了 Yago3的构建。目前,Yago 拥有 10 种语言约 459 万个实体,2400 万个 Facts,Yago 中 Facts的正确率约为 95%。Yago 支持数据集的完全下载。 [https://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/downloads/]

  3. Wikidata WikiData的目标是构建一个免费开放、多语言、任何人或机器都可以编辑修改的大规模链接知识库。WikiData由维基百科于2012年启动,早期得到微软联合创始人Paul Allen、Gordon Betty Moore基金会以及Google的联合资助。WikiData继承了Wikipedia的众包协作的机制,但与Wikipedia不同,WikiData支持的是以三元组为基础的知识条目(Items)的自由编辑。一个三元组代表一个关于该条目的陈述(Statements)。例如可以给“地球”的条目增加“<地球,地表面积是,五亿平方公里>”的三元组陈述。截止2016年,WikiData已经包含超过2470多万个知识条目。 [https://www.wikidata.org/wiki/Wikidata:Main_Page]

  4. BabelNet 是目前世界范围内最大的多语言百科同义词典,它本身可被视为一个由概念、实体、关系构成的语义网络(Semantic Network)。BabelNet 目前有超过 1400 万个词目,每个词目对应一个 synset。每个 synset 包含所有表达相同含义的不同语言的同义词。比如:“中国”、“中华人民共和国”、“China”以及“people’srepublic of China”均存在于一个 synset 中。BabelNet 由 WordNet 中的英文 synsets 与维基百科页面进行映射,再利用维基百科中的跨语言页面链接以及翻译系统,从而得到 BabelNet 的初始版本。目前 BabelNet 又整合了 Wikidata、GeoNames、OmegaWiki 等多种资源,共拥有 271 个语言版本。由于 BabelNet 中的错误来源主要在于维基百科与 WordNet 之间的映射,而映射目前的正确率大约在 91%。关于数据集的使用,BabelNet 目前支持 HTTP API 调用,而数据集的完全下载需要经过非商用的认证后才能完成。 [http://babelnet.org/]

  5. ConceptNet 是一个大规模的多语言常识知识库,其本质为一个以自然语言的方式描述人类常识的大型语义网络。ConceptNet 起源于一个众包项目 Open Mind Common Sense,自 1999 年开始通过文本抽取、众包、融合现有知识库中的常识知识以及设计一些游戏从而不断获取常识知识。ConceptNet 中共拥有 36 种固定的关系,如 IsA、UsedFor、CapableOf 等,图 4 给出了一个具体的例子,从中可以更加清晰地了解 ConceptNet 的结构。ConceptNet 目前拥有 304 个语言的版本,共有超过 390 万个概念,2800 万个声明(statements,即语义网络中边的数量),正确率约为 81%。另外,ConceptNet 目前支持数据集的完全下载。 [http://conceptnet.io/]

  6. Microsoft Concept Graph 是一个大规模的英文 Taxonomy,其中主要包含的是概念间以及实例(等同于上文中的实体)概念间的 IsA 关系,其中并不区分 instanceOf 与 subclassOf 关系。Microsoft Concept Graph 的前身是 Probase,它过自动化地抽取自数十亿网页与搜索引擎查询记录,其中每一个 IsA 关系均附带一个概率值,即该知识库中的每个 IsA 关系不是绝对的,而是存在一个成立的概率值以支持各种应用,如短文本理解、基于 taxonomy 的关键词搜索和万维网表格理解等。目前,Microsoft Concept Graph 拥有约 530 万个概念,1250 万个实例以及 8500 万个 IsA 关系(正确率约为 92.8%)。关于数据集的使用,MicrosoftConcept Graph 目前支持 HTTP API 调用,而数据集的完全下载需要经过非商用的认证后才能完成。 [https://concept.research.microsoft.com/Home/Introduction]

  7. Freebase: Freebase是一个开放共享的、协同构建的大规模链接数据库。Freebase是由硅谷创业公司MetaWeb于2005年启动的一个语义网项目。2010年,谷歌收购了Freebase作为其知识图谱数据来源之一。Freebase主要采用社区成员协作方式构建。其主要数据来源包括维基百科Wikipedia、世界名人数据库NNDB、开放音乐数据库MusicBrainz,以及社区用户的贡献等。Freebase基于RDF三元组模型,底层采用图数据库进行存储。Freebase的一个特点是不对顶层本体做非常严格的控制,用户可以创建和编辑类和关系的定义。2016年,谷歌宣布将Freebase的数据和API服务都迁移至Wikidata,并正式关闭了Freebase。 [https://developers.google.com/freebase/]

  8. Schema.org:Schema.org是2011年起,由Bing、Google、Yahoo和Yandex等搜索引擎公司共同支持的语义网项目。Schema.org支持各个网站采用语义标签(Semantic Markup)的方式将语义化的链接数据嵌入到网页中。搜索引擎自动搜集和归集这些,快速的从网页中抽取语义化的数据。Schema.org提供了一个词汇本体用于描述这些语义标签。截止目前,这个词汇本体已经包含600多个类和900多个关系,覆盖范围包括:个人、组织机构、地点、时间、医疗、商品等。谷歌于2015年推出的定制化知识图谱支持个人和企业在其网页中增加包括企业联系方法、个人社交信息等在内的语义标签,并通过这种方式快速的汇集高质量的知识图谱数据。截止2016年,谷歌的一份统计数据显示,超过31%的网页和1200万的网站已经使用了Schema.org发布语义化的链接数据。其它采用了部分Schema.org功能的还包括微软Cortana、Yandex、Pinterest、苹果的Siri等。Schema.org的本质是采用互联网众包的方式生成和收集高质量的知识图谱数据。 [http://schema.org/]

  9. LOD-Linked Open Data:LOD的初衷是为了实现Tim Berners-Lee在2006年发表的有关链接数据(Linked Data)作为语义网的一种实现的设想。LOD遵循了Tim提出的进行数据链接的四个规则,即:(1)使用URI标识万物;(2)使用HTTP URI,以便用户可以(像访问网页一样)查看事物的描述;(3)使用RDF和SPARQL标准;(4)为事物添加与其它事物的URI链接,建立数据关联。截止目前,LOD已经有1143个链接数据集,其中社交媒体、政府、出版和生命科学四个领域的数据占比超过90%。56% 的数据集对外至少与一个数据集建立了链接。被链接最多的是dbpedia的数据。比较常用的链接类型包括:foaf:knows、sioc:follows、owl:sameAs、rdfs:seeAlso、dct:spatial、skos:exactMatch等。LOD鼓励各个数据集使用公共的开放词汇和术语,但也允许使用各自的私有词汇和术语。在使用的术语中,有41%是公共的开放术语 [http://lod-cloud.net/]

  10. WordNet:语言知识图谱,包含155, 327个单词,同义词集117,597个,同义词集之 间由22种关系连接 [https://wordnet.princeton.edu/]

  11. Zhishi.me :Zhishi.me是中文常识知识图谱。主要通过从开放的百科数据中抽取结构化数据,已融合了百度百科,互动百科以及维基百科中的中文数据。 [http://zhishi.me/]

  12. CN-DBPeidia:CN-DBpedia是由复旦大学知识工场实验室研发并维护的大规模通用领域结构化百科。CN-DBpedia主要从中文百科类网站(如百度百科、互动百科、中文维基百科等)的纯文本页面中提取信息,经过滤、融合、推断等操作后,最终形成高质量的结构化数据,供机器和人使用。CN-DBpedia自2015年12月份发布以来已经在问答机器人、智能玩具、智慧医疗、智慧软件等领域产生数亿次API调用量。CN-DBpedia提供全套API,并且免费开放使用。大规模商务调用,提供由IBM、华为支持的专业、稳定服务接口。 [http://kw.fudan.edu.cn/cndbpedia/search/]

  13. Medical Relation Detection Dataset in DIEBOLDS 一个医疗健康领域的知识图谱数据集,可以用来做医疗实体的抽取和检测,比如药物、成分、症状和疾病。 Lidong Bing 邴立东 [http://www.cs.cmu.edu/~lbing/#Datasets]

  14. Kinships:领域知识图谱,描述人物之间的亲属关系,104个实体, 26种关系, 10,800个三元组。 [https://archive.ics.uci.edu/ml/datasets/kinship]

  15. UMLS:领域知识图谱,医学领域,描述医学概念之间的联系,135 个实体,49种关系,6,800个三元组。 [https://www.nlm.nih.gov/research/umls/]

  16. XLORE双语百科知识图谱 XLore从异构的跨语言在线百科中抽取结构化信息,并将其分享在网络上。据我们所知,XLore是第一个大规模的中英文知识平衡的知识图谱。目前,XLore包含663,740个概念,56,449个属性和10,856,042个实例。这给构建任何双语言知识平衡的大规模知识图谱提供了一种新的方式。 [http://xlore.org/]

  17. Knowledge Vault: 机器自动构建的知识图谱,4500万实体,4469种关系,2.7亿 三元组 [https://research.google.com/pubs/pub45634.html]

  18. ConceptNet5 ConceptNet是常识知识库。最早源于MIT媒体实验室的Open Mind Common Sense (OMCS)项目。OMCS项目是由著名人工智能专家Marvin Minsky于1999年建议创立。ConceptNet主要依靠互联网众包、专家创建和游戏三种方法来构建。ConceptNet知识库以三元组形式的关系型知识构成。ConceptNet5版本已经包含有2800万关系描述。与Cyc相比,ConceptNet采用了非形式化、更加接近自然语言的描述,而不是像Cyc那样采用形式化的谓词逻辑。与链接数据和谷歌知识图谱相比,ConceptNet比较侧重于词与词之间的关系。从这个角度看,ConceptNet更加接近于WordNet,但是又比WordNet包含的关系类型多。此外,ConceptNet完全免费开放,并支持多种语言。 [http://www.openkg.cn/dataset/conceptnet5-chinese]

  19. 史上最大规模1.4亿中文知识图谱开源下载 本次ownthink开源了史上最大规模的中文知识图谱,数据是以(实体、属性、值),(实体、关系、实体)混合的形式组织, [https://github.com/ownthink/KnowledgeGraphData]

项目案例

  1. 金融领域知识图谱

  2. 医疗领域知识图谱

  3. 农业领域知识图谱

进阶论文

1991

1998

  • brin s. Extracting Patterns and relations from the World Wide Web[J]. lecture notes in computer Science, 1998, 1590:172-183 [Extracting Patterns and relations from the World Wide Web]

2001

  • Berners-Lee T, Hendler J, Lassila O. The semantic Web: A new Form of Web content that is Meaningful to computers will Unleash a revolution of New Possibilities[J]. Scientific American, 2001, 284(5):34-43.
    [http://xitizap.com/semantic-web.pdf]

2005

  • Guodong Z, Jian S, Jie Z, et al. Exploring Various Knowledge in relation Extraction.[c]// ACL 2005, Meeting of the Association for Computational Linguistics, Proceedings of the Conference, 2530 June, 2005, University of Michigan, USA. DBLP. 2005:419-444.
    [https://dl.acm.org/citation.cfm?id=1219893]

2008

2009

2010

2011

  • Hu W, Chen J, Qu Y. A Self-training Approach for resolving object coreference on the semantic Web[ C ]// I nternational C onference on World Wide Web. ACM, 2011:87-96.
    [https://dl.acm.org/citation.cfm?id=1963421]
  • Han X, Sun L. A Generative Entity-Mention Model for linking Entities with Knowledge base[c]// T he Meeting of the A ssociation for C omputational Linguistics: Human Language Technologies, Proceedings of the Conference, 19-24 June, 2011, Portland, Oregon, USA. DBLP, 2011:945-954.
    [https://dl.acm.org/citation.cfm?id=2002592]
  • Zhang W, Sim Y C, Su J, et al. Entity Linking with Effective Acronym Expansion, Instance Selection and topic Modeling[c]// international Joint conference on Artificial Intelligence. 2011:1909-1914.
    [http://www.aaai.org/ocs/index.php/IJCAI/IJCAI11/paper/view/3392]
  • Han X, Sun L, Zhao J. Collective Entity Linking in Web text: A Graph-based Method[c]// Proceeding of the international acM siGir conference on research and Development in Information Retrieval, SIGIR 2011, Beijing, China, July. DBLP, 2011:765-774.
    [https://dl.acm.org/citation.cfm?id=2010019]
  • Nickel M, Tresp V, Kriegel H P. A Three-Way Model for collective learning on Multi-relational Data. [C]// International Conference on Machine Learning, ICML 2011, Bellevue, Washington, Usa, June 28 July. DBLP, 2011:809-816.
    [http://www.icml-2011.org/papers/438_icmlpaper.pdf]
  • Bordes A, Weston J, Collobert R, et al. Learning structured Embeddings of Knowledge bases[c]// AAAI Conference on Artificial Intelligence, AAAI 2011, San Francisco, California, Usa, August. DBLP, 2011:301-306.
    [http://www.aaai.org/ocs/index.php/AAAI/AAAI11/paper/view/3659]
  • Lao N, Mitchell T, Cohen W W. Random Walk inference and learning in a large scale Knowledge base[c]// conference on Empirical Methods in natural Language Processing, EMNLP 2011, 27-31 July 2011, John Mcintyre Conference Centre, Edinburgh, Uk, A Meeting of Sigdat, A Special Interest Group of the ACL. DBLP, 2011:529-539.
    [https://dl.acm.org/citation.cfm?id=2145494]

2013

2014

2015

2016

  • Miwa M, Bansal M. End-to-End Relation Extraction using LSTMs on S equences and tree structures[c]// annual Meeting of the association for computational linguistics. 2016:1105-1116.
    [https://arxiv.org/abs/1601.00770]
  • Nickel M, Murphy K, Tresp V, et al. A Review of relational Machine learning for Knowledge Graphs[J]. Proceedings of the IEEE, 2016, 104(1):11-33. [http://arxiv.org/abs/1503.00759]
  • Nickel M, Rosasco L, Poggio T. Holographic Embeddings of Knowledge Graphs[J]// AAAI Conference on Artificial Intelligence. 2016:1955-1961. [http://arxiv.org/abs/1510.04935]

2017

2018

2019


初步版本,水平有限,有错误或者不完善的地方,欢迎大家提建议和补充,会一直保持更新,本文为专知内容组原创内容,未经允许不得转载,如需转载请发送邮件至fangquanyi@gmail.com 或 联系微信专知小助手(Rancho_Fang)

敬请关注http://www.zhuanzhi.ai 和关注专知公众号,获取第一手AI相关知识

最近更新:2019-12-09

VIP内容

论文专栏:KDD 2020 知识图谱相关论文分享

论文解读者:北邮 GAMMA Lab 博士生 闫博

题目:利用多信号输入推断知识图谱中节点的重要性 会议: KDD 2020 论文地址:https://dl.acm.org/doi/10.1145/3394486.3403093 推荐理由:这篇论文是作者在KDD19上利用单一输入信号进行节点重要性推断论文的后续研究,扩展成了多输入信号。利用迭代的方式对输入的不同类信号进行聚类,从而解决不同信号的冲突问题。实验表明,多种信号比相比单一信号,能更准确地推断出节点的重要性,对输入信号进行迭代聚类的方式有效解决了信号冲突问题。 节点重要性估计是知识图谱中一项重要的任务,它可以被下游许多任务利用,如推荐系统,搜索和查询消歧,节点资源分配等。在现实生活中,除了知识图谱本身的信息,还有许多外界的输入信息(输入信号),这些输入信号对节点的重要性评估也至关重要。此任务的关键是如何有效利用来自不同来源的输入信号。这些外部输入信号,例如票数或浏览量,可以直接告诉我们知识图谱中实体的重要性。现有方法无法同时考虑多个信号,所以它们对这些外部信号的使用受到一定限制,造成了外部信号的利用率低下。本文设计了一个端到端的隐变量模型MultiImport,从多个稀疏,可能重叠的输入信号中推断潜在节点的重要性。它捕获节点重要性和输入信号之间的关系,并有效地处理了多个信号的潜在冲突问题。在多个知识图谱上的实验表明,MultiImport在利用多个输入信号推断节点重要性的任务中优于现有方法,并且与最先进的方法相比,NDCG@100提高了23.7%

成为VIP会员查看完整内容
0
11

最新内容

Little is known about the trustworthiness of predictions made by knowledge graph embedding (KGE) models. In this paper we take initial steps toward this direction by investigating the calibration of KGE models, or the extent to which they output confidence scores that reflect the expected correctness of predicted knowledge graph triples. We first conduct an evaluation under the standard closed-world assumption (CWA), in which predicted triples not already in the knowledge graph are considered false, and show that existing calibration techniques are effective for KGE under this (common but narrow) assumption. Next, we introduce the more realistic but challenging open-world assumption (OWA), in which unobserved predictions are not considered true or false until ground-truth labels are obtained. Here, we show that existing calibration techniques are much less effective under the OWA than the CWA, and provide explanations for this discrepancy. Finally, to motivate the utility of calibration for KGE from a practitioner's perspective, we conduct a unique case study of human-AI collaboration, showing that calibrated predictions can improve human performance in a knowledge graph completion task.

0
1
下载
预览

最新论文

Little is known about the trustworthiness of predictions made by knowledge graph embedding (KGE) models. In this paper we take initial steps toward this direction by investigating the calibration of KGE models, or the extent to which they output confidence scores that reflect the expected correctness of predicted knowledge graph triples. We first conduct an evaluation under the standard closed-world assumption (CWA), in which predicted triples not already in the knowledge graph are considered false, and show that existing calibration techniques are effective for KGE under this (common but narrow) assumption. Next, we introduce the more realistic but challenging open-world assumption (OWA), in which unobserved predictions are not considered true or false until ground-truth labels are obtained. Here, we show that existing calibration techniques are much less effective under the OWA than the CWA, and provide explanations for this discrepancy. Finally, to motivate the utility of calibration for KGE from a practitioner's perspective, we conduct a unique case study of human-AI collaboration, showing that calibrated predictions can improve human performance in a knowledge graph completion task.

0
1
下载
预览
Top