题目: Attention Models in Graphs: A Survey

摘要: 图结构数据自然地出现在许多不同的应用领域。通过将数据表示为图形,我们可以捕获实体(即节点)以及它们之间的关系(即边)。许多有用的见解可以从图形结构的数据中得到,这一点已被越来越多的关注于图形挖掘的工作所证明。然而,在现实世界中,图可以是大的-有许多复杂的模式-和噪声,这可能会给有效的图挖掘带来问题。解决这一问题的一个有效方法是将“注意力”融入到图挖掘解决方案中。注意机制允许一个方法关注图中与任务相关的部分,帮助它做出更好的决策。在这项工作中,我们对图形注意模型这一新兴领域的文献进行了全面而集中的调查。我们介绍了三个直观的分类组现有的工作。它们基于问题设置(输入和输出类型)、使用的注意机制类型和任务(例如,图形分类、链接预测等)。我们通过详细的例子来激励我们的分类法,并使用每种方法从一个独特的角度来调查竞争方法。最后,我们强调了该领域的几个挑战,并讨论了未来工作的前景。

作者简介: Ryan A. Rossi,目前在Adobe Research工作,研究领域是机器学习;涉及社会和物理现象中的大型复杂关系(网络/图形)数据的理论、算法和应用。在普渡大学获得了计算机科学博士和硕士学位。

Nesreen K. Ahmed,英特尔实验室的高级研究员。她在普渡大学计算机科学系获得博士学位,在普渡大学获得统计学和计算机科学硕士学位。研究方向是机器学习和数据挖掘,涵盖了大规模图挖掘、统计机器学习的理论和算法,以及它们在社会和信息网络中的应用。

成为VIP会员查看完整内容
0
100

相关内容

人工智能(Artificial Intelligence, AI )是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支。

有关实体及其关系的真实世界事实的知识库是各种自然语言处理任务的有用资源。然而,由于知识库通常是不完整的,因此能够执行知识库补全或链接预测是很有用的。本文全面概述了用于知识库完成的实体和关系的嵌入模型,总结了标准基准数据集上最新的实验结果。

成为VIP会员查看完整内容
0
61

题目: Representation Learning on Graphs: Methods and Applications

摘要:

图机器学习是一项重要且普遍存在的任务,其应用范围从药物设计到社交网络中的友情推荐。这个领域的主要挑战是找到一种表示或编码图形结构的方法,以便机器学习模型能够轻松地利用它。传统上,机器学习方法依赖于用户定义的启发法来提取对图的结构信息进行编码的特征(例如,度统计或内核函数)。然而,近年来,使用基于深度学习和非线性降维的技术,自动学习将图结构编码为低维嵌入的方法激增。在这里,我们提供了一个概念上的回顾,在这一领域的关键进展,图表示学习,包括基于矩阵分解的方法,随机漫步的算法和图神经网络。我们回顾了嵌入单个节点的方法以及嵌入整个(子)图的方法。在此过程中,我们开发了一个统一的框架来描述这些最近的方法,并强调了一些重要的应用程序和未来工作的方向。

作者简介:

William L. Hamilton是麦吉尔大学计算机科学的助理教授,也是加拿大魁北克Mila AI研究所的CIFAR AI主席。William L. Hamilton开发的机器学习模型可以对这个复杂的、相互联系的世界进行推理。研究兴趣集中在机器学习、网络科学和自然语言处理的交叉领域,目前的重点是快速发展的图表示学习和图神经网络。

Rex Ying是斯坦福大学计算机科学二年级的博士生,研究主要集中在开发应用于图形结构数据的机器学习算法。曾致力于开发可扩展到网络规模数据集的广义图卷积网络,应用于推荐系统、异常检测和生物学。

成为VIP会员查看完整内容
0
99

题目: Network Representation Learning: A Survey

摘要:

随着信息技术的广泛应用,信息网络越来越受到人们的欢迎,它可以捕获各种学科之间的复杂关系,如社交网络、引用网络、电信网络和生物网络。对这些网络的分析揭示了社会生活的不同方面,如社会结构、信息传播和交流模式。然而,在现实中,大规模的信息网络往往使网络分析任务计算昂贵或难以处理。网络表示学习是近年来提出的一种新的学习范式,通过保留网络拓扑结构、顶点内容和其它边信息,将网络顶点嵌入到低维向量空间中。这有助于在新的向量空间中方便地处理原始网络,以便进行进一步的分析。在这项调查中,我们全面回顾了目前在数据挖掘和机器学习领域的网络表示学习的文献。我们提出了新的分类法来分类和总结最先进的网络表示学习技术,根据潜在的学习机制、要保留的网络信息、以及算法设计和方法。我们总结了用于验证网络表示学习的评估协议,包括已发布的基准数据集、评估方法和开源算法。我们还进行了实证研究,以比较代表性的算法对常见数据集的性能,并分析其计算复杂性。最后,我们提出有希望的研究方向,以促进未来的研究。

作者简介:

Xingquan Zhu是佛罗里达大西洋大学计算机与电气工程和计算机科学系的教授,在中国上海复旦大学获得了计算机科学博士学位。曾在多家研究机构和大学工作过,包括微软亚洲研究院(实习)、普渡大学、佛蒙特大学和悉尼科技大学。主要研究方向:数据挖掘、机器学习、多媒体系统、生物信息学。

成为VIP会员查看完整内容
0
57

题目: A Survey on Network Embedding

摘要: 网络嵌入将网络中的节点分配给低维表示,有效地保持了网络结构。近年来,这一新兴的网络分析范式取得了很大的进展。本文首先对网络嵌入方法进行了分类,然后回顾了网络嵌入方法的发展现状,并指出了其未来的研究方向。我们首先总结了网络嵌入的动机。讨论了经典的图嵌入算法及其与网络嵌入的关系。随后,我们对大量的网络嵌入方法进行了系统的综述,包括结构和属性保持的网络嵌入方法、带边信息的网络嵌入方法和先进的信息保持的网络嵌入方法。此外,还综述了几种网络嵌入的评价方法和一些有用的在线资源,包括网络数据集和软件。最后,我们讨论了利用这些网络嵌入方法构建有效系统的框架,并指出了一些潜在的未来方向。

作者简介: Peng Cui,清华大学计算机科学与技术系媒体与网络实验室副教授。

Jian Pei,现任加拿大大数据科学研究主席(Tier 1)和西蒙弗雷泽大学(Simon Fraser University)计算科学学院教授。他还是统计与精算科学系、科学院和健康科学院的副院士。他是数据科学、大数据、数据挖掘和数据库系统等领域的知名首席研究员。他的专长是为新的数据密集型应用开发高效的数据分析技术。他被公认为计算机械协会(ACM)的研究员,他为数据挖掘的基础、方法和应用做出贡献,并作为电气与电子工程师协会(IEEE)的研究员,为他的数据挖掘和知识发现做出贡献。

成为VIP会员查看完整内容
0
55

题目: Graph Summarization Methods and Applications: A Survey

摘要:

虽然计算资源的进步使处理大量数据成为可能,但人类识别这些数据模式的能力并没有相应提高。因此,压缩和简化数据的高效计算方法对于提取可操作的见解变得至关重要。特别是,虽然对数据摘要技术进行了广泛的研究,但直到最近才开始流行对相互关联的数据或图进行汇总。这项调查是一个结构化的,全面的概述了最先进的方法,以总结图形数据。我们首先讨论了图形摘要背后的动机和挑战。然后,我们根据作为输入的图形类型对摘要方法进行分类,并根据核心方法进一步组织每个类别。最后,我们讨论了总结在真实世界图上的应用,并通过描述该领域的一些开放问题进行了总结。

作者简介:

Yike Liu是密西根大学物理系五年级的博士生,也是计算机科学与工程系的一名硕士研究生。我是叶杰平教授的顾问。主要研究方向是深度学习和强化学习,尤其是在交通数据上的应用。在此之前,从事过基于图形的机器学习和数据挖掘,特别是图形总结和图形聚类,在这些工作中,开发了图形挖掘算法,帮助更好地理解底层的图形组织并理解它。

Tara Safavi是密西根大学博士研究生,研究重点是知识表示及其在以人为中心的任务中的使用、评估和解释,还对更广泛的AI+社会问题感兴趣,比如隐私、偏见和环境可持续性。研究目前得到了美国国家科学基金会(NSF)研究生奖学金和谷歌女性科技创造者奖学金的支持。

成为VIP会员查看完整内容
0
27

题目: Graph Embedding Techniques, Applications, and Performance: A Survey

摘要: 图形,如社交网络、单词共现网络和通信网络,自然地出现在各种实际应用中。通过对它们的分析,可以深入了解社会结构、语言和不同的交流模式。已经提出了许多方法来进行分析。近年来,在向量空间中使用图节点表示的方法受到了研究界的广泛关注。在这项调查中,我们对文献中提出的各种图嵌入技术进行了全面和结构化的分析。我们首先介绍了嵌入任务及其面临的挑战,如可伸缩性、维度的选择、要保留的特性以及可能的解决方案。然后,我们提出了基于因子分解法、随机游动和深度学习的三类方法,并举例说明了每类算法的代表性,分析了它们在不同任务中的性能。我们在一些常见的数据集上评估这些最新的方法,并将它们的性能进行比较。我们的分析最后提出了一些潜在的应用和未来的方向。

作者简介: Palash Goyal,南加州大学计算机系博士。

Emilio Ferrara,南加州大学计算机科学系助理研究教授和应用数据科学副主任,南加州大学信息科学研究所机器智能和数据科学(MINDS)小组的研究组长和首席研究员。

成为VIP会员查看完整内容
0
49

题目: A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications 摘要: 图形是一种重要的数据表示形式,它出现在现实世界的各种场景中。有效的图形分析可以让用户更深入地了解数据背后的内容,从而有利于节点分类、节点推荐、链路预测等许多有用的应用。然而,大多数图形分析方法都存在计算量大、空间开销大的问题。图嵌入是解决图分析问题的有效途径。它将图形数据转换为一个低维空间,其中图形结构信息和图形属性被最大程度地保留。在这项调查中,我们对图嵌入的文献进行了全面的回顾。本文首先介绍了图嵌入的形式化定义及相关概念。之后,我们提出了两个分类的图形嵌入,对应于什么挑战存在于不同的图形嵌入问题设置,以及现有的工作如何解决这些挑战,在他们的解决方案。最后,我们总结了图形嵌入在计算效率、问题设置、技术和应用场景等方面的应用,并提出了四个有前途的研究方向。

作者简介: Hongyun Cai,经验丰富的研究人员,有在研究行业工作的经验。精通计算机科学,C++,数据库,Java和机器学习。昆士兰大学计算机科学专业研究生,哲学博士。

Vincent W. Zheng,新加坡先进数字科学中心(ADSC)的研究科学家,也是伊利诺伊大学香槟分校协调科学实验室的研究附属机构。他目前领导着ADSC的大型社交项目。该项目旨在利用目前在我们的数字社会(即社交媒体)中普遍存在的巨大“人类传感器”,并实现对此类数据的社会分析,从而建立一个以人为中心的网络系统。他还对图形表示学习、深度学习、自然语言处理、移动计算等领域感兴趣,并在社交挖掘、文本挖掘、实际位置和活动识别、用户分析、移动推荐、增强现实等方面有应用。

Kevin Chen-Chuan Chang是伊利诺伊大学香槟分校计算机科学教授,他领导了数据搜索、集成和挖掘的前沿数据实验室。他在国立台湾大学获得理学学士学位,在斯坦福大学获得电机工程博士学位。他的研究涉及大规模信息访问,用于搜索、挖掘和跨结构化和非结构化大数据的集成,目前的重点是“以实体为中心”的Web搜索/挖掘和社交媒体分析。他在VLDB 2000年和2013年获得了两项最佳论文奖,2002年获得了NSF职业奖,2003年获得了NCSA院士奖,2004年和2005年获得了IBM院士奖,2008年获得了创业领导力学院院士奖,并在2001年、2004年、2005年、2006年、2010年和2011年获得了伊利诺伊大学不完整的优秀教师名单。他热衷于将研究成果带到现实世界中,并与学生共同创办了伊利诺伊大学(University of Illinois)的初创公司Cazoodle,致力于在网络上深化垂直的“数据感知”搜索。

成为VIP会员查看完整内容
0
35

题目: Graph Neural Networks: A Review of Methods and Applications

摘要: 许多学习任务都需要处理包含元素间丰富关系信息的图形数据。建模物理系统、学习分子指纹、预测蛋白质界面和疾病分类需要一个模型从图形输入中学习。在文本、图像等非结构化数据的学习等领域,对句子的依存树、图像的场景图等提取的结构进行推理是一个重要的研究课题,同时也需要建立图形推理模型。图神经网络(GNNs)是通过图节点之间的信息传递来获取图的依赖性的连接模型。与标准神经网络不同,图神经网络保留了一种状态,这种状态可以以任意深度表示来自其邻域的信息。虽然原始GNNs已经被发现很难训练到固定的点,但是最近在网络结构、优化技术和并行计算方面的进展已经使它能够成功地学习。近年来,基于图形卷积网络(GCN)、图形注意网络(GAT)、门控图形神经网络(GGNN)等图形神经网络变体的系统在上述许多任务上都表现出了突破性的性能。在这项调查中,我们提供了一个详细的检讨现有的图形神经网络模型,系统分类的应用,并提出了四个开放的问题,为今后的研究。

作者简介: Jie Zhou,CS的研究生,从事系统研究,主要研究计算机安全。他毕业于厦门大学,在罗切斯特大学获得硕士学位及博士学位。

Zhiyuan Liu,清华大学计算机系NLP实验室副教授。

成为VIP会员查看完整内容
0
81

论文题目: Graph Convolutional Networks with Motif-based Attention

论文摘要:

深度卷积神经网络在计算机视觉和语音识别领域的成功,使得研究人员开始研究该体系结构对图结构数据的泛化。最近提出的一种称为图卷积网络的方法能够在节点分类方面取得最新的成果。然而,由于所提出的方法依赖于spectral图卷积的局部一阶近似,因此无法捕获图中节点间的高阶相互作用。在这项工作中,我们提出了一个motif-based的图注意力模型,称为Motif Convolutional Networks,它通过使用加权多跳motif邻接矩阵来捕获高阶邻域,从而泛华了过去的方法。一个新的注意力机制被用来允许每个单独的节点选择最相关的邻居来应用它的过滤器。我们在不同领域(社会网络和生物信息学)的图上评估了我们的方法,结果表明它能够在半监督节点分类任务上胜过一组有竞争力的基准方法。其他结果证明了attention的有用性,表明不同的节点对不同的高阶邻域进行了优先排序。

论文作者:

John Boaz Lee于2015-1019年在伍斯特理工学院计算机科学系的攻读博士学位。研究领域包括深度学习、数据挖掘、信息与社会网络分析、强化学习等。2020年1月,将加入Facebook研究的核心数据科学团队作为研究科学家。

Ryan A. Rossi目前在Adobe Research工作。研究领域是机器学习,从社会和物理现象跨越理论、算法和大型复杂关系(网络/图)数据的应用。在普渡大学获得了计算机科学的博士和硕士学位。Ryan A. Rossi的论文主要研究关系机器学习和动态网络数据的挖掘,并且获得了国家科学基金研究生奖学金(NSF GRFP)、国防科学与工程研究生奖学金(NDSEG)、普渡大学弗雷德里克·n·安德鲁斯奖学金以及比尔斯兰博士学位论文奖学金。还是网络存储库项目的联合创始人,该项目是第一个具有交互式可视图形分析功能的数据存储库,可以帮助研究人员通过web实时查找、探索和理解图形数据。

孔祥南的研究兴趣集中在数据挖掘和机器学习上,重点在于解决生物医学和社会应用中的数据科学问题。孔博士对设计算法以解决各种研究领域中的数据多样性问题特别感兴趣,这些领域包括生物医学研究,社会计算,神经科学和商业智能。他一直致力于神经科学,生物医学信息学和社交网络领域的图形数据挖掘,并且在数据挖掘的顶级会议和期刊上发表了论文,包括KDD,ICDM,SDM,WWW,WSDM,CIKM,TKDE。

成为VIP会员查看完整内容
0
37

论文题目: A Structural Graph Representation Learning Framework

论文摘要: 许多基于图的机器学习任务的成功在很大程度上取决于从图数据中学习到的适当表示。大多数工作都集中在于学习保留邻近性的节点嵌入,而不是保留节点之间结构相似性的基于结构的嵌入。这些方法无法捕获对基于结构的应用程序(如web日志中的visitor stitching)至关重要的高阶结构依赖和连接模式。在这项工作中,我们阐述了高阶网络表示学习,并提出了一个称为HONE的通用框架,用于通过节点邻域中的子图模式(network motifs, graphlet orbits/positions)从网络中学习这种结构性节点嵌入。HONE引入了一种通用的diffusion机制和一种节省空间的方法,该方法避免了使用k-step线性算子来显式构造k-step motif-based矩阵。此外,HONE被证明是快速和有效的,最坏情况下的时间复杂度几乎是线性的。实验结果表明,该算法能有效地处理大量的网络日志数据,包括链接预测和visitor stitching。

作者简介:

Ryan A. Rossi,目前在Adobe Research工作,研究领域是机器学习;涉及社会和物理现象中的大型复杂关系(网络/图形)数据的理论、算法和应用。在普渡大学获得了计算机科学博士和硕士学位。

Nesreen K. Ahmed,英特尔实验室的高级研究员。我在普渡大学计算机科学系获得博士学位,在普渡大学获得统计学和计算机科学硕士学位。研究方向是机器学习和数据挖掘,涵盖了大规模图挖掘、统计机器学习的理论和算法,以及它们在社会和信息网络中的应用。

成为VIP会员查看完整内容
0
56
小贴士
相关VIP内容
相关资讯
图数据表示学习综述论文
专知
30+阅读 · 2019年6月10日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
340+阅读 · 2019年4月30日
Attention!注意力机制模型最新综述(附下载)
THU数据派
19+阅读 · 2019年4月13日
Attention!注意力机制模型最新综述
专知
61+阅读 · 2019年4月8日
清华大学图神经网络综述:模型与应用
机器之心
47+阅读 · 2018年12月26日
图神经网络综述:模型与应用
PaperWeekly
156+阅读 · 2018年12月26日
网络表示学习综述:一文理解Network Embedding
PaperWeekly
25+阅读 · 2018年8月14日
网络表示学习领域(NRL/NE)必读论文汇总
AI科技评论
12+阅读 · 2018年2月18日
相关论文
Xipeng Qiu,Tianxiang Sun,Yige Xu,Yunfan Shao,Ning Dai,Xuanjing Huang
85+阅读 · 2020年3月18日
Talking-Heads Attention
Noam Shazeer,Zhenzhong Lan,Youlong Cheng,Nan Ding,Le Hou
12+阅读 · 2020年3月5日
Aidan Hogan,Eva Blomqvist,Michael Cochez,Claudia d'Amato,Gerard de Melo,Claudio Gutierrez,José Emilio Labra Gayo,Sabrina Kirrane,Sebastian Neumaier,Axel Polleres,Roberto Navigli,Axel-Cyrille Ngonga Ngomo,Sabbir M. Rashid,Anisa Rula,Lukas Schmelzeisen,Juan Sequeda,Steffen Staab,Antoine Zimmermann
79+阅读 · 2020年3月4日
Qingyu Guo,Fuzhen Zhuang,Chuan Qin,Hengshu Zhu,Xing Xie,Hui Xiong,Qing He
70+阅读 · 2020年2月28日
Shaoxiong Ji,Shirui Pan,Erik Cambria,Pekka Marttinen,Philip S. Yu
73+阅读 · 2020年2月2日
HyperKG: Hyperbolic Knowledge Graph Embeddings for Knowledge Base Completion
Prodromos Kolyvakis,Alexandros Kalousis,Dimitris Kiritsis
4+阅读 · 2019年8月17日
Area Attention
Yang Li,Lukasz Kaiser,Samy Bengio,Si Si
4+阅读 · 2019年5月23日
Sneha Chaudhari,Gungor Polatkan,Rohan Ramanath,Varun Mithal
12+阅读 · 2019年4月5日
A Comprehensive Survey on Graph Neural Networks
Zonghan Wu,Shirui Pan,Fengwen Chen,Guodong Long,Chengqi Zhang,Philip S. Yu
17+阅读 · 2019年1月3日
Ziwei Zhang,Peng Cui,Wenwu Zhu
38+阅读 · 2018年12月11日
Top