异质信息网络的概念自 2009 年首次提出以来,迅速成为数据挖掘领域的研究热点,并在这类网络上开发了许多创新性的数据挖掘任务。此外,还开发了一些独特的分析技术来展示异质信息网络的好处。特别是,随着大数据时代的到来,异质信息网络为大数据中复杂对象及其关系的建模和分析提供了一种有效的途径。

本文将介绍两篇滴滴在KDD 2020上发表的利用异质信息网络解决实际问题的工作。 第一个工作是《HetETA: Heterogeneous Information Network Embedding for Estimating Time of Arrival》,提出异质时空图卷积网络用于预估到达时间。

第二个工作是《Gemini: A Novel and Universal Heterogeneous Graph Information Fusing Framework for Online Recommendations》,提出一种通用的在线推荐异质信息融合框架。

成为VIP会员查看完整内容
0
22

相关内容

最近,越来越多的研究开始将深度学习方法应用到图数据领域。图神经网络在数据具有明确关系的结构场景,如物理系统,分子结构和知识图谱中有着广泛的研究价值和应用前景,本文将介绍在KDD 2020上发表的两个在这一场景下的最新工作。

第一个工作是Research Track的《ASGN: An Active Semi-supervised Graph Neural Network for Molecular Property Prediction》,提出了一种基于主动学习的半监督图神经网络模型来对分子性质进行预测方法。

第二个工作是Research Track的《Hierarchical Attention Propagation for Healthcare Representation Learning》,基于注意力机制,提出了一种利用的层次信息表示医学本体的表示学习模型。

成为VIP会员查看完整内容
0
26

使用图模型解决问题时,面对实际环境中来源多样、形式复杂的数据,怎样将多种信息进行合理融合是一个值得关注的问题。本文将介绍两篇发表于KDD 2020的与图模型信息融合相关的工作。

第一篇工作为《HGMF: Heterogeneous Graph-based Fusion for Multimodal Data with Incompleteness》,该工作主要是基于异质图来解决多模态学习中在信息融合时会遇到的模态缺失问题。

第二篇工作为《Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion》,该工作通过引入两个外部知识图谱丰富会话的语义信息,并通过互信息最大化弥补知识图谱间的语义鸿沟以提升会话推荐系统的表现。

成为VIP会员查看完整内容
0
17

图神经网络在处理基于图数据问题方面取得了巨大的成功,受到了广泛的关注和应用。GNNs通常是基于消息传递的方式设计的,本质思想即迭代地聚合邻居信息,而经过次的迭代后, 层GNNs能够捕获节点的K-hop局部结构,学习来自跳邻居的信息。因此更深层的GNN就能够访问更多的邻居信息,学习与建模远距离的节点关系,从而获得更好的表达能力与性能。而在实际在做深层GNN操作时,往往会面临着两类问题:1. 随着层数的增加,GNNs的性能会大幅下降;2. 随着层数的增加,利用GNNs进行训练与推断时需要的计算量会指数上升。对于第一个问题来说,现有的很多工作分析出深层GNNs性能下降的原因是受到了过平滑问题的影响,并提出了缓解过平滑的解决方案;而对于第二个问题来说,设计方案模拟深层GNNs的表现能力并减少GNNs的计算消耗也成了亟待解决的需求,比如用于实时系统的推断。针对这两个问题,本文将分别介绍两个在KDD 2020上的关于深度GNNs的最新工作。

第一个工作是Research Track的《Towards Deeper Graph Neural Networks》。该工作从另一个角度去解读深度图神经网络随着层数增加性能下降的问题,认为影响性能下降的主要原因是Transformation和Propagation两个过程的纠缠影响作用,并且基于分析结果设计了深度自适应图神经网络(Deep Adaptive Graph Neural Networks) 模型,能够有效地缓解深层模型的性能快速下降问题。

第二个工作是Research Track的《TinyGNN: Learning Efficient Graph Neural Networks》。该工作尝试训练small GNN(浅层)去模拟Deep GNN(深层)的表达能力和表现效果,致力于应用在实时系统推断等对推断速度有较高要求的场景。

成为VIP会员查看完整内容
0
33

主题模型是一种以无监督方式对文本内容的隐含语义结构进行聚类,发现文档中抽象主题的统计模型,主要被运用于NLP领域中的各种任务。简单总结主题模型的目的,就是从一堆文档中学习两种矩阵:一是document-topic矩阵,即document在主题上的分布,二是topic-word矩阵,即topic在词表上的分布。基于主题模型的思想和功能,已有很多工作将其运用或迁移到其他领域,来提高模型方法的效果。本文将介绍在KDD 2020上发表的两篇在图模型中利用主题模型的工作。

第一个工作是《Graph Structural-topic Neural Network》,主要是将主题模型的统计思想引入到GCNs中,解决GCNs不能很好地建模局部高阶结构的问题。

第二个工作是《Graph Attention Networks over Edge Content-Based Channels》,该工作关注了图中边上的非结构文本信息,利用主题模型发现边的文本信息隐含的丰富语义,从而更好地推理和节点之间的交互。

成为VIP会员查看完整内容
0
23

模型的可解释性是机器学习领域的重要研究课题,主要关注两个方向,一个是提升模型本身的可解释性,如引入注意力机制、解耦表示学习等技术;另一个是对黑盒模型的事后解释,如特征掩码技术、可视化技术等。图结构提供了额外的拓扑信息,也对可解释技术提出了更高的要求。本文将介绍在KDD 2020上发表的两个该方向最新工作。

第一个工作是Research Track的《XGNN: Towards Model-Level Explanations of Graph Neural Networks》,关注黑盒模型的事后解释,提出了一种基于输入优化的图神经网络事后解释方法。

第二个工作是Applied Data Science Track的《Explainable classification of brain networks via contrast subgraphs》,关注提升模型本身的可解释性,提出了一种基于对比子图的可解释脑网络分类方法。

成为VIP会员查看完整内容
0
25

对于来自开源社会传感器的多种类型并发事件及其相关参与者进行建模是许多领域(如医疗保健、救灾和金融分析)的一项重要任务。预测未来的事件可以帮助人类分析师更好地理解全球社会动态,并做出快速而准确的决策。预期参与这些活动的参与者或参与者还可以帮助涉众更好地响应意外事件。然而,由于以下几个因素,实现这些目标是具有挑战性的:(i)难以从大规模输入中过滤出相关信息,(ii)输入数据通常为高维非结构化和Non-IID(非独立同分布),(iii)相关的文本特征是动态的,随时间而变化。最近,图神经网络在学习复杂和关系数据方面表现出了优势。本文研究了一种基于异构数据融合的时间图学习方法,用于预测多类型并发事件并同时推断多个候选参与者。为了从历史数据中获取时间信息,我们提出了一种基于事件知识图的图学习框架Glean,它结合了关系和单词上下文。我们提出了一个上下文感知的嵌入融合模块来丰富事件参与者的隐藏特性。我们在多个真实数据集上进行了广泛的实验,结果表明,所提出的方法在社会事件预测方面与各种先进的方法相比具有竞争力,而且还提供了急需的解释能力。

成为VIP会员查看完整内容
0
56

从社交网络到分子,许多真实数据都是以非网格对象的形式出现的,比如图。最近,从网格数据(例如图像)到图深度学习受到了机器学习和数据挖掘领域前所未有的关注,这导致了一个新的跨领域研究——深度图学习(DGL)。DGL的目标不是繁琐的特征工程,而是以端到端方式学习图的信息性表示。它在节点/图分类、链接预测等任务中都取得了显著的成功。

在本教程中,我们的目的是提供一个深入的图学习的全面介绍。首先介绍了深度图学习的理论基础,重点描述了各种图神经网络模型(GNNs)。然后介绍DGL近年来的主要成就。具体来说,我们讨论了四个主题:1)深度GNN的训练; 2) GNNs的鲁棒性; 3) GNN的可扩展性; 4) GNN的自监督和无监督学习。最后,我们将介绍DGL在各个领域的应用,包括但不限于药物发现、计算机视觉、医学图像分析、社会网络分析、自然语言处理和推荐。

https://ai.tencent.com/ailab/ml/KDD-Deep-Graph-Learning.html

目录:

  • 08:10 am – 09:00 am: Introduction to Graphs and Graph Neural Networks 图神经网络介绍
  • 09:00 am – 09:40 am: Robustness of Graph Neural Networks 图神经网络鲁棒性
  • 09:40 am – 10:00 am: Break
  • 10:00 am – 10:40 am: Self-Supervised Learning for Graph Neural Network I 图神经网络自监督学习
  • 10:40 am – 11:20 am: Scalable Learning for Graph Neural Networks & Healthcare 图神经网络可扩展学习
  • 11:20 am – 00:15 pm: Graph Structure Learning & NLP 图结构学习
成为VIP会员查看完整内容
0
35

本文研究如何更好聚合网络拓扑信息和特征信息。中心思想是,构造了结构图,特征图(feature graph),以及两者的组合来提取特定的和通用的嵌入,并使用注意机制来学习嵌入的自适应重要性权重。实验发现,AM-GCN可以从节点特征和拓扑结构中提取自适应地提取相关的信息,对应不同的参数取值。 https://arxiv.org/abs/2007.02265

摘要:图卷积网络(GCNs)在处理图数据和网络数据的各种分析任务方面得到了广泛的应用。然而,最近的一些研究提出了一个问题,即GCNs是否能够在一个信息丰富的复杂图形中优化地整合节点特征和拓扑结构。在本文中,我们首先提出一个实验研究。令人惊讶的是,我们的实验结果清楚地表明,当前的GCNs融合节点特征和拓扑结构的能力远远不是最优的,甚至是令人满意的。由于GCNs无法自适应地学习拓扑结构与节点特征之间的一些深层次关联信息,这一弱点可能会严重阻碍GCNs在某些分类任务中的能力。我们能否弥补这一缺陷,设计出一种新型的GCNs,既能保留现有GCNs的优势,又能大幅度提高拓扑结构和节点特征融合的能力?为了解决这个问题,我们提出了一种自适应多通道半监督分类图卷积网络。其核心思想是同时从节点特征、拓扑结构及其组合中提取具体的和常见的嵌入,并利用注意机制学习嵌入的自适应重要度权值。我们在基准数据集上进行的大量实验表明,AM-GCN从节点特征和拓扑结构中提取了最多的相关信息,显著提高了分类精度。

成为VIP会员查看完整内容
0
63
小贴士
相关VIP内容
专知会员服务
26+阅读 · 2020年11月2日
专知会员服务
17+阅读 · 2020年10月15日
专知会员服务
33+阅读 · 2020年9月20日
专知会员服务
23+阅读 · 2020年9月13日
专知会员服务
25+阅读 · 2020年9月4日
【KDD2020】动态知识图谱的多事件预测
专知会员服务
56+阅读 · 2020年8月30日
专知会员服务
35+阅读 · 2020年8月30日
专知会员服务
63+阅读 · 2020年7月9日
专知会员服务
47+阅读 · 2020年4月14日
专知会员服务
42+阅读 · 2020年1月10日
相关资讯
【KDD2020】动态知识图谱的多事件预测
专知
36+阅读 · 2020年8月31日
KDD2020推荐系统论文聚焦
机器学习与推荐算法
11+阅读 · 2020年6月28日
THUIR师生论文获WSDM 2020录用
THUIR
3+阅读 · 2019年10月11日
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
23+阅读 · 2019年4月23日
领域应用 | 知识图谱的技术与应用
开放知识图谱
15+阅读 · 2018年6月14日
相关论文
KBGN: Knowledge-Bridge Graph Network for Adaptive Vision-Text Reasoning in Visual Dialogue
Xiaoze Jiang,Siyi Du,Zengchang Qin,Yajing Sun,Jing Yu
6+阅读 · 2020年8月11日
Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
Shu Liu,Wei Li,Yunfang Wu,Qi Su,Xu Sun
7+阅读 · 2020年4月14日
Heterogeneous Graph Transformer
Ziniu Hu,Yuxiao Dong,Kuansan Wang,Yizhou Sun
14+阅读 · 2020年3月3日
Heterogeneous Deep Graph Infomax
Yuxiang Ren,Bo Liu,Chao Huang,Peng Dai,Liefeng Bo,Jiawei Zhang
9+阅读 · 2019年11月19日
Two Stream 3D Semantic Scene Completion
Martin Garbade,Johann Sawatzky,Juergen Gall
4+阅读 · 2018年7月16日
Abhishek Kumar,Daisuke Kawahara,Sadao Kurohashi
3+阅读 · 2018年5月20日
Zhanxiang Feng,Jianhuang Lai,Xiaohua Xie
7+阅读 · 2018年3月30日
Hongwei Wang,Fuzheng Zhang,Xing Xie,Minyi Guo
18+阅读 · 2018年1月30日
Top