11月末~5篇Graph相关论文简单总结和概括

11月末~5篇Graph相关论文简单总结和概括

​更新时间2019年11月24日

本文总结过去一周Google Alert跟踪的部分Graph相关文献,内容涉及双层模型(node-node, label-label)MLNE用于解决多标签的问题;Graph auto-encoder(GAE) 解决casual structure learning问题;attention对时空动态数据进行解释的模型;N-Gram用在Graph上;多视角下Graph建模多源信息的GrAMME

目录:

  1. MLNE: Multi-Label Network Embedding(TNNLS19
  2. A Graph Autoencoder Approach to Causal Structure Learning (NeurIPS‘19 worshop)
  3. Towards Explainable Representation of Time-Evolving Graphs via Spatial-Temporal Graph Attention Networks(CIKM'19)
  4. N-Gram Graph: Simple Unsupervised Representation for Graphs, with Applications to Molecules (NeurIPS'19)
  5. GrAMME: Semisupervised Learning Using Multilayered Graph Attention Models (TNNLS'19)

01

这篇论文在2019年被TNNLS接收,作者提出了一个新的模型MLNE,用于解决Graph中多标签学习问题,模型是建立在Skip-gram算法之上。该模型主要的Motivation是将标签和结构信息集成在一起以进行嵌入学习,核心思想是建立节点的随机游走,标签的随机游走,以及标签与节点之间的映射关系。


双层模型,文章围绕层内和层间关系展开

作者认为,标签相关性和交互性自然存在于多标签数据中,它们对于捕获节点的隐式特征和表征网络中的节点邻近度至关重要。尽管标签相关性通常存在,但是对标签之间的高阶相关性进行建模,并结合网络拓扑结构和节点内容,是一项艰巨的任务。为了对高阶标签相关性和依赖性进行建模,作者提出了一个两级神经网络框架HO-MLNE,其中可以充分探索和捕获层内label-label和node-node的关系(上图,层内关系,下图层间关系)。

用标签c_i预测节点v(t)

另外,跨层依赖性是通过节点和标签之间的多个标签关系来捕获的。关于多标签节点分类和功能可视化的真实数据集实验,验证了所提出的HO-MLNE模型的有效性。与该领域的现有研究相比,本文的新颖性在于三个方面:1)一项新颖的MLNE研究任务;2)两级网络耦合模型,以捕获高阶标签相关性和低级拓扑结构;和3)以及基于系统框架和优化的解决方案。

论文链接:ieeexplore.ieee.org/sta

02

这篇文章由多伦多大学,华为诺亚方舟实以及北京大学几位学者发布在NeurIPS 2019的workshop上, 研究的主要内容是使用Graph来进行Causal structure learning(因果结构的学习)

对于有向无环图DAG, 之前的工作主要是gradient-based和constraint-based 的方法,这篇论文主要是在gradient-based上的一个工作, 模型框架为graph autoencoder。主要的工作是通过mlp进行了非线性关系处理, 并通过GAE的框架建模和增广拉格朗日进行优化。


采用增广拉格朗日解决优化问题

部分细节待更新

论文链接:arxiv.org/abs/1911.0742

03

这篇论文发表在CIKM'19 (Beijing) 上, 论文主要解决的是temporal graph上的两个任务:link prediction 和node classification。除此之外,论文通过attention 的方式进行解释。

论文提出的模型主要三个角度开展:学习spatial-temporal context distribution;采用最大化likehood进行优化;通过attention 进行解释。其中学习spatial-temporal distribution是借鉴了NeurIPS'18的文章,即不通过随机游走的方式进行嵌入而是学习共现矩阵D,论文将此进行了改进并用在了dynamic graph上

原始的版本
改进的版本,将上面的wk进行了可学习的B(t)



论文链接:dl.acm.org/citation.cfm?

04

这篇论文发表在NeurIPS'19上, 论文提出了N-gram Graph, 一种简单的无监督分子表示方法,其中分子可以看做是graph或者句子,顶点看做是原子或者单词,连边看作是原子之间的bond。该方法包含两个步骤:(1)节点表示:用周围的节点进行表示CBOW模型;(2)Graph表示:用节点表示n-gram, 用n-gram进一步表示Graph,其中的n-gram是n个步长的游走用顶点的乘积表示。

该方法在10个基准数据集的60个任务都表现良好,文中附有该方法的理论分析。

论文链接:arxiv.org/abs/1806.0920

05


该论文2018年10月放到Arxiv上,目前已经被TNNLS接收。

我们都知道,目前的数据源非常地丰富,存在着多种模态,虽然Graph可以有效地建模复杂的关系,但是在许多情况下,单个Graph不能很好地表示不同模态之间的关联性,因此该论文考虑多层Graph来建模多信息源的数据。

虽然多模态建模会出现更丰富、更好的语义表示形式,但从单图案例扩展并不是很简单。在本文中,作者考虑了多层图的半监督学习问题。虽然是深层的网络嵌入,例如DeepWalk已广泛用于社区发现,作者认为使用图神经网络的具有随机节点属性的特征学习会更有效。为此,作者建议使用注意力模型进行有效的特征学习,并提出两种新颖的架构GrAMME-SG和GrAMME-Fusion,它们利用层间依存关系来构建多层图嵌入。通过对几个基准数据集进行的实证研究,评估了所提出的方法,并证明了与最新的网络嵌入策略相比,性能的显着提高。结果还表明,即使在没有显式节点属性的情况下,使用简单的随机特征也是一种有效的选择。

论文链接:arxiv.org/abs/1810.0140

文章细节待更新

我也在学习中,如果有什么问题和意见可以直接跟我联系,备注:知乎

编辑于 2019-11-24 21:11