Graph clustering, aiming to partition nodes of a graph into various groups via an unsupervised approach, is an attractive topic in recent years. To improve the representative ability, several graph auto-encoder (GAE) models, which are based on semi-supervised graph convolution networks (GCN), have been developed and they achieve good results compared with traditional clustering methods. However, all existing methods either fail to utilize the orthogonal property of the representations generated by GAE, or separate the clustering and the learning of neural networks. We first prove that the relaxed k-means will obtain an optimal partition in the inner-products used space. Driven by theoretical analysis about relaxed k-means, we design a specific GAE-based model for graph clustering to be consistent with the theory, namely Embedding Graph Auto-Encoder (EGAE). Meanwhile, the learned representations are well explainable such that the representations can be also used for other tasks. To further induce the neural network to produce deep features that are appropriate for the specific clustering model, the relaxed k-means and GAE are learned simultaneously. Therefore, the relaxed k-means can be equivalently regarded as a decoder that attempts to learn representations that can be linearly constructed by some centroid vectors. Accordingly, EGAE consists of one encoder and dual decoders. Extensive experiments are conducted to prove the superiority of EGAE and the corresponding theoretical analyses.


翻译:近些年来,为了提高代表性能力,已经开发了几个基于半监督图形组合网络(GCN)的图形自动编码器(GAE)模型,与传统的组合方法相比,这些模型取得了良好结果。然而,所有现有方法要么没有利用GAE生成的图形的正方形属性,要么将神经网络的集群和学习分开。我们首先证明,放松的K手段将在使用的空间内产产品中实现最佳的分隔。在对放松的K手段进行理论分析的驱动下,我们设计了一个基于图形组合的基于GAE的模型,以便与理论一致,即嵌入图形自动编码器(GEGAE)模型(GEAE)相比,取得了良好的结果。与此同时,所了解的表述非常可以解释的是,这些表述也可以用于其他任务。为了进一步引导神经网络产生适合特定组合模型、放松的K means和GAEE的深度特征。因此,可以同时学习一种以宽松的KAA值为方向的图象,因此,宽松的KAAA值和O值为一种直径的图。因此,可以学习一种对E的模型的图象学的比。

0
下载
关闭预览

相关内容

【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
76+阅读 · 2021年1月30日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Network Embedding 指南
专知
21+阅读 · 2018年8月13日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Arxiv
3+阅读 · 2020年2月5日
A Graph Auto-Encoder for Attributed Network Embedding
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关VIP内容
相关资讯
Top
微信扫码咨询专知VIP会员