NeurIPS 2021 | 简单且通用的多视图对比图聚类方法

2022 年 2 月 16 日 PaperWeekly


随着信息时代的蓬勃发展,产生了大量多视图属性图图数据。随即,也出现许多的多视图聚类方法,但这些方法只利用数据中的多属性信息或者多拓扑图信息,没有完整地利用属性图数据的所有信息。

本期 AI Drive,电子科技大学计算机科学与工程学院硕士生潘尔林,分享其团队在这个问题上取得的新进展,也是他们发表于 NeurIPS 2021 的最新工作:多视图对比图聚类。

在这个工作中,他们提出了一个简单而通用的、多视图的属性图数据聚类方法:多视图对比图聚类。


论文标题:

Multi-view Contrastive Graph Clustering

论文链接:

https://arxiv.org/abs/2110.11842

代码链接:

https://github.com/panern/mcgc




本期提纲如下




任务


首先介绍研究的目标和要解决的任务:处理属性图数据、多视图属性图的聚类问题。

图数据在现实中大量存在,很多场景下的数据结构都可以表示成为一个图数据(或者网络)。例如,paper 或作者通过引用关系,可以构建出引用网络;用户信息和他们在社交媒体上的关系构成社交网络;知识图谱等也是图数据等。




属性图是图数据的一种(Attributed Graph)。属性图中既包含关系图,同时每个节点拥有自己的属性特征。以社交网络作为属性图的一个例子。每个节点就是一个用户,包含用户的个人档案,也就是自身的社交信息(包括个人兴趣、注册信息、性别年龄等)。不同用户之间存在着 “边”,表示用户之间的社交关系(如转发,关注等)。


以具体的数据来看,节点属性是维度为 N×D 的属性特征矩阵。其中,N 表示节点数量,D 表示属性特征的数量。如表中所示,有 4 个用户,那就是 4 个节点,每个用户各有 4 种属性。关系图一般用邻接矩阵(adjacency matrix)(A)表示。其中如果,用户,也就是节点 i 与 j 之间存在关系,例如社交网络的转发、关注、分享关系等,矩阵中的对应位置值为 1,否则为 0。


更复杂的情况,社交网络中,每个人角色为不同,个人信息也不同。对应的属性图数据中,同一个节点,可能对应多个属性向量。例如图中的节点 13,拥有多个属性特征。而对于同一批数据点,数据点之间的关系也存在多种。不同的关系意味着会有不同的拓扑结构。如图,相同的数据点,至少有两种拓扑结构,对应两个邻接矩阵。简而言之,有多个属性或多个关系图的,就是多视图属性图数据。



图聚类(此处的图聚类指的是将图上的节点聚类,并不是对整个图分类)将图上的节点分成不同集群,每个集群内的点要尽量相似,不同集群间要尽量不同。对于多视图属性图聚类,也是一种图聚类,但其考虑的信息更多,要同时基于给出的多种类型的节点特征和多个关系图的信息,完成图节点聚类任务。



但要要完成多视图属性图聚类任务,就面临两个问题:一是如何聚合多个视图间的一致性信息?因为虽然是不同视图,但都是表示同种事物,其在多个视图中是有共享信息的;二是如何同时处理属性信息和关系图?此外还有追求更高的聚类准确度等要求。



已有的相关工作



相关研究主要介绍多视图聚类和对比学习思想。

多视图聚类,试图挖掘不同视图间的一致性信息。对于单视图,也可以处理多视图数据。例如对每个多视图单独处理,最后取结果最好的视图。在评测性能的时候,取指标的平均值或最优值。但单视图方法没有使用完整地数据,意味着可能会丢失一些重要信息。

多视图数据可以更全面地描述数据,而且多视图的聚类方法的话有很多,不限于提到的这些方法。但大多数方法要么只利用属性信息,要么只用关系图,并不能直接应用在属性图上。例如,只利用邻接矩阵或者学习特征表示方法进行图聚类,不能直接应用在属性图上,因为属性图同时具备以上两种信息。


对于属性图的聚类问题,也有一些好方法,例如基于 GCN 设计的 (MAGCNCheng et al., 2020)和 O2MA(Fan et al., 2020)。


其中,MAGCN 利用图神经网络,重构多视图的特征和共同关系图。简而言之这种方法是利用一张共同的图,通过 GCN 学习得到不同视图的嵌入,最后再重构每个视图的特征和关系图。但其这意味着只能处理一个关系图的属性图数据。

O2MA 通过一些方法选取多个视图中最丰富的视图,再用选取的视图,重构其他视图的特征。被选取的视图,是利用关系图选取的。但其信息最丰富,不代表这个视图能包含所有的重要信息,这样做也可能丢失个别重要信息。其局限性是只能处理有一种属性、多个关系图的属性图数据,不能处理多种属性的图数据。


我们的方法与以上两张方法有所不同,且比较通用。其既能处理多个属性的视图数据,也能处理拥有多个关系的视图数据。

在研究过程中,也利用了对比学习思想。关于对比学习思想,个人认为一是主要区分是与不是,而不是所有像素级的信息。毕竟,分辨比还原要简单,只需要更小的计算代价。举个钞票的例子,分辨钞票要比重新画出它要简单得多。二是要学习更加重要、有效的信息,不用学习无关紧要的信息。


对比学习试图最大化所有正样本之间的相似度,拉近正样本,推远负例。正样本一般是同一实例通过数据增强得到的,不同实例处理得到的为负样本。例如,原图和经过数据增强得到另外的图片,包括改变尺寸、模糊图片、颜色扭曲等处理,得到其他类似图片,这就构成一组正例。来自于不同原始的图片构成的其他图片就是负例。比如下图老虎就是负例。

通过对比损失训练模型,拉近正例之间的距离,将负例推远。


聚类其实是把相似的实例分在同个集群里,而对比学习是拉近正样本(高度相似),推远负例。直观来看,两者有相似之处。有些方法如 Mvgrl(Hassani and Khasahmadi, 2020)和 Completer(Lin et al., 2021),就考虑使用对比学习来提高聚类的性能。当然这些方法不是纯聚类方法,只是一种特征学习方法。

Mvgrl 将邻接矩阵转化得到的扩散矩阵视为正例。在学习得到的不同图表示间施加对比学习来训练模型。

Completer 寻找正例的方法不一样。它将不同视图之上的同一个样例当作正样本。通过拉进不同视图间同一样例的表示来训练得到更好的模型。


但是回到属性图聚类上,对于属性图中的点,又该怎么取正例呢?



新的方法



接下来介绍新方法,分为是三个模块:

  • Graph Filtering(图例波模块)
  • Graph Learning(图学习模块)
  • Graph Contrastive Regularizer(图对比模块)

给定一个属性图数据。V 表示节点的集合,有 N 个节点。E 表示边的种类,X 表示属性特征。



我们的目标函数如下:


我们使用的是滤波后的特征,而不是原始特征。

以下介绍三个模块作用:

  • 图滤波模块就用以处理原始数据;
  • 图学习模块从多视图中学到一致图;
  • 图对比损失用于提高图的质量。

为什么需要图滤波?

首先因为图上的信号,在相邻点之间是平滑的,意味着在相邻点应该趋于近似值。其次数据经过滤波之后,得到的特征表示有利于聚类或分类。而且图滤波后得到特征,很大程度保留了图的结构信息,同时消除了噪音干扰。

一般来说,处理后的数据越平滑,滤波效果越好。输入数据 X,以下式子可以表示滤波时的平滑度。




其中 L 是拉普拉斯矩阵。得到的值越小,表示平滑度越高。可以看出,当特征值 λ 越小时,平滑度越高。则考虑使用低通滤波器,获得低通滤波后的平滑特征。平滑的特征可以通过解决这样一个优化问题得到:


可以求出函数的封闭解。首先保留封闭解泰勒展开式的第一项,并且考虑更高阶的情况,最后得到一个 m 阶的滤波表达式。

其中的 I 是单位矩阵, X 是原始数据,m 是滤波阶数,S 是可以滤波参数,H 是滤波之后的得到的平滑信号。

本文中:m 一般保留 2(多数数据集 M=2 的效果比较好,不同数据集有差异),s 一般小于 1。

通过滤波前后的 tsne 可视化可以看出,经过 DBLP 滤波之后,特征可分性要增强很多。


图学习模块主要是从滤波之后的平滑数据中学到一个一致图,同时综合多个视图信息。可以通过自表达性质来得到一致图。自表达性质指的是,每个数据点都可以由其他数据点通过组合表达出。

例如在单视图上,目标函数为:


前一项是重构项,S 是得到的组合图。第二项是正则项,一般有多种形式,比较常见的有 L1、L2 范数等。

对于多视图,因为每个视图的作用不同,应该考虑其权重。此处引入权重参数 λ, 用来自适应权重调节不同视图间的权重,最后要学习的 S 是一致的。最后一项是为了自适应求出每个视图的权重。



图聚类是指将图上的节点分成不同集群。其中要求同个集群内的点尽量相似,不同集群内的点尽量不同。对比学习,就试图拉近正样本,推远负例。为此我们使用一个图对比正则项来提高图的聚类亲和性,使图更利于聚类。

对于图像内每个节点和它的 k 近邻视为一个正例对,如图中,灰色节点和他的红色近邻视为正例。最小化图对比正则项试图拉近节点间的距离。通过减少类内差异性,使红色节点更趋向于灰色节点。对于整体的数据而言,更利于后面的聚类。




实验结果




关于实验介绍相关指标对比和消融实验。

使用数据集的情况有两种,一是具有多个图的属性图数据,二是有多个属性特征的属性图数据。但理论上来说,通过图滤波和图学习模块,本方法可以处理多图和多属性的属性图数据。Baselines,包括单视图和多视图的方法都,属性图聚类的方法和基于对比学习思想的方法。


得出的结果,相比于单、多视图的方法,此方法确实有性能的提升。


与另两个方法比起来,提升得更多。但提升太多不是说明其他方法不好,因为其他两个方法并不只是单纯的聚类方法,而是表示学习学习方法。去除滤波以后,发现其性能下降了。但要注意一点,各数据对于滤波的敏感性是不同的。
使用完整的数据的话,丢失的信息比较少;但如果只使用单视图或只用信息相对丰富的视图,就可能丢失重要信息。数据上来看,使用完整视图得到的效果是最好的。




总结


优势方面:

1.本文介绍的方法可以快速有效的从原数据获得一种有利于聚类的特征表示,并且保留数据的结构特征(通过图滤波实现)。

2.能同时处理带有多个属性矩阵或者多个关系图的属性图数据(通过图滤波和图学习模块实现)。

3.对于多图数据和多属性数据都取得不错的聚类性能(通过图滤波模块、图学习模块、图对比模块实现)。



局限性方面:

1. Large memory:可拓展性不好,占用过大的内存。一是学到的一致图,是 N×N 的矩阵。如果在大型数据中, N 非常大,这时就会占用大量内存。二是滤波,滤波也会进行 N×N 的矩阵计算,也会占用大量内存。

2. Inefficient optimization:因为采用的是逐个更新(梯度更新),S 是 N 乘 N 的。即使 S 是对称的,也要处理一半的数据量,效率较低。得到的结果可能只是局部最优,比如 S=I,因此初始化矩阵的选取比较重要。


因此,未来改进方向:

1. 首先要减少内存消耗,提高可扩展性。如果 S 还是 N×N 矩阵,对大数据而言不友好。所以考虑采用其他方法。例如选出 m 个代表性的点(锚点),其他的 N 个数据用跟这 m 个点构建的一个关系图表出。例如将 H 替换成 B(B 可以通过 Kmeans 取质心得到,也可以随机采样,或者根据其他方法来选出 m 个点)。但目前用原方法尝试过,结果发现除 DBLP 外,其他性能都下降了很多。

2. 使用其他形式的图对比正则项去拉进相似的样本点。也就是设计一种更加容易优化的正则项。同时在拉近距离时,还可以考虑拉进更高阶的近邻。而且貌似使用更高阶信息或更高阶相似度,配合简单的正则化项,在亚马逊数据集上得到的结果,都比原来使用图对比正则化项还要优越(提升超过将近两个百分点)。

概括来说:

1. 我们利用对比学习思想拉进近邻点,用来提高图的聚类亲和力;

2. 我们提出一种通用于多图或者多属性的属性图数据的聚类方法,方法包括了图滤波,图学习和图对比三个模块;

3. 我们的方法在几个基准数据集上取得了很好的聚类性能。

未来可以进一步尝试使用易于优化的其他正则化项来拉进近邻的距离,或者挖掘高阶的相似近邻等。


特别鸣谢

感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。


更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·

登录查看更多
3

相关内容

【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
【NeurIPS 2021】多视角对比图聚类
专知会员服务
34+阅读 · 2021年10月31日
专知会员服务
29+阅读 · 2021年5月6日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
43+阅读 · 2020年6月18日
多视图多行为对比学习推荐系统
机器学习与推荐算法
4+阅读 · 2022年3月23日
【NeurIPS'21】从典型相关分析到自监督图表示学习
CIKM'21 | 动态图神经网络推荐算法
图与推荐
0+阅读 · 2021年11月16日
本科生的NeurIPS'21, 多视角对比图聚类
图与推荐
0+阅读 · 2021年11月1日
论文浅尝 | 一种嵌入效率极高的 node embedding 方式
开放知识图谱
13+阅读 · 2019年5月12日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
38+阅读 · 2020年3月10日
Arxiv
15+阅读 · 2020年2月5日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关VIP内容
【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
【NeurIPS 2021】多视角对比图聚类
专知会员服务
34+阅读 · 2021年10月31日
专知会员服务
29+阅读 · 2021年5月6日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
43+阅读 · 2020年6月18日
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员