We study the expressive power of graph neural networks (GNNs) with mean as the aggregation function, with the following results. In the non-uniform setting, such GNNs have exactly the same expressive power as ratio modal logic, which has modal operators expressing that at least a certain ratio of the successors of a vertex satisfies a specified property. In the uniform setting, the expressive power relative to MSO is exactly that of modal logic, and thus identical to the (absolute) expressive power of GNNs with max aggregation. The proof, however, depends on constructions that are not satisfactory from a practical perspective. This leads us to making the natural assumptions that combination functions are continuous and classification functions are thresholds. The resulting class of GNNs with mean aggregation turns out to be much less expressive: relative to MSO and in the uniform setting, it has the same expressive power as alternation-free modal logic. This is in contrast to the expressive power of GNNs with max and sum aggregation, which is not affected by these assumptions.


翻译:本文研究了采用均值作为聚合函数的图神经网络(GNNs)的表达能力,主要结果如下。在非均匀设定下,此类GNN的表达能力与比率模态逻辑完全相同,该逻辑的模态算子能够表达“顶点后继中至少满足某一特定性质的比例达到给定阈值”。在均匀设定下,相对于MSO逻辑的表达能力恰好等同于模态逻辑,因而与采用最大值聚合的GNN的(绝对)表达能力一致。然而,相关证明依赖于从实用角度并不理想的构造方法。这促使我们引入组合函数连续且分类函数为阈值函数的自然假设。在此条件下,采用均值聚合的GNN类表达能力显著降低:在均匀设定下相对于MSO逻辑,其表达能力等价于无交替模态逻辑。这一结果与采用最大值聚合和求和聚合的GNN形成鲜明对比——后两者的表达能力不受此类假设的影响。

0
下载
关闭预览

相关内容

【ICLR2022】GNN-LM基于全局信息的图神经网络语义理解模型
专知会员服务
20+阅读 · 2020年12月9日
专知会员服务
24+阅读 · 2020年9月15日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员