多年来,消息传递范式一直是图上深度学习的“战马”,使得图神经网络在从粒子物理到蛋白质设计的广泛应用中取得了巨大成功。从理论的观点来看,它建立了与Weisfeiler-Lehman等级的联系,允许分析GNN的表达能力。我们认为,当前图深度学习方案的“节点和边缘中心”思维模式具有很强的局限性,阻碍了该领域未来的进展。作为另一种选择,我们提出了受物理启发的“连续”学习模型,该模型从微分几何、代数拓扑和微分方程等领域开辟了一个新的工具宝库,这些工具迄今在图ML中基本上未被探索。

成为VIP会员查看完整内容
11
0

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
102+阅读 · 2021年6月4日
专知会员服务
24+阅读 · 2021年3月17日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
40+阅读 · 2020年9月28日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
120+阅读 · 2020年6月28日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
26+阅读 · 2020年4月15日
2022最新!3篇GNN领域综述!
图与推荐
4+阅读 · 2月18日
ICLR'21 | GNN联邦学习的新基准
图与推荐
1+阅读 · 2021年11月15日
【GNN】MPNN:消息传递神经网络
深度学习自然语言处理
14+阅读 · 2020年4月11日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2021年2月4日
Directional Graph Networks
Arxiv
24+阅读 · 2020年12月10日
Arxiv
35+阅读 · 2020年12月2日
Arxiv
25+阅读 · 2020年6月19日
Arxiv
11+阅读 · 2020年2月5日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年10月17日
小贴士
相关主题
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
13+阅读 · 2021年2月4日
Directional Graph Networks
Arxiv
24+阅读 · 2020年12月10日
Arxiv
35+阅读 · 2020年12月2日
Arxiv
25+阅读 · 2020年6月19日
Arxiv
11+阅读 · 2020年2月5日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年10月17日
微信扫码咨询专知VIP会员