Constructing appropriate representations of molecules lies at the core of numerous tasks such as material science, chemistry and drug designs. Recent researches abstract molecules as attributed graphs and employ graph neural networks (GNN) for molecular representation learning, which have made remarkable achievements in molecular graph modeling. Albeit powerful, current models either are based on local aggregation operations and thus miss higher-order graph properties or focus on only node information without fully using the edge information. For this sake, we propose a Communicative Message Passing Transformer (CoMPT) neural network to improve the molecular graph representation by reinforcing message interactions between nodes and edges based on the Transformer architecture. Unlike the previous transformer-style GNNs that treat molecules as fully connected graphs, we introduce a message diffusion mechanism to leverage the graph connectivity inductive bias and reduce the message enrichment explosion. Extensive experiments demonstrated that the proposed model obtained superior performances (around 4$\%$ on average) against state-of-the-art baselines on seven chemical property datasets (graph-level tasks) and two chemical shift datasets (node-level tasks). Further visualization studies also indicated a better representation capacity achieved by our model.


翻译:构建分子的适当表达形式是材料科学、化学和药物设计等众多任务的核心。最近的研究将抽象分子作为可归属图解,并利用图形神经网络进行分子代表性学习,在分子图建模方面已经取得了显著的成就。尽管目前模型有强大的依据,但目前模型要么以本地聚合操作为基础,从而在不充分利用边缘信息的情况下,忽略了高阶图形属性,要么只侧重于节点信息。为此,我们提议建立一个通信信息传递变异器神经网络,通过强化基于变异器结构的节点和边缘之间的信息互动来改进分子图表达方式。与以前将分子作为完全连接图谱处理的变异器式GNNS不同,我们引入信息传播机制,以利用图形在感应偏差上的连接,并减少电文浓缩爆炸。广泛的实验表明,拟议的模型取得了优异性性(平均约4美元),而不是7个化学财产数据集(地平层任务)和2个化学变异型模型数据基(进一步显示我们的能力)。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
124+阅读 · 2021年6月4日
【图与几何深度学习】Graph and geometric deep learning,49页ppt
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
因果图,Causal Graphs,52页ppt
专知会员服务
239+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
15+阅读 · 2020年2月5日
A Graph Auto-Encoder for Attributed Network Embedding
Arxiv
3+阅读 · 2018年4月10日
Arxiv
3+阅读 · 2017年5月14日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员