Molecular representation learning (MRL) is a key step to build the connection between machine learning and chemical science. In particular, it encodes molecules as numerical vectors preserving the molecular structures and features, on top of which the downstream tasks (e.g., property prediction) can be performed. Recently, MRL has achieved considerable progress, especially in methods based on deep molecular graph learning. In this survey, we systematically review these graph-based molecular representation techniques, especially the methods incorporating chemical domain knowledge. Specifically, we first introduce the features of 2D and 3D molecular graphs. Then we summarize and categorize MRL methods into three groups based on their input. Furthermore, we discuss some typical chemical applications supported by MRL. To facilitate studies in this fast-developing area, we also list the benchmarks and commonly used datasets in the paper. Finally, we share our thoughts on future research directions.


翻译:分子表示学习(MRL)是建立机器学习和化学科学之间联系的关键步骤。特别地,它将分子编码为数字向量,保留分子的结构和特征,之后这些任务(例如性质预测)就可以在此基础上完成。最近,MRL 取得了相当的进展,特别是在基于深度分子图学习的方法中。在这篇综述中,我们系统地回顾了这些基于图的分子表示技术,特别是包含化学领域知识的方法。具体来说,我们首先介绍了二维和三维分子图的特征。然后我们根据输入将 MRL 方法总结并分类为三组。此外,我们还讨论了一些由 MRL 支持的典型化学应用。为了促进这个快速发展领域的研究,我们还在文章中列出了常用的基准和数据集。最后,我们分享了我们对未来研究方向的想法。

1
下载
关闭预览

相关内容

综述分享 | 深度学习在分子生成和分子性质预测中的应用
ICLR 2022|化学反应感知的分子表示学习
专知会员服务
19+阅读 · 2022年2月10日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
21+阅读 · 2022年2月24日
Arxiv
12+阅读 · 2021年7月26日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
13+阅读 · 2019年11月14日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Knowledge Representation Learning: A Quantitative Review
Arxiv
53+阅读 · 2018年12月11日
VIP会员
相关论文
Arxiv
21+阅读 · 2022年2月24日
Arxiv
12+阅读 · 2021年7月26日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
13+阅读 · 2019年11月14日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Knowledge Representation Learning: A Quantitative Review
Arxiv
53+阅读 · 2018年12月11日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员