Graph neural networks (GNN) have shown promising results for several domains such as materials science, chemistry, and the social sciences. GNN models often contain millions of parameters, and like other neural network (NN) models, are often fed only a fraction of the graphs that make up the training dataset in batches to update model parameters. The effect of batching algorithms on training time and model performance has been thoroughly explored for NNs but not yet for GNNs. We analyze two different batching algorithms for graph based models, namely static and dynamic batching for two datasets, the QM9 dataset of small molecules and the AFLOW materials database. Our experiments show that changing the batching algorithm can provide up to a 2.7x speedup, but the fastest algorithm depends on the data, model, batch size, hardware, and number of training steps run. Experiments show that for a select number of combinations of batch size, dataset, and model, significant differences in model learning metrics are observed between static and dynamic batching algorithms.


翻译:图神经网络(GNN)在材料科学、化学和社会科学等多个领域展现出有前景的结果。GNN模型通常包含数百万个参数,与其他神经网络(NN)模型类似,通常仅以训练数据集中图的一小部分作为批次输入来更新模型参数。批处理算法对训练时间和模型性能的影响已在NN中得到充分探索,但在GNN中尚未深入研究。我们针对基于图的模型分析了两种不同的批处理算法,即静态批处理和动态批处理,并在两个数据集上进行了验证:小分子QM9数据集和AFLOW材料数据库。实验表明,改变批处理算法可提供高达2.7倍的加速效果,但最快的算法取决于数据、模型、批次大小、硬件以及训练步数。实验结果显示,在特定的批次大小、数据集和模型组合下,静态与动态批处理算法在模型学习指标上存在显著差异。

0
下载
关闭预览

相关内容

在数学和计算机科学之中,算法(Algorithm)为一个计算的具体步骤,常用于计算、数据处理和自动推理。精确而言,算法是一个表示为有限长列表的有效方法。算法应包含清晰定义的指令用于计算函数。 来自维基百科: 算法
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
临床自然语言处理中的嵌入综述,SECNLP: A survey of embeddings
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员