Relational graph neural networks (RGNNs) are graph neural networks (GNNs) with dedicated structures for modeling the different types of nodes and/or edges in heterogeneous graphs. While RGNNs have been increasingly adopted in many real-world applications due to their versatility and accuracy, they pose performance and system design challenges due to their inherent computation patterns, gap between the programming interface and kernel APIs, and heavy programming efforts in optimizing kernels caused by their coupling with data layout and heterogeneity. To systematically address these challenges, we propose Pigeon, a novel two-level intermediate representation (IR) and its code generator framework, that (a) represents the key properties of the RGNN models to bridge the gap between the programming interface and kernel APIs, (b) decouples model semantics, data layout, and operators-specific optimization from each other to reduce programming efforts, (c) expresses and leverages optimization opportunities in inter-operator transforms, data layout, and operator-specific schedules. By building on one general matrix multiply (GEMM) template and a node/edge traversal template, Pigeon achieves up to 7.8x speed-up in inference and 5.6x speed-up in training compared with the state-of-the-art public systems in select models, i.e., RGCN, RGAT, HGT, when running heterogeneous graphs provided by Deep Graph Library (DGL) and Open Graph Benchmark (OGB). Pigeon also triggers fewer out-of-memory (OOM) errors. In addition, we propose linear operator fusion and compact materialization to further accelerate the system by up to 2.2x.


翻译:关系图神经网络 (RGNNs) 是具有专用结构的图神经网络 (GNNs),用于建模异构图中不同类型的节点和/或边缘。虽然 RGNNs 由于其多功能性和准确性而越来越被广泛采用于许多实际应用中,但是由于其固有的计算模式、编程接口与内核 API 之间的差距以及由于其与数据布局和异构性的耦合所引起的内核优化大量编程工作,它们仍然面临性能和系统设计挑战。为了系统地解决这些挑战,我们提出了 Pigeon,一种新的两级中间表示 (IR) 及其代码生成器框架,它 (a) 表示 RGNN 模型的关键属性以弥补编程接口和内核 API 之间的差距,(b) 将模型语义、数据布局和运算符特定优化从彼此解耦以减少编程工作,(c) 表达和利用在运算符相互转换、数据布局和运算符特定调度中的优化机会。通过构建一个通用矩阵乘 (GEMM) 模板和一个节点/边缘遍历模板,Pigeon 在运行 Deep Graph Library (DGL) 和 Open Graph Benchmark (OGB) 提供的异构图时,与选择的模型,即 RGCN、RGAT、HGT 相比,在推理和训练方面分别实现了高达 7.8 倍和 5.6 倍的加速。Pigeon 也触发了更少的内存不足 (OOM) 错误。此外,我们提出了线性运算符融合和紧凑物化来进一步加快系统速度,可达到高达 2.2 倍的加速。

0
下载
关闭预览

相关内容

基于图神经网络的空间加速器可移植映射
专知会员服务
5+阅读 · 2022年7月2日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
ICLR'22 |「无图」的图神经网络
图与推荐
1+阅读 · 2022年8月25日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2022年11月21日
Arxiv
15+阅读 · 2022年11月1日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
10+阅读 · 2020年6月12日
VIP会员
相关VIP内容
基于图神经网络的空间加速器可移植映射
专知会员服务
5+阅读 · 2022年7月2日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员