For large-scale graph analytics on the GPU, the irregularity of data access and control flow, and the complexity of programming GPUs, have presented two significant challenges to developing a programmable high-performance graph library. "Gunrock", our graph-processing system designed specifically for the GPU, uses a high-level, bulk-synchronous, data-centric abstraction focused on operations on a vertex or edge frontier. Gunrock achieves a balance between performance and expressiveness by coupling high performance GPU computing primitives and optimization strategies with a high-level programming model that allows programmers to quickly develop new graph primitives with small code size and minimal GPU programming knowledge. We characterize the performance of various optimization strategies and evaluate Gunrock's overall performance on different GPU architectures on a wide range of graph primitives that span from traversal-based algorithms and ranking algorithms, to triangle counting and bipartite-graph-based algorithms. The results show that on a single GPU, Gunrock has on average at least an order of magnitude speedup over Boost and PowerGraph, comparable performance to the fastest GPU hardwired primitives and CPU shared-memory graph libraries such as Ligra and Galois, and better performance than any other GPU high-level graph library.


翻译:对于GPU的大型图形分析器而言,数据访问和控制流程的不正常性,以及GPU程序的复杂性,对开发一个可编程的高性能图表图书馆提出了两项重大挑战。 “Gunrock”,我们专门为GPU设计的图形处理系统“Gunrock”,我们专门为GPU设计的图形处理系统“Gunrock”,使用一个高水平、大相同步、以数据为中心的抽象模型,侧重于在顶端或边缘边界上的操作。Gunrock通过将高性能GPU计算原始和优化战略与高水平编程序模型,使程序员能够迅速开发出新的图形原始,且代码小和微弱的GPUPU程序知识很少。我们描述各种优化战略的绩效,并评估Gunrock在不同GPU架构上的总体绩效,其范围很广,其范围很广,包括基于轨迹的算法和等级算法。结果显示,在单一的GPU、Grock上,其平均速度至少是比高级和电压级高水平的GPUPI和最高级图形图书馆更好的速度。

1
下载
关闭预览

相关内容

【陈天奇】TVM:端到端自动深度学习编译器,244页ppt
专知会员服务
85+阅读 · 2020年5月11日
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
20+阅读 · 2019年12月31日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
已删除
AI掘金志
7+阅读 · 2019年7月8日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
91+阅读 · 2020年2月28日
Arxiv
6+阅读 · 2020年2月15日
Arxiv
34+阅读 · 2019年11月7日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
3+阅读 · 2018年3月13日
Arxiv
6+阅读 · 2018年2月24日
VIP会员
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关论文
Arxiv
91+阅读 · 2020年2月28日
Arxiv
6+阅读 · 2020年2月15日
Arxiv
34+阅读 · 2019年11月7日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
3+阅读 · 2018年3月13日
Arxiv
6+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员