【DGL直播回放】Building Efficient Systems for Deep Learning on Graphs

2020 年 11 月 23 日 图与推荐

Hi~点上方“图与推荐”关注我们哟



直播信息

11月22日19:00,我们邀请到了Amazon Shanghai AI Lab的 王敏捷 来为大家直播分享图深度学习


很多人没来得及听或者没听明白,下面给出直播分享回放。建议收藏。




嘉宾介绍

Minjie Wang is an applied scientist in Amazon Shanghai AI Lab. He obtained his Ph.D. degree from New York University.

His research focus is the interdisciplinary area of machine learning and system including building deep learning systems with high usability and performance, applying machine learning in system optimization. He is also an open-source enthusiast; founder and major contributor of several well-known open source projects such as MXNet, MinPy and DGL.



分享概要

Building Efficient Systems for Deep Learning on Graphs


Advancing research in the emerging field of deep graph learning requires new tools to support tensor computation over graphs. In this talk, I will present the design principles and implementation of Deep Graph Library (DGL). DGL distills the computational patterns of GNNs into a few generalized sparse tensor operations suitable for extensive parallelization. By advocating graph as the central programming abstraction, DGL can optimize them transparently. By cautiously adopting a framework-neutral design, DGL allows users to easily port and leverage the existing components across multiple deep learning frameworks. The evaluation shows that DGL has little overhead for small scales and significantly outperforms other popular GNN-oriented frameworks in both speed and memory efficiency when workloads scale up. DGL has been open-sourced and recognized widely by the community. I will then introduce two follow-up works based on DGL: 1) FeatGraph – a flexible and efficient kernel backend for graph neural network and 2) DGL-KE – a distributed system for training knowledge graph embedding at scale.



直播回放



分享PPT


扫码加入QQ讨论群,获取完整版PPT

与志同道合的小伙伴们一起学习,共同进步!



您的“点赞/在看/分享”是我们坚持的最大动力!

创作不易,求鼓励 (ฅ>ω<*ฅ)

图与推荐

扫码关注我们/设为星标

图神经网络/推荐算法/图表示学习

登录查看更多
1

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
52+阅读 · 2020年11月3日
【KDD2020】图神经网络:基础与应用,322页ppt
专知会员服务
75+阅读 · 2020年8月30日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
VALSE Webinar 特别专题之产学研共舞VALSE
VALSE
7+阅读 · 2019年9月19日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
AI/ML/DNN硬件加速设计怎么入门?
StarryHeavensAbove
10+阅读 · 2018年12月4日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
0+阅读 · 2021年2月3日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
35+阅读 · 2020年1月2日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关资讯
VALSE Webinar 特别专题之产学研共舞VALSE
VALSE
7+阅读 · 2019年9月19日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
AI/ML/DNN硬件加速设计怎么入门?
StarryHeavensAbove
10+阅读 · 2018年12月4日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
相关论文
Arxiv
0+阅读 · 2021年2月3日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
35+阅读 · 2020年1月2日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员