By leveraging recent progress of stochastic gradient descent methods, several works have shown that graphs could be efficiently laid out through the optimization of a tailored objective function. In the meantime, Deep Learning (DL) techniques achieved great performances in many applications. We demonstrate that it is possible to use DL techniques to learn a graph-to-layout sequence of operations thanks to a graph-related objective function. In this paper, we present a novel graph drawing framework called (DNN)^2: Deep Neural Network for DrawiNg Networks. Our method uses Graph Convolution Networks to learn a model. Learning is achieved by optimizing a graph topology related loss function that evaluates (DNN)^2 generated layouts during training. Once trained, the (DNN)^ model is able to quickly lay any input graph out. We experiment (DNN)^2 and statistically compare it to optimization-based and regular graph layout algorithms. The results show that (DNN)^2 performs well and are encouraging as the Deep Learning approach to Graph Drawing is novel and many leads for future works are identified.


翻译:通过利用最近悬浮梯度下降方法的进展,一些著作表明,通过优化定制目标功能,可以有效地绘制图表。与此同时,深学习(DL)技术在许多应用中取得了巨大的性能。我们证明,借助与图形相关的客观功能,可以使用DL技术学习图表到布局操作序列。我们在本文件中提出了一个叫(DNN)的新的图表绘制框架:DNN)2:DragiNg网络的深神经网络。我们的方法使用图表演变网络学习模型。通过优化图表表层损失函数,评估(DNN)%2在培训期间生成的布局,实现了学习。一旦培训,(DNNN)模型能够迅速绘制任何输入图。我们实验(DNN)%2,并在统计上将其与优化和常规图形布局算法进行比较。结果显示,(DNN)%2运行良好,并且令人鼓舞,因为深学习绘图方法是新颖的,许多线索被确定为未来工程。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
126+阅读 · 2021年6月4日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
51+阅读 · 2020年8月25日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2017年12月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Graphs as Tools to Improve Deep Learning Methods
Arxiv
0+阅读 · 2021年10月8日
Arxiv
0+阅读 · 2021年10月7日
Arxiv
1+阅读 · 2021年10月6日
Arxiv
14+阅读 · 2021年7月20日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Hyperbolic Graph Attention Network
Arxiv
6+阅读 · 2019年12月6日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2017年12月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
相关论文
Top
微信扫码咨询专知VIP会员