The recent popularity of deep neural networks (DNNs) has generated a lot of research interest in performing DNN-related computation efficiently. However, the primary focus is usually very narrow and limited to (i) inference -- i.e. how to efficiently execute already trained models and (ii) image classification networks as the primary benchmark for evaluation. Our primary goal in this work is to break this myopic view by (i) proposing a new benchmark for DNN training, called TBD (TBD is short for Training Benchmark for DNNs), that uses a representative set of DNN models that cover a wide range of machine learning applications: image classification, machine translation, speech recognition, object detection, adversarial networks, reinforcement learning, and (ii) by performing an extensive performance analysis of training these different applications on three major deep learning frameworks (TensorFlow, MXNet, CNTK) across different hardware configurations (single-GPU, multi-GPU, and multi-machine). TBD currently covers six major application domains and eight different state-of-the-art models. We present a new toolchain for performance analysis for these models that combines the targeted usage of existing performance analysis tools, careful selection of new and existing metrics and methodologies to analyze the results, and utilization of domain specific characteristics of DNN training. We also build a new set of tools for memory profiling in all three major frameworks; much needed tools that can finally shed some light on precisely how much memory is consumed by different data structures (weights, activations, gradients, workspace) in DNN training. By using our tools and methodologies, we make several important observations and recommendations on where the future research and optimization of DNN training should be focused.


翻译:最近深心神经网络(DNNs)的广度引起了许多对高效进行DNN相关计算的研究兴趣。然而,主要重点通常非常狭窄,而且仅限于(一) 推论 -- -- 即如何高效率地执行已经受过培训的模型和(二) 图像分类网络,作为评价的主要基准。我们这项工作的首要目标是通过以下方式打破这种近视观点:(一) 提出DN培训的新基准,称为TBD(TBD是DNS培训基准的简称),使用一套具有代表性的DNNNN模式模型,这些模型涉及广泛的机器学习应用:图像分类、机器翻译、语音识别、目标探测、对抗网络、强化学习等。然而,主要重点是:(二) 如何高效执行已经培训的模型,作为评价的主要基准(TensorFlow、MXNet、CNTNTKKK) 。 这项工作的首要目标是:(一) 提出DNNNND培训的新基准(TBD),目前包括六大应用领域和八种不同的最新观察模式,包括:图像分类分类、机器培训中的许多应用领域和八种新的应用领域。 我们为分析业绩分析业绩分析做了新的工具的新的工具,为这些工具,为这些工具的研后,我们为这些工具的研读分析提出了新的工具,我们为这些模型和指标分析提供了新的工具,我们为这些工具的系统、进行新的工具的研读、进行新的工具的研读分析,还进行了新的工具,我们进行新的工具的研后,并使用了新的工具的研读、进行新的工具的研的研后、新工具,在分析,为这些模型和指标分析,还进行了新的工具的研的研的研的研后工具的研的研的研的研的研的研的研后工具的研的研的研的研的研的研的研的研的研的研的研的研的研的研的研,在分析,在分析,在分析,在分析,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析中,在分析这些模型中,在分析中,

3
下载
关闭预览

相关内容

TBD:IEEE Transactions on Big Data。 Explanation:IEEE大数据事务(处理)。 Publisher:IEEE。 SIT: https://dblp.uni-trier.de/db/journals/tbd/
专知会员服务
59+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Arxiv
43+阅读 · 2019年12月20日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
20+阅读 · 2018年1月17日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Top
微信扫码咨询专知VIP会员