Deep neural networks have usually to be compressed and accelerated for their usage in low-power, e.g. mobile, devices. Recently, massively-parallel hardware accelerators were developed that offer high throughput and low latency at low power by utilizing in-memory computation. However, to exploit these benefits the computational graph of a neural network has to fit into the in-computation memory of these hardware systems that is usually rather limited in size. In this study, we introduce a class of network models that have a tiny memory footprint in terms of their computational graphs. To this end, the graph is designed to contain loops by iteratively executing a single network building block. Furthermore, the trade-off between accuracy and latency of these so-called iterative neural networks is improved by adding multiple intermediate outputs both during training and inference. We show state-of-the-art results for semantic segmentation on the CamVid and Cityscapes datasets that are especially demanding in terms of computational resources. In ablation studies, the improvement of network training by intermediate network outputs as well as the trade-off between weight sharing over iterations and the network size are investigated.


翻译:深神经网络通常需要压缩和加速,以便用于低功率,例如移动装置。最近,开发了大规模平行硬件加速器,通过使用模拟计算,以低功率提供高输送量和低悬浮;然而,为了利用这些好处,神经网络的计算图必须适应这些硬件系统的计算记忆,而这些硬件系统通常规模相当有限。在本研究中,我们引入了一组网络模型,这些模型的计算图的记忆足迹微乎其微。为此,该图的设计目的是通过迭接执行一个单一网络建筑块来控制循环。此外,这些所谓的迭代神经网络的精确度和延缓度之间的权衡通过在培训和推断期间增加多个中间输出而得到改善。我们展示了CamVid和城市景景数据集的解析分解最新结果,这些结果在计算资源方面特别需要。在计算资源方面,通过相互连接研究,通过中间网络产出改进网络的网络培训,作为贸易量的共享和比例。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
178+阅读 · 2020年4月26日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Legion 一款网络渗透工具
黑白之道
6+阅读 · 2019年6月21日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年3月15日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
Top
微信扫码咨询专知VIP会员