今天的人工智能太大了。深度神经网络需要非凡的计算能力,因此需要强大的训练和推理能力。这严重限制了人工智能在边缘设备上的实际部署。我们的目标是提高深度学习的效率。首先,我将介绍MCUNet,它为物联网设备带来了深度学习。MCUNet是一个联合设计高效神经架构(TinyNAS)和轻量级推理引擎(TinyEngine)的框架,能够在只有1MB Flash的物联网设备上实现ImageNet规模的推理。接下来我将讨论TinyTL,它支持设备上的迁移学习,将内存占用减少7-13倍。最后,我将描述可微分增强技术,它能够实现数据效率高的GAN训练,仅使用100张图像生成逼真的图像,而过去需要数万张图像。我们希望这样的TinyML技术可以让人工智能更环保、更快、更可持续。

成为VIP会员查看完整内容
56

相关内容

专知会员服务
68+阅读 · 2021年7月3日
边缘机器学习,21页ppt
专知会员服务
78+阅读 · 2021年6月21日
少标签数据学习,54页ppt
专知会员服务
194+阅读 · 2020年5月22日
MIT公开课-Vivienne Sze教授《深度学习硬件加速器》,86页ppt
资源 | 谷歌开源AdaNet:基于TensorFlow的AutoML框架
极市平台
4+阅读 · 2018年11月1日
Arxiv
11+阅读 · 2021年3月25日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
27+阅读 · 2020年12月24日
Arxiv
5+阅读 · 2020年8月28日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关论文
Arxiv
11+阅读 · 2021年3月25日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
27+阅读 · 2020年12月24日
Arxiv
5+阅读 · 2020年8月28日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
A Multi-Objective Deep Reinforcement Learning Framework
微信扫码咨询专知VIP会员