神经网络(尤其是在生成式人工智能中的)规模日益庞大,在可持续性、时间与成本等方面带来了重大挑战,限制了其研究与实际应用。低精度数据类型与计算,尤其是在硬件原生支持的情况下,为此提供了一种高效的解决方案,不仅拓宽了研究的可及性,也使得在边缘设备上的部署成为可能。然而,为了实现这一目标,通常使用高精度数据类型训练的神经网络需要针对低精度推理进行适配。 在本教程中,我们将回顾不同类型的低精度数据格式,并通过简明的实践示例展示其应用中常见的挑战,例如离群值处理等。为了保持神经网络在原始任务中的性能,需要采用复杂的量化方法,以补偿低精度数据类型所引入的量化误差。我们将介绍并对比当前最常见且高效的神经网络量化方法,并为实践者提供相应的应用指导。

讲者:https://power-efficient-nn.github.io/

成为VIP会员查看完整内容
6

相关内容

【NUS博士论文】视频语义理解的因果模型
专知会员服务
9+阅读 · 3月19日
【NTU博士论文】数据高效的深度多模态学习
专知会员服务
21+阅读 · 1月31日
【MIT博士论文】高效深度学习计算的模型加速
专知会员服务
31+阅读 · 2024年8月23日
【SIGIR2024教程】基于大语言模型的信息检索代理
专知会员服务
39+阅读 · 2024年7月17日
【牛津大学博士论文】鲁棒神经网络:评估与构建
专知会员服务
35+阅读 · 2022年10月23日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
专知会员服务
138+阅读 · 2021年11月21日
【KDD2020教程】多模态网络表示学习
专知会员服务
131+阅读 · 2020年8月26日
数据受限条件下的多模态处理技术综述
专知
20+阅读 · 2022年7月16日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
169+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NUS博士论文】视频语义理解的因果模型
专知会员服务
9+阅读 · 3月19日
【NTU博士论文】数据高效的深度多模态学习
专知会员服务
21+阅读 · 1月31日
【MIT博士论文】高效深度学习计算的模型加速
专知会员服务
31+阅读 · 2024年8月23日
【SIGIR2024教程】基于大语言模型的信息检索代理
专知会员服务
39+阅读 · 2024年7月17日
【牛津大学博士论文】鲁棒神经网络:评估与构建
专知会员服务
35+阅读 · 2022年10月23日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
专知会员服务
138+阅读 · 2021年11月21日
【KDD2020教程】多模态网络表示学习
专知会员服务
131+阅读 · 2020年8月26日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员