直播 | 本周三!港科大在读博士侯璐分享权重量化

2018 年 3 月 26 日 AI科技评论 连接学术产业的

分享背景


神经网络功能强大,但是其巨大的存储和计算代价也使得它的使用特性,特别是在一些计算能力相对较弱的移动设备上受到了很大的限制。为了解决这个问题, 最近有许多针对于神经网络压缩和加速的工作被提出, 例如神经网络剪枝, 权重矩阵低秩分解,权重量化等。这次分享主要是针对于权重量化这一类方法。


分享题目

基于损失函数的神经网络量化方法

Loss-aware Weight Quantization of Deep Networks


分享提纲


1. 概述近期神经网络压缩和加速的工作, 例如神经网络剪枝, 权重矩阵低秩分解,权重量化等。

2. 回顾近两年来的权重量化方法,并分析这些方法的优缺点。

3. 介绍基于减小最终目标函数的量化方法, 并分析这种方法和其他量化方法的关系和优势。

分享嘉宾



侯璐,香港科技大学在读博士,主要研究方向为机器学习。


分享时间


北京时间 3 月 28 日(周三)晚上 8:00


参与方式


扫描海报二维码关注微信公众号,点击 AI 进阶——公开课报名

对了,我们招人了,了解一下?

限时拼团---NLP工程师入门实践班

三大模块,五大应用,知识点全覆盖;海外博士讲师,丰富项目分享经验;

理论+实践,带你实战典型行业应用;专业答疑社群,结交志同道合伙伴。

扫码立即参团~

┏(^0^)┛欢迎分享,明天见!

登录查看更多
1

相关内容

【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【ICML2020】对比多视角表示学习
专知会员服务
52+阅读 · 2020年6月28日
专知会员服务
109+阅读 · 2020年6月26日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
73+阅读 · 2020年6月25日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
已删除
将门创投
7+阅读 · 2019年10月15日
直播 | 大讲堂:基于小波变换的图卷积神经网络
AI科技评论
8+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年11月15日
计算机视觉概述和深度学习简介 | 公开课
AI研习社
7+阅读 · 2017年12月5日
Hierarchy Parsing for Image Captioning
Arxiv
6+阅读 · 2019年9月10日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【ICML2020】对比多视角表示学习
专知会员服务
52+阅读 · 2020年6月28日
专知会员服务
109+阅读 · 2020年6月26日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
73+阅读 · 2020年6月25日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
相关资讯
相关论文
Hierarchy Parsing for Image Captioning
Arxiv
6+阅读 · 2019年9月10日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月21日
Top
微信扫码咨询专知VIP会员