雷锋公开课活动预告
活动信息
分享主题: Performance Guaranteed Network Acceleration via High-Order Residual Quantization (性能保障的高阶残差量化网络加速方法)
分享人:李泽凡, 上海交大 CS 系二年级博士生,师从高文院士和张文军教授。 研究方向为神经网络理论、网络加速和压缩。在 ICCV 2017 上发表论文 Performance Guaranteed Network Acceleration via High-Order Residual Quantization。
时间: 9 月 27 日(星期三) 20:00
地点:AI 研习社微信群
本期提纲
神经网络的压缩和加速现在已经成为一个热门的课题。这个领域有很多的方法,网络量化就是其中之一。
网络量化分为输入量化和权值量化两种。而同时将输入和权值量化会造成网络精度的大幅下降。作者针对这个问题,提出了高阶残差量化的方法。
既能够利用网络量化带来的大幅计算加速,又能够保证网络的精度不会大幅下降。
观看直播
识别下方二维码,进入公众号,点击【AI课程】-【公开课报名】进入直播,9 月 27 日(周三)20:00 活动准时开始!
新人福利
关注 AI 研习社(okweiwu),回复 1 领取
【超过 1000G 神经网络 / AI / 大数据,教程,论文】
转载声明:本文转载自「AI研习社」,搜索「okweiwu」即可关注。
————— 给爱学习的你的福利 —————
3个月,从无人问津到年薪30万的秘密究竟是什么?答案在这里——崔立明授课【推荐系统算法工程师-从入门到就业】3个月算法水平得到快速提升,让你的职业生涯更有竞争力!长按识别下方二维码抵达课程详细介绍~
————————————————————