雷锋公开课活动预告
活动信息
分享主题: Performance Guaranteed Network Acceleration via High-Order Residual Quantization (性能保障的高阶残差量化网络加速方法)
分享人:李泽凡, 上海交大 CS 系二年级博士生,师从高文院士和张文军教授。 研究方向为神经网络理论、网络加速和压缩。在 ICCV 2017 上发表论文 Performance Guaranteed Network Acceleration via High-Order Residual Quantization。
时间: 9 月 27 日(星期三) 20:00
地点:AI 研习社微信群
本期提纲
神经网络的压缩和加速现在已经成为一个热门的课题。这个领域有很多的方法,网络量化就是其中之一。
网络量化分为输入量化和权值量化两种。而同时将输入和权值量化会造成网络精度的大幅下降。作者针对这个问题,提出了高阶残差量化的方法。
既能够利用网络量化带来的大幅计算加速,又能够保证网络的精度不会大幅下降。
观看直播
识别下方二维码,进入公众号,点击【AI课程】-【公开课报名】进入直播,9 月 27 日(周三)20:00 活动准时开始!
新人福利
关注 AI 研习社(okweiwu),回复 1 领取
【超过 1000G 神经网络 / AI / 大数据,教程,论文】
对我们的分享会有什么建议?
希望成为分享人吗?
让我们听到你的声音
▼▼▼