神经网络功能强大,但是其巨大的存储和计算代价也使得它的使用特性,特别是在一些计算能力相对较弱的移动设备上受到了很大的限制。为了解决这个问题, 最近有许多针对于神经网络压缩和加速的工作被提出, 例如神经网络剪枝, 权重矩阵低秩分解,权重量化等。这次分享主要是针对于权重量化这一类方法。
基于损失函数的神经网络量化方法
Loss-aware Weight Quantization of Deep Networks
1. 概述近期神经网络压缩和加速的工作, 例如神经网络剪枝, 权重矩阵低秩分解,权重量化等。
2. 回顾近两年来的权重量化方法,并分析这些方法的优缺点。
3. 介绍基于减小最终目标函数的量化方法, 并分析这种方法和其他量化方法的关系和优势。
侯璐,香港科技大学在读博士,主要研究方向为机器学
北京时间 3 月 28 日(周三)晚上 8:00
扫描海报二维码关注微信公众号,点击 AI 进阶——公开课报名
对了,我们招人了,了解一下?
三大模块,五大应用,知识点全覆盖;海外博士讲师,丰富项目分享经验;
理论+实践,带你实战典型行业应用;专业答疑社群,结交志同道合伙伴。
扫码立即参团~
┏(^0^)┛欢迎分享,明天见!