成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
模型压缩
关注
21
模型压缩,多指AI领域,多学习生成的模型进行压缩,简化,同时又要保证一定的可靠性,便于模型在低端设备上部署。
综合
百科
VIP
热门
动态
论文
精华
TPAMI 2022 | 将“教导主任”引入模型蒸馏,大规模压缩优于24种SOTA方法
PaperWeekly
0+阅读 · 2022年11月22日
首次将「教导主任」引入模型蒸馏,大规模压缩优于24种SOTA方法
机器之心
1+阅读 · 2022年11月20日
【伯克利博士论文】硬件感知的高效深度学习,154页pdf
专知
9+阅读 · 2022年10月20日
面向大规模神经网络的模型压缩和加速方法
PaperWeekly
0+阅读 · 2022年6月17日
ACL 2022 | DQ-BART:基于联合蒸馏和量化的高效Seq2Seq模型
PaperWeekly
0+阅读 · 2022年4月24日
「知识蒸馏」最新2022研究综述
专知
3+阅读 · 2022年3月20日
基于稀疏的超大规模预训练语言模型落地实践
专知
0+阅读 · 2022年3月17日
模型压缩经典解读:隐私保护模型压缩技术Nasty Teacher,无惧模型“被蒸馏”!
极市平台
0+阅读 · 2022年1月24日
模型压缩经典解读:解决训练数据问题,无需数据的神经网络压缩技术(四)
极市平台
0+阅读 · 2022年1月7日
北京内推 | 华为诺亚方舟实验室招聘计算机视觉研究实习生(春季实习)
PaperWeekly
0+阅读 · 2022年1月4日
详解NLP中的预训练模型、图神经网络、模型压缩、知识图谱
PaperWeekly
1+阅读 · 2021年12月11日
深度学习模型压缩算法综述
极市平台
1+阅读 · 2021年12月3日
悉尼大学 & 伦敦大学联合出品:知识蒸馏最新综述
PaperWeekly
2+阅读 · 2021年11月2日
NYU & Google: 知识蒸馏无处不在,但它真的有用吗?
夕小瑶的卖萌屋
0+阅读 · 2021年8月25日
模型压缩6倍,无需重训练:数学家团队提出量化新方法
PaperWeekly
0+阅读 · 2021年2月24日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top