成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
网络压缩
关注
0
综合
百科
VIP
热门
动态
论文
精华
NeurIPS 2022 | Meta 提出二值transformer网络BiT,刷新NLP网络压缩极限
机器之心
1+阅读 · 2022年10月3日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知
0+阅读 · 2022年6月10日
模型压缩经典解读:解决训练数据问题,无需数据的神经网络压缩技术(四)
极市平台
0+阅读 · 2022年1月7日
模型压缩经典解读:解决训练数据问题,无需数据的神经网络压缩技术
极市平台
0+阅读 · 2021年11月13日
实践教程 | 卷积神经网络压缩方法总结
极市平台
0+阅读 · 2021年10月22日
模型压缩6倍,无需重训练:数学家团队提出量化新方法
PaperWeekly
0+阅读 · 2021年2月24日
神经网络压缩:基于科学控制法的网络剪枝方法
AI科技评论
2+阅读 · 2020年12月2日
清华芯片研究再获顶会MICRO加持:软件定义芯片团队出品,最佳论文提名后又一突破
量子位
0+阅读 · 2020年10月22日
紧凑的神经网络模型设计研究综述
专知
0+阅读 · 2020年5月21日
【ICASSP2020】 分布式与高效深度学习,140页ppt详述深度学习压缩与联邦学习训练技术进展
专知
2+阅读 · 2020年5月6日
台大李宏毅机器学习公开课2020版登陆B站
学术头条
0+阅读 · 2020年3月9日
问鼎ImageNet和CIFAR-100双料冠军,这个中国团队是如何做到的?
新智元
0+阅读 · 2019年12月23日
NeurIPS 2019 | 华为、北大等联合提出:一种基于正类与未标记样本(PU)的云端网络压缩方法
学术头条
1+阅读 · 2019年12月4日
7 papers | ML因果关系论文获Judea Pearl点赞;华为云端网络压缩新技术
机器之心
1+阅读 · 2019年12月1日
【深度学习】广义相对论与深度学习能够碰撞出什么火花?高通AI Research最新研发成果一览
产业智能官
0+阅读 · 2019年11月22日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top