成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
知识蒸馏
关注
22
综合
百科
VIP
热门
动态
论文
精华
Word Sense Induction with Knowledge Distillation from BERT
Arxiv
1+阅读 · 2023年4月20日
Distill the Image to Nowhere: Inversion Knowledge Distillation for Multimodal Machine Translation
Arxiv
0+阅读 · 2023年4月21日
Decouple Non-parametric Knowledge Distillation For End-to-end Speech Translation
Arxiv
0+阅读 · 2023年4月20日
An Empirical Study of Leveraging Knowledge Distillation for Compressing Multilingual Neural Machine Translation Models
Arxiv
0+阅读 · 2023年4月19日
Dealing With Heterogeneous 3D MR Knee Images: A Federated Few-Shot Learning Method With Dual Knowledge Distillation
Arxiv
0+阅读 · 2023年4月18日
Deep Collective Knowledge Distillation
Arxiv
0+阅读 · 2023年4月18日
Prototype Knowledge Distillation for Medical Segmentation with Missing Modality
Arxiv
1+阅读 · 2023年4月17日
Constructing Deep Spiking Neural Networks from Artificial Neural Networks with Knowledge Distillation
Arxiv
0+阅读 · 2023年4月17日
Class-Incremental Learning of Plant and Disease Detection: Growing Branches with Knowledge Distillation
Arxiv
0+阅读 · 2023年4月13日
Constructing Deep Spiking Neural Networks from Artificial Neural Networks with Knowledge Distillation
Arxiv
0+阅读 · 2023年4月12日
A Comprehensive Survey on Knowledge Distillation of Diffusion Models
Arxiv
0+阅读 · 2023年4月9日
A Survey on Recent Teacher-student Learning Studies
Arxiv
0+阅读 · 2023年4月10日
Homogenizing Non-IID datasets via In-Distribution Knowledge Distillation for Decentralized Learning
Arxiv
0+阅读 · 2023年4月9日
HyperINR: A Fast and Predictive Hypernetwork for Implicit Neural Representations via Knowledge Distillation
Arxiv
0+阅读 · 2023年4月9日
Backdoor Cleansing with Unlabeled Data
Arxiv
0+阅读 · 2023年4月6日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top