成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
教师网络
关注
0
综合
百科
VIP
热门
动态
论文
精华
Bridge the Gap between SNN and ANN for Image Restoration
Arxiv
0+阅读 · 4月2日
Generalizing Teacher Networks for Effective Knowledge Distillation Across Student Architectures
Arxiv
0+阅读 · 1月8日
Reflective Teacher: Semi-Supervised Multimodal 3D Object Detection in Bird's-Eye-View via Uncertainty Measure
Arxiv
0+阅读 · 2024年12月5日
UNIKD: UNcertainty-filtered Incremental Knowledge Distillation for Neural Implicit Representation
Arxiv
0+阅读 · 2024年7月29日
Adaptive Teaching with Shared Classifier for Knowledge Distillation
Arxiv
0+阅读 · 2024年6月14日
AMFD: Distillation via Adaptive Multimodal Fusion for Multispectral Pedestrian Detection
Arxiv
0+阅读 · 2024年5月21日
PeerAiD: Improving Adversarial Distillation from a Specialized Peer Tutor
Arxiv
0+阅读 · 2024年5月17日
Toward Student-Oriented Teacher Network Training For Knowledge Distillation
Arxiv
0+阅读 · 2024年5月9日
Unsupervised Tumor-Aware Distillation for Multi-Modal Brain Image Translation
Arxiv
0+阅读 · 2024年3月29日
Towards Lossless Dataset Distillation via Difficulty-Aligned Trajectory Matching
Arxiv
0+阅读 · 2024年3月18日
Distilling the Knowledge in Data Pruning
Arxiv
0+阅读 · 2024年3月12日
PeerAiD: Improving Adversarial Distillation from a Specialized Peer Tutor
Arxiv
0+阅读 · 2024年3月11日
Knowledge Distillation Under Ideal Joint Classifier Assumption
Arxiv
0+阅读 · 2024年2月9日
Dual-Decoder Consistency via Pseudo-Labels Guided Data Augmentation for Semi-Supervised Medical Image Segmentation
Arxiv
0+阅读 · 2024年1月18日
Combining Past, Present and Future: A Self-Supervised Approach for Class Incremental Learning
Arxiv
0+阅读 · 2023年11月15日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top