成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Student Networks
关注
0
综合
百科
VIP
热门
动态
论文
精华
Self-supervised cross-modality learning for uncertainty-aware object detection and recognition in applications which lack pre-labelled training data
Arxiv
0+阅读 · 11月5日
Breaking Modality Gap in RGBT Tracking: Coupled Knowledge Distillation
Arxiv
0+阅读 · 10月15日
Student-Oriented Teacher Knowledge Refinement for Knowledge Distillation
Arxiv
0+阅读 · 9月27日
MST-KD: Multiple Specialized Teachers Knowledge Distillation for Fair Face Recognition
Arxiv
0+阅读 · 8月29日
Distilling Knowledge for Short-to-Long Term Trajectory Prediction
Arxiv
0+阅读 · 9月3日
Online Multi-level Contrastive Representation Distillation for Cross-Subject fNIRS Emotion Recognition
Arxiv
0+阅读 · 9月24日
Detecting Wildfires on UAVs with Real-time Segmentation Trained by Larger Teacher Models
Arxiv
0+阅读 · 9月12日
Global-Local Distillation Network-Based Audio-Visual Speaker Tracking with Incomplete Modalities
Arxiv
0+阅读 · 8月26日
Learning Privacy-Preserving Student Networks via Discriminative-Generative Distillation
Arxiv
0+阅读 · 9月4日
Dual-Modeling Decouple Distillation for Unsupervised Anomaly Detection
Arxiv
0+阅读 · 8月7日
Distillation Learning Guided by Image Reconstruction for One-Shot Medical Image Segmentation
Arxiv
0+阅读 · 8月7日
LAKD-Activation Mapping Distillation Based on Local Learning
Arxiv
0+阅读 · 8月21日
LAKD-Activation Mapping Distillation Based on Local Learning
Arxiv
0+阅读 · 8月22日
Invariant Consistency for Knowledge Distillation
Arxiv
0+阅读 · 7月16日
GenDistiller: Distilling Pre-trained Language Models based on an Autoregressive Generative Model
Arxiv
0+阅读 · 6月21日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top