成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
CoDA: From Text-to-Image Diffusion Models to Training-Free Dataset Distillation
Arxiv
0+阅读 · 12月3日
Kinetic Mining in Context: Few-Shot Action Synthesis via Text-to-Motion Distillation
Arxiv
0+阅读 · 12月12日
Clustered Federated Learning with Hierarchical Knowledge Distillation
Arxiv
0+阅读 · 12月11日
Hard Labels In! Rethinking the Role of Hard Labels in Mitigating Local Semantic Drift
Arxiv
0+阅读 · 12月17日
Aerial View River Landform Video segmentation: A Weakly Supervised Context-aware Temporal Consistency Distillation Approach
Arxiv
0+阅读 · 11月20日
Improving the Downstream Performance of Mixture-of-Experts Transformers via Weak Vanilla Transformers
Arxiv
0+阅读 · 11月14日
SelecTKD: Selective Token-Weighted Knowledge Distillation for LLMs
Arxiv
0+阅读 · 11月16日
Dataset Distillation for Offline Reinforcement Learning
Arxiv
0+阅读 · 11月3日
OccamVTS: Distilling Vision Models to 1% Parameters for Time Series Forecasting
Arxiv
0+阅读 · 11月14日
Preventing Shortcut Learning in Medical Image Analysis through Intermediate Layer Knowledge Distillation from Specialist Teachers
Arxiv
0+阅读 · 11月21日
MobileGeo: Exploring Hierarchical Knowledge Distillation for Resource-Efficient Cross-view Drone Geo-Localization
Arxiv
0+阅读 · 11月5日
Pathryoshka: Compressing Pathology Foundation Models via Multi-Teacher Knowledge Distillation with Nested Embeddings
Arxiv
0+阅读 · 11月28日
Improving Constrained Language Generation via Self-Distilled Twisted Sequential Monte Carlo
Arxiv
0+阅读 · 11月25日
DP-GENG : Differentially Private Dataset Distillation Guided by DP-Generated Data
Arxiv
0+阅读 · 11月13日
Image-Free Timestep Distillation via Continuous-Time Consistency with Trajectory-Sampled Pairs
Arxiv
0+阅读 · 11月25日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top