成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
UNDO: Understanding Distillation as Optimization
Arxiv
0+阅读 · 4月3日
Marine Saliency Segmenter: Object-Focused Conditional Diffusion with Region-Level Semantic Knowledge Distillation
Arxiv
0+阅读 · 4月3日
Scaling Video-Language Models to 10K Frames via Hierarchical Differential Distillation
Arxiv
0+阅读 · 4月3日
VideoScene: Distilling Video Diffusion Model to Generate 3D Scenes in One Step
Arxiv
0+阅读 · 4月3日
OpenCodeReasoning: Advancing Data Distillation for Competitive Coding
Arxiv
0+阅读 · 4月2日
FlowR: Flowing from Sparse to Dense 3D Reconstructions
Arxiv
0+阅读 · 4月2日
VideoScene: Distilling Video Diffusion Model to Generate 3D Scenes in One Step
Arxiv
0+阅读 · 4月2日
What is Left After Distillation? How Knowledge Transfer Impacts Fairness and Bias
Arxiv
0+阅读 · 4月2日
Analysis of an Idealized Stochastic Polyak Method and its Application to Black-Box Model Distillation
Arxiv
0+阅读 · 4月2日
A Novel Approach To Implementing Knowledge Distillation In Tsetlin Machines
Arxiv
0+阅读 · 4月2日
Learning Bipedal Locomotion on Gear-Driven Humanoid Robot Using Foot-Mounted IMUs
Arxiv
0+阅读 · 4月1日
Style over Substance: Distilled Language Models Reason Via Stylistic Replication
Arxiv
0+阅读 · 4月2日
Adversarial Curriculum Graph-Free Knowledge Distillation for Graph Neural Networks
Arxiv
0+阅读 · 4月2日
KD$^{2}$M: An unifying framework for feature knowledge distillation
Arxiv
0+阅读 · 4月2日
Articulated Kinematics Distillation from Video Diffusion Models
Arxiv
0+阅读 · 4月1日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top