成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Knowledge Transfer in Model-Based Reinforcement Learning Agents for Efficient Multi-Task Learning
Arxiv
0+阅读 · 1月9日
AgentPose: Progressive Distribution Alignment via Feature Agent for Human Pose Distillation
Arxiv
0+阅读 · 1月14日
ILDiff: Generate Transparent Animated Stickers by Implicit Layout Distillation
Arxiv
0+阅读 · 2024年12月30日
Distilling Desired Comments for Enhanced Code Review with Large Language Models
Arxiv
0+阅读 · 2024年12月29日
Distilling Desired Comments for Enhanced Code Review with Large Language Models
Arxiv
0+阅读 · 1月5日
AddSR: Accelerating Diffusion-based Blind Super-Resolution with Adversarial Diffusion Distillation
Arxiv
0+阅读 · 2024年12月27日
Real World Federated Learning with a Knowledge Distilled Transformer for Cardiac CT Imaging
Arxiv
0+阅读 · 1月2日
Federated Hybrid Training and Self-Adversarial Distillation: Towards Robust Edge Networks
Arxiv
0+阅读 · 2024年12月26日
TSCM: A Teacher-Student Model for Vision Place Recognition Using Cross-Metric Knowledge Distillation
Arxiv
0+阅读 · 1月8日
Dual Scale-aware Adaptive Masked Knowledge Distillation for Object Detection
Arxiv
0+阅读 · 1月13日
LLMQuoter: Enhancing RAG Capabilities Through Efficient Quote Extraction From Large Contexts
Arxiv
0+阅读 · 1月9日
EA-KD: Entropy-based Adaptive Knowledge Distillation
Arxiv
0+阅读 · 1月1日
A Diversity-Enhanced Knowledge Distillation Model for Practical Math Word Problem Solving
Arxiv
0+阅读 · 1月7日
Feature Alignment-Based Knowledge Distillation for Efficient Compression of Large Language Models
Arxiv
0+阅读 · 2024年12月27日
Class Incremental Fault Diagnosis under Limited Fault Data via Supervised Contrastive Knowledge Distillation
Arxiv
0+阅读 · 1月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top