成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Multi-Level Optimal Transport for Universal Cross-Tokenizer Knowledge Distillation on Language Models
Arxiv
0+阅读 · 12月19日
CORD: Balancing COnsistency and Rank Distillation for Robust Retrieval-Augmented Generation
Arxiv
0+阅读 · 12月19日
Knowledge Distillation in RNN-Attention Models for Early Prediction of Student Performance
Arxiv
0+阅读 · 12月19日
Knowledge Injection via Prompt Distillation
Arxiv
0+阅读 · 12月19日
Score and Distribution Matching Policy: Advanced Accelerated Visuomotor Policies via Matched Distillation
Arxiv
0+阅读 · 12月19日
TRIM: Token Reduction and Inference Modeling for Cost-Effective Language Generation
Arxiv
0+阅读 · 12月18日
On Explaining Knowledge Distillation: Measuring and Visualising the Knowledge Transfer Process
Arxiv
0+阅读 · 12月18日
Enhancing Knowledge Distillation of Large Language Models through Efficient Multi-Modal Distribution Alignment
Arxiv
0+阅读 · 12月18日
Toward Efficient Data-Free Unlearning
Arxiv
0+阅读 · 12月18日
Multi-Exposure Image Fusion via Distilled 3D LUT Grid with Editable Mode
Arxiv
0+阅读 · 12月18日
Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation
Arxiv
0+阅读 · 12月18日
DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors
Arxiv
0+阅读 · 12月18日
Towards Efficient and Explainable Hate Speech Detection via Model Distillation
Arxiv
0+阅读 · 12月18日
FM2DS: Few-Shot Multimodal Multihop Data Synthesis with Knowledge Distillation for Question Answering
Arxiv
0+阅读 · 12月17日
DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation
Arxiv
0+阅读 · 12月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top