成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Not All Instances Are Equally Valuable: Towards Influence-Weighted Dataset Distillation
Arxiv
0+阅读 · 10月31日
Token Distillation: Attention-aware Input Embeddings For New Tokens
Arxiv
0+阅读 · 10月31日
Contrastive Knowledge Transfer and Robust Optimization for Secure Alignment of Large Language Models
Arxiv
0+阅读 · 10月31日
Adaptive Stochastic Coefficients for Accelerating Diffusion Sampling
Arxiv
0+阅读 · 10月31日
Reinforcement Learning vs. Distillation: Understanding Accuracy and Capability in LLM Reasoning
Arxiv
0+阅读 · 10月31日
Phased DMD: Few-step Distribution Matching Distillation via Score Matching within Subintervals
Arxiv
0+阅读 · 10月31日
Empowering RepoQA-Agent based on Reinforcement Learning Driven by Monte-carlo Tree Search
Arxiv
0+阅读 · 10月30日
Distilling Multilingual Vision-Language Models: When Smaller Models Stay Multilingual
Arxiv
0+阅读 · 10月30日
Personalized Treatment Outcome Prediction from Scarce Data via Dual-Channel Knowledge Distillation and Adaptive Fusion
Arxiv
0+阅读 · 10月30日
SIRAJ: Diverse and Efficient Red-Teaming for LLM Agents via Distilled Structured Reasoning
Arxiv
0+阅读 · 10月30日
Evontree: Ontology Rule-Guided Self-Evolution of Large Language Models
Arxiv
0+阅读 · 10月30日
Reinforcement Learning Teachers of Test Time Scaling
Arxiv
0+阅读 · 10月29日
Teaching Sarcasm: Few-Shot Multimodal Sarcasm Detection via Distillation to a Parameter-Efficient Student
Arxiv
0+阅读 · 10月29日
SAGE: Structure-Aware Generative Video Transitions between Diverse Clips
Arxiv
0+阅读 · 10月28日
LagMemo: Language 3D Gaussian Splatting Memory for Multi-modal Open-vocabulary Multi-goal Visual Navigation
Arxiv
0+阅读 · 10月28日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top