成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
多任务学习
关注
161
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
MTL-LoRA: Low-Rank Adaptation for Multi-Task Learning
Arxiv
0+阅读 · 4月1日
Pareto Low-Rank Adapters: Efficient Multi-Task Learning with Preferences
Arxiv
0+阅读 · 2月26日
Sharper Concentration Inequalities for Multi-Graph Dependent Variables
Arxiv
0+阅读 · 2月25日
Multitask Learning in Minimally Invasive Surgical Vision: A Review
Arxiv
0+阅读 · 2月10日
Model-checking real-time systems: revisiting the alternating automaton route
Arxiv
0+阅读 · 1月29日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
0+阅读 · 2月10日
Can Optimization Trajectories Explain Multi-Task Transfer?
Arxiv
0+阅读 · 1月30日
Regularising NARX models with multi-task learning
Arxiv
0+阅读 · 1月8日
Causal Speech Enhancement with Predicting Semantics based on Quantized Self-supervised Learning Features
Arxiv
0+阅读 · 2024年12月26日
TADFormer : Task-Adaptive Dynamic Transformer for Efficient Multi-Task Learning
Arxiv
0+阅读 · 1月8日
Revealing the impact of synthetic native samples and multi-tasking strategies in Hindi-English code-mixed humour and sarcasm detection
Arxiv
1+阅读 · 2024年12月17日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
1+阅读 · 2024年12月11日
Multi-Task Learning with LLMs for Implicit Sentiment Analysis: Data-level and Task-level Automatic Weight Learning
Arxiv
1+阅读 · 2024年12月12日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
1+阅读 · 2024年12月11日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
0+阅读 · 2024年12月5日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top