成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
多任务学习
关注
160
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
Regularising NARX models with multi-task learning
Arxiv
0+阅读 · 1月8日
Causal Speech Enhancement with Predicting Semantics based on Quantized Self-supervised Learning Features
Arxiv
0+阅读 · 2024年12月26日
TADFormer : Task-Adaptive Dynamic Transformer for Efficient Multi-Task Learning
Arxiv
0+阅读 · 1月8日
Revealing the impact of synthetic native samples and multi-tasking strategies in Hindi-English code-mixed humour and sarcasm detection
Arxiv
1+阅读 · 2024年12月17日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
1+阅读 · 2024年12月11日
Multi-Task Learning with LLMs for Implicit Sentiment Analysis: Data-level and Task-level Automatic Weight Learning
Arxiv
1+阅读 · 2024年12月12日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
1+阅读 · 2024年12月11日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
0+阅读 · 2024年12月5日
Optimizing Dense Visual Predictions Through Multi-Task Coherence and Prioritization
Arxiv
0+阅读 · 2024年12月4日
Disentangled Latent Spaces Facilitate Data-Driven Auxiliary Learning
Arxiv
0+阅读 · 2024年11月29日
Proactive Gradient Conflict Mitigation in Multi-Task Learning: A Sparse Training Perspective
Arxiv
0+阅读 · 2024年11月27日
Improving Multi-task Learning via Seeking Task-based Flat Regions
Arxiv
0+阅读 · 2024年11月19日
Dynamic technology impact analysis: A multi-task learning approach to patent citation prediction
Arxiv
0+阅读 · 2024年11月14日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
0+阅读 · 2024年11月6日
Cross-Task Affinity Learning for Multitask Dense Scene Predictions
Arxiv
0+阅读 · 2024年11月6日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top