成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
多任务学习
关注
160
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
Revealing the impact of synthetic native samples and multi-tasking strategies in Hindi-English code-mixed humour and sarcasm detection
Arxiv
0+阅读 · 12月17日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
0+阅读 · 12月11日
Multi-Task Learning with LLMs for Implicit Sentiment Analysis: Data-level and Task-level Automatic Weight Learning
Arxiv
0+阅读 · 12月12日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
0+阅读 · 12月11日
MT3DNet: Multi-Task learning Network for 3D Surgical Scene Reconstruction
Arxiv
0+阅读 · 12月5日
Optimizing Dense Visual Predictions Through Multi-Task Coherence and Prioritization
Arxiv
0+阅读 · 12月4日
Disentangled Latent Spaces Facilitate Data-Driven Auxiliary Learning
Arxiv
0+阅读 · 11月29日
Proactive Gradient Conflict Mitigation in Multi-Task Learning: A Sparse Training Perspective
Arxiv
0+阅读 · 11月27日
Improving Multi-task Learning via Seeking Task-based Flat Regions
Arxiv
0+阅读 · 11月19日
Dynamic technology impact analysis: A multi-task learning approach to patent citation prediction
Arxiv
0+阅读 · 11月14日
MT2ST: Adaptive Multi-Task to Single-Task Learning
Arxiv
0+阅读 · 11月6日
Cross-Task Affinity Learning for Multitask Dense Scene Predictions
Arxiv
0+阅读 · 11月6日
Openness And Partial Adjacency In One Variable TPTL
Arxiv
0+阅读 · 10月31日
DTN: Deep Multiple Task-specific Feature Interactions Network for Multi-Task Recommendation
Arxiv
0+阅读 · 10月31日
Optimizing Multi-Task Learning for Accurate Spacecraft Pose Estimation
Arxiv
0+阅读 · 10月16日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top