成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
多任务学习
关注
160
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
观点 | 下一步研究目标:盘点NLP领域最具潜力的六大方向
机器之心
8+阅读 · 2018年3月5日
第1009期机器学习日报(2017-06-23)
好东西传送门
0+阅读 · 2017年6月24日
AAAI 2020 提前看 | 三篇论文解读问答系统最新研究进展
机器之心
0+阅读 · 2020年1月30日
前沿|DeepMind:Distral新框架可用于多任务之间的同步强化学习!
全球人工智能
0+阅读 · 2017年7月15日
GraphSAGE+FM+Transformer强强联手:评微信的GraphTR模型
AINLP
0+阅读 · 2020年12月3日
启元世界“星际指挥官”3:0 战胜黄金级选手 &&《工作机会》
深度强化学习实验室
0+阅读 · 2019年9月29日
基于背景知识的对话模型
PaperWeekly
0+阅读 · 2017年7月17日
Multi-task Learning的三个实用小知识
极市平台
0+阅读 · 2020年4月2日
深度神经网络中的多任务学习汇总
极市平台
10+阅读 · 2019年9月24日
爱奇艺视频精彩度分析算法及应用
DataFunTalk
1+阅读 · 2020年10月22日
如何确定多任务神经网络中哪些任务应该一起训练
TensorFlow
0+阅读 · 2021年12月14日
【NLP保姆级教程】手把手带你RNN文本分类(附代码)
AINLP
0+阅读 · 2020年3月1日
论文浅尝 | 推荐系统的可解释性浅谈
开放知识图谱
15+阅读 · 2018年11月27日
1.9万亿参数量,快手落地业界首个万亿参数推荐精排模型
PaperWeekly
0+阅读 · 2021年2月4日
MIT校长勇发全校公开信:为华裔成员的处境深感心碎
新智元
0+阅读 · 2019年6月26日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top