The problem of learning simultaneously several related tasks has received considerable attention in several domains, especially in machine learning with the so-called multitask learning problem or learning to learn problem [1], [2]. Multitask learning is an approach to inductive transfer learning (using what is learned for one problem to assist in another problem) and helps improve generalization performance relative to learning each task separately by using the domain information contained in the training signals of related tasks as an inductive bias. Several strategies have been derived within this community under the assumption that all data are available beforehand at a fusion center. However, recent years have witnessed an increasing ability to collect data in a distributed and streaming manner. This requires the design of new strategies for learning jointly multiple tasks from streaming data over distributed (or networked) systems. This article provides an overview of multitask strategies for learning and adaptation over networks. The working hypothesis for these strategies is that agents are allowed to cooperate with each other in order to learn distinct, though related tasks. The article shows how cooperation steers the network limiting point and how different cooperation rules allow to promote different task relatedness models. It also explains how and when cooperation over multitask networks outperforms non-cooperative strategies.


翻译:同时学习几个相关任务的问题在若干领域受到相当重视,特别是在机械学习和所谓的多任务学习问题或学习问题[1],[2],[2],多任务学习是引导性转移学习的一种方法(利用一个问题所学的东西来帮助解决另一个问题),通过将相关任务培训信号中包含的域信息作为感化偏差,帮助提高分别学习每项任务的通用性业绩。在这个社区内,根据所有数据事先可在聚合中心获得的假设,制定了若干战略。然而,近年来,以分布式和流式方式收集数据的能力日益增强。这要求设计新的战略,从分布式(或网络化)系统上流出数据,共同学习多项任务。这篇文章概述了在网络上学习和适应的多任务战略。这些战略的工作假设是,允许代理人彼此合作,以便学习不同的任务,尽管是相关的任务。文章表明合作如何引导网络限制点,不同合作规则如何促进不同的任务相关模式。它还解释了如何和在多任务型网络上合作如何和何时合作。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
6+阅读 · 2018年12月3日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
Arxiv
0+阅读 · 2021年11月10日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
44+阅读 · 2019年12月20日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
6+阅读 · 2018年12月3日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
相关论文
Arxiv
0+阅读 · 2021年11月10日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
44+阅读 · 2019年12月20日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
6+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员