Although federated learning has made awe-inspiring advances, most studies have assumed that the client's data are fully labeled. However, in a real-world scenario, every client may have a significant amount of unlabeled instances. Among the various approaches to utilizing unlabeled data, a federated active learning framework has emerged as a promising solution. In the decentralized setting, there are two types of available query selector models, namely 'global' and 'local-only' models, but little literature discusses their performance dominance and its causes. In this work, we first demonstrate that the superiority of two selector models depends on the global and local inter-class diversity. Furthermore, we observe that the global and local-only models are the keys to resolving the imbalance of each side. Based on our findings, we propose LoGo, a FAL sampling strategy robust to varying local heterogeneity levels and global imbalance ratio, that integrates both models by two steps of active selection scheme. LoGo consistently outperforms six active learning strategies in the total number of 38 experimental settings.


翻译:尽管联邦学习取得了令人瞩目的进展,但大多数研究都假定客户端的数据是完全标记的。然而,在实际场景中,每个客户端可能有大量未标记的实例。在利用未标记数据的各种方法中,联邦主动学习框架已成为一种有前途的解决方案。在分散式的环境中,有两种可用的查询选择器模型,即“全局(global)”和“仅本地(local-only)”模型,但鲜有文献讨论它们的性能优劣及其原因。在这项工作中,我们首先表明了两种选择器模型的优劣取决于全局和本地的类间差异。此外,我们观察到全局和仅本地模型是解决每个方面不平衡的关键。基于我们的发现,我们提出了一种名为LoGo的采样策略,它是一个针对不同的本地异质性水平和全局不平衡率的 FAL 方案,通过两步主动选择方案集成了这两种模型。 LoGo 在 38 种实验设置的总数中始终优于六种主动学习策略。

0
下载
关闭预览

相关内容

主动学习是机器学习(更普遍的说是人工智能)的一个子领域,在统计学领域也叫查询学习、最优实验设计。“学习模块”和“选择策略”是主动学习算法的2个基本且重要的模块。 主动学习是“一种学习方法,在这种方法中,学生会主动或体验性地参与学习过程,并且根据学生的参与程度,有不同程度的主动学习。” (Bonwell&Eison 1991)Bonwell&Eison(1991) 指出:“学生除了被动地听课以外,还从事其他活动。” 在高等教育研究协会(ASHE)的一份报告中,作者讨论了各种促进主动学习的方法。他们引用了一些文献,这些文献表明学生不仅要做听,还必须做更多的事情才能学习。他们必须阅读,写作,讨论并参与解决问题。此过程涉及三个学习领域,即知识,技能和态度(KSA)。这种学习行为分类法可以被认为是“学习过程的目标”。特别是,学生必须从事诸如分析,综合和评估之类的高级思维任务。
专知会员服务
15+阅读 · 2021年8月13日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
近期必读的七篇 ECCV 2020【少样本学习(FSL)】相关论文
「联邦学习模型安全与隐私」研究进展
专知
5+阅读 · 2022年9月24日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
20+阅读 · 2022年10月10日
A Survey on Data Augmentation for Text Classification
Arxiv
45+阅读 · 2019年12月20日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年8月13日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
近期必读的七篇 ECCV 2020【少样本学习(FSL)】相关论文
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员