Self-learning is a classical approach for learning with both labeled and unlabeled observations which consists in giving pseudo-labels to unlabeled training instances with a confidence score over a predetermined threshold. At the same time, the pseudo-labeling technique is prone to error and runs the risk of adding noisy labels into unlabeled training data. In this paper, we present a probabilistic framework for analyzing self-learning in the multi-class classification scenario with partially labeled data. First, we derive a transductive bound over the risk of the multi-class majority vote classifier. Based on this result, we propose to automatically choose the threshold for pseudo-labeling that minimizes the transductive bound. Then, we introduce a mislabeling error model to analyze the error of the majority vote classifier in the case of the pseudo-labeled data. We derive a probabilistic C-bound over the majority vote error when an imperfect label is given. Empirical results on different data sets show the effectiveness of our framework compared to several state-of-the-art semi-supervised approaches.


翻译:自我学习是一种典型的学习方法,用标签和非标签的观察进行学习,包括给未标签的培训案例提供假标签,在预定的门槛值上给予信任分数。 同时,伪标签技术容易出错,并有可能在未标签的培训数据中添加噪音标签。 在本文中,我们提出了一个分析多级分类情景中自我学习的概率框架,其中含有部分标签数据。 首先,我们从多级多数选票分类员的风险中得出一个转导约束。 基于这个结果,我们建议自动选择伪标签的门槛值,以尽量减少转换约束值。 然后,我们引入一个错误标签错误模型,以分析伪标签数据中多数选票分类员的错误。 当给出不完善标签时,我们得出一个概率C比多数选票错误的概率框架。 不同数据集的模拟结果显示我们框架相对于一些州级半监督方法的有效性。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
专知会员服务
41+阅读 · 2020年12月18日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
基于深度学习的医学图像半监督分割
CVer
14+阅读 · 2020年9月24日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
9+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2017年7月17日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
基于深度学习的医学图像半监督分割
CVer
14+阅读 · 2020年9月24日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员