Aggregating multiple sources of weak supervision (WS) can ease the data-labeling bottleneck prevalent in many machine learning applications, by replacing the tedious manual collection of ground truth labels. Current state of the art approaches that do not use any labeled training data, however, require two separate modeling steps: Learning a probabilistic latent variable model based on the WS sources -- making assumptions that rarely hold in practice -- followed by downstream model training. Importantly, the first step of modeling does not consider the performance of the downstream model. To address these caveats we propose an end-to-end approach for directly learning the downstream model by maximizing its agreement with probabilistic labels generated by reparameterizing previous probabilistic posteriors with a neural network. Our results show improved performance over prior work in terms of end model performance on downstream test sets, as well as in terms of improved robustness to dependencies among weak supervision sources.


翻译:将多种薄弱的监管来源(WS)聚合在一起,可以缓解许多机器学习应用中普遍存在的数据标签瓶颈,取代冗长的地面真相标签手工收集。然而,目前不使用任何标签培训数据的最新做法需要两个不同的示范步骤:学习一种基于WS来源的概率潜伏变量模型 -- -- 假设很少在实践中有效 -- -- 并随后进行下游模式培训。重要的是,建模的第一步不考虑下游模式的性能。为了解决这些告诫,我们建议采用一个端到端办法,直接学习下游模式,通过尽可能扩大协议,与以神经网络重新校准以前的概率后继器生成的概率标签。我们的结果显示,在下游测试组的最终模型性能方面,以及在改进对薄弱的监督源之间依赖性方面,与以往工作相比,业绩有所改善。

0
下载
关闭预览

相关内容

专知会员服务
92+阅读 · 2021年1月24日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
多标签学习的新趋势(2020 Survey)
专知会员服务
41+阅读 · 2020年12月6日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知会员服务
39+阅读 · 2020年8月26日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月8日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
9+阅读 · 2019年4月19日
VIP会员
相关VIP内容
专知会员服务
92+阅读 · 2021年1月24日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
多标签学习的新趋势(2020 Survey)
专知会员服务
41+阅读 · 2020年12月6日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知会员服务
39+阅读 · 2020年8月26日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Top
微信扫码咨询专知VIP会员