In learning from label proportions (LLP), the instances are grouped into bags, and the task is to learn an instance classifier given relative class proportions in training bags. LLP is useful when obtaining individual instance labels is impossible or costly. In this work, we focus on the case of small bags, which allows designing more efficient algorithms by explicitly considering all consistent label combinations. In particular, we propose an EM algorithm alternating between optimizing a general neural network instance classifier and incorporating bag-level annotations. In comparison to existing deep LLP methods, our approach converges faster to a comparable or better solution. Several experiments were performed on two different datasets.


翻译:在从标签比例(LLP)中学习时,这些实例被归为包包,任务是在培训袋中学习一个按相对级别分类的例分类器。在获得单个实例标签时,LLP是有用的,不可能或费用高昂。在这项工作中,我们侧重于小袋的情况,通过明确考虑所有一致的标签组合,可以设计更有效率的算法。特别是,我们建议一种EM算法,在优化一般神经网络分类器和采用包包级注释之间交替使用。与现有的深层LLP方法相比,我们的方法会更快地趋同到一个可比或更好的解决办法。在两个不同的数据集上进行了几次实验。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
11+阅读 · 2019年4月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年12月1日
Arxiv
7+阅读 · 2020年10月9日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
11+阅读 · 2019年4月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
相关论文
Top
微信扫码咨询专知VIP会员