We present two different strategies to extend the classical multi-label chaining approach to handle imprecise probability estimates. These estimates use convex sets of distributions (or credal sets) in order to describe our uncertainty rather than a precise one. The main reasons one could have for using such estimations are (1) to make cautious predictions (or no decision at all) when a high uncertainty is detected in the chaining and (2) to make better precise predictions by avoiding biases caused in early decisions in the chaining. We adapt both strategies to the case of the naive credal classifier, showing that this adaptations are computationally efficient. Our experimental results on missing labels, which investigate how reliable these predictions are in both approaches, indicate that our approaches produce relevant cautiousness on those hard-to-predict instances where the precise models fail.


翻译:我们提出了两种不同的战略,以扩大传统的多标签链法,处理不精确的概率估计。这些估计使用分布图(或信条套)来描述我们的不确定性,而不是精确的不确定性。 使用这种估计的主要理由可能是:(1) 当链条中检测到高度不确定性时作出谨慎的预测(或根本没有决定 ), (2) 避免链条早期决定中的偏见,从而作出更准确的预测。 我们两种战略都适应天真的毛骨悚然分类法的情况,表明这种调整是计算效率高的。 我们关于缺失标签的实验结果调查了这些预测在两种方法中的可靠性,表明我们的方法在精确模型失败的难以预测的情况下产生了相关的谨慎。

0
下载
关闭预览

相关内容

深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
21+阅读 · 2020年10月11日
Arxiv
8+阅读 · 2020年6月15日
Arxiv
14+阅读 · 2019年9月11日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
14+阅读 · 2020年12月17日
Arxiv
21+阅读 · 2020年10月11日
Arxiv
8+阅读 · 2020年6月15日
Arxiv
14+阅读 · 2019年9月11日
Multi-Label Learning with Label Enhancement
Arxiv
4+阅读 · 2019年4月16日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Top
微信扫码咨询专知VIP会员