Shannon entropy is the most widely used measure of uncertainty. It is used, for example, in Jaynes' maximum entropy principle which is considered a basis for statistical inference and serves as a justification for many regularization techniques that appear throughout machine learning and decision theory. Entropy is, however, only one possible monotone that does not fully capture the more fundamental notion of uncertainty considered as a preorder on the space of probability distributions, also known as majorization. While the maximum entropy principle therefore cannot yield all Pareto optima of the uncertainty preorder in general, it has the appealing property that its solutions are unique Pareto optima, since it maximizes a strictly concave functional over a convex subset. Here, we investigate a class of monotones on general preordered spaces that preserve this uniqueness property (up to order equivalence) on any subset, without asking for the additional vector space structure required for convexity. We show that the class of preorders for which these so-called injective monotones exist, lies in between the class of preorders with strict monotones and preorders with utility functions. We extend several well-known results for strict monotones (Richter-Peleg functions) to injective monotones, we provide a construction of injective monotones from countable multi-utilities, and relate injective monotones to classic results concerning Debreu denseness and order separability. Along the way, we connect our results to Shannon entropy and the uncertainty preorder, obtaining new insights into how they are related.


翻译:香农 香农 温柔是用来衡量不确定性的最广泛使用的尺度。 例如,在杰恩斯 的最高温原则中,它被使用,它被认为是统计推断的基础,并且是整个机器学习和决定理论中出现的许多正规化技术的理由。然而,只有一种可能的单调,它没有完全体现被认为是概率分布空间的更根本的不确定性概念,也称为主控。尽管最大温和原则因此不能产生所有Pareto的不确定性预兆,但它具有吸引人的特性,即它的解决办法是独特的Pareto opima,因为它使一个完全的调和功能在整个机器学习和决定理论理论理论理论理论理论中具有最大的调和功能。这里,我们调查一个在任何子集中保存这种独特性属性的单一性(最高为等价),而没有要求为调和所需的额外矢量空间结构结构结构结构。我们显示,这些所谓的直观单调的预兆存在,它具有独特的特性,它具有独特的特性,因为它的特性是独特的,因为它使一个完全的稳定性功能在严格的单态和直径之间,我们获得一个稳定的单质的顺序,我们在一个结构中,并且将一个稳定的极级的分解到一个函数,我们获得一个分解到一个分级的分母函数,在一个分解到一个。

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年3月16日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
40+阅读 · 2020年7月23日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Structure Learning for Directed Trees
Arxiv
0+阅读 · 2021年9月28日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
3+阅读 · 2018年10月11日
Arxiv
5+阅读 · 2018年5月31日
Arxiv
3+阅读 · 2018年2月20日
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2021年3月16日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
40+阅读 · 2020年7月23日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员