We address the question of characterizing and finding optimal representations for supervised learning. Traditionally, this question has been tackled using the Information Bottleneck, which compresses the inputs while retaining information about the targets, in a decoder-agnostic fashion. In machine learning, however, our goal is not compression but rather generalization, which is intimately linked to the predictive family or decoder of interest (e.g. linear classifier). We propose the Decodable Information Bottleneck (DIB) that considers information retention and compression from the perspective of the desired predictive family. As a result, DIB gives rise to representations that are optimal in terms of expected test performance and can be estimated with guarantees. Empirically, we show that the framework can be used to enforce a small generalization gap on downstream classifiers and to predict the generalization ability of neural networks.


翻译:我们处理的是监督学习的特征化和找到最佳表现方式的问题。传统上,这个问题是通过信息瓶颈来解决的,信息瓶颈一方面压缩投入,另一方面保留关于目标的信息,以解码器和不可知性的方式加以压缩。然而,在机器学习中,我们的目标不是压缩,而是概括化,这与预测性家庭或利益分离者(如线性分类者)密切相关。我们建议代号信息瓶颈(DIB)从理想的预测性家庭的角度考虑信息保留和压缩问题。结果,DIB产生了在预期测试性能方面最理想的表述,并且可以有保证地加以估计。我们生动地表明,这个框架可以用来在下游分类者或利益分离者(如线性分类者)上实施小型的概括化差距,并预测神经网络的普遍化能力。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
53+阅读 · 2019年12月22日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年9月15日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
24+阅读 · 2021年1月25日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
13+阅读 · 2020年4月12日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2021年9月15日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
24+阅读 · 2021年1月25日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
13+阅读 · 2020年4月12日
Top
微信扫码咨询专知VIP会员