Information bottleneck (IB) depicts a trade-off between the accuracy and conciseness of encoded representations. IB has succeeded in explaining the objective and behavior of neural networks (NNs) as well as learning better representations. However, there are still critics of the universality of IB, e.g., phase transition usually fades away, representation compression is not causally related to generalization, and IB is trivial in deterministic cases. In this work, we build a new IB based on the trade-off between the accuracy and complexity of learned weights of NNs. We argue that this new IB represents a more solid connection to the objective of NNs since the information stored in weights (IIW) bounds their PAC-Bayes generalization capability, hence we name it as PAC-Bayes IB (PIB). On IIW, we can identify the phase transition phenomenon in general cases and solidify the causality between compression and generalization. We then derive a tractable solution of PIB and design a stochastic inference algorithm by Markov chain Monte Carlo sampling. We empirically verify our claims through extensive experiments. We also substantiate the superiority of the proposed algorithm on training NNs.


翻译:信息瓶颈(IB) 描述了编码代表的准确性和简洁性之间的权衡。 IB 成功地解释了神经网络的目标和行为,并学习了更好的表述。然而,仍然有人批评IB的普遍性,例如,阶段过渡通常会消失,代表压缩并不因果而与一般化有关,IB在确定性案例中是微不足道的。在这项工作中,我们根据所学 NNC 重量的准确性和复杂性之间的权衡,建立了一个新的IB。我们认为,这一新IB 与NNC 的目标有着更牢固的联系,因为储存在重量中的信息限制了其PAC-Bayes一般化能力,因此我们将其命名为PAC-Bayes IB(PIB)。关于IW,我们可以确定一般情况下的阶段过渡现象,并巩固压缩和一般化之间的因果关系。我们随后得出PIB的可感性解决办法,并设计了Markov 链 蒙特卡洛 取样的推论算法。我们还通过广泛的实验证实了我们提出的高超度要求。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
50+阅读 · 2020年12月14日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
【UAI 2019 Tutorials】深度学习数学(Mathematics of Deep Learning)
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年11月24日
Arxiv
0+阅读 · 2021年11月24日
Hyperspherical Variational Auto-Encoders
Arxiv
4+阅读 · 2018年9月26日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Top
微信扫码咨询专知VIP会员