我们解决了监督学习的特征化和寻找最优表示的问题。传统上,这个问题通过使用信息瓶颈来解决,即压缩输入,同时保留关于目标的信息,这种方式与解码器无关。然而,在机器学习中,我们的目标不是压缩而是泛化,这与我们感兴趣的预测族或译码器(例如线性分类器)密切相关。我们提出了可解码信息瓶颈(DIB),它从预期预测族的角度考虑信息的保留和压缩。因此,DIB产生了预期测试性能方面的最优表示,并且可以在保证的情况下进行估计。实验表明,该框架可以在下游分类器上施加一个小的泛化间隙,并预测神经网络的泛化能力。

https://www.zhuanzhi.ai/paper/89c6cd33631078ee766b8b8dc409a503

成为VIP会员查看完整内容
22

相关内容

【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
专知会员服务
44+阅读 · 2020年9月3日
专知会员服务
28+阅读 · 2020年8月8日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
论文浅尝 | 基于开放世界的知识图谱补全
开放知识图谱
11+阅读 · 2018年7月3日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
Arxiv
0+阅读 · 2020年11月19日
Compositional Generalization in Image Captioning
Arxiv
3+阅读 · 2019年9月16日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
VIP会员
相关VIP内容
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
专知会员服务
44+阅读 · 2020年9月3日
专知会员服务
28+阅读 · 2020年8月8日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
相关资讯
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
论文浅尝 | 基于开放世界的知识图谱补全
开放知识图谱
11+阅读 · 2018年7月3日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
微信扫码咨询专知VIP会员