【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示

2020 年 10 月 13 日 专知


我们解决了监督学习的特征化和寻找最优表示的问题。传统上,这个问题通过使用信息瓶颈来解决,即压缩输入,同时保留关于目标的信息,这种方式与解码器无关。然而,在机器学习中,我们的目标不是压缩而是泛化,这与我们感兴趣的预测族或译码器(例如线性分类器)密切相关。我们提出了可解码信息瓶颈(DIB),它从预期预测族的角度考虑信息的保留和压缩。因此,DIB产生了预期测试性能方面的最优表示,并且可以在保证的情况下进行估计。实验表明,该框架可以在下游分类器上施加一个小的泛化间隙,并预测神经网络的泛化能力。


https://www.zhuanzhi.ai/paper/89c6cd33631078ee766b8b8dc409a503


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DIB” 可以获取《【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
专知会员服务
41+阅读 · 2020年2月20日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【干货书】计算机科学离散数学,627页pdf
专知
60+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
23+阅读 · 2017年3月9日
VIP会员
相关VIP内容
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
专知会员服务
41+阅读 · 2020年2月20日
相关论文
Top
微信扫码咨询专知VIP会员