【NeurIPS2020】通过最大编码率降低原理学习多样和有判别性的表示

2020 年 10 月 1 日 专知


为了从最能区分类的高维数据中学习内在的低维结构,我们提出了最大编码率降低原理(MCR2),这是一种信息理论度量,可以最大限度地提高整个数据集和每个类的编码率差。明确了它与交叉熵、信息瓶颈、信息增益、压缩学习和对比学习等现有框架的关系,为学习多样性和有判别性表示提供了理论保障。该编码率可以从简并类子空间分布的有限样本中精确地计算出来,并且可以统一地学习有监督、自监督和无监督三种情况下的本征表示。特别地,单独使用该原理学习的表示比使用交叉熵学习的表示在分类中标记错误时具有更强的鲁棒性,并且可以在自学习不变特征聚类混合数据方面产生最先进的结果。


https://www.zhuanzhi.ai/paper/fb91343d453aad8707064021f94bb9de



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“MCR2” 可以获取《【NeurIPS2020】通过最大编码率降低原理学习多样和有判别性的表示》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
4

相关内容

神经信息处理系统年会(Annual Conference on Neural Information Processing Systems)的目的是促进有关神经信息处理系统生物学,技术,数学和理论方面的研究交流。核心重点是在同行会议上介绍和讨论的同行评审新颖研究,以及各自领域的领导人邀请的演讲。在周日的世博会上,我们的顶级行业赞助商将就具有学术意义的主题进行讲座,小组讨论,演示和研讨会。星期一是教程,涵盖了当前的问询,亲和力小组会议以及开幕式演讲和招待会的广泛背景。一般会议在星期二至星期四举行,包括演讲,海报和示范。 官网地址:http://dblp.uni-trier.de/db/conf/nips/
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
专知会员服务
41+阅读 · 2020年2月20日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Pluralistic Image Completion
Arxiv
8+阅读 · 2019年3月11日
Arxiv
9+阅读 · 2018年5月24日
VIP会员
相关VIP内容
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
专知会员服务
41+阅读 · 2020年2月20日
Top
微信扫码咨询专知VIP会员