为了从最能区分类的高维数据中学习内在的低维结构,我们提出了最大编码率降低原理(MCR2),这是一种信息理论度量,可以最大限度地提高整个数据集和每个类的编码率差。明确了它与交叉熵、信息瓶颈、信息增益、压缩学习和对比学习等现有框架的关系,为学习多样性和有判别性表示提供了理论保障。该编码率可以从简并类子空间分布的有限样本中精确地计算出来,并且可以统一地学习有监督、自监督和无监督三种情况下的本征表示。特别地,单独使用该原理学习的表示比使用交叉熵学习的表示在分类中标记错误时具有更强的鲁棒性,并且可以在自学习不变特征聚类混合数据方面产生最先进的结果。

https://www.zhuanzhi.ai/paper/fb91343d453aad8707064021f94bb9de

成为VIP会员查看完整内容
14

相关内容

表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
专知会员服务
27+阅读 · 2020年10月24日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【ICML2020】通过神经引导的A*搜索学习逆合成设计
专知会员服务
16+阅读 · 2020年8月18日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
专知会员服务
41+阅读 · 2020年2月20日
CVPR 2019 | 一个高阶张量搞定整个全卷积网络
机器之心
9+阅读 · 2019年5月12日
一种小目标检测中有效的数据增强方法
极市平台
117+阅读 · 2019年3月23日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
字词的向量表示
黑龙江大学自然语言处理实验室
4+阅读 · 2016年6月13日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
4+阅读 · 2018年4月17日
VIP会员
相关VIP内容
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
专知会员服务
27+阅读 · 2020年10月24日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【ICML2020】通过神经引导的A*搜索学习逆合成设计
专知会员服务
16+阅读 · 2020年8月18日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
专知会员服务
41+阅读 · 2020年2月20日
相关资讯
CVPR 2019 | 一个高阶张量搞定整个全卷积网络
机器之心
9+阅读 · 2019年5月12日
一种小目标检测中有效的数据增强方法
极市平台
117+阅读 · 2019年3月23日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
字词的向量表示
黑龙江大学自然语言处理实验室
4+阅读 · 2016年6月13日
微信扫码咨询专知VIP会员