Deep predictive models often make use of spurious correlations between the label and the covariates that differ between training and test distributions. In many classification tasks, spurious correlations are induced by a changing relationship between the label and some nuisance variables correlated with the covariates. For example, in classifying animals in natural images, the background, which is the nuisance, can predict the type of animal, but this nuisance label relationship does not always hold. This nuisance-label relationship does not always hold. We formalize a family of distributions that only differ in the nuisance-label relationship and and introduce a distribution where this relationship is broken called the nuisance-randomized distribution. We introduce a set of predictive models built from the nuisance-randomized distribution with representations, that when conditioned on, do not correlate the label and the nuisance. For models in this set, we lower bound the performance for any member of the family with the mutual information between the representation and the label under the nuisance-randomized distribution. To build predictive models that maximize the performance lower bound, we develop Nuisance-Randomized Distillation (NURD). We evaluate NURD on a synthetic example, colored-MNIST, and classifying chest X-rays. When using non-lung patches as the nuisance in classifying chest X-rays, NURD produces models that predict pneumonia under strong spurious correlations.


翻译:深度预测模型往往使用标签与不同培训和测试分布之间差异的共变点之间的虚假关联。 在许多分类任务中, 标签和一些与共变点相关的麻烦变量之间的关系不断变化, 从而引发了虚假关联。 例如, 在自然图像中对动物进行分类时, 背景, 也就是讨厌, 可以预测动物的类型, 但这种令人不安的标签关系并不总是能维持。 这种骚扰标签关系并不总是能维持下去。 我们正式确定一个分布分布的组合, 分布的分布在骚扰标签关系和测试分布之间各有差异, 并引入一个分布的分布, 这种关系被打破时, 标签和一些骚扰异常变量的分布。 我们引入了一套预测模型, 建构了一套预测模型, 建构了骚扰- 随机分布, 设置时, 没有将标签和骚扰标签和骚扰标签关系联系起来。 对于这套模型, 我们降低了任何家庭成员的性能, 与我们进行不骚扰性标签- 标签- 不稳定性标签- 内部分配之间的相互信息, 并引入了一种预测性模型。 (我们用NUDLI- 进行 和 模拟 优化, 优化 优化 数据,, 将 优化 优化 数据 优化 优化 优化, 优化, 进行 进行 进行 进行 进行 进行 优化 进行 进行 进行 的 的 进行 更新 更新 进行 进行 更新- 进行 进行 更新- 更新- 更新- 和 更新- 更新- 数据 进行 进行 更新- 进行 进行 进行 更新- 进行 更新 进行 和 更新- 更新- 进行 进行 核比较 。

1
下载
关闭预览

相关内容

专知会员服务
47+阅读 · 2021年4月24日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
专知会员服务
169+阅读 · 2020年8月26日
一份简单《图神经网络》教程,28页ppt
专知会员服务
120+阅读 · 2020年8月2日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
39+阅读 · 2020年7月27日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
101+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Inductive Relation Prediction by Subgraph Reasoning
Arxiv
11+阅读 · 2020年2月12日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关VIP内容
专知会员服务
47+阅读 · 2021年4月24日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
专知会员服务
169+阅读 · 2020年8月26日
一份简单《图神经网络》教程,28页ppt
专知会员服务
120+阅读 · 2020年8月2日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
39+阅读 · 2020年7月27日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
101+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员