Out-of-distribution generalization is one of the key challenges when transferring a model from the lab to the real world. Existing efforts mostly focus on building invariant features among source and target domains. Based on invariant features, a high-performing classifier on source domains could hopefully behave equally well on a target domain. In other words, the invariant features are \emph{transferable}. However, in practice, there are no perfectly transferable features, and some algorithms seem to learn "more transferable" features than others. How can we understand and quantify such \emph{transferability}? In this paper, we formally define transferability that one can quantify and compute in domain generalization. We point out the difference and connection with common discrepancy measures between domains, such as total variation and Wasserstein distance. We then prove that our transferability can be estimated with enough samples and give a new upper bound for the target error based on our transferability. Empirically, we evaluate the transferability of the feature embeddings learned by existing algorithms for domain generalization. Surprisingly, we find that many algorithms are not quite learning transferable features, although few could still survive. In light of this, we propose a new algorithm for learning transferable features and test it over various benchmark datasets, including RotatedMNIST, PACS, Office-Home and WILDS-FMoW. Experimental results show that the proposed algorithm achieves consistent improvement over many state-of-the-art algorithms, corroborating our theoretical findings.


翻译:在将一个模型从实验室转移到真实世界时,超出分配的通用性是一个关键的挑战。 现有的努力主要侧重于在源域和目标域间建立差异性特征。 基于变量性特征, 源域上高性分类者在目标域上可能表现得同样良好。 换句话说, 差异性特征是 \ emph{ 可转让} 。 然而, 在实际中, 没有完全可转让的特性, 一些算法似乎学习到“ 更可转让” 的特性。 我们如何理解和量化这种可转移性? 在本文中, 我们正式定义可转让性, 从而在源域常规化和目标域域域域域间进行量化和计算。 我们指出, 源域间通用差异性分类方法的差异和关联性。 换句话说, 我们的可转让性特征可以用足够的样本来估计, 并且根据我们的可转移性给出新的目标错误的上限。 我们很可能会评估从现有通用算法中学到的特性的可传递性。 令人惊讶的是, 我们发现, 许多的逻辑性矩阵性结果并不是可以相当可转让的, 。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
9+阅读 · 2017年10月17日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2020年8月30日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
9+阅读 · 2017年10月17日
相关论文
Arxiv
16+阅读 · 2021年7月18日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
8+阅读 · 2020年8月30日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员