In this work, we investigate the unexplored intersection of domain generalization and data-free learning. In particular, we address the question: How can knowledge contained in models trained on different source data domains can be merged into a single model that generalizes well to unseen target domains, in the absence of source and target domain data? Machine learning models that can cope with domain shift are essential for for real-world scenarios with often changing data distributions. Prior domain generalization methods typically rely on using source domain data, making them unsuitable for private decentralized data. We define the novel problem of Data-Free Domain Generalization (DFDG), a practical setting where models trained on the source domains separately are available instead of the original datasets, and investigate how to effectively solve the domain generalization problem in that case. We propose DEKAN, an approach that extracts and fuses domain-specific knowledge from the available teacher models into a student model robust to domain shift. Our empirical evaluation demonstrates the effectiveness of our method which achieves first state-of-the-art results in DFDG by significantly outperforming ensemble and data-free knowledge distillation baselines.


翻译:在这项工作中,我们调查了域通用和无数据学习的未探索交叉点。我们特别探讨了以下问题:在没有源和目标域数据的情况下,如何将不同源数据领域培训模型中所包含的知识整合成一个单一模型,该模型能够向无形目标域广泛推广?能够应对域变的机械学习模型对于现实世界情景和数据分配经常变化的情景至关重要。前域通用方法通常依赖于使用源域数据,使其不适合于私人分散的数据。我们界定了数据无域化这一新问题,即数据无域通用(DFDDDG)这一实际设置,即单独提供源域培训模型,而不是原始数据集,并调查如何有效解决域化问题。我们建议DEKAN,这是一种从现有教师模型中提取和整合特定领域知识的方法,可以将特定领域知识纳入一个强有力的域变模式。我们的经验评估表明,通过显著超过可编集和无数据知识蒸馏基准,我们实现DDG第一个状态成果的方法的有效性。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2020年12月1日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
已删除
将门创投
11+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月20日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
13+阅读 · 2021年3月3日
Arxiv
5+阅读 · 2020年3月17日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
11+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员