Convolutional neural networks may perform poorly when the test and train data are from different domains. While this problem can be mitigated by using the target domain data to align the source and target domain feature representations, the target domain data may be unavailable due to privacy concerns. Consequently, there is a need for methods that generalize well without access to target domain data during training. In this work, we propose an adversarial hallucination approach, which combines a class-wise hallucination module and a semantic segmentation module. Since the segmentation performance varies across different classes, we design a semantic-conditioned style hallucination layer to adaptively stylize each class. The classwise stylization parameters are generated from the semantic knowledge in the segmentation probability maps of the source domain image. Both modules compete adversarially, with the hallucination module generating increasingly 'difficult' style images to challenge the segmentation module. In response, the segmentation module improves its performance as it is trained with generated samples at an appropriate class-wise difficulty level. Experiments on state of the art domain adaptation work demonstrate the efficacy of our proposed method when no target domain data are available for training.


翻译:当测试和训练数据来自不同领域时,进化神经网络可能表现不佳。 这个问题可以通过使用目标域数据对源和目标域特征表示进行匹配来缓解, 目标域数据可能因隐私问题而无法获得。 因此, 需要一些方法在培训期间在不访问目标域数据的情况下将目标域数据普遍化。 在这项工作中, 我们提出一种对抗性幻觉方法, 将等级错觉模块和语义分解模块结合起来。 由于分解性能在不同类别之间不同, 我们设计了一个具有语义性、 风格的幻觉层, 以适应性地对每类进行拼凑。 类顺流化参数来自源域图像分解概率图中的语义知识。 两个模块都存在对抗性竞争, 与产生日益“ 难度” 风格图像的幻觉模块竞争, 以挑战分解模块。 作为回应, 分解性模块在用生成的样本培训时, 其性能在适当的级别困难级别上得到提高。 艺术域适应性实验显示我们拟议方法的功效, 当没有目标域数据可供培训时, 。

0
下载
关闭预览

相关内容

已删除
将门创投
4+阅读 · 2020年1月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员