Convolutional neural networks may perform poorly when the test and train data are from different domains. While this problem can be mitigated by using the target domain data to align the source and target domain feature representations, the target domain data may be unavailable due to privacy concerns. Consequently, there is a need for methods that generalize well without access to target domain data during training. In this work, we propose an adversarial hallucination approach, which combines a class-wise hallucination module and a semantic segmentation module. Since the segmentation performance varies across different classes, we design a semantic-conditioned style hallucination layer to adaptively stylize each class. The classwise stylization parameters are generated from the semantic knowledge in the segmentation probability maps of the source domain image. Both modules compete adversarially, with the hallucination module generating increasingly 'difficult' style images to challenge the segmentation module. In response, the segmentation module improves its performance as it is trained with generated samples at an appropriate class-wise difficulty level. Experiments on state of the art domain adaptation work demonstrate the efficacy of our proposed method when no target domain data are available for training.


翻译:当测试和训练数据来自不同领域时,进化神经网络可能表现不佳。 这个问题可以通过使用目标域数据对源和目标域特征表示进行匹配来缓解, 目标域数据可能因隐私问题而无法获得。 因此, 需要一些方法在培训期间在不访问目标域数据的情况下将目标域数据普遍化。 在这项工作中, 我们提出一种对抗性幻觉方法, 将等级错觉模块和语义分解模块结合起来。 由于分解性能在不同类别之间不同, 我们设计了一个具有语义性、 风格的幻觉层, 以适应性地对每类进行拼凑。 类顺流化参数来自源域图像分解概率图中的语义知识。 两个模块都存在对抗性竞争, 与产生日益“ 难度” 风格图像的幻觉模块竞争, 以挑战分解模块。 作为回应, 分解性模块在用生成的样本培训时, 其性能在适当的级别困难级别上得到提高。 艺术域适应性实验显示我们拟议方法的功效, 当没有目标域数据可供培训时, 。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
专知会员服务
60+阅读 · 2020年3月19日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
Top
微信扫码咨询专知VIP会员