Convolutional neural networks may perform poorly when the test and train data are from different domains. While this problem can be mitigated by using the target domain data to align the source and target domain feature representations, the target domain data may be unavailable due to privacy concerns. Consequently, there is a need for methods that generalize well without access to target domain data during training. In this work, we propose an adversarial hallucination approach, which combines a class-wise hallucination module and a semantic segmentation module. Since the segmentation performance varies across different classes, we design a semantic-conditioned style hallucination layer to adaptively stylize each class. The classwise stylization parameters are generated from the semantic knowledge in the segmentation probability maps of the source domain image. Both modules compete adversarially, with the hallucination module generating increasingly 'difficult' style images to challenge the segmentation module. In response, the segmentation module improves its performance as it is trained with generated samples at an appropriate class-wise difficulty level. Experiments on state of the art domain adaptation work demonstrate the efficacy of our proposed method when no target domain data are available for training.


翻译:当测试和训练数据来自不同领域时,进化神经网络可能表现不佳。 这个问题可以通过使用目标域数据对源和目标域特征表示进行匹配来缓解, 目标域数据可能因隐私问题而无法获得。 因此, 需要一些方法在培训期间在不访问目标域数据的情况下将目标域数据普遍化。 在这项工作中, 我们提出一种对抗性幻觉方法, 将等级错觉模块和语义分解模块结合起来。 由于分解性能在不同类别之间不同, 我们设计了一个具有语义性、 风格的幻觉层, 以适应性地对每类进行拼凑。 类顺流化参数来自源域图像分解概率图中的语义知识。 两个模块都存在对抗性竞争, 与产生日益“ 难度” 风格图像的幻觉模块竞争, 以挑战分解模块。 作为回应, 分解性模块在用生成的样本培训时, 其性能在适当的级别困难级别上得到提高。 艺术域适应性实验显示我们拟议方法的功效, 当没有目标域数据可供培训时, 。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generalized Source-free Domain Adaptation
Arxiv
0+阅读 · 2021年8月3日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
相关资讯
Top
微信扫码咨询专知VIP会员