Convolutional neural networks typically perform poorly when the test (target domain) and training (source domain) data have significantly different distributions. While this problem can be mitigated by using the target domain data to align the source and target domain feature representations, the target domain data may be unavailable due to privacy concerns. Consequently, there is a need for methods that generalize well despite restricted access to target domain data during training. In this work, we propose an adversarial semantic hallucination approach (ASH), which combines a class-conditioned hallucination module and a semantic segmentation module. Since the segmentation performance varies across different classes, we design a semantic-conditioned style hallucination module to generate affine transformation parameters from semantic information in the segmentation probability maps of the source domain image. Unlike previous adaptation approaches, which treat all classes equally, ASH considers the class-wise differences. The segmentation module and the hallucination module compete adversarially, with the hallucination module generating increasingly "difficult" stylized images to challenge the segmentation module. In response, the segmentation module improves as it is trained with generated samples at an appropriate class-wise difficulty level. Our results on the Cityscapes and Mapillary benchmark datasets show that our method is competitive with state of the art work. Code is made available at https://github.com/gabriel-tjio/ASH.


翻译:测试( 目标域) 和培训( 源域) 数据分布差异很大, 测试( 目标域) 和培训( 源域) 数据( 源域) 数据通常表现不佳。 使用目标域数据对源和目标域特性表示表示, 这个问题可以缓解, 但目标域数据可能因隐私问题而无法使用。 因此, 需要一些方法, 尽管在培训期间对目标域数据的访问受到限制, 但仍要将目标域数据普遍化。 在这项工作中, 我们建议采用对抗性语义错觉幻觉方法( ASH), 这种方法结合一个有等级限制的幻觉模块和一个语义分化模块。 由于分化性功能在不同类别之间不同, 我们设计了一个语义固定风格的幻觉模组模组, 我们设计了一个语义定型幻觉模组模组时的分解模模模模模模模模模模模模模模模模模模模模模, 来用生成的正标法显示我们市级/ 的变数阶值标准值数据是适当的基数级/ 。 我们的校正的校正的校正的校正的校正的校略数据是比较的难度。

0
下载
关闭预览

相关内容

Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员