Unsupervised domain adaptation (UDA) for person re-identification is challenging because of the huge gap between the source and target domain. A typical self-training method is to use pseudo-labels generated by clustering algorithms to iteratively optimize the model on the target domain. However, a drawback to this is that noisy pseudo-labels generally cause trouble in learning. To address this problem, a mutual learning method by dual networks has been developed to produce reliable soft labels. However, as the two neural networks gradually converge, their complementarity is weakened and they likely become biased towards the same kind of noise. This paper proposes a novel light-weight module, the Attentive WaveBlock (AWB), which can be integrated into the dual networks of mutual learning to enhance the complementarity and further depress noise in the pseudo-labels. Specifically, we first introduce a parameter-free module, the WaveBlock, which creates a difference between features learned by two networks by waving blocks of feature maps differently. Then, an attention mechanism is leveraged to enlarge the difference created and discover more complementary features. Furthermore, two kinds of combination strategies, i.e. pre-attention and post-attention, are explored. Experiments demonstrate that the proposed method achieves state-of-the-art performance with significant improvements on multiple UDA person re-identification tasks. We also prove the generality of the proposed method by applying it to vehicle re-identification and image classification tasks. Our codes and models are available at https://github.com/WangWenhao0716/Attentive-WaveBlock.


翻译:由于源与目标域之间存在巨大差距,未经监督的人重新身份的域适应(UDA)具有挑战性。典型的自我培训方法是使用组合算法生成的假标签来迭接优化目标域域的模型。然而,一个缺点是,噪音的假标签通常会给学习造成麻烦。为了解决这个问题,开发了双轨网络的相互学习方法,以产生可靠的软标签。然而,由于两个神经网络逐渐趋同,它们的互补性被削弱,并可能偏向于同类噪音。本文提出一个新的轻型模块,即Atentional-Waveblock(AWB),可以将其纳入双轨学习网络,以加强互补性和进一步压制假标签域域域的模型。具体地说,我们首先引入一个无参数模块,即WaveBlock(WaveBlock),这在两个网络通过移动地貌图块群块而学习的特征之间造成了差异。然后,一个关注机制被用来扩大所创造的差异,并发现更多的互补特征。此外,两种组合战略,即Orvial-deal-deal-deal-laview-deal laview-deal-laviewal laview-deal-laview-laview-h-laview-laview-de-de-lade-laview-de-de-laview-laview-laview-de-de-de-de-de-lade-s-s-s-s-laviolviolviolviolviolvial-de-de-s-de-de-de-de-de-laviolvial-s-s-s-s-de-s-s-s-s-s-s-s-s-s-s-s-violviolvial-a-s-s-s-a-s-s-a-a-a-a-a-a-de-viol-viol-viol-vial-de-de-de-de-de-viol-viol-via-via-via-de-de-de-de-de-viol-de-de-vi), 以及我们制制制制成,还有, 和我们我们制制制制制制制

0
下载
关闭预览

相关内容

【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
59+阅读 · 2020年6月25日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
PTGAN for Person Re-Identification
统计学习与视觉计算组
4+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
相关VIP内容
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
59+阅读 · 2020年6月25日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
PTGAN for Person Re-Identification
统计学习与视觉计算组
4+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员