Unsupervised domain adaptation (UDA) for semantic segmentation aims to transfer knowledge from a labeled source domain to an unlabeled target domain. Despite the effectiveness of self-training techniques in UDA, they struggle to learn each class in a balanced manner due to inherent class imbalance and distribution shift in both data and label space between domains. To address this issue, we propose Balanced Learning for Domain Adaptation (BLDA), a novel approach to directly assess and alleviate class bias without requiring prior knowledge about the distribution shift. First, we identify over-predicted and under-predicted classes by analyzing the distribution of predicted logits. Subsequently, we introduce a post-hoc approach to align the logits distributions across different classes using shared anchor distributions. To further consider the network's need to generate unbiased pseudo-labels during self-training, we estimate logits distributions online and incorporate logits correction terms into the loss function. Moreover, we leverage the resulting cumulative density as domain-shared structural knowledge to connect the source and target domains. Extensive experiments on two standard UDA semantic segmentation benchmarks demonstrate that BLDA consistently improves performance, especially for under-predicted classes, when integrated into various existing methods. Code is available at https://github.com/Woof6/BLDA.


翻译:语义分割的无监督领域自适应(UDA)旨在将知识从有标注的源领域迁移到无标注的目标领域。尽管自训练技术在UDA中表现出色,但由于领域间数据和标签空间固有的类别不平衡与分布偏移,这些方法难以以平衡的方式学习每个类别。为解决这一问题,我们提出了领域自适应平衡学习(BLDA),这是一种无需预先了解分布偏移即可直接评估并缓解类别偏差的新方法。首先,我们通过分析预测逻辑值的分布来识别过预测和欠预测的类别。随后,我们引入一种后处理方法,利用共享锚点分布对不同类别的逻辑值分布进行对齐。为进一步考虑网络在自训练过程中生成无偏伪标签的需求,我们在线估计逻辑值分布,并将逻辑值校正项纳入损失函数。此外,我们利用所得累积密度作为领域共享的结构知识来连接源领域和目标领域。在两个标准UDA语义分割基准上的大量实验表明,当BLDA集成到多种现有方法中时,能持续提升性能,尤其对于欠预测的类别。代码发布于 https://github.com/Woof6/BLDA。

0
下载
关闭预览

相关内容

【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员