最近,人们努力利用视觉transformer (ViT)来完成具有挑战性的无监督域适应(UDA)任务。它们通常采用ViT中的交叉注意力来进行直接域对齐。然而,由于交叉注意力的性能高度依赖于目标样本的伪标签质量,当域差距较大时,交叉注意力的效果就会变差。本文从博弈论的角度解决这个问题,提出了PMTrans模型,将源域和目标域与中间域连接起来。提出了一个新的基于vit的模块PatchMix,通过学习基于博弈论模型从两个域采样补丁,有效地建立了中间域,即概率分布。通过这种方式,它学会混合来自源域和目标域的块以最大化交叉熵(CE),同时利用特征和标签空间中的两个半监督mixup损失来最小化它。将UDA的过程解释为一个有三个参与者的最小最大CE游戏,包括特征提取器、分类器和PatchMix,以找到纳什均衡。利用ViT的注意图,根据每个块的重要性重新加权每个块的标签,使其能够获得更具有领域区分性的特征表示。在四个基准数据集上进行了广泛的实验,结果表明,PMTrans在Office-Home上显著优于基于ViT和基于CNN的SoTA方法,分别在Office31和DomainNet上提高了3.6%、1.4%和17.7%。https: / / vlis2022.github.io / cvpr23 / PMTrans。

成为VIP会员查看完整内容
29

相关内容

【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
CVPR2022 | Sparse Transformer刷新点云目标检测的SOTA
专知会员服务
24+阅读 · 2022年3月9日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
19+阅读 · 2021年3月2日
专知会员服务
44+阅读 · 2021年1月31日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
ICLR'22 | 基于Transformer的跨域方法
图与推荐
1+阅读 · 2022年9月7日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月16日
Arxiv
35+阅读 · 2022年3月14日
VIP会员
相关VIP内容
【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
CVPR2022 | Sparse Transformer刷新点云目标检测的SOTA
专知会员服务
24+阅读 · 2022年3月9日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
19+阅读 · 2021年3月2日
专知会员服务
44+阅读 · 2021年1月31日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员