CVPR 2022 | 即插即用!BatchFormer:简单有效的探索样本关系通用模块

2022 年 9 月 9 日 PaperWeekly



©作者 |侯志

单位 |  悉尼大学

当前的深度神经网络尽管已经取得了巨大的成功,但仍然面临着来自于数据稀缺的各种挑战,比如数据不平衡,零样本分布,域适应等等。当前已经有各种方法通过样本之间的关系去针对这些问题。然而这些方法并没有去挖掘内在的网络结构来使网络模型建模关系。受这些启发,我们提出了一个使网络能够从训练批次(min-batch)中学习样本关系的 简单有效并且即插即用 Transformer 模块,Batch TransFormer(BatchFormer)。

具体地,BatchFormer 应用于每个训练批次数据的batch维度来隐式地探索样本关系。BatchFormer 使每个批量的样本间能够互相促进学习,比方说,在长尾识别中,利用频繁类别数据促进稀有类别的样本的学习。更进一步地,由于在训练的时候在 batch 维度引用了 Transformer,训练和测试的数据分布不再一致了。

因此我们提出一种共享分类器的策略,来消除在训练和测试的分布偏差从而达到 Batch 不变学习,进而使我们在测试的时候能够移除 BatchFormer。这种共享策略使 BatchFormer 在测试时不增加任何计算负载。不需要任何额外的策略, BatchFormer 在 10 多个数据集上面展示了稳定的提升,包括了长尾分布,组合零样本学习,领域泛化,领域适应,对比学习

最后但是更重要的,基于 DETR,我们进一步将 BatchFormer 扩展到像素级别的任务上面,包括目标检测,全景分割,图像分类。 改进版的 BatchFormer 能够即插即用于 DETR, Deformable DETR, Conditional DETR, SMCA, DeiT。


论文标题:

BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning

论文来源:

CVPR 2022

论文链接:

https://arxiv.org/pdf/2203.01522.pdf (CVPR 2022)

https://arxiv.org/pdf/2204.01254.pdf (V2)

代码链接(V1 & V2):
https://github.com/zhihou7/BatchFormer


介绍


尽管深度学习已经取得了巨大的成功,但是它严重依赖于大量的数据。对大量训练数据的依赖限制了深度模型的实际应用。因此,怎么改善深度模型在数据稀缺的场景下的泛化能力受到了广泛的关注,比如长尾学习,少样本学习,零样本学习,领域泛化。尽管这样,当前仍然缺乏一种简单,统一的探索样本关系的框架来针对各种样本稀缺的问题。一个直观的例子可以见图 1,我们可以利用不同样本的相似性和共享的 part 来改善网络的泛化。


▲ 图1:样本关系的示例.鸟和鸡具有形状上的相似性。并且他们共享着两条腿的特性。


尽管没有单独地阐述样本关系,最近的工作已经内在地探索了样本关系通过约束或者知识迁移。一些常见的例子是 mixup [3] ,copy-paste [4] ,crossgrad [5] 和组合学习 [6] 。这些方法内在地利用样本间存在相似关系和共享部分的关系来增强数据约束模型。

另外一种方式是知识迁移,比如说 1)在频繁类别和稀有类别之间 [7] ,2)从已见类别到未见 [8] ,3)已知域和未知域 [9] . 然而这些方法是从网络的输入或者输出来探索关系,没有设计网络内部结构来学习到样本关系,更没有在 batch 维度进行数据的协同学习。在这篇文章,我们介绍一种网络模块作用到 Batch 维度上去探索样本关系。

然而,训练和测试的不一致(测试的时候,不会总有一个样本)使网络并不容易在 batch 维度学习到样本关系。因为我们在测试的时候,经常会遇到没有 batch 的数据。一个经典的例子是 Batch Normalization。Batch Normalization 总是保留着 mini-batch 统计出的均值和方差,来归一化测试样本。

另外一种方式是使用特征的 memory bank 来保留类别的中心,这样来帮助判别稀有和零样本类别. 不同于以上的方式,我们介绍一种全新的简单有效的模块来通过利用结构的优势探索样本关系对于表示学习的帮助。

具体地,我们尝试在 batch 维度上面引入 Transformer 结构来建模样本关系。在这里,我们主要启发与图结构,没有 positional embedding 时,Transformer 也可以看做是一个全连接图网络。我们把这种模块称为 Batch Transformer 或者 BatchFormer。在实现中,我们在分类器和特征提取器之间插入 BatchFormer。

此外,为了减少测试和训练的偏移,不同于 Batch Normalization 和 Memory Feature Bank, 我们介绍了一种新的策略,共享分类器:我们在 BatchFormer 前后引入共享的分类器。相较于统计的均值方差和 Feature back,共享策略能够让我们在测试的时候不增加任何计算和内存的负载。

尽管加入共享分类器可以使得网络能够有效地改善数据稀缺的分类问题。然而,对于pixel级别的任务来说,这并不非常适用。因此我们进一步将 BatchFormer 泛化到一般化的任务,像目标检测和分割。我们将 BatchFormer 应用到一般的 Transformer 结构中,比如 DETR 和 DeiT,插入到两层空间 Transformer 的中间,同时改进共享分类器为双流结构来保证训练和测试的 batch 不变性。我们把这个方法称为 BatchFormerV2。

一个简单的比较 Channel Attention [10],Visual Transformer [11] 和 BatchFormer 可以如图 2 所示。我们将 Attention 结构从通道和空间维度泛化到 batch 维度,展示了一种新的模型结构的可能。


▲ 图2: Channel Attention在通道做attention,Visual Transformer在空间维度上面做attention,而我们的BatchFormer在Batch维度上面做attention。


简而言之,我们介绍了一种简单有效的针对数据稀缺的 Transformer 模块,取名为 BatchFormer。我们在超过 10 个数据稀缺数据,5 个任务上面展示了方法的有效性。更进一步,我们提出一个 BatchFormerV2 版本,将 BatchFormer 泛化到一般的目标检测和分割任务上面,即插即用地显著改善了 DETR,Deformable-DETR,Conditional DETR,SMCA 的效果。



方法


2.1 BatchFormer


BatchFormer 是一个即插即用的模块,通过探索样本关系对促进表示学习。如图 3 所示,我们在特征提取器后面插入 TransFormer 模块。特别地,我们的 Transformer 是沿着 batch dimension, 也就是说我们把整个 batch 看做一个 sequence。在这里,我们移除了 Transformer 的 positional embedding 以达到位置的不变性学习。

与此同时,我们在 Transformer 前后都加入了一个分类器,注意,这两个分类器是共享的,通过这个共享分类器,使得我们能够保持训练和测试的 batch 不变性。


▲ 图3:模块示意图,我们在分类器前一层插入一个Transformer Encoder模块。该模块作用于Batch维度,而不是空间维度。同时在Transformer前后共享分类器。


BatchFormer 可以通过简单的几行代码实现,如下图所示:



2.2 BatchFormerV2


我们将 BatchFormer 泛化为一个更通用的模块,来促进一般的计算机视觉任务,比如目标检测和分割,图像分类。具体的,我们将 BatchFormer 插入到两层 Visual Transformer 之间,在每个空间的像素点上面进行 Batch Transformer 操作.同时我们将每个空间位置上面的 BatchFormer 共享,如下图所示。


▲ 图4:BatchFormerV2空间维度共享图

同时,我们介绍了一种新的双分支模式,从 BatchFormer 前开始,将每个 Batch 复制一份,让一份 batch 的数据传入原有的网络模块中,让另外一份 batch 的数据经过 BatchFormer 分支。除了 BatchFormerV2 模块外,其他所有模块参数,我们在两个分支中全部共享。这里的目的同共享分类器一致:让模型学到一个batch 不变的特征。模型框架如下:


▲ 图5: BatchFormerV2双分支框架图。BatchFormerV2分支加入了BatchFormer模块,而原有的分支保持不变。两个分支输入的数据是一样的。

BatchFormerV2 也可以通过简单的几行代码实现如下:



2.3 梯度分析


从模型的优化上,BatchFormer 结构改变了梯度传播的方向,使得任意一个样本的特征会贡献到所有其他样本的 loss 计算上面。因此任意一个 loss 算出来的梯度,都会回传到基于其他所有样本计算的梯度上面。从样本的增强角度上面看,BatchFormer 可以看成是隐式地增加了数据。每一个样本特征可以看成是其他样本的虚拟特征 [3] 。这样 BatchFormer 实际上大大增强了样本,所以能够有效地改善数据稀缺的问题。

▲ 图6:BatchFormer梯度回传解析图 



实验结果


这里我们主要展示了我们核心的实验结果,比如目标检测,全景分割,长尾识别,对比学习,域泛化,等等。更多任务的实验和消除分析请参见我们的论文和附录。 


3.1 目标检测



我们发现,BatchFormer 能够即插即用到 DETR 以及 DETR 派生出来的各种方法上面。并且取得了超过一个点的一致性的提升。


3.2 全景分割



我们在全景分割上面,提高了 DETR 1.7% 我们注意到 BatchFormerV2 主要提升了 stuff 的类别。我们的可视化实验也发现,BatchFormerV2 能够更加注意到 object。


3.3 长尾分布




从实验的结果看,BatchFormer 主要提升了 few shot 的类别。在长尾分布中,我们认为 BatchFormer 平衡了数据。


3.4 自监督学习



BatchFormer 一致地改善了 MoCo-V2 和 V3。

3.5 组合零样本学习



3.6 领域泛化



3.7 图像分类




3.8 消除实验


Batch Size



我们基于长尾识别数据集(ImageNet-LT)进行了消除实验。实验中,我们发现batch size 对于模型性能的影响较小。


3.9 梯度分析



我们按照实例的频数降序提取出每个类别的在训练样本中对其他样本的梯度均值。我们发现稀有类别的对其他样本的梯度明显更大。这个实验说明,BatchFormer 实际上是通过梯度传播改善了模型对于不平衡数据的学习。




可视化分析


4.1 Grad-CAM可视化



我们基于 Grad-CAM 可视化了特征图。第二行是我们的基线,第三行是加上 Transformer 模块后的结果。我们发现在长尾分类的稀有样本中,当场景简单的时候模型会注意到物体的更多细节部分,当场景复杂的时候,模型会学会忽略噪音像素而专注到具体物体中。


4.2 全景分割



第二行是我们的基线(DETR),第三行是 DETR 加上我们提出的方法的结果。我们注意到 BatchFormerV2 会显著地改善物体分割的细节。比如上图中桌子脚,飞机的轮子和浴缸边缘。最后一个图片里面展示 BatchFormerV2 能够分割出细小的目,比如草地。



总结与展望


在这篇文章中,我们介绍了一种简单有效,即插即用的 Transformer 模块,我们称之为 BatchFormer。BatchFormer 将 Transformer 应用到网络分类器前一层的 batch 维度,来挖掘样本之间的关系,比如相似性,部分共享性等等。同时我们介绍了一种共享分类器策略,这样我们能达到一种 batch 的不变性,从而在测试的时候移除 BatchFormer,使网络不增加任何计算和内存的负载。 更进一步地,我们介绍一个更一般化的版本,BatchFormerV2。

BatchFormerV2 是一个对 Transformer 结构即插即用的方法。 我们的实验展示 BatchFormer 在长尾识别,组合零样本学习,域泛化都取得了当前最好的效果。 我们在超过 15 个数据集,7 个任务上面展示了 BatchFormer 的有效性。 在接下来,我们将继续基于样本关系对特征的表示学习和模型架构进行探索。


参考文献

1. Hou, Zhi, Baosheng Yu, and Dacheng Tao. "BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning”. CVPR2022

2. Hou, Zhi, et al. "BatchFormerV2: Exploring Sample Relationships for Dense Representation Learning." arXiv preprint arXiv:2204.01254 (2022).

3. Hongyi Zhang, Moustapha Cisse, Yann N Dauphin, and David Lopez-Paz. mixup: Beyond empirical risk minimization. ICLR2018 

4. Golnaz Ghiasi, Yin Cui, Aravind Srinivas, Rui Qian, Tsung- Yi Lin, Ekin D Cubuk, Quoc V Le, and Barret Zoph. Simple copy-paste is a strong data augmentation method for instance segmentation CVPR2021

5. Shiv Shankar, Vihari Piratla, Soumen Chakrabarti, Siddhartha Chaudhuri, Preethi Jyothi, and Sunita Sarawagi. Generalizing across domains via cross-gradient training. In ICLR2018 

6. Zhi Hou, Xiaojiang Peng, Yu Qiao, and Dacheng Tao. Visual compositional learning for human-object interaction detection. ECCV2020

7. Ziwei Liu, Zhongqi Miao, Xiaohang Zhan, Jiayun Wang, Boqing Gong, and Stella X. Yu. Large-scale long-tailed recognition in an open world. In CVPR2019 

8. MF Naeem, Y Xian, F Tombari, and Zeynep Akata. Learning graph embeddings for compositional zero-shot learning. In  CVPR2021 

9. Martin Arjovsky, Le ́on Bottou, Ishaan Gulrajani, and David Lopez-Paz. Invariant risk minimization. 

10. Hu, J., Shen, L., Sun, G.: Squeeze-and-excitation networks. CVPR2018

11. Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., et al.: An image is worth 16x16 words: Transformers for image recognition at scale. ICLR2020



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍

现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧

·

登录查看更多
0

相关内容

【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
31+阅读 · 2021年7月2日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
专知会员服务
32+阅读 · 2021年3月7日
CVPR 2022 | 一键解锁微软亚洲研究院计算机视觉领域前沿进展!
微软研究院AI头条
0+阅读 · 2022年6月21日
【AAAI2022】跨域少样本图分类
专知
1+阅读 · 2022年1月22日
GNN + Transformer = GraphFormers
图与推荐
6+阅读 · 2021年11月24日
CVPR 2018 |“寻找”极小人脸
极市平台
14+阅读 · 2018年7月11日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
Arxiv
12+阅读 · 2021年11月1日
Arxiv
10+阅读 · 2021年2月26日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
相关论文
Top
微信扫码咨询专知VIP会员