作者单位:
论文链接:
代码链接:
我们将众多 mixup 相关的方法实现在我们的开源框架 OpenMixup 中,支持多种主流网络架构(CNNs, ViTs, etc.)、各类实验设定和常用数据集(CIFAR, ImageNet, CUB-200, etc.),我们提供了常用数据集上 mixup benchmark。同时,OpenMixup 支持了主流自监督学习算法(对比学习和 Masked Image Modeling),欢迎大家试用和关注。
我们发表于 ECCV 2022(Oral)的工作尝试并实现了一种具有“闭环自反馈”的学习框架(AutoMix)以解决“数据-模型”动态系统中的复杂度和准确性的权衡问题。具体来讲这是一个数据随模型变化,模型随数据更新的双层优化问题。不同于固定的数据增广策略的模式(独立于模型的优化),AutoMix 将参数化后的 mixup 数据增广策略融入到判别模型中,形成一个完整的数据与模型相互学习的闭环系统,即同时学习 mixup 样本的(1)生成任务和 (2)判别任务。
(1)是根据判别模型的状态自适应的学习精确的数据生成策略;(2)则是基于所学习的增广策略来增强模型对数据中重要特征的判别能力。这两种子任务服务于一个相同的优化目标,具有自一致性。大量实验也表明,判别式模型在 AutoMix 的闭环自学习系统(自一致性+闭环反馈)中具有更高效学习效率和明显的性能提升。
神经网络模型(DNNs)的泛化性能在机器学习领域一直受到广泛的关注和研究,DNNs 能兼具高性能和泛化性通常需要满足两个条件:1)过参数化的模型。2)充足的训练样本。但是,在数据量不足或 DNNs 模型复杂度过高的情况下,模型容易出现过拟合现象,导致性能和泛化能力明显下降。
数据增强(Data Augmentation, DA)算法作为一种 DNNs 正则化手段能够显著提升模型的泛化性能,而基于数据混合(Data Mixing)的一系列数据增强算法,兼顾了样本和标签。基于混合的增广算法通过凸性组合(Convex Combination)来生成虚拟样本和标签,达到扩充样本量和提高数据分布多样性的目的。
样本混合增强算法的核心问题是如何生成合理的混合样本以及对应的混合标签,在图像分类任务中,一般固定混合标签的生成方式,改进混合图像的生成算法。如下图所示,CutMix 将一张图像的局部区域随机替换为另一张图像的对应区域,并根据混合图像上不同像素的面积比例生成混合标签。但是由于 CutMix 在原图上选取局部区域的位置和尺寸均是随机选择,可能出现被切割的区域不包含分类任务相关目标的现象,这将导致混合标签与混合图像中目标的语义不匹配而误导模型的优化。
为了解决该问题,PuzzleMix 和 Co-Mixup 等基于图像显著性区域(Saliency Region)和组合优化算法设计了较为精确的样本混合策略,使得类别相关的区域在混合后的样本中保留下来。但是这种间接优化方式引入了大量的额外运算开销,这对于追求高效的数据增广方法而言是极为不利的。因此,该工作主要讨论了以下两个问题:
如何高效的解决 mixup 生成和分类的双层优化问题?
为了解决这两个问题,我们先对 mixup 问题进行了重定义并提出了“闭环自反馈”框架:automatic mixup(AutoMix)。如下图所示,AutoMix 不仅可以精确定位目标区域并准确生成混合样本,而且在一定程度上减少了额外计算成本,提高了训练效率。
3.2 Mixup reformulation
3.3 Offline mixup limits the power of mixup
4.1 Parametric Mixup Generation
的目标是生成一个像素级的掩码 ,用于混合输入空间的样本对 和 。由于 是计算样本对之间的关系并且在输入空间使用,所以参数化的混合函数中需要包含相似度矩阵 的计算和上采样函数 。此外,由于 mixup 的对称性, 。以 为例子, 的计算过程可以写成这样:
为线性变换矩阵; 是矩阵乘; 是将输出的掩码归一到 0 到 1 之间的 Sigmoid 激活函数。得到 之后,对于 的掩码则利用对称性便可得到, 。由于 需要根据 计算 和 样本对之间像素级的相对关系,所以我们提出 cross-attention mechanism 来达到这个目的:
在 MP 的加持下,我们可以能看到最直接的效果就是 Mix Block 的训练变得稳定且收敛快速。如下图所示,Mix Block 在前几个 epoch 就可以为主干网络提供高质量的混合样本。
我们对 AutoMix 做了全面的评估,主要分为以下三个方面:(1)多场景下的图像分类问题,(2)基于对抗样本的鲁棒性测试和(3)迁移到其他下游任务的性能表现。AutoMix 均表现突出,达到最佳性能。
(1) Image Classification
在图像分类的经典 benchmark 上进行大量测试,主要测试数据为 CIFAR、Tiny ImageNet 和 ImageNet。在小分辨率数据集上,我们基于 ResNet、ResNeXt 和 Wide-ResNet 对比了主流 mixup 算法。
在 ImageNet 上,我们基于不同参数量的 ResNet 和主流 Transformer 架构对比了更多实用的 mixup 算法。有一个比较有趣的现象是其他 mixup 方法在基于 ResNet-18 网络在 ImageNet 上训练时都起到了负面效果,一个可能的解释是 mixup 方法所生成的混合样本过大的增加了学习难度。而 AutoMix 生成的样本尽可能与语意保持一致,更贴切真实数据分布,适当增加了数据的丰富程度。
Fine-grained and Scene Classification
此外,我们也做了全面的细粒度分类能力测试,包括经典的 CUB-200 和 FGVC-Aircraft 和更具有挑战性的大规模数据集 iNaturalist17/18。同时,我们在 Place205 上测试了场景分类性能。在各类场景上,AutoMix 均取得最佳性能。
Calibration
mixup 方法可以对分类模型过度自信的(over-confident)预测起到矫正的作用,即分类准确度和置信度应该保持线性的对应关系,我们既不希望模型对预测错误的样本有过高的置信度,也不希望对预测正确的样本是低置信的。如下图所示,AutoMix 更加贴近红色虚线,起到了最佳的矫正效果。
(2) Robustness
我们使用人造数据集 CIFAR-C 和对抗攻击手段 FGSM 来测试模型的鲁棒性。
(3) Transfer Learning
与其他 mixup 方法一致,我们分别在 CUB-200 和 COCO2017 数据集上对弱监督目标定位和目标检测这两个常见的下游任务做了测试。效果如下:
Weakly supervised object localization
Object detection
Ablation Study
消融实验主要分析了三个问题:(1)Mix Block 中所提出的模块是否有效?(2)如果去掉 EMA 和 CE loss,模型性能会受多少影响?(3)AutoMix 中的超参数应该如何选择?
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧