论文标题:
Toward Learning Robust and Invariant Representations with Alignment Regularization and Data Augmentation
KDD 2022
https://arxiv.org/abs/2206.01909
在监督学习中,这种正则函数通常叫做一致性损失函数(图2)。几年来,随着对模型鲁棒性和可信赖程度的重视的提高,此类一致性的损失函数或者正则约束也被大量的用来提高模型的各种鲁棒性。
▲ 数据增强配合consistency loss早已不是新闻,这篇文章主要关注在这么多实现中,哪个最好用
该方法将会应用在什么样的任务上:无论是关于图像还是文本的研究,无论是关于准确率还是鲁棒性的研究,似乎都可以找到利用此种正则约束增加模型效果的例子。
今天就介绍一篇今年 KDD 的文章。这篇文章主要就是要回答上面这个问题:这么多一致性的损失函数,哪个最靠谱?
这个不变性大概就是说在数据在数据增强过程中受到不同程度的变化的时候,模型学习到的表征向量是不是并不会随着数据的变化而变化。我这是一个比准确率和鲁棒性(最差状况下的准确率)更加严格的尺度,毕竟这两个尺度都是在某种意义上检查模型的预测是否正确,而不是很在乎判断模型预测正确的原因是什么。
▲ 作者使用的标准的准确率的定义
▲ 不过尽管定义为上面的公式,具体测试的时候用的是一种 K 近邻的思想,大致的意思是说如果模型真的对各种变换有 invariance,那么对于一个数据的在这个模型中产生的表征向量的最近的邻居应该同样是这个数据经过其他的变换之后在这个模型中的表征向量。
在这三种评判尺度下,作者测试了 8 种不同的关于一致性的正则优化。
上图的字母代表的方法如下:
B:不使用数据增强
V:把使用数据增强后增加的数据直接混到原有数据中
L:L1 norm 距离
S:欧氏距离
C:consine similarity
K:KL divergence
W:Wasserstein metric
下面的结论是作者提供的理论支撑,主要的结论就是把鲁棒性和不变性放在了同一个 bound 中。结论大概是说用最简单的正则化约束就能将错误率的范围确定好。
▲ 本文提出的方法同时比过了鲁棒性研究的不同任务中的各自的SOTA方法,图中展示的是本文的方法在旋转的图像分类中达到了SOTA的结果
我觉得这篇文章很有趣的一点就是一个如此简单的方法,居然可以在三个不同的领域里 beat 各自领域的 SOTA 方法。
这篇文章主要针对在使用数据增强时通常会遇到的一致损失函数浩如烟海的选择做了针对分析,并且致力于研究哪种一致损失函数最方便使用。文章发现最朴素的方法居然是最通用的。也同时为了鼓励大家使用而包装一个 package,这样使得大家可以用几行代码使用这个方法。
▲ 文章附带的 package 代码,地址在(https://github.com/jyanln/AlignReg)
我觉得文章带来的启发:
对于需要发论文的小伙伴,上文提到的三种角度的组合叠加可能真的是一个无限论文大法。有毕业需求却苦无创新点的小伙伴可以试试(具体在这篇文章的 related work 章节)
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧