IBM新论文|SamplePairing:针对图像处理领域的高效数据增强方式

2018 年 1 月 20 日 极市平台 陈泰红
↑ 点击蓝字关注极市平台 识别先机 创造未来


来源:paperweekly


本期推荐的论文笔记来自 PaperWeekly 社区用户 @chenhong。本文提出了一种高效数据增强方式 SamplePairing,没有任何公式,没有任何框架,任何 CPU 都能处理。


关于作者:陈泰红,小米高级算法工程师,研究方向为人脸检测识别,手势识别与跟踪。


■ 论文 | Data Augmentation by Pairing Samples for Images Classification

■ 链接 | https://www.paperweekly.site/papers/1523

■ 作者 | chenhong


论文动机

这是 IBM 在 arXiv,2018 年 1 月 9 日新挂的一篇论文,主要研究数据增强。核心思想很简单,小学生都会,求平均值。这是我见到 CNN 领域最简单的一篇论文。 


数据增强是机器学习任务中广泛使用的技术,如图像处理领域,人工标注数据成本昂贵,而 CNN 的训练有需要大量标注数据避免过拟合。图像处理领域常用的数据增强技术有旋转、扭曲、添加少量噪音、从原图像裁剪等。


本文提出了一种高效数据增强方式 SamplePairing:从训练集随机抽取的两幅图像叠加合成一个新的样本(像素取平均值),可以使训练集规模从 N 扩增到 N*N。没有任何公式,没有任何框架,简单易懂简洁明了,任何 CPU 都能处理。


论文在使用 GoogLeNet,在 ILSVRC 2012 数据集从 top-1 错误率从 33.5% 降低到 29%,在 CIFAR-10 数据集 top-1 错误率从 8.22% 降低到 6.93%。这对训练集有限的任务而言,提高了模型的准确性。


模型介绍



论文的模型结构 SamplePairing 如上图所示。模型虽然很简单,但是还得消化一下为什么简单有效。 


先说一下实现过程。训练图像 A 是随机的,从训练集随机抓取图像 B,(A 和 B 都是 ILSVRC2012 的图像,分辨率 256x256)两者都经过基本的数据增强(随机翻转,萃取),分辨率变为 224x224,对两幅图像求平均值,但是 label采用的是 A,之后送入 GoogLeNet 模型。因此,SamplePairing 随机从图像集中创建新的图像,而且 label B 未使用。 


图像 A 和 B 在模型中的权重是一致的,即使使用大型网络,训练误差也不能变成 0,训练精度平均不能超过 50%。对于 N 分类器,最大训练精度是 0.5+1/(Nx2)。


尽管 SamplePairing 的训练精度不会很高,当停止 SamplePairing 作为最终微调时的训练,训练精度和验证精度很快改善。


经过微调模型,使用 SamplePairing 训练的网络比未使用 SamplePairing 训练的模型都高很多。论文认为使用 SamplePairing 是一种正则化。 


在 mix 之前有其他数据增强方式,在 CPU 执行,而反向传播的训练过程在 GPU 执行,这样 CPU 和 GPU 并行计算,没有限制增加总的训练时间。 


论文的训练过程如下: 


1. 先不使用 SamplePairing 数据增强训练,而是先使用传统的数据增强训练网络。


2. 完成一个 epoch(ILSVRC)或者 100 个 epoch(其他数据集),加入 SamplePairing 数据增强。


3. 间歇性禁止 SamplePairing。对于 ILSVRC 数据集,为 300,000 个图像启用 SamplePairing,然后为下一个 100,000 个图像禁用它。对于其他数据集,启用 8 个 epoch,在接下来的 2 个 epoch 禁止 SamplePairing。 


4. 在训练损失函数和精度稳定后,禁止 SamplePairing 作为微调。


实验

论文的模型在多个数据集进行验证:ILSVRC 2012,CIFAR-10,CIFAR-100,以及 Street View House Numbers (SVHN) datasets。


以 CIFAR-10 为例,validation 误差一致在波浪形震荡,800epoch 之后才趋于稳定,此时误差才小于不使用 SamplePairing 的模型。 


论文表 1 所示 training error 会增加,而 validation error 会减小,说明正则化效果明显。在 CIFAR 训练集减少样本个数,训练和验证误差相差不大。


文章评价

目前作者论文仅仅在 ILSVRC 2012 验证分类的错误率,其他数据集比如目标检测,语义分割是否有效?有研究能力的同志们赶紧往前冲,这又是一个坑。 


论文给出一种数据增强方式,也用实验验证确实有效,但是为什么有效?


个人认为相当于随机引入噪声,在训练样本中人为引入误导性的训练样本。 如果不是 IBM 的论文,我估计也不会认真研究一番的。在论文满天飞的年代,名企名校名人还是占优势的。


*推荐文章*

学界 | 超少量数据训练神经网络:IEEE论文提出径向变换实现图像增强

NIPS2017论文选读|Facebook渐变神经网络: 通过任意指定属性,操纵生成图像




加入极市Email List (http://extremevision.mikecrm.com/pdKKGSx,获取极市最新项目需求,以及前沿视觉资讯等。

登录查看更多
16

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
【SIGIR2020-微软】知识图谱上的增强推荐推理
专知会员服务
74+阅读 · 2020年5月30日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
53+阅读 · 2019年11月20日
用于语音识别的数据增强
AI研习社
24+阅读 · 2019年6月5日
一种小目标检测中有效的数据增强方法
极市平台
119+阅读 · 2019年3月23日
基于深度迁移学习进行时间序列分类
PaperWeekly
14+阅读 · 2018年11月15日
计算机视觉领域最全汇总
极市平台
6+阅读 · 2018年9月4日
谷歌推出新型数据增强算法:AutoAugment
论智
20+阅读 · 2018年6月6日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
4+阅读 · 2018年5月21日
VIP会员
相关VIP内容
相关资讯
用于语音识别的数据增强
AI研习社
24+阅读 · 2019年6月5日
一种小目标检测中有效的数据增强方法
极市平台
119+阅读 · 2019年3月23日
基于深度迁移学习进行时间序列分类
PaperWeekly
14+阅读 · 2018年11月15日
计算机视觉领域最全汇总
极市平台
6+阅读 · 2018年9月4日
谷歌推出新型数据增强算法:AutoAugment
论智
20+阅读 · 2018年6月6日
Top
微信扫码咨询专知VIP会员