数据缩至1/5000,模型准确率却翻倍,谷歌新“蒸馏法”火了 | ICLR&NeurIPS

2021 年 12 月 17 日 量子位
博雯 发自 凹非寺
量子位 报道 | 公众号 QbitAI

在炼丹过程中,为了减少训练所需资源,MLer有时会将大型复杂的大模型“蒸馏”为较小的模型,同时还要保证与压缩前相当的结果。

这就是知识蒸馏,一种模型压缩/训练方法。

不过随着技术发展,大家也逐渐将蒸馏的对象扩展到了数据集上。

这不,谷歌最近就提出了两种新的数据集蒸馏方法,在推特上引起了不小反响,热度超过600:

像这样, 将50000张标注图像的CIFAR-10数据集“蒸馏”缩小至1/5000大小,只基于10张合成数据点进行训练,模型的准确率仍可近似51%

上:原始数据集 下:蒸馏后

而如果“蒸馏数据集”由500张图像组成(占原数据集1%大小),其准确率可以达到80%。

两种数据集蒸馏方法分别来自于ICLR 2021和NeurIPS 2021上的两篇论文。


通过两阶段循环进行优化

那么要如何才能“蒸馏”一个数据集呢?

其实,这相当于一个两阶段的优化过程:

  1. “内部循环”,用于在学习数据上训练模型

  2. “外部循环”,用于优化学习数据在自然数据上的性能

通过内部循环可以得到一个核岭回归(KRR)函数,然后再外部循环中计算原始图像标注与核岭回归函数预测标注之间的均方误差(MSE)

这时,谷歌提出的两种方法就分别有了不同的处理路线:

一、标注解释 (LS)

这种方法直接解释最小化KRR损失函数的支持标注集(support labels),并为每个支持图像生成一个独特的密集标注向量。

蓝:原始独热标注 橙:LS生成的密集标注

二、核归纳点 (KIP)

这种方法通过基于梯度的方法将KRR损失函数最小化,以此来优化图像和可能生成的数据。

以MNIST为例,下图中的上、中、下三张图分别为原始的MNIST数据集、固定标注的KIP蒸馏图像、优化标注的KIP蒸馏图像。

可以看出,在于对数据集进行蒸馏时,优化标注的效果最好:

对比已有的DC(Dataset Condensation)方法和DSP(Dataset Condensation with Differentiable Siamese Augmentation)方法可以看到:

如果使用每类别只有一张图像,也就是最后只有10张图像的蒸馏数据集,KIP方法的测试集准确率整体高于DC和DSP方法。

在CIFAR-10分类任务中,LS也优于先前的方法,KIP甚至可以达到翻倍的效果。

对此,谷歌表示:

这证明了在某些情况下,我们的缩小100倍的“蒸馏数据集”要比原始数据集更好。

两位华人作者

整个项目由萧乐超(Lechao Xiao)、Zhourong Chen、Roman Novak三人合作完成。

其中萧乐超为LS方法的论文作者之一,本科毕业于浙江大学的应用数学系,在美国伊利诺大学厄巴纳-香槟分校(UIUC)取得博士学位,现在是谷歌大脑团队的一名科学家。

他的主要研究方向是数学、机器学习和深度学习。

另一位华人科学家Zhourong Chen则是KIP方法的论文作者之一,本科毕业于中山大学,并在香港科技大学取得了计算机科学与工程系的博士学位,现是Google Research的一名软件工程师。

论文:
[1]https://openreview.net/forum?id=l-PrrQrK0QR

[2]https://openreview.net/forum?id=hXWPpJedrVP

开源地址:
https://github.com/google-research/google-research/tree/master/kip

参考链接:
https://ai.googleblog.com/2021/12/training-machine-learning-models-more.html

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

「智能汽车」交流群招募中!

欢迎关注智能汽车、自动驾驶的小伙伴们加入社群,与行业大咖交流、切磋,不错过智能汽车行业发展&技术进展。

ps.加好友请务必备注您的姓名-公司-职位哦~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~


登录查看更多
1

相关内容

NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式
专知会员服务
11+阅读 · 2021年12月9日
【AAAI2021】信息瓶颈和有监督表征解耦
专知会员服务
20+阅读 · 2021年1月27日
专知会员服务
27+阅读 · 2020年12月15日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
1+阅读 · 2022年4月19日
Arxiv
2+阅读 · 2022年4月17日
Arxiv
12+阅读 · 2021年11月1日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员