学界 | 新研究提出内省式学习方法:在分类和生成任务上均表现卓越

2017 年 4 月 28 日 机器之心

选自arXiv

机器之心编译

参与:吴攀


生成对抗网络(GAN)是近来人工智能研究的一大热门,在生成逼真的样本上已经取得了非常优异的表现。但这并不是唯一的生成方法,近日,来自加州大学圣地亚哥分校计算机科学与工程系和认知科学系的几位研究者连发两篇论文,介绍了一种被称为内审(introspection)的方法,并且在分类和生成的实际实验上都取得了出色的表现。机器之心对这两篇论文进行了摘要介绍。


论文一:内审式分类器学习:生成式地使能(Introspective Classifier Learning: Empower Generatively)


  • 链接地址:https://arxiv.org/abs/1704.07816



在这篇论文中,我们提出了内省式分类器学习(ICL:introspective classifier learning),其强调了有一个具有生成能力的判别式分类器的重要性。我们开发了一个通过合成的再分类(reclassification-by-synthesis)算法来使用一种源自贝叶斯理论的公式进行训练。我们的分类器能够迭代式地做到:(1)在合成步骤中合成假负例样本(pseudo-negative sample);(2)在再分类(reclassification)步骤中通过提升分类来增强自身。学习到的单个分类器同时也具有生成能力——能够在自己的判别模型内直接合成新样本。我们使用当前最佳的 CNN 架构在标准的基准数据集(包括 MNIST、CIFAR 和 SVHN)上进行了实验,并观察到了分类结果的提升。


图 1:(Tu, 2007) 中开发的 GDL 方法的流程图(图示为一个简单示例),展示了通过一个判别分类器的序列使用自我生成的假负例样本来训练一个生成模型的方法。


图 2:我们提出的用于 ICL 训练的通过合成的再分类(reclassification-by-synthesis)算法的示意图。左上图展示了输入的训练样本,其中红色圈表示正例,蓝色十字表示反例。底部图是合成步骤中由分类器逐渐自我生成的样本,顶部图给出了决策边界(紫色),其在再分类步骤中逐渐更新。假反例(紫色十字)是逐渐生成的,可帮助增强决策边界。我们仅维持了一个单个 CNN 分类器,而不是在 GDL 中具有多个 boosting 分类器(参见图 1)


算法 1:用于判别式分类器训练的通过合成的再分类(reclassification-by-synthesis)算法


图 3:我们的 ICL 分类器为 MNIST 数据集合成的假反例。顶行给出了一些训练样本。随着 t 增加,我们的分类器会逐渐合成对训练样本越来越真实的假反例


图 4:使用通过合成的再分类算法的 ICL 在 MNIST 上的测试误差,随训练过程的 t 变化


图 5:不同训练样本数量下的 MNIST 测试误差(也给出了测试误差的 std dev.)。当训练样本数量更少时,ICL 的影响更明显


图 6:在使用「快速梯度符号法」(Goodfellow et al., 2014b) 所生成的额外对抗样本上的验证,以显示 ICL 的稳健性的提升。第一行给出了原始的图像,第二行展示了扰动,第三行给出了得到的对抗样本。所以这些样本都骗过了基线 CNN 模型,后两列的骗过了 ICL


论文二:内审式生成建模:判别式地决定(Introspective Generative Modeling:Decide Discriminatively)



  • 链接地址:https://arxiv.org/abs/1704.07820



我们通过开发内审式生成建模(IGM:introspective generative modeling)而对无监督学习进行了研究,其使用渐进式学习到的深度卷积神经网络而实现了一个生成器。该生成器本身是一个判别器,能够内省(introspection):能够自我评估其生成的样本和给出的训练数据之间的差别。当后面跟随着重复的判别式学习时,现代判别式分类器的预期性质直接被生成器继承。IGM 使用一个通过分类的合成算法(synthesis-by-classification algorithm)来学习一个 CNN 分类器的级联。在实验中,我们在许多应用上都观察到了鼓舞人心的结果,其中包括纹理建模、艺术风格迁移、面部建模和半监督学习。


图 1:上面展示了 2 个 64×64 假反例样本(patches)在训练过程中的发展,其生成的是树皮纹理。我们可以看到最初的一团乱麻,后来被网络优化。输入的树皮纹理和我们的 IGM 算法合成的图像展示在下面


图 2:纹理合成算法的比较。Gatys et al. [14], Texture Nets [41], Portilla & Simoncelli [32], DCGAN [33],结果来自 [41].


图 3:IGM 流程的示意图。顶部图展示了输入的训练样本,用于红色圈表示。底部图表示学习到的最终模型绘制的假反例样本。左边图展示了在每个时间戳 t 绘制的假反例。右边图展示了在每个时间戳 t 时 CNN 在训练样本和假反例样本上的分类


算法 1:IGM 算法


图 6:更多纹理合成的结果。Gatys et al. [14] 和 Texture Nets,结果来自 [41].


图 7:使用《Starry Night》和《Scream》的风格在阿姆斯特丹照片上实现的艺术风格迁移的结果


图 8:在 CelebA 名人数据集上学习后生成的图像。从左到右分别是 DCGAN [33],使用 TensorFlow 实现 [23]、IGM-single 和 IGM 的结果  



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:editor@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
0

相关内容

分类是数据挖掘的一种非常重要的方法。分类的概念是在已有数据的基础上学会一个分类函数或构造出一个分类模型(即我们通常所说的分类器(Classifier))。该函数或模型能够把数据库中的数据纪录映射到给定类别中的某一个,从而可以应用于数据预测。总之,分类器是数据挖掘中对样本进行分类的方法的统称,包含决策树、逻辑回归、朴素贝叶斯、神经网络等算法。
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
专知会员服务
73+阅读 · 2020年5月21日
专知会员服务
107+阅读 · 2020年5月21日
零样本图像分类综述 : 十年进展
专知会员服务
126+阅读 · 2019年11月16日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
7+阅读 · 2019年2月7日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
【学界】生成式对抗网络:从生成数据到创造智能
GAN生成式对抗网络
6+阅读 · 2018年6月14日
【学界】用生成对抗网络解决NLP问题:谷歌大脑提出MaskGAN
GAN生成式对抗网络
9+阅读 · 2018年2月1日
学界 | 香港科技大学提出L2T框架:学习如何迁移学习
七月在线实验室
7+阅读 · 2017年8月23日
Arxiv
22+阅读 · 2019年11月24日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Arxiv
4+阅读 · 2018年4月10日
VIP会员
相关VIP内容
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
专知会员服务
73+阅读 · 2020年5月21日
专知会员服务
107+阅读 · 2020年5月21日
零样本图像分类综述 : 十年进展
专知会员服务
126+阅读 · 2019年11月16日
相关资讯
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
7+阅读 · 2019年2月7日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
【学界】生成式对抗网络:从生成数据到创造智能
GAN生成式对抗网络
6+阅读 · 2018年6月14日
【学界】用生成对抗网络解决NLP问题:谷歌大脑提出MaskGAN
GAN生成式对抗网络
9+阅读 · 2018年2月1日
学界 | 香港科技大学提出L2T框架:学习如何迁移学习
七月在线实验室
7+阅读 · 2017年8月23日
Top
微信扫码咨询专知VIP会员