来源:自动化学报
基于条件深度卷积生成对抗网络的图像识别是指:结合深度卷积生成对抗网络和条件生成对抗网络的优点,建立条件深度卷积生成对抗网络模型,利用卷积神经网络强大的特征提取能力,在此基础上加以条件辅助生成样本,将此结构再进行优化改进并用于图像识别中。
虽然图像识别现有方法如卷积神经网络(Convolutional neural networks,CNN)等已经有很高的识别率,但这些方法依赖大量数据并且收敛速度较慢。本文结合条件生成对抗网络(Conditional GAN, CGAN)与深度卷积生成对抗网络(Deep convolutional GAN, DCGAN) 建立条件深度卷积生成对抗网络模型(Conditional-DCGAN, C-DCGAN),利用该网络模型的判别器提取特征用于图像分类。实验结果表明, 该方法能有效提高图像识别的正确率。
实现该方法用于图像识别只要包括:基于条件深度卷积生成对抗网络对图像进行预训练以及提取模型中的判别器用于图像识别。
条件深度卷积生成对抗网络
利用卷积网络提取特征的能力,判别器和生成器分别由卷积层和转置卷积层构成。将条件信息加入深度卷积生成对抗网络生成器每一层中,相比只在输入层加入条件信息更能引导生成器的输出结果。需要注意,隐含层为三维张量时,需要将条件数据转换为三维张量之后通过通道(channel)维度进行连接。
提取判别器进行图像识别
将训练好的C-DCGAN 判别器部分(去除最后一层) 提取出来,并在新的结构中进行参数微调,与判别器结构不同,最后一个全连接层输出维数为n (n 等于该数据集类别数, 如MNIST 数据集n = 10)。输出结果通过Softmax进行分类。 与一般的有监督学习用于图像分类的方式相比,该方法所用分类模型中的所有特征提取层会作为C-DCGAN 的判别器在数据集中进行预训练,其优势在于除数据集中的真实样本外, C-DCGAN 生成器生成的样本同样会作为数据输入到判别器中,起到数据增强的作用,使得判别器能够通过训练获得更多的特征。
引用格式
唐贤伦, 杜一铭, 刘雨微, 李佳歆, 马艺玮. 基于条件深度卷积生成对抗网络的图像识别方法. 自动化学报, 2018, 44(5): 855-864.
作者简介
唐贤伦,重庆邮电大学计算机科学与技术学院教授。主要研究方向为模式识别与智能系统, 深度学习。
E-mail: tangxl@cqupt.edu.cn
杜一铭,重庆邮电大学计算机科学与技术学院硕士研究生。主要研究方向为图像识别, 生成对抗网络。本文通信作者。
E-mail: jimmy4code@gmail.com
刘雨微,重庆邮电大学自动化学院硕士研究生。主要研究方向为深度学习, 模式识别。
E-mail: yuweiliu1993@hotmail.com
李佳歆,重庆邮电大学自动化学院硕士研究生。主要研究方向为深度学习, 文本识别。
E-mail: suggercandy@outlook.com
马艺玮,马艺玮重庆邮电大学自动化学院副教授。主要研究方向为智能控制, 系统优化。
E-mail: mayw@cqupt.edu.cn
☞ OpenPV平台发布在线的ParallelEye视觉任务挑战赛
☞【学界】OpenPV:中科院研究人员建立开源的平行视觉研究平台
☞【学界】ParallelEye:面向交通视觉研究构建的大规模虚拟图像集
☞【CFP】Virtual Images for Visual Artificial Intelligence
☞【最详尽的GAN介绍】王飞跃等:生成式对抗网络 GAN 的研究进展与展望
☞【智能自动化学科前沿讲习班第1期】王飞跃教授:生成式对抗网络GAN的研究进展与展望
☞【智能自动化学科前沿讲习班第1期】王坤峰副研究员:GAN与平行视觉
☞【重磅】平行将成为一种常态:从SimGAN获得CVPR 2017最佳论文奖说起
☞【学界】Ian Goodfellow等人提出对抗重编程,让神经网络执行其他任务
☞【学界】六种GAN评估指标的综合评估实验,迈向定量评估GAN的重要一步
☞【资源】T2T:利用StackGAN和ProGAN从文本生成人脸