成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
ICCV 2019:华为、北大等首创GAN剪枝算法,线上加速 3 倍以上
2019 年 9 月 24 日
新智元
新智元专栏
作者:
王云鹤 (华为诺亚)
【新智元导读】
华为诺亚方舟实验室最新研究
首次提出针对GAN中生成网络的剪枝算法,在图像迁移任务中,可以在保持迁移效果的情况下,网络参数量和计算量压缩四倍以上,实测推理时间压缩三倍以上。论文已被ICCV 2019录用。
随着手机等智能终端的广泛普及,基于移动端的图像风格迁移,人像渲染等应用有着广泛的需求,在智能相机、移动社交、虚拟穿戴等领域有着巨大的应用前景。
生成对抗神经网络
在图像风格迁移、人脸属性控制等任务中取得了良好的效果。
但是生成式模型由于其本身输出结果和优化目标的特点,模型往往需要较大的内存,运行这些模型需要较大的计算开销,一般只能在GPU平台上运行,不能直接将这些模型迁移到移动端上。而现有的针对神经网络的压缩算法都是针对判别式神经网络模型设计,直接应用在生成网络上不能取得令人满意的压缩结果。
华为诺亚方舟实验室的论文Co-Evolutionary Compression for Unpaired Image Translation被ICCV 2019录用,该论文
首次提出针对GAN中生成网络的剪枝算法
,在图像迁移任务中,可以在保持迁移效果的情况下,
网络参数量和计算量压缩四倍以上,实测推理时间压缩三倍以上。
论文地址:
https://arxiv.org/abs/1907.10804
开源地址:
https://github.com/huawei-noah/GAN-pruning
生成模型参数冗余建模
对生成模型来说,网络输出是高维的生成图像,很难直接从这些图像本身去量化评价压缩模型的好坏,借鉴传统的剪枝算法,可以直接最小化压缩生成模型前后的重建误差来获得压缩后的模型。可以定义为生成器感知误差,
直接优化公式 1 可以让压缩后的生成器
和原始生成器
尽量像素相近,但是在图像风格迁移任务中确没必要。比如,一个 “斑马”,不管是有 5 条还是 8 条白色条纹,都可以看成是成功的风格迁移,但是体现在公式 1 中的差别可能很大。所以优化公式 1 并不能准确地去除风格迁移任务中的参数冗余。
虽然在推理阶段,判别器
经常不会被使用,但是判别器
中包含了判别图像域的重要信息,因此论文提出了判别器感知损失来牵引生成器的压缩过程。
是原始网络中的判别器。与公式 1 相比,公式 2 并不直接关注压缩前后的生成器模型在像素级别的相似性,而是通过判别器,更加关注压缩前后风格的一致性,这对压缩生成器是一个更好的优化方向。
对于两个图像域的互相转换,循环一致性误差的重要性也在多篇论文里得到证明,所以也是压缩生成器重要的优化方向。
所以总体来说,压缩一个生成网络的目标函数如下:
其中
表示网络的参数量,
用来平衡网络参数量和压缩模型的误差。
对于两个的图像域互相转换,两个生成器一般有相同的网络结构和参数量,如果只优化其中一个生成器会导致网络训练过程不稳定,所以提出同时优化两个生成器,这样也可以节省计算时间和资源。
协同进化压缩
考虑到无法准确地计算生成网络中的每一个通道对于最终输出结果的影响,采用进化算法,对网络进行全局二值编码,如图 1 所示,对两个对称的生成器分别维持一个种群,将生成器 A 种群适应值最高的个体与生成器 B 的种群一起训练,选出 B 种群中适应值最高的个体,再和 A 的下一代种群进行训练,以此类推,进行协同交替压缩,最终得到两个压缩的生成器,算法流程如算法 1 所示。
图 1 协同进化交替迭代,最终得到两个压缩后模型
更新
: 压缩后的
由一串固定长度的二值编码表示,编码的每一位表示网络的每一个通道,如公式 6 所示。
表示生成网络中第
层的通道编码,
表示把第 n 个卷积通道去除,反之则保留。
用公式 7 表示网络压缩后的参数量。
所以在进化算法中,一个压缩个体的适应值可以用公式 8 来计算:
定义了适应值的计算规则后,采用进化算法进行多代进化,可以选出适应值较高的个体。对于每一个压缩生成器的结构来说,先用 10% 的训练数据集训练,然后在验证集上计算适应值,根据种群中的适应值,个体可以被赋予一个选择概率,通过轮盘赌算法可以通过上一代种群通过选择、交叉和变异得到下一代个体。
更新
:
与
一样,对
维持一个种群,也可以通过进化算法选出适应值最优的个体。但是,通过公式 8 可以看出,循环一致性误差计算同时涉及两个生成器,所以同时对
和
分别维护一个种群。具体来说,在 t 次迭代中,用 t-1 次迭代中适应值最优的
去和
种群训练,得到适应值最优的
,然后用适应值最优的
和
种群训练,得到 t 迭代
种群的适应值。
算法 1:
协同进化算法流程
实验结果
我们在 horse2zebra, summer2winter 和 cityscapes 三个数据集上分别进行大量实验来说明算法的有效性。
超参影响:
实验对平衡参数量和损失的超参数 γ 进行了实验,如图 2 所示,大的 γ 使得压缩比更低,但是风格迁移效果更好。
消融实验:
在实验数据和超参数相同的情况下,我们比较了不用的进化策略和优化目标的影响,如下图 3 所示。(a)是采用传统的剪枝方法的结果,(c)采用了类似于传统剪枝最小重构误差的生成器感知误差,(b)和(d)则采用了本文提出的判别器感知误差,其中(b)是单独优化一个生成器的结果,而(d)是采用协同的策略同时优化两个生成器的结果。
与传统剪枝方法比较:
表 2 和表 3 分别列出了压缩前后,传统的剪枝方法和论文提出的剪枝方法在三个数据集上的量化结果。
在 cityscapes 数据集采用 FCN 分数,horse2zebra 和 summer2winter 数据集采用 FID 分数,论文提出方法结果与压缩之前的模型接近,远远好于传统的剪枝方法。
压缩结果:
表 1 展示了三个数据集压缩的结果,论文提出的算法在能够得到 4 倍左右参数量和计算量的压缩,在运行时间上,在 Kirin 980 芯片上,推理时间从 6.8s 压缩到了 2.1s。
论文地址:
https://arxiv.org/abs/1907.10804
开源地址:
https://github.com/huawei-noah/GAN-pruning
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
剪枝
关注
2
【ICML2020-中科院】 论文本生成中质量/多样性评价与分布拟合目标之间的关系
专知会员服务
16+阅读 · 2020年7月6日
【IJCAI2020】基于生成对抗模仿学习的多模态模仿学习算法框架
专知会员服务
56+阅读 · 2020年5月26日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
30+阅读 · 2020年4月6日
AAAI 2020 | 滴滴&东北大学提出自动结构化剪枝压缩算法框架,性能提升高达120倍
专知会员服务
29+阅读 · 2020年2月26日
姿势服装随心换-CVPR2019
专知会员服务
34+阅读 · 2020年1月26日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
【AAAI2020论文】小样本网络压缩,Few Shot Network Compression via Cross Distillation (附pdf)
专知会员服务
25+阅读 · 2019年11月23日
【ICCV 2019】基于元学习的自动化神经网络通道 MetaPruning: Meta Learning for Automatic Neural Network Channel Pruning
专知会员服务
16+阅读 · 2019年11月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
【上海交通大学】分布式移动端机器学习综述论文,28页pdf
专知会员服务
43+阅读 · 2019年10月12日
BERT 瘦身之路:Distillation,Quantization,Pruning
AINLP
10+阅读 · 2019年10月22日
重磅开源! ICCV 2019,华为诺亚提出无需数据网络压缩技术
新智元
5+阅读 · 2019年9月7日
ICCV2019|已开源,华为诺亚方舟实验室提出无需数据网络压缩技术
极市平台
8+阅读 · 2019年9月6日
CVPR 2019 Oral 论文解读 | 百度提出关于网络压缩和加速的新剪枝算法
AI研习社
3+阅读 · 2019年5月31日
已删除
将门创投
7+阅读 · 2018年8月28日
【CVPR Oral】TensorFlow实现StarGAN代码全部开源,1天训练完
全球人工智能
8+阅读 · 2018年6月14日
让机器“删繁就简”:深度神经网络加速与压缩|VALSE2018之六
深度学习大讲堂
8+阅读 · 2018年5月16日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
简单聊聊压缩网络
计算机视觉战队
3+阅读 · 2017年10月4日
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
Boundary-weighted Domain Adaptive Neural Network for Prostate MR Image Segmentation
Arxiv
9+阅读 · 2019年2月21日
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
Arxiv
4+阅读 · 2018年7月30日
A Fully Convolutional Two-Stream Fusion Network for Interactive Image Segmentation
Arxiv
5+阅读 · 2018年7月6日
Knowledge-enriched Two-layered Attention Network for Sentiment Analysis
Arxiv
21+阅读 · 2018年5月25日
Object detection at 200 Frames Per Second
Arxiv
5+阅读 · 2018年5月16日
Mask-aware Photorealistic Face Attribute Manipulation
Arxiv
5+阅读 · 2018年4月24日
Activation Maximization Generative Adversarial Nets
Arxiv
5+阅读 · 2018年1月30日
Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments
Arxiv
6+阅读 · 2018年1月16日
Practical sketching algorithms for low-rank matrix approximation
Arxiv
4+阅读 · 2018年1月2日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
剪枝
生成器
生成网络
风格迁移
图像风格迁移
ICCV
相关VIP内容
【ICML2020-中科院】 论文本生成中质量/多样性评价与分布拟合目标之间的关系
专知会员服务
16+阅读 · 2020年7月6日
【IJCAI2020】基于生成对抗模仿学习的多模态模仿学习算法框架
专知会员服务
56+阅读 · 2020年5月26日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
30+阅读 · 2020年4月6日
AAAI 2020 | 滴滴&东北大学提出自动结构化剪枝压缩算法框架,性能提升高达120倍
专知会员服务
29+阅读 · 2020年2月26日
姿势服装随心换-CVPR2019
专知会员服务
34+阅读 · 2020年1月26日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
【AAAI2020论文】小样本网络压缩,Few Shot Network Compression via Cross Distillation (附pdf)
专知会员服务
25+阅读 · 2019年11月23日
【ICCV 2019】基于元学习的自动化神经网络通道 MetaPruning: Meta Learning for Automatic Neural Network Channel Pruning
专知会员服务
16+阅读 · 2019年11月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
【上海交通大学】分布式移动端机器学习综述论文,28页pdf
专知会员服务
43+阅读 · 2019年10月12日
热门VIP内容
开通专知VIP会员 享更多权益服务
《支持 ML/AI 的下一代智能自主网络系统:性能提升与管理》177页
《飞行训练指导:夜间熟悉》152页
数据:联合作战的新弹药
《混合现实飞行模拟器中的夜视镜仿真:无缝集成真实世界》最新54页
相关资讯
BERT 瘦身之路:Distillation,Quantization,Pruning
AINLP
10+阅读 · 2019年10月22日
重磅开源! ICCV 2019,华为诺亚提出无需数据网络压缩技术
新智元
5+阅读 · 2019年9月7日
ICCV2019|已开源,华为诺亚方舟实验室提出无需数据网络压缩技术
极市平台
8+阅读 · 2019年9月6日
CVPR 2019 Oral 论文解读 | 百度提出关于网络压缩和加速的新剪枝算法
AI研习社
3+阅读 · 2019年5月31日
已删除
将门创投
7+阅读 · 2018年8月28日
【CVPR Oral】TensorFlow实现StarGAN代码全部开源,1天训练完
全球人工智能
8+阅读 · 2018年6月14日
让机器“删繁就简”:深度神经网络加速与压缩|VALSE2018之六
深度学习大讲堂
8+阅读 · 2018年5月16日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
简单聊聊压缩网络
计算机视觉战队
3+阅读 · 2017年10月4日
相关论文
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
Boundary-weighted Domain Adaptive Neural Network for Prostate MR Image Segmentation
Arxiv
9+阅读 · 2019年2月21日
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
Arxiv
4+阅读 · 2018年7月30日
A Fully Convolutional Two-Stream Fusion Network for Interactive Image Segmentation
Arxiv
5+阅读 · 2018年7月6日
Knowledge-enriched Two-layered Attention Network for Sentiment Analysis
Arxiv
21+阅读 · 2018年5月25日
Object detection at 200 Frames Per Second
Arxiv
5+阅读 · 2018年5月16日
Mask-aware Photorealistic Face Attribute Manipulation
Arxiv
5+阅读 · 2018年4月24日
Activation Maximization Generative Adversarial Nets
Arxiv
5+阅读 · 2018年1月30日
Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments
Arxiv
6+阅读 · 2018年1月16日
Practical sketching algorithms for low-rank matrix approximation
Arxiv
4+阅读 · 2018年1月2日
大家都在搜
大模型
笛卡尔
大型语言模型
自主系统
ETHZ博士论文
智能推荐
palantir
MoE
壁画
GANLab 将GA
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top