一文搞懂转置卷积(反卷积)

2020 年 8 月 20 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨土豆@知乎
来源丨https://zhuanlan.zhihu.com/p/158933003

极市导读

 

转置卷积在一些文献中也被称为反卷积,人们如果希望网络学习到上采样方法,就可以采用转置卷积。它不会使用预先定义的插值方法,而具有可以学习的参数。在文末,作者通过观察pytorch框架,解答了读者关于卷积矩阵参数优化的问题。>>>极市七夕粉丝福利活动:炼丹师们,七夕这道算法题,你会解吗?

前言

本文翻译自 《Up-sampling with Transposed Convolution》,即《用转置卷积进行上采样》。这篇文章对转置卷积(反卷积)有着很好的解释,这里将其翻译为中文,以飨国人。

对于上采用的需求

当我们用神经网络生成图片的时候,经常需要将一些低分辨率的图片转换为高分辨率的图片。
对于这种上采样(up-sampling)操作,目前有着一些插值方法进行处理:
最近邻插值(Nearest neighbor interpolation)
双线性插值(Bi-Linear interpolation)
双立方插值(Bi-Cubic interpolation)
以上的这些方法都是一些插值方法,需要我们在决定网络结构的时候进行挑选。这些方法就像是人工特征工程一样,并没有给神经网络学习的余地,神经网络不能自己学习如何更好地进行插值,这个显然是不够理想的。

为什么是转置卷积

转置卷积(Transposed Convolution)常常在一些文献中 也称之为 反卷积(Deconvolution)和 部分跨越卷积(Fractionally-strided Convolution),因为称之为反卷积容易让人以为和数字信号处理中反卷积混起来,造成不必要的误解,因此下文都将称为转置卷积,并且建议各位不要采用反卷积这个称呼。
如果我们想要我们的网络可以学习到最好地上采样的方法,我们这个时候就可以采用转置卷积。这个方法不会使用预先定义的插值方法,它具有可以学习的参数。理解转置卷积这个概念是很重要的,因为它在若干重要的文献中都有所应用,如:
1、在DCGAN中的生成器将会用随机值转变为一个全尺寸(full-size)的图片,这个时候就需要用到转置卷积。
2、在语义分割中,会使用卷积层在编码器中进行特征提取,然后在解码层中进行恢复为原先的尺寸,这样才可以对原来图像的每个像素都进行分类。这个过程同样需要用到转置卷积。

卷积操作

让我们回顾下卷积操作是怎么工作的,并且我们将会从一个小例子中直观的感受卷积操作。假设我们有一个 的矩阵,我们将在这个矩阵上应用 的卷积核,并且不添加任何填充(padding),步进参数(stride)设置为1,就像下图所示,输出为一个 的矩阵。
这个卷积操作在输入矩阵和卷积核中,对每个元素的乘积进行相加。因为我们没有任何填充和使用1为步进,因此我们只能对这个操作进行4次,因此我们的输出矩阵尺寸为
这种卷积操作使得输入值和输出值之间存在有位置上的连接关系,举例来说,输入矩阵左上方的值将会影响到输出矩阵的左上方的值。更具体而言, 的卷积核是用来连接输入矩阵中的9个值,并且将其转变为输出矩阵的一个值的。 一个卷积操作是一个多对一(many-to-one)的映射关系。让我们记住这个,我们接下来将会用得着。

反过来操作吧

现在,假设我们想要反过来操作。我们想要将输入矩阵中的一个值映射到输出矩阵的9个值, 这将是一个一对多(one-to-many)的映射关系。这个就像是卷积操作的反操作,其核心观点就是用转置卷积。举个例子,我们对一个 的矩阵进行上采样为 的矩阵。这个操作将会维护一个1对应9的映射关系。
因此就结论而言,卷积操作是多对一,而转置卷积操作是一对多,如下图所示,每一个“对”而言,都需要维护一个权值。
但是我们将如何具体操作呢?为了接下来的讨论,我们需要定义一个卷积矩阵( convolution matrix)和相应的转置卷积矩阵( transposed convolution matrix)。

卷积矩阵

我们可以将一个卷积操作用一个矩阵表示。这个表示很简单,无非就是将卷积核重新排列到我们可以用普通的矩阵乘法进行矩阵卷积操作。如下图就是原始的卷积核:
我们对这个 的卷积核进行重新排列,得到了下面这个 的卷积矩阵:
这个便是卷积矩阵了,这个矩阵的每一行都定义了一个卷积操作。下图将会更加直观地告诉你这个重排列是怎么进行的。每一个卷积矩阵的行都是通过重新排列卷积核的元素,并且添加0补充(zero padding)进行的。
为了将卷积操作表示为卷积矩阵和输入矩阵的向量乘法,我们将输入矩阵 摊平(flatten)为一个列向量,形状为 ,如下图所示。
我们可以将这个 的卷积矩阵和 的输入列向量进行矩阵乘法,这样我们就得到了输出列向量。
这个输出的 的矩阵可以重新塑性为一个 的矩阵,而这个矩阵正是和我们一开始通过传统的卷积操作得到的一模一样。
简单来说,这个卷积矩阵除了重新排列卷积核的权重之外就没有啥了,然后卷积操作可以通过表示为卷积矩阵和输入矩阵的列向量形式的矩阵乘积形式进行表达。
所以各位发现了吗,关键点就在于这个卷积矩阵,你可以从16( )到4( )因为这个卷积矩阵尺寸正是 的,然后呢,如果你有一个 的矩阵,你就可以从4( )到16( )了,这不就是一个上采样的操作吗?啊哈!让我们继续吧!

转置卷积矩阵

我们想要从4( )到16( ),因此我们使用了一个 的矩阵,但是还有一件事情需要注意,我们是想要维护一个1到9的映射关系。
假设我们转置这个卷积矩阵 变为 。我们可以对 和列向量 进行矩阵乘法,从而生成一个 的输出矩阵。这个转置矩阵正是将一个元素映射到了9个元素。
这个输出可以塑形为 的矩阵:
我们只是对小矩阵 进行上采样为一个更大尺寸的矩阵 。这个转置卷积矩阵维护了一个1个元素到9个元素的映射关系,因为这个关系正表现在了其转置卷积元素上。
需要注意的是:这里的转置卷积矩阵的参数, 不一定从原始的卷积矩阵中简单转置得到的,转置这个操作只是提供了转置卷积矩阵的形状而已。

总结

转置卷积操作构建了和普通的卷积操作一样的连接关系,只不过这个是从反向方向开始连接的。我们可以用它进行上采样。另外,这个转置卷积矩阵的参数是可以学习的,因此我们不需要一些人为预先定义的方法。即使它被称为转置卷积,它并不是意味着我们将一些现存的卷积矩阵简单转置并且使用其转置后的值。
从本质来说,转置卷积不是一个卷积,但是我们可以将其看成卷积,并且当成卷积这样去用。我们通过在输入矩阵中的元素之间插入0进行补充,从而实现尺寸上采样,然后通过普通的卷积操作就可以产生和转置卷积相同的效果了。你在一些文章中将会发现他们都是这样解释转置卷积的,但是这个因为在卷积操作之前需要通过添加0进行上采样,因此是比较低效率的。
注意:转置卷积会导致生成图像中出现棋盘效应(checkerboard artifacts),这篇文章《Deconvolution and Checkerboard Artifacts》推荐了一种上采样的操作(也就是插值操作),这个操作接在一个卷积操作后面以减少这种现象。如果你的主要目的是生成尽可能少棋盘效应的图像,那么这篇文章就值得你去阅读。

补充内容

评论区有朋友提出了一个问题,我觉得可能有些朋友也会有类似的疑问因此在这里统一讨论下,问题为:
博主您好,我觉的转置卷积矩阵的参数随着训练过程不断被优化,但是它是在随机初始化的基础上进行优化,还是在原始卷积矩阵的基础上进行优化?
——CSDN user
这个问题其实可以通过观察深度学习框架的实现方式进行,我选用的是 pytorch,我们打开 torch.nn.ConvTranspose1d的源码,发现有:
   
   
     
class ConvTranspose1d(_ConvTransposeMixin, _ConvNd): def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1): kernel_size = _single(kernel_size) stride = _single(stride) padding = _single(padding) dilation = _single(dilation) output_padding = _single(output_padding) super(ConvTranspose1d, self).__init__( in_channels, out_channels, kernel_size, stride, padding, dilation, True, output_padding, groups, bias)
@weak_script_method def forward(self, input, output_size=None): # type: (Tensor, Optional[List[int]]) -> Tensor output_padding = self._output_padding(input, output_size, self.stride, self.padding, self.kernel_size) return F.conv_transpose1d( input, self.weight, self.bias, self.stride, self.padding, output_padding, self.groups, self.dilation)
不难发现其实我们的卷积核参数 weights其实是在超类中定义的,我们转到 _ConvNd,代码如:
   
   
     
class _ConvNd(Module): __constants__ = ['stride', 'padding', 'dilation', 'groups', 'bias'] def __init__(self, in_channels, out_channels, kernel_size, stride, padding, dilation, transposed, output_padding, groups, bias): super(_ConvNd, self).__init__() if in_channels % groups != 0: raise ValueError('in_channels must be divisible by groups') if out_channels % groups != 0: raise ValueError('out_channels must be divisible by groups') self.in_channels = in_channels self.out_channels = out_channels self.kernel_size = kernel_size self.stride = stride self.padding = padding self.dilation = dilation self.transposed = transposed self.output_padding = output_padding self.groups = groups if transposed: self.weight = Parameter(torch.Tensor( in_channels, out_channels // groups, *kernel_size)) else: self.weight = Parameter(torch.Tensor( out_channels, in_channels // groups, *kernel_size)) if bias: self.bias = Parameter(torch.Tensor(out_channels)) else: self.register_parameter('bias', None) self.reset_parameters()
我们可以清楚的发现,其实 weights或者是 bias的初始化就是一般地初始化一个符合一定尺寸要求的 Tensor即可了,我们也可以发现其在 forward过程中并没有所真的去根据输入进行权值的所谓“转置”之类的操作。因此我认为只要一般地进行随机初始化即可了。
而且,我们如果同时去观察 torch.nn.Conv2d的类的话,其实也可以发现,其参数都是通过 _ConvNd去进行初始化的,因此 Conv2dConvTranspose2D的参数初始化除了尺寸的区别,其他应该类似。
引用
1、A guide to convolution arithmetic for deep learning.(Vincent Dumoulin, Francesco Visin).[https://arxiv.org/abs/1603.07285]
2、Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks.(Alec Radford, Luke Metz, Soumith Chintala) [https://arxiv.org/pdf/1511.06434v2.pdf]
3、Fully Convolutional Networks for Semantic Segmentation.(Jonathan Long, Evan Shelhamer, Trevor Darrell) [https://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf]
4、Deconvolution and Checkerboard Artifacts.(Augustus Odena, Vincent Dumoulin, Chris Olah) [https://distill.pub/2016/deconv-checkerboard/]

推荐阅读



添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

△长按添加极市小助手

△长按关注极市平台,获取 最新CV干货

觉得有用麻烦给个在看啦~   
登录查看更多
2

相关内容

基于改进卷积神经网络的短文本分类模型
专知会员服务
25+阅读 · 2020年7月22日
专知会员服务
37+阅读 · 2020年6月7日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
卷积神经网络四种卷积类型
炼数成金订阅号
18+阅读 · 2019年4月16日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
总结-空洞卷积(Dilated/Atrous Convolution)
极市平台
41+阅读 · 2019年2月25日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
用缩放CNN消除反卷积带来的棋盘伪影
论智
19+阅读 · 2018年10月30日
什么是深度学习的卷积?
论智
18+阅读 · 2018年8月14日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
一文了解各种卷积结构原理及优劣
量子位
9+阅读 · 2017年7月29日
CNN之卷积层
机器学习算法与Python学习
8+阅读 · 2017年7月2日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
26+阅读 · 2017年6月21日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
3+阅读 · 2018年5月21日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关资讯
卷积神经网络四种卷积类型
炼数成金订阅号
18+阅读 · 2019年4月16日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
总结-空洞卷积(Dilated/Atrous Convolution)
极市平台
41+阅读 · 2019年2月25日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
用缩放CNN消除反卷积带来的棋盘伪影
论智
19+阅读 · 2018年10月30日
什么是深度学习的卷积?
论智
18+阅读 · 2018年8月14日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
一文了解各种卷积结构原理及优劣
量子位
9+阅读 · 2017年7月29日
CNN之卷积层
机器学习算法与Python学习
8+阅读 · 2017年7月2日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
26+阅读 · 2017年6月21日
Top
微信扫码咨询专知VIP会员