Relu激活函数Out了?正弦周期激活函数在隐式神经表示中大显神威!

2020 年 7 月 12 日 AI科技评论

作者 | 陈大鑫

编辑 | 丛  末

在深度神经网络大行其道的今天,谁还不认识几个激活函数呢?
下图就是一些我们经常使用的激活函数,从这些激活函数的图像可以看出它们有的是局部线性的有的是非线性的,有的是一个函数表达式下来的,有的是分段的。但其表达式好像都不是很常见,给人一种应凑的感觉有没有?
比如在Relu出现之后,有人觉得x轴坐标都是0(神经元不激活)不太好,那就有了Leaky Rulu的出现,之后又有人提出线性的不太好,那就出现了ELU等等吧。总之Relu的变体一直增多,难道就不能换个花样吗?难道激活函数就得是分段函数去凑吗?
那有意思的就来了,近日斯坦福大学研究员Vincent Sitzmann 等人合作发表了一篇论文:     
论文地址: https://arxiv.org/pdf/2006.09661.pdf
项目主页: https://vsitzmann.github.io/siren/
开源代码: https://github.com/vsitzmann/siren
在这篇论文中研究人员在隐形神经表示中使用了正弦函数来替代以往的激活函数,那效果如何呢?       
上图是一张狗狗的图片,我们把它放进两个5层的神经网络进行训练并求其梯度图,这两个神经网络除了激活函数不同其它都一样,得到的结果如下图所示。  
可以很明显的看出,使用了ReLU激活函数得到的梯度图只是勾勒了原图梯度图的轮廓,而使用了本论文中的正弦周期激活函数(SIREN)得到的梯度图表现几乎与原图梯度图一样好(实际上充当了 Sobel过滤器)。
下图则可以看出正弦周期激活函数(SIREN)在二阶梯度图/拉普拉斯算子下表现得更好。  
那究竟正弦周期激活函数(SIREN)是怎样得到这样良好的性能呢?
在回答这个问题之前我们先来明确一下这个激活函数的应用场景:隐式神经表示。        
简单来说,Φ只与x有关,即Φ是由F隐式定义的,我们将这种隐式定义函数参数化的神经网络称为隐式神经表示。而科学领域中的各种各样的问题都是以这种隐式神经表示形式存在的,例如在图像、视频和音频处理中使用连续的可微表示来建模许多不同类型的离散信号,通过符号距离函数学习三维形状表示,以及更广泛的求解边界值问题:如泊松方程、亥姆霍兹方程或波动方程。
由神经网络参数化的隐式、连续、可微的信号表示已成为一种强有力的范式,与传统的表示相比,它提供了许多可能的好处。然而目前用于这种隐式神经表示的网络结构无法对信号进行精细的建模,并且无法表示信号的空间和时间导数,尽管事实上,这些导数对于许多隐含定义为偏微分方程解的物理信号是必不可少的。我们建议利用周期激活函数来表示隐式神经网络,并证明这些网络,称为正弦表示网络或SIREN ,非常适合于表示复杂的自然信号及其导数。

1


ReLU的不足

基于以上一些原因,隐式神经表示在过去的一年里引起了广泛的研究兴趣。然而这些最新的研究大多建立在基于ReLU的多层感知器(mlp)上,尽管这些架构很有前途,但它们缺乏在底层信号中表示精细细节的能力,而且它们通常不能很好地表示目标信号的导数/梯度。
这部分是由于ReLU网络是分段线性的,其二阶导数处处为零,因此无法对自然信号的高阶导数中包含的信息进行建模。虽然替代激活如tanh或softplus能够表示高阶导数,但它们的导数通常表现不好,也不能表示精细的细节。
 
2


SIREN的提出

为了解决这些局限性,作者利用具有周期性激活函数的mlp进行隐式神经表征。作者证明,这种方法不仅比ReLU-MLP更好地表示信号中的细节,而且这些性质还独特地适用于导数,可微意味着梯度和高阶导数可以解析地计算,例如使用自动微分,利用良好的导数,隐式神经表示还可以为求解微分方程等反问题提供一个新的工具箱。
那就来看看SIREN在各方面应用的表现效果吧

1、图像

将2D像素坐标映射到颜色的SIREN可用于参数化图像。在这里,我们直接使用ground truth像素值来监督SIREN。与所有baseline架构相比,SIREN不仅具有高10 dB的PSNR(峰值信噪比)和更少的迭代次数来拟合图像,而且它还是唯一能够准确表示图像的一阶和二阶梯度的的MLP(多层神经网络)。        

2、音频

具有单个时间坐标输入和标量输出的SIREN可以参数化音频信号,SIREN是唯一能够成功再现音乐和人声音频信号的网络体系结构。

3、视频

具有像素坐标和时间坐标的SIREN可用于参数化视频。在这里,SIREN受到ground truth像素值的直接监督,并且比ReLU MLP更好地参数化视频。                        
 
4、泊松图像重建和编辑  

5、解泊松方程

             
通过仅监督SIREN的导数,可以求解泊松方程,SIREN警报器再次成为唯一能够准确,快速地拟合图像,梯度和拉普拉斯域的架构。  
6、解决亥姆霍兹方程问题          

7、求解波动方程  

在时域中,SIREN成功解决了波动方程,而基于Tanh激活函数的体系结构却未能找到正确的解决方案。
8、用符号距离函数表示形状
                 
 
 
3


SIREN的奥妙:求梯度不变性

对SIREN求梯度得到的是另一个SIREN:  
       
在求梯度时用到了求导链式法则,且易知对正弦函数求n阶导仍然是正/余弦函数,如下图所示,大家感兴趣可以多看两眼。  
       
 
4


讨论与结论

如何表示信号的问题是许多科学和工程问题的核心。与传统的连续和离散表示相比,隐式神经表示可能为其中许多方法提供了一种新的工具。作者证明周期激活函数非常适合用隐式神经表示来表示复杂的自然信号及其导数。作者还原型了几个边值问题,其框架能够稳健地解决这些问题。对于未来的工作有几个令人兴奋的途径,包括探索其他类型的反问题以及在隐式神经表示之外的领域的应用。
一些思考:
正弦周期函数在隐式神经表示领域中是最好的一簇激活函数吗?在深度学习别的领域是否也存在一种比Relu之类更好的一簇激活函数?联系到人类大脑,难道说大脑在解决不同任务的时,内部神经元(突触)的激活表达方式也是不唯一的吗?
固然说人工智能和脑科学是两回事,这二者的内部作用机制也不必等同。但是就像爱因斯坦至死都在追求大统一理论一样,我们相信对于神经网络来说也是存在着一套通用、统一的运行机制:前后两层的作用方式(乘法网络或加法网络或者别的)应该是统一的,激活函数(我猜肯定不是Relu)应该是统一的,超参数的排列方式的产生规律应该是统一的、记忆力和注意力应该是统一的,有无dropout机制等也是统一的......
或许、或许除了要求非线性、强表达之外,上面的一切组件都不是必须的呢?也许有其他的组件可以替代以上呢?
我想这大概就是人工智能的“人工”所在吧,也许我们目前所作的真的只是在拟合数据而已。
那智能又体现在哪里的?智能都是人类赋予机器的,机器只是来满足我们的人类的各种需要而已,从这个角度来说,只要机器能更高效更省电地完成任务不就得了,还要什么自行车?
总的来说,怎么能高效地“人工”即是一种挑战也是一种魅力。
参考链接: https://medium.com/@sallyrobotics.blog/sirens-implicit-neural-representations-with-periodic-activation-functions-f425c7f710fa
 


 


AI  / 

访

1

2访

3

1

2

3

4沿


jiangbaoshang@yanxishe.com
击"阅读原文",直达“ICML  交流小组”了解更多会议信息。
登录查看更多
3

相关内容

在人工神经网络中,给定一个输入或一组输入,节点的激活函数定义该节点的输出。一个标准集成电路可以看作是一个由激活函数组成的数字网络,根据输入的不同,激活函数可以是开(1)或关(0)。这类似于神经网络中的线性感知器的行为。然而,只有非线性激活函数允许这样的网络只使用少量的节点来计算重要问题,并且这样的激活函数被称为非线性。
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
46+阅读 · 2020年5月23日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
自回归模型:PixelCNN
专知会员服务
27+阅读 · 2020年3月21日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
39+阅读 · 2020年3月9日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
15+阅读 · 2019年10月15日
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
详解LSTM:神经网络的记忆机制是这样炼成的
人工智能头条
5+阅读 · 2018年2月1日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
最近流行的激活函数
计算机视觉战队
6+阅读 · 2017年11月27日
入门 | 一文概览深度学习中的激活函数
机器之心
7+阅读 · 2017年11月2日
干货|浅谈神经网络中激活函数的设计
机器学习研究会
5+阅读 · 2017年10月28日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
干货 | 深度学习之损失函数与激活函数的选择
机器学习算法与Python学习
15+阅读 · 2017年9月18日
Attend More Times for Image Captioning
Arxiv
6+阅读 · 2018年12月8日
Arxiv
3+阅读 · 2018年10月25日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
7+阅读 · 2018年1月18日
VIP会员
相关VIP内容
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
46+阅读 · 2020年5月23日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
自回归模型:PixelCNN
专知会员服务
27+阅读 · 2020年3月21日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
39+阅读 · 2020年3月9日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
15+阅读 · 2019年10月15日
相关资讯
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
详解LSTM:神经网络的记忆机制是这样炼成的
人工智能头条
5+阅读 · 2018年2月1日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
最近流行的激活函数
计算机视觉战队
6+阅读 · 2017年11月27日
入门 | 一文概览深度学习中的激活函数
机器之心
7+阅读 · 2017年11月2日
干货|浅谈神经网络中激活函数的设计
机器学习研究会
5+阅读 · 2017年10月28日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
干货 | 深度学习之损失函数与激活函数的选择
机器学习算法与Python学习
15+阅读 · 2017年9月18日
Top
微信扫码咨询专知VIP会员