神经网络已被证明是解决许多生活领域中复杂问题的一种高效工具。最近,随着深度学习的出现,它们的重要性和实用性得到了进一步的加强。神经网络成功的一个重要条件是选择合适的激活函数,为模型引入非线性。过去的文献中提出了许多类型的这些函数,但没有一个全面的来源包含了它们的详尽概述。即使根据我们的经验,这个概述的缺失导致了冗余和无意中重新发现已经存在的激活函数。为了弥补这一缺口,我们的论文提出了一个涉及400种激活函数的广泛综述,其规模是之前综述的几倍。我们的综合编纂还引用了这些综述;然而,其主要目标是提供最全面的激活函数已发表概述和系统化,并链接到它们的原始来源。次要目标是更新对这一函数家族的当前理解。

神经网络 — 尤其是深度学习 — 在解决各个领域中的多样化挑战上表现出了显著的成功。它们被视为最先进的方法,展示了它们解决复杂和错综复杂问题的能力。在这些网络的核心,激活函数(AFs)通过为神经网络层引入非线性而发挥着重要作用。在没有非线性AFs的情况下,典型的神经网络将只能模拟输入的加权和,限制了它们捕获数据内部复杂关系的能力。

激活函数的选择深刻影响网络的学习和泛化能力,直接影响其在一系列任务中的性能。有效的激活函数具有几个关键特性,如Dubey, Singh, 和 Chaudhuri在[1]中概述的:a) 引入非线性曲率以增强训练收敛性;b) 在训练期间保持无阻碍的梯度流;c) 确保对模型计算复杂性的最小增加;d) 保持数据分布以优化网络训练。

在过去三十年的文献中提出了许多激活函数 — 有些在计算复杂性或性能方面比其他函数更高。然而,激活函数的进一步研究受到了缺乏整合列表的阻碍。这一缺口导致了无意中重新发明现有激活函数和独立提出相同或非常相似的函数,从而导致研究资源的浪费。即使是像Dubey, Singh, 和 Chaudhuri [1] 和 Apicella等人[2]这样的综合性调查和回顾,经常遗漏文献中存在的许多激活函数;此外,这些回顾也有些过时,自那以后出现了许多新的激活函数。这种疏忽可能导致一个AF被冗余地提出为新颖,尽管它之前已经在文献中被介绍 — 例如,修正幂单元(RePU)(第3.6.39节),双参数ReLU(DPReLU)(第4.2.20节),截断修正线性单元(TRec)(第3.6.21节),ReLU-Swish(第3.6.46节)和有界ReLU(BReLU)(第3.6.16节)。通过提供更广泛的激活函数列表,我们旨在避免这种冗余,并促进神经网络中激活函数研究的更快进展。 为了解决这个问题,我们努力提供一个广泛且整合的AFs列表。这项调查旨在防止冗余,消除重新发明已建立AFs的现象,以促进创新,并加速神经网络领域研究的进步。通过提供一个综合资源,我们旨在促进该领域内探索AFs的效率和创新。

重要的是,我们的贡献主要集中在提供一个全面的AFs列表,而不是进行广泛的基准测试或深入分析。编译的广度包括了广泛的AFs,使得详细的基准测试或更深入的分析超出了本项工作的范围。我们的目标是为研究人员提供一个基础资源,以便在选择神经网络的AFs时做出明智的决策,认识到更彻底的探索或详细分析将需要超出这个全面列表范围的专门和集中的努力。所呈现的概述仅限于实值激活函数;复值神经网络(例如,[3–16],简要概述可见于[17, 18]),双复值神经网络(例如,[19]),四元数值神经网络(例如,[20–24]),光子神经网络(例如,[25]),模糊神经网络(例如,[26–31]),概率布尔逻辑的AFs(例如,[32]),量子AFs(例如,[33])等超出了本工作的范围。1 我们选择将AFs分为两大类:固定AFs(第3节)和自适应激活函数(AAFs)(第4节),后者具有一个在网络中与其他权重一起训练的参数。虽然存在AFs在实质上是相同的情况,只是在是否存在特定的自适应参数方面有所不同(例如,swish(见第4.4.1节)和SiLU(见第3.3节)),这种分类证明是有价值的。AAFs凭借其参数化,提供了在训练过程中捕获数据内复杂关系的额外灵活性层。

成为VIP会员查看完整内容
68

相关内容

在人工神经网络中,给定一个输入或一组输入,节点的激活函数定义该节点的输出。一个标准集成电路可以看作是一个由激活函数组成的数字网络,根据输入的不同,激活函数可以是开(1)或关(0)。这类似于神经网络中的线性感知器的行为。然而,只有非线性激活函数允许这样的网络只使用少量的节点来计算重要问题,并且这样的激活函数被称为非线性。
几何图神经网络综述:数据结构、模型与应用
专知会员服务
48+阅读 · 3月4日
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
20+阅读 · 2月15日
图时卷积神经网络:架构与理论分析
专知会员服务
23+阅读 · 2022年7月3日
深度学习激活函数全面综述论文
专知会员服务
70+阅读 · 2021年10月1日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
89+阅读 · 2021年7月9日
专知会员服务
41+阅读 · 2021年6月2日
专知会员服务
138+阅读 · 2021年3月30日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
深度学习图像检索(CBIR): 十年之大综述
专知
65+阅读 · 2020年12月5日
【KDD2020】图神经网络:基础与应用,322页ppt
多模态深度学习综述,18页pdf
专知
48+阅读 · 2020年3月29日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关VIP内容
几何图神经网络综述:数据结构、模型与应用
专知会员服务
48+阅读 · 3月4日
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
20+阅读 · 2月15日
图时卷积神经网络:架构与理论分析
专知会员服务
23+阅读 · 2022年7月3日
深度学习激活函数全面综述论文
专知会员服务
70+阅读 · 2021年10月1日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
89+阅读 · 2021年7月9日
专知会员服务
41+阅读 · 2021年6月2日
专知会员服务
138+阅读 · 2021年3月30日
相关资讯
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
深度学习图像检索(CBIR): 十年之大综述
专知
65+阅读 · 2020年12月5日
【KDD2020】图神经网络:基础与应用,322页ppt
多模态深度学习综述,18页pdf
专知
48+阅读 · 2020年3月29日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员