成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
激活函数
关注
44
在人工神经网络中,给定一个输入或一组输入,节点的激活函数定义该节点的输出。一个标准集成电路可以看作是一个由激活函数组成的数字网络,根据输入的不同,激活函数可以是开(1)或关(0)。这类似于神经网络中的线性感知器的行为。然而,只有非线性激活函数允许这样的网络只使用少量的节点来计算重要问题,并且这样的激活函数被称为非线性。
综合
百科
VIP
热门
动态
论文
精华
Critical Points of Random Neural Networks
Arxiv
0+阅读 · 10月6日
Multi-Objective Loss Balancing in Physics-Informed Neural Networks for Fluid Flow Applications
Arxiv
0+阅读 · 10月5日
Activation Functions Considered Harmful: Recovering Neural Network Weights through Controlled Channels
Arxiv
0+阅读 · 10月2日
SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation
Arxiv
0+阅读 · 9月30日
Multi-Objective Loss Balancing in Physics-Informed Neural Networks for Fluid Flow Applications
Arxiv
0+阅读 · 9月29日
Toward Improving fNIRS Classification: A Study on Activation Functions in Deep Neural Architectures
Arxiv
0+阅读 · 7月15日
APTx: better activation function than MISH, SWISH, and ReLU's variants used in deep learning
Arxiv
0+阅读 · 3月29日
The Mathematical Relationship Between Layer Normalization and Dynamic Activation Functions
Arxiv
0+阅读 · 3月31日
Activation Functions Considered Harmful: Recovering Neural Network Weights through Controlled Channels
Arxiv
0+阅读 · 3月24日
Task-Specific Activation Functions for Neuroevolution using Grammatical Evolution
Arxiv
0+阅读 · 3月26日
Task-Specific Activation Functions for Neuroevolution using Grammatical Evolution
Arxiv
0+阅读 · 3月13日
KunlunBaize: LLM with Multi-Scale Convolution and Multi-Token Prediction Under TransformerX Framework
Arxiv
0+阅读 · 3月20日
KunlunBaize: LLM with Multi-Scale Convolution and Multi-Token Prediction Under TransformerX Framework
Arxiv
0+阅读 · 3月11日
Frequency and Generalisation of Periodic Activation Functions in Reinforcement Learning
Arxiv
0+阅读 · 3月18日
Hysteresis Activation Function for Efficient Inference
Arxiv
0+阅读 · 3月11日
参考链接
父主题
深度学习
神经网络
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top