成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
SELU
关注
0
综合
百科
VIP
热门
动态
论文
精华
SELU: Self-Learning Embodied MLLMs in Unknown Environments
Arxiv
0+阅读 · 10月4日
Deep Network Approximation: Beyond ReLU to Diverse Activation Functions
Arxiv
0+阅读 · 1月31日
Deep Network Approximation: Beyond ReLU to Diverse Activation Functions
Arxiv
0+阅读 · 2023年10月10日
Constrained Monotonic Neural Networks
Arxiv
0+阅读 · 2022年5月24日
SNDCNN: Self-normalizing deep CNNs with scaled exponential linear units for speech recognition
Arxiv
0+阅读 · 2020年3月23日
Goldilocks Neural Networks
Arxiv
0+阅读 · 2020年2月26日
Multi-Channel Volumetric Neural Network for Knee Cartilage Segmentation in Cone-beam CT
Arxiv
0+阅读 · 2019年12月3日
SNDCNN: Self-normalizing deep CNNs with scaled exponential linear units for speech recognition
Arxiv
0+阅读 · 2019年10月9日
SNDCNN: Self-normalizing deep CNNs with scaled exponential linear units for speech recognition
Arxiv
0+阅读 · 2019年10月4日
Effectiveness of Scaled Exponentially-Regularized Linear Units (SERLUs)
Arxiv
0+阅读 · 2018年7月27日
Effectiveness of Scaled Exponentially-Regularized Linear Units (SERLUs)
Arxiv
0+阅读 · 2018年7月26日
The exploding gradient problem demystified - definition, prevalence, impact, origin, tradeoffs, and solutions
Arxiv
0+阅读 · 2018年4月6日
The exploding gradient problem demystified - definition, prevalence, impact, origin, tradeoffs, and solutions
Arxiv
0+阅读 · 2018年3月21日
A Generalization Method of Partitioned Activation Function for Complex Number
Arxiv
0+阅读 · 2018年2月8日
Gradients explode - Deep Networks are shallow - ResNet explained
Arxiv
1+阅读 · 2017年12月22日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top