成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
指数线性单元
关注
0
综合
百科
VIP
热门
动态
论文
精华
在注意力中重新思考Softmax:分解非线性,这个线性Transformer变体实现多项SOTA
PaperWeekly
0+阅读 · 2022年2月25日
[学习] 从ReLU到Sinc,26种神经网络激活函数可视化
菜鸟的机器学习
0+阅读 · 2017年10月23日
从ReLU到Sinc,26种神经网络激活函数可视化
大数据技术
2+阅读 · 2017年10月16日
干货 | 从ReLU到Sinc,26种神经网络激活函数可视化
黑龙江大学自然语言处理实验室
2+阅读 · 2017年10月13日
从ReLU到Sinc,26种神经网络激活函数可视化
炼数成金订阅号
2+阅读 · 2017年10月11日
资源 | 从ReLU到Sinc,26种神经网络激活函数可视化
机器之心
1+阅读 · 2017年10月10日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top