成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
ReLU
关注
0
综合
百科
VIP
热门
动态
论文
精华
Wide Neural Networks as a Baseline for the Computational No-Coincidence Conjecture
Arxiv
0+阅读 · 10月8日
Sharp Lower Bounds for Linearized ReLU^k Approximation on the Sphere
Arxiv
0+阅读 · 10月5日
Optimal estimation of a factorizable density using diffusion models with ReLU neural networks
Arxiv
0+阅读 · 10月5日
Directional Convergence, Benign Overfitting of Gradient Descent in leaky ReLU two-layer Neural Networks
Arxiv
0+阅读 · 10月6日
The Inhibitor: ReLU and Addition-Based Attention for Efficient Transformers under Fully Homomorphic Encryption on the Torus
Arxiv
0+阅读 · 10月1日
Parameterized Hardness of Zonotope Containment and Neural Network Verification
Arxiv
0+阅读 · 9月26日
Exact Upper and Lower Bounds for the Output Distribution of Neural Networks with Random Inputs
Arxiv
0+阅读 · 6月10日
How many samples are needed to train a deep neural network?
Arxiv
0+阅读 · 8月25日
Convexity in ReLU Neural Networks: beyond ICNNs?
Arxiv
0+阅读 · 4月8日
Nonlocal techniques for the analysis of deep ReLU neural network approximations
Arxiv
0+阅读 · 4月7日
Constraining the outputs of ReLU neural networks
Arxiv
0+阅读 · 8月5日
Approximation Rates for Shallow ReLU$^k$ Neural Networks on Sobolev Spaces via the Radon Transform
Arxiv
0+阅读 · 7月17日
Deep Nets as Hamiltonians
Arxiv
0+阅读 · 3月31日
An extrapolated and provably convergent algorithm for nonlinear matrix decomposition with the ReLU function
Arxiv
0+阅读 · 3月31日
APTx: better activation function than MISH, SWISH, and ReLU's variants used in deep learning
Arxiv
0+阅读 · 3月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top