成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
ReLU
关注
0
综合
百科
VIP
热门
动态
论文
精华
Deep Nets as Hamiltonians
Arxiv
0+阅读 · 3月31日
An extrapolated and provably convergent algorithm for nonlinear matrix decomposition with the ReLU function
Arxiv
0+阅读 · 3月31日
APTx: better activation function than MISH, SWISH, and ReLU's variants used in deep learning
Arxiv
0+阅读 · 3月29日
Uncertainty propagation in feed-forward neural network models
Arxiv
0+阅读 · 3月29日
Uncertainty propagation in feed-forward neural network models
Arxiv
0+阅读 · 3月27日
Nonparametric estimation of Hawkes processes with RKHSs
Arxiv
0+阅读 · 3月25日
Two-Dimensional Deep ReLU CNN Approximation for Korobov Functions: A Constructive Approach
Arxiv
0+阅读 · 3月11日
Task-Specific Activation Functions for Neuroevolution using Grammatical Evolution
Arxiv
0+阅读 · 3月26日
Task-Specific Activation Functions for Neuroevolution using Grammatical Evolution
Arxiv
0+阅读 · 3月13日
HiQ-Lip: The First Quantum-Classical Hierarchical Method for Global Lipschitz Constant Estimation of ReLU Networks
Arxiv
0+阅读 · 3月20日
Finite Samples for Shallow Neural Networks
Arxiv
0+阅读 · 3月17日
Convex Formulations for Training Two-Layer ReLU Neural Networks
Arxiv
0+阅读 · 3月17日
InhibiDistilbert: Knowledge Distillation for a ReLU and Addition-based Transformer
Arxiv
0+阅读 · 3月20日
Order Theory in the Context of Machine Learning
Arxiv
0+阅读 · 3月4日
The Space Between: On Folding, Symmetries and Sampling
Arxiv
0+阅读 · 3月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top