成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
超参数
关注
1
在贝叶斯统计中,超参数是先验分布的参数; 该术语用于将它们与所分析的基础系统的模型参数区分开。
综合
百科
VIP
热门
动态
论文
精华
Prevalidated ridge regression is a highly-efficient drop-in replacement for logistic regression for high-dimensional data
Arxiv
0+阅读 · 4月3日
DC-SGD: Differentially Private SGD with Dynamic Clipping through Gradient Norm Distribution Estimation
Arxiv
0+阅读 · 4月1日
Multi-Objective Optimization and Hyperparameter Tuning With Desirability Functions
Arxiv
0+阅读 · 3月30日
Learning dynamical systems with hit-and-run random feature maps
Arxiv
0+阅读 · 3月31日
DC-SGD: Differentially Private SGD with Dynamic Clipping through Gradient Norm Distribution Estimation
Arxiv
0+阅读 · 3月29日
High-dimensional Asymptotics of VAEs: Threshold of Posterior Collapse and Dataset-Size Dependence of Rate-Distortion Curve
Arxiv
0+阅读 · 3月28日
Leveraging LLMs for Predicting Unknown Diagnoses from Clinical Notes
Arxiv
0+阅读 · 3月28日
Relax and penalize: a new bilevel approach to mixed-binary hyperparameter optimization
Arxiv
0+阅读 · 3月19日
Integration of nested cross-validation, automated hyperparameter optimization, high-performance computing to reduce and quantify the variance of test performance estimation of deep learning models
Arxiv
0+阅读 · 3月11日
Hyperparameter Selection in Continual Learning
Arxiv
0+阅读 · 3月14日
Predictable Scale: Part I -- Optimal Hyperparameter Scaling Law in Large Language Model Pretraining
Arxiv
0+阅读 · 3月6日
Predictable Scale: Part I -- Optimal Hyperparameter Scaling Law in Large Language Model Pretraining
Arxiv
0+阅读 · 3月19日
Benefits of Learning Rate Annealing for Tuning-Robustness in Stochastic Optimization
Arxiv
0+阅读 · 3月12日
MOHPER: Multi-objective Hyperparameter Optimization Framework for E-commerce Retrieval System
Arxiv
0+阅读 · 3月7日
Towards hyperparameter-free optimization with differential privacy
Arxiv
0+阅读 · 3月2日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top