成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
超参数
关注
1
在贝叶斯统计中,超参数是先验分布的参数; 该术语用于将它们与所分析的基础系统的模型参数区分开。
综合
百科
VIP
热门
动态
论文
精华
Empirical Study on Robustness and Resilience in Cooperative Multi-Agent Reinforcement Learning
Arxiv
0+阅读 · 10月13日
Bayesian Calibration for Prediction in a Multi-Output Transposition Context
Arxiv
0+阅读 · 10月14日
Evaluating the effects of preprocessing, method selection, and hyperparameter tuning on SAR-based flood mapping and water depth estimation
Arxiv
0+阅读 · 10月13日
An Exploration of Non-Euclidean Gradient Descent: Muon and its Many Variants
Arxiv
0+阅读 · 10月10日
Diverse Text-to-Image Generation via Contrastive Noise Optimization
Arxiv
0+阅读 · 10月11日
From Entity Reliability to Clean Feedback: An Entity-Aware Denoising Framework Beyond Interaction-Level Signals
Arxiv
0+阅读 · 10月10日
Search-based Hyperparameter Tuning for Python Unit Test Generation
Arxiv
0+阅读 · 10月9日
TabImpute: Accurate and Fast Zero-Shot Missing-Data Imputation with a Pre-Trained Transformer
Arxiv
0+阅读 · 10月10日
Optimal Stopping in Latent Diffusion Models
Arxiv
0+阅读 · 10月9日
$μ$-Parametrization for Mixture of Experts
Arxiv
0+阅读 · 10月9日
Bayesian Optimization under Uncertainty for Training a Scale Parameter in Stochastic Models
Arxiv
0+阅读 · 10月7日
Enhancing Speech Emotion Recognition via Fine-Tuning Pre-Trained Models and Hyper-Parameter Optimisation
Arxiv
0+阅读 · 10月8日
Gemstones: A Model Suite for Multi-Faceted Scaling Laws
Arxiv
0+阅读 · 10月7日
Code Smell Detection via Pearson Correlation and ML Hyperparameter Optimization
Arxiv
0+阅读 · 10月7日
MetaLLMix : An XAI Aided LLM-Meta-learning Based Approach for Hyper-parameters Optimization
Arxiv
0+阅读 · 10月7日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top