成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
预训练
关注
23
在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
综合
百科
VIP
热门
动态
论文
精华
Yi-Lightning Technical Report
Arxiv
0+阅读 · 12月3日
Pre-training for Action Recognition with Automatically Generated Fractal Datasets
Arxiv
0+阅读 · 11月26日
Style-Friendly SNR Sampler for Style-Driven Generation
Arxiv
0+阅读 · 11月22日
Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning
Arxiv
0+阅读 · 11月14日
Long-Tailed Object Detection Pre-training: Dynamic Rebalancing Contrastive Learning with Dual Reconstruction
Arxiv
0+阅读 · 11月14日
How Does Critical Batch Size Scale in Pre-training?
Arxiv
0+阅读 · 11月8日
Photon: Federated LLM Pre-Training
Arxiv
0+阅读 · 11月5日
Multi-Transmotion: Pre-trained Model for Human Motion Prediction
Arxiv
0+阅读 · 11月4日
MIO: A Foundation Model on Multimodal Tokens
Arxiv
0+阅读 · 10月31日
Exploring Forgetting in Large Language Model Pre-Training
Arxiv
0+阅读 · 10月22日
Timer: Generative Pre-trained Transformers Are Large Time Series Models
Arxiv
0+阅读 · 10月18日
DRACO: A Denoising-Reconstruction Autoencoder for Cryo-EM
Arxiv
0+阅读 · 10月28日
How Does Critical Batch Size Scale in Pre-training?
Arxiv
0+阅读 · 10月29日
Dwell in the Beginning: How Language Models Embed Long Documents for Dense Retrieval
Arxiv
0+阅读 · 10月26日
Spike No More: Stabilizing the Pre-training of Large Language Models
Arxiv
0+阅读 · 10月10日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top