成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
预训练
关注
23
在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
综合
百科
VIP
热门
动态
论文
精华
PolypSegTrack: Unified Foundation Model for Colonoscopy Video Analysis
Arxiv
0+阅读 · 3月31日
UniWav: Towards Unified Pre-training for Speech Representation Learning and Generation
Arxiv
0+阅读 · 3月2日
Low Fidelity Visuo-Tactile Pretraining Improves Vision-Only Manipulation Performance
Arxiv
0+阅读 · 3月13日
VILA-M3: Enhancing Vision-Language Models with Medical Expert Knowledge
Arxiv
0+阅读 · 3月4日
Yi-Lightning Technical Report
Arxiv
0+阅读 · 1月22日
Has this Fact been Edited? Detecting Knowledge Edits in Language Models
Arxiv
0+阅读 · 2月10日
Programming Every Example: Lifting Pre-training Data Quality Like Experts at Scale
Arxiv
0+阅读 · 2月14日
Pre-training, Fine-tuning and Re-ranking: A Three-Stage Framework for Legal Question Answering
Arxiv
0+阅读 · 2024年12月27日
MIO: A Foundation Model on Multimodal Tokens
Arxiv
0+阅读 · 1月13日
MERT: Acoustic Music Understanding Model with Large-Scale Self-supervised Training
Arxiv
0+阅读 · 2024年12月27日
Aligning Instruction Tuning with Pre-training
Arxiv
0+阅读 · 1月16日
Head and Neck Tumor Segmentation of MRI from Pre- and Mid-radiotherapy with Pre-training, Data Augmentation and Dual Flow UNet
Arxiv
1+阅读 · 2024年12月19日
WordVIS: A Color Worth A Thousand Words
Arxiv
1+阅读 · 2024年12月13日
Yi-Lightning Technical Report
Arxiv
0+阅读 · 2024年12月5日
Alignment at Pre-training! Towards Native Alignment for Arabic LLMs
Arxiv
0+阅读 · 2024年12月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top