成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
预训练模型
关注
554
预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
综合
百科
VIP
热门
动态
论文
精华
Learning Sample Difficulty from Pre-trained Models for Reliable Prediction
Arxiv
0+阅读 · 2023年4月20日
Domain-specific Continued Pretraining of Language Models for Capturing Long Context in Mental Health
Arxiv
0+阅读 · 2023年4月20日
DyLoRA: Parameter Efficient Tuning of Pre-trained Models using Dynamic Search-Free Low-Rank Adaptation
Arxiv
0+阅读 · 2023年4月19日
Multi-domain Learning for Updating Face Anti-spoofing Models
Arxiv
0+阅读 · 2023年4月17日
SikuGPT: A Generative Pre-trained Model for Intelligent Information Processing of Ancient Texts from the Perspective of Digital Humanities
Arxiv
0+阅读 · 2023年4月16日
VALOR: Vision-Audio-Language Omni-Perception Pretraining Model and Dataset
Arxiv
0+阅读 · 2023年4月17日
TabRet: Pre-training Transformer-based Tabular Models for Unseen Columns
Arxiv
0+阅读 · 2023年4月16日
A Comprehensive Evaluation of the Copy Mechanism for Natural Language to SPARQL Query Generation
Arxiv
0+阅读 · 2023年4月16日
Evaluation of Social Biases in Recent Large Pre-Trained Models
Arxiv
0+阅读 · 2023年4月13日
Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models
Arxiv
1+阅读 · 2023年4月14日
Improving Semantic Matching through Dependency-Enhanced Pre-trained Model with Adaptive Fusion
Arxiv
0+阅读 · 2023年4月14日
Momentum Contrastive Pre-training for Question Answering
Arxiv
0+阅读 · 2023年4月12日
FlexMoE: Scaling Large-scale Sparse Pre-trained Model Training via Dynamic Device Placement
Arxiv
1+阅读 · 2023年4月8日
Deep Generative Modeling on Limited Data with Regularization by Nontransferable Pre-trained Models
Arxiv
0+阅读 · 2023年4月10日
M-SpeechCLIP: Leveraging Large-Scale, Pre-Trained Models for Multilingual Speech to Image Retrieval
Arxiv
0+阅读 · 2023年4月10日
参考链接
父主题
机器学习
深度学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top