【ICML2021】利用最大化证据作为准则的预训练模型选择判据

2021 年 5 月 16 日 专知


本文研究了任务自适应预训练模型的选择问题,这是一个有待探讨的问题,即如何评估预训练模型,以便在不进行微调的情况下从模型族中选择适合任务的模型。一项试点工作(Nguyen等人,2020年)解决了将有监督的预训练模型转移到分类任务中的问题,但它不能处理新兴的无监督的预训练模型或回归任务。


为了寻求一种实用的评估方法,我们提出了估计标签的最大证据(边缘似然),在给定预先训练模型提取的特征。与似然值相比,最大证据值不容易出现过拟合,而且通过我们精心设计的算法可以大大减少昂贵的计算量。最大证据对数(LogME)可以用来评估迁移学习的预训练模型:LogME高的预训练模型可能具有良好的迁移性能。LogME具有快速、准确、通用的特点,是第一个实用的迁移学习评估方法。相对于蛮力微调,LogME在时间上带来了超过3000倍的加速。它在设置上比以前的方法有很大的优势,并且适用于以前的方法不能处理的新设置。它对于不同的预训练模型(有监督的预训练和无监督的预训练)、下游任务(分类和回归)和模式(视觉和语言)来说是足够普遍的。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“LME” 就可以获取【ICML2021】利用最大化证据作为准则的预训练模型选择判据》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
32+阅读 · 2021年3月7日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
图神经网络架构,稳定性,可迁移性
专知
5+阅读 · 2020年8月8日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
Arxiv
8+阅读 · 2021年7月15日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
19+阅读 · 2021年1月14日
Real-Time High-Resolution Background Matting
Arxiv
4+阅读 · 2020年12月14日
Arxiv
3+阅读 · 2018年4月3日
VIP会员
相关VIP内容
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
32+阅读 · 2021年3月7日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
图神经网络架构,稳定性,可迁移性
专知
5+阅读 · 2020年8月8日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
Top
微信扫码咨询专知VIP会员