大型基于Transformer的模型在各种自然语言处理和计算机视觉任务中表现出优越的性能。然而,这些模型包含大量的参数,这限制了它们在真实应用中的部署。为了减少模型的大小,研究人员根据权重的重要性评分对这些模型进行修剪。然而,这些分数通常是在训练过程中的小批量估计,由于小批量抽样和复杂的训练动态,这带来了很大的可变性/不确定性。由于这种不确定性,常用的修剪方法会对一些关键权重进行修剪,使得训练不稳定,不利于泛化。为了解决这一问题,我们提出了PLATON算法,该算法通过重要性估计的置信上限(upper confidence bound, UCB)来捕捉重要性得分的不确定性。特别是对于重要性得分低但不确定性高的权重,PLATON倾向于保留它们并探索它们的容量。我们在自然语言理解、问题回答和图像分类等多个基于transformer的模型上进行了大量实验,以验证PLATON的有效性。结果表明,在不同的稀疏度水平下,PLATON算法均有显著的改进。 https://arxiv.org/abs/2206.12562

成为VIP会员查看完整内容
15

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
【ICML2022】在线决策Transformer
专知会员服务
33+阅读 · 2022年7月27日
【ICML2022】因果Transformer:估算反事实结果的因果, 附ppt
专知会员服务
78+阅读 · 2022年7月20日
【ICML2022】鲁棒强化学习的策略梯度法
专知会员服务
37+阅读 · 2022年5月21日
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
24+阅读 · 2021年6月15日
专知会员服务
37+阅读 · 2021年6月3日
专知会员服务
21+阅读 · 2021年5月14日
专知会员服务
81+阅读 · 2021年5月10日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
BERT为何无法彻底干掉BM25??
夕小瑶的卖萌屋
0+阅读 · 2022年6月28日
为什么深度学习是非参数的?
THU数据派
1+阅读 · 2022年3月29日
ACL2022 | 基于强化学习的实体对齐
专知
1+阅读 · 2022年3月15日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年8月17日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
19+阅读 · 2021年2月4日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关VIP内容
【ICML2022】在线决策Transformer
专知会员服务
33+阅读 · 2022年7月27日
【ICML2022】因果Transformer:估算反事实结果的因果, 附ppt
专知会员服务
78+阅读 · 2022年7月20日
【ICML2022】鲁棒强化学习的策略梯度法
专知会员服务
37+阅读 · 2022年5月21日
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
24+阅读 · 2021年6月15日
专知会员服务
37+阅读 · 2021年6月3日
专知会员服务
21+阅读 · 2021年5月14日
专知会员服务
81+阅读 · 2021年5月10日
相关资讯
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员