爆肝何恺明的视觉预训练新范式MAE!

2022 年 1 月 12 日 CVer

何恺明大神在去年11月发表了一篇新论文:Masked Autoencoders Are Scalable Vision Learners证明了 masked autoencoders(MAE) 是一种可扩展的计算机视觉自监督学习方法。


本文提出了一种掩膜自编码器 (MAE)架构,可以作为计算机视觉的可扩展自监督学习器使用,而且效果显著。


此文最大的贡献,可能是在NLP和CV两大领域之间架起了一座更简便的桥梁。


深度之眼特邀讲师电子羊,将用1个小时的时间,为大家直播讲解本篇论文。

1月14日晚20:00直播

扫码0.1元订阅

附赠老师直播PPT课件




登录查看更多
2

相关内容

掩码自编码MAE
ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域
专知会员服务
32+阅读 · 2022年3月24日
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
31+阅读 · 2022年3月12日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知会员服务
144+阅读 · 2021年10月25日
【NeurIPS2021】ResT:一个有效的视觉识别转换器
专知会员服务
22+阅读 · 2021年10月25日
专知会员服务
38+阅读 · 2021年5月16日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
23+阅读 · 2020年9月16日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员