成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BEiT
关注
0
综合
百科
VIP
热门
动态
论文
精华
自监督学习新范式CAE:为什么 MIM 比对比学习更适合下游任务?
机器之心
0+阅读 · 2022年2月19日
微软亚洲研究院持续迭代BEiT,为通用基础模型的大一统发展奠定基础
微软研究院AI头条
0+阅读 · 2022年11月15日
视觉Transformer BERT预训练新方式:中科大、MSRA等提出PeCo,优于MAE、BEiT
机器之心
0+阅读 · 2021年12月3日
“在所有事情上打败所有人”,微软多模态新作横扫12类任务,连纯视觉SOTA都刷新了
量子位
0+阅读 · 2022年8月27日
深度了解自监督学习,就看这篇解读 !SimMIM:掩码图像建模的简单框架
极市平台
0+阅读 · 2021年12月5日
北大/港大/百度提出CAE:自监督学习新范式!用于SSL的上下文自动编码器
CVer
0+阅读 · 2022年2月21日
如何评价FAIR提出的MaskFeat:一种适用图像和视频分类的自监督学习方法?
极市平台
1+阅读 · 2021年12月21日
FAIR何恺明团队最新研究:定义ViT检测迁移学习基线
极市平台
0+阅读 · 2021年11月23日
【全球经济、金融和产业前沿大讲堂】第三讲 Harel Beit-On、刘少伟:中国与日本、以色列的跨境投资机遇与挑战
清华大学研究生教育
1+阅读 · 2019年10月5日
VALSE Webinar 21-31期 总第259期 标记高效的视觉学习
VALSE
1+阅读 · 2021年11月18日
CVPR 2022|一文详解MSRA提出的掩码图像建模的简单框架SimMIM
极市平台
2+阅读 · 2022年4月14日
视觉Transformer BERT预训练新方法!中科大&MSRA等提出PeCo:卷起来了!
CVer
1+阅读 · 2021年12月7日
谷歌多模态大模型PaLI:采用参数量为4B的ViT-e,效果超过BEiT-3
机器之心
2+阅读 · 2022年10月7日
中科大、MSRA提出视觉Transformer BERT预训练新方式,优于MAE、BEiT
PaperWeekly
1+阅读 · 2021年12月5日
通用多模态基础模型BEiT-3:引领文本、图像、多模态预训练迈向“大一统”
微软研究院AI头条
6+阅读 · 2022年8月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top