成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BEiT
关注
0
综合
百科
VIP
热门
动态
论文
精华
微软亚洲研究院持续迭代BEiT,为通用基础模型的大一统发展奠定基础
微软研究院AI头条
0+阅读 · 2022年11月15日
谷歌多模态大模型PaLI:采用参数量为4B的ViT-e,效果超过BEiT-3
机器之心
2+阅读 · 2022年10月7日
通用多模态基础模型BEiT-3:引领文本、图像、多模态预训练迈向“大一统”
微软研究院AI头条
6+阅读 · 2022年8月30日
“在所有事情上打败所有人”,微软多模态新作横扫12类任务,连纯视觉SOTA都刷新了
量子位
0+阅读 · 2022年8月27日
CVPR 2022|一文详解MSRA提出的掩码图像建模的简单框架SimMIM
极市平台
2+阅读 · 2022年4月14日
ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域
专知
1+阅读 · 2022年3月24日
北大博士生提出CAE,下游任务泛化能力优于何恺明MAE
量子位
2+阅读 · 2022年2月22日
北大/港大/百度提出CAE:自监督学习新范式!用于SSL的上下文自动编码器
CVer
0+阅读 · 2022年2月21日
自监督学习新范式CAE:为什么 MIM 比对比学习更适合下游任务?
机器之心
0+阅读 · 2022年2月19日
如何评价FAIR提出的MaskFeat:一种适用图像和视频分类的自监督学习方法?
极市平台
1+阅读 · 2021年12月21日
视觉Transformer BERT预训练新方法!中科大&MSRA等提出PeCo:卷起来了!
CVer
1+阅读 · 2021年12月7日
中科大、MSRA提出视觉Transformer BERT预训练新方式,优于MAE、BEiT
PaperWeekly
1+阅读 · 2021年12月5日
深度了解自监督学习,就看这篇解读 !SimMIM:掩码图像建模的简单框架
极市平台
0+阅读 · 2021年12月5日
视觉Transformer BERT预训练新方式:中科大、MSRA等提出PeCo,优于MAE、BEiT
机器之心
0+阅读 · 2021年12月3日
FAIR何恺明团队最新研究:定义ViT检测迁移学习基线
极市平台
0+阅读 · 2021年11月23日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top