成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
无监督预训练
关注
2
综合
百科
VIP
热门
动态
论文
精华
ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域
专知
1+阅读 · 2022年3月24日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知
4+阅读 · 2021年3月3日
XLNET:换一个思路做预训练,效果杠杠滴
深度学习自然语言处理
0+阅读 · 2020年12月9日
10分钟标注数据胜过一年前的960h,FAIR新研究实现语音识别大进展(模型已开源)
机器之心
0+阅读 · 2020年11月5日
REALM:将检索集成到语言表征模型,搞定知识密集型任务!
TensorFlow
1+阅读 · 2020年9月14日
无需contrastive学习,微软亚研提出基于实例分类的无监督预训练方法
机器之心
0+阅读 · 2020年7月9日
如何加速训练和预测?增大模型吧
AINLP
0+阅读 · 2020年5月11日
「反向传播非你原创」,Jürgen发文直指Hinton不应获2019本田奖
机器之心
0+阅读 · 2020年4月22日
通过增加模型的大小来加速Transformer的训练和推理
AINLP
0+阅读 · 2020年3月17日
【论文解读】AAAI 2020 持续学习语义理解框架ERNIE 2.0
深度学习自然语言处理
0+阅读 · 2020年3月12日
颠覆直觉!大模型重压缩,反到加速推理速度,加州伯克利分校的再思考
AI科技评论
1+阅读 · 2020年3月10日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
NLPer复工了!先看看这份2019机器学习与NLP年度盘点吧
机器之心
0+阅读 · 2020年2月3日
2019 年,ML & NLP领域十大研究热点
AI科技评论
0+阅读 · 2020年1月11日
LSTM之父粉丝猛怼 Hinton:五篇主要深度学习论文未引用Jürgen早期工作!
新智元
0+阅读 · 2019年11月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top