成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
无监督预训练
关注
2
综合
百科
VIP
热门
动态
论文
精华
颠覆直觉!大模型重压缩,反到加速推理速度,加州伯克利分校的再思考
AI科技评论
1+阅读 · 2020年3月10日
无需contrastive学习,微软亚研提出基于实例分类的无监督预训练方法
机器之心
0+阅读 · 2020年7月9日
多次问鼎NuerIPS、MRQA等国际顶级比赛,百度NLP技术到底有多强?
AI前线
3+阅读 · 2019年9月20日
如何加速训练和预测?增大模型吧
AINLP
0+阅读 · 2020年5月11日
通过增加模型的大小来加速Transformer的训练和推理
AINLP
0+阅读 · 2020年3月17日
中文任务全面超 BERT,NLP 无监督预训练模型 ERNIE 真有官方说的那么好?
前端之巅
2+阅读 · 2019年9月11日
OpenAI NLP最新进展:通过无监督学习提升语言理解
AI100
1+阅读 · 2018年6月17日
前沿 | 使用Transformer与无监督学习,OpenAI提出可迁移至多种NLP任务的通用模型
机器之心
0+阅读 · 2018年6月12日
NLPer复工了!先看看这份2019机器学习与NLP年度盘点吧
机器之心
0+阅读 · 2020年2月3日
OpenAI NLP最新进展:通过无监督学习提升语言理解
人工智能学家
2+阅读 · 2018年6月17日
BERT和ERNIE谁更强?这里有一份4大场景的细致评测
AINLP
1+阅读 · 2019年6月24日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知
4+阅读 · 2021年3月3日
我跑了ERNIE和BERT两个模型,结果出乎意料......
PaperWeekly
21+阅读 · 2019年6月24日
将 BERT 推广到语音识别,滴滴提出新无监督预训练框架,大幅提升语音识别精度
AI科技评论
2+阅读 · 2019年11月1日
动态 | 深度学习的爆发要归功给谁?Yann LeCun、François Chollet各执一词
AI科技评论
0+阅读 · 2018年1月22日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top