成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT预训练
关注
1
综合
百科
VIP
热门
动态
论文
精华
视觉Transformer BERT预训练新方法!中科大&MSRA等提出PeCo:卷起来了!
CVer
1+阅读 · 2021年12月7日
中科大、MSRA提出视觉Transformer BERT预训练新方式,优于MAE、BEiT
PaperWeekly
1+阅读 · 2021年12月5日
视觉Transformer BERT预训练新方式:中科大、MSRA等提出PeCo,优于MAE、BEiT
机器之心
0+阅读 · 2021年12月3日
恕我直言,你的实验结论可能严重依赖随机数种子!
夕小瑶的卖萌屋
0+阅读 · 2021年8月19日
我不太懂BERT系列——BERT预训练实操总结
AINLP
2+阅读 · 2020年12月24日
【整理】超细节的BERT/Transformer知识点
深度学习自然语言处理
0+阅读 · 2020年10月27日
F1显著提升,FinBERT金融预训练模型了解下!
DataFunTalk
3+阅读 · 2020年10月24日
【伯克利尤洋博士论文】《快速机器学习训练算法》189页pdf
专知
1+阅读 · 2020年8月4日
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
NLP的12种后BERT预训练方法
AINLP
0+阅读 · 2020年2月20日
NLP的12种后BERT预训练方法
深度学习自然语言处理
1+阅读 · 2020年2月18日
2019: 属于BERT预训练语言模型之年
深度学习自然语言处理
0+阅读 · 2020年1月2日
2019: 属于BERT预训练语言模型之年
专知
1+阅读 · 2020年1月2日
BERT王者归来!Facebook推出RoBERTa新模型,碾压XLNet 制霸三大排行榜
新智元
0+阅读 · 2019年7月30日
刷新中文阅读理解水平,哈工大讯飞联合发布基于全词覆盖中文BERT预训练模型
AI100
14+阅读 · 2019年6月21日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top