恕我直言,你的实验结论可能严重依赖随机数种子!
夕小瑶的卖萌屋
0+阅读 · 2021年8月19日
我不太懂BERT系列——BERT预训练实操总结
AINLP
1+阅读 · 2020年12月24日
【整理】超细节的BERT/Transformer知识点
深度学习自然语言处理
0+阅读 · 2020年10月27日
F1显著提升,FinBERT金融预训练模型了解下!
DataFunTalk
3+阅读 · 2020年10月24日
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
NLP的12种后BERT预训练方法
AINLP
0+阅读 · 2020年2月20日
NLP的12种后BERT预训练方法
深度学习自然语言处理
1+阅读 · 2020年2月18日
2019: 属于BERT预训练语言模型之年
深度学习自然语言处理
0+阅读 · 2020年1月2日
2019: 属于BERT预训练语言模型之年
专知
1+阅读 · 2020年1月2日
参考链接
微信扫码咨询专知VIP会员