成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
XLM-R
关注
0
综合
百科
VIP
热门
动态
论文
精华
发布 XTREME — 评估跨语言泛化的大规模多语言多任务基准
谷歌开发者
0+阅读 · 2020年5月26日
XLM-RoBERTa: 一种多语言预训练模型
AINLP
1+阅读 · 2020年7月31日
Facebook最新语言模型XLM-R:多项任务刷新SOTA,超越单语BERT
新智元
1+阅读 · 2019年11月11日
[预训练语言模型专题]跨语种语言模型
AINLP
0+阅读 · 2020年5月11日
覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME
机器之心
0+阅读 · 2020年4月14日
让Transformer的推理速度提高4.5倍,这个小trick还能给你省十几万
量子位
0+阅读 · 2021年12月30日
Facebook 提出一种新型BERT:面向跨语言理解的XLM-R
学术头条
1+阅读 · 2019年11月28日
7 papers|EMNLP 2019最佳论文;Facebook语言模型XLM-R取得SOTA结果;最优学习的85%规则
机器之心
2+阅读 · 2019年11月10日
XLM-RoBERTa: 一种多语言预训练模型
深度学习自然语言处理
8+阅读 · 2020年7月26日
垂直领域出海,多语言预训练好使吗?
PaperWeekly
1+阅读 · 2021年1月27日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top