成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
XLM
关注
0
综合
百科
VIP
热门
动态
论文
精华
【AAAI 2022】XLM-K:通过多语言知识库提高跨语言预训练模型
专知
0+阅读 · 2022年1月13日
微软亚洲研究院提出多语言通用文档理解预训练模型LayoutXLM
微软研究院AI头条
2+阅读 · 2021年6月1日
垂直领域出海,多语言预训练好使吗?
PaperWeekly
1+阅读 · 2021年1月27日
微软多语言预训练模型T-ULRv2登顶XTREME排行榜
微软研究院AI头条
0+阅读 · 2020年11月4日
文本挖掘从小白到精通(十五)--- NLP小白也能轻松学会的BERT使用指南
AINLP
1+阅读 · 2020年8月7日
XLM-RoBERTa: 一种多语言预训练模型
AINLP
1+阅读 · 2020年7月31日
XLM-RoBERTa: 一种多语言预训练模型
深度学习自然语言处理
8+阅读 · 2020年7月26日
分分钟实现C ++到Java、Python的代码转换!Facebook 最新发布的 TransCoder做到了
THU数据派
0+阅读 · 2020年6月11日
发布 XTREME — 评估跨语言泛化的大规模多语言多任务基准
谷歌开发者
0+阅读 · 2020年5月26日
[预训练语言模型专题]跨语种语言模型
AINLP
0+阅读 · 2020年5月11日
覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME
机器之心
0+阅读 · 2020年4月14日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知
1+阅读 · 2020年4月5日
Facebook 提出一种新型BERT:面向跨语言理解的XLM-R
学术头条
1+阅读 · 2019年11月28日
赛尔原创 | EMNLP 2019 基于BERT的跨语言上下文相关词向量在零样本依存分析中的应用
哈工大SCIR
10+阅读 · 2019年11月18日
Facebook最新语言模型XLM-R:多项任务刷新SOTA,超越单语BERT
新智元
1+阅读 · 2019年11月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top