成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer-XL
关注
0
综合
百科
VIP
热门
动态
论文
精华
浅谈 Transformer-based 模型中的位置表示
AINLP
1+阅读 · 2019年11月18日
Transformer性能优化:运算和显存
PaperWeekly
1+阅读 · 2022年3月29日
Transformer变体层出不穷,它们都长什么样?
PaperWeekly
1+阅读 · 2021年2月26日
跨 8 千个字学习知识,上下文要多长还是交给 Transformer 自己决定吧
机器之心
3+阅读 · 2019年7月11日
一文详解Google最新NLP模型XLNet
PaperWeekly
18+阅读 · 2019年7月1日
让研究人员绞尽脑汁的Transformer位置编码
PaperWeekly
0+阅读 · 2021年2月24日
Transformer的七十二变
PaperWeekly
0+阅读 · 2020年3月31日
他们创造了横扫NLP的XLNet:专访CMU博士杨植麟
机器之心
0+阅读 · 2019年8月2日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
飞跃芝麻街:XLNet 详解
AINLP
0+阅读 · 2019年11月21日
加入Transformer-XL,这个PyTorch包能调用各种NLP预训练模型
机器之心
15+阅读 · 2019年2月13日
如何在2019年变成NLP专家
专知
7+阅读 · 2019年5月18日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
[预训练语言模型专题] Transformer-XL 超长上下文注意力模型
AINLP
0+阅读 · 2020年5月4日
谷歌升级版Transformer官方解读:更大、更强,解决长文本问题(开源)
新智元
19+阅读 · 2019年1月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top