浅谈 Transformer-based 模型中的位置表示
AINLP
1+阅读 · 2019年11月18日
Transformer性能优化:运算和显存
PaperWeekly
1+阅读 · 2022年3月29日
Transformer变体层出不穷,它们都长什么样?
PaperWeekly
1+阅读 · 2021年2月26日
一文详解Google最新NLP模型XLNet
PaperWeekly
18+阅读 · 2019年7月1日
让研究人员绞尽脑汁的Transformer位置编码
PaperWeekly
0+阅读 · 2021年2月24日
Transformer的七十二变
PaperWeekly
0+阅读 · 2020年3月31日
他们创造了横扫NLP的XLNet:专访CMU博士杨植麟
机器之心
0+阅读 · 2019年8月2日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
飞跃芝麻街:XLNet 详解
AINLP
0+阅读 · 2019年11月21日
如何在2019年变成NLP专家
专知
7+阅读 · 2019年5月18日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
参考链接
微信扫码咨询专知VIP会员