Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
面向神经机器翻译的篇章级单语修正模型
AI科技评论
1+阅读 · 2019年10月25日
【ICLR2021必读】 【自监督学习】 & 【Transformer】相关论文
深度学习自然语言处理
2+阅读 · 2020年10月23日
从Transformer到BERT模型
AINLP
4+阅读 · 2020年3月23日
深度学习在推荐系统中的应用及论文小结
专知
14+阅读 · 2019年7月8日
2017年度NLP领域论文TOP10(附链接)
数据派THU
6+阅读 · 2018年2月11日
丢弃Transformer,FCN也可以实现E2E检测
极市平台
0+阅读 · 2020年12月7日
在深度学习顶会ICLR 2020上,Transformer模型有什么新进展?
深度学习自然语言处理
0+阅读 · 2020年7月31日
微信扫码咨询专知VIP会员