CogLTX:将BERT应用于长文本
学术头条
4+阅读 · 2020年12月8日
用Transformer完全替代CNN?
极市平台
0+阅读 · 2020年10月23日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
为什么Bert的三个Embedding可以进行相加?
深度学习自然语言处理
1+阅读 · 2020年10月15日
文档智能:通用文档预训练模型与数据集,推动NLP落地升级
微软研究院AI头条
3+阅读 · 2020年8月19日
TUPE :重新思考语言预训练中的位置编码
参考链接
微信扫码咨询专知VIP会员