成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
预训练Transformer
关注
2
综合
百科
VIP
热门
动态
论文
精华
注意力机制作用被高估了?苹果等机构新研究:把注意力矩阵替换成常数矩阵后,性能差异不大
量子位
0+阅读 · 2022年11月19日
再掀强化学习变革!DeepMind提出「算法蒸馏」:可探索的预训练强化学习Transformer
新智元
0+阅读 · 2022年11月2日
滑铁卢大学2020新书《预训练Transformer模型文本排序》,155页pdf
专知
10+阅读 · 2020年10月19日
GPT-3说:马斯克是世界最强的人,但没有他人类会更好
量子位
0+阅读 · 2020年8月17日
火爆全球的GPT-3,到底凭什么砸大家饭碗?
量子位
1+阅读 · 2020年8月2日
【ACL2020-伯克利】预训练Transformer提高分布外鲁棒性
专知
1+阅读 · 2020年4月14日
【Amazon】使用预训练Transformer模型进行数据增强
专知
12+阅读 · 2020年3月6日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top