成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
238
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
知识荟萃
论文列表
原文:
《Attention is all you need》:
https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf
相关论文
《Reformer: The Efficient Transformer》:
https://arxiv.org/abs/2001.04451
开源代码
Kyubyong/transformer
(TF)
huggingface/transformers
(PyTorch)
前往荟萃
精品内容
【NeurIPS2024】注意力迁移对视觉Transformer的惊人有效性研究
专知会员服务
18+阅读 · 11月16日
【NeurIPS2024】LSH-MoE:通过局部敏感哈希实现通信高效的专家混合模型训练
专知会员服务
12+阅读 · 11月14日
人形机器人与AI大模型之Robot+AI的Transformer之旅
专知会员服务
27+阅读 · 11月7日
Transformer在药物发现及其他领域的应用综述
专知会员服务
14+阅读 · 9月3日
基于Transformer模型的数据模态转换综述
专知会员服务
33+阅读 · 8月17日
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理
专知会员服务
33+阅读 · 8月11日
视觉如何模型统一?牛津大学Shuyang Sun博士论文《迈向统一视觉感知》全面阐述
专知会员服务
43+阅读 · 8月11日
八问八答搞懂Transformer内部运作原理
专知会员服务
33+阅读 · 8月9日
【ECCV2024】边缘感知Transformer的场景文本分割
专知会员服务
14+阅读 · 7月25日
半监督目标检测:从卷积神经网络(CNN)到 Transformer 的进展综述
专知会员服务
35+阅读 · 7月12日
【CMU博士论文】长度可外推的Transformer,149页pdf
专知会员服务
25+阅读 · 6月30日
ICML 2024|Transformer究竟如何推理?基于样例还是基于规则
专知会员服务
28+阅读 · 6月29日
ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制
专知会员服务
15+阅读 · 6月27日
【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
27+阅读 · 6月21日
【CMU博士论文】构建自适应性强的通用机器人,248页pdf
专知会员服务
36+阅读 · 6月10日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
荟萃目录
论文列表
原文:
相关论文
开源代码
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top