成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
239
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
知识荟萃
论文列表
原文:
《Attention is all you need》:
https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf
相关论文
《Reformer: The Efficient Transformer》:
https://arxiv.org/abs/2001.04451
开源代码
Kyubyong/transformer
(TF)
huggingface/transformers
(PyTorch)
前往荟萃
精品内容
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
专知会员服务
39+阅读 · 3月26日
CVPR2025最新《Transformer模型》论文速读
专知会员服务
22+阅读 · 3月17日
何恺明&Lecun新论文CVPR2025《无需归一化的 Transformer》
专知会员服务
15+阅读 · 3月15日
CVPR2025最新《扩散模型》论文速读
专知会员服务
17+阅读 · 3月15日
基于Transformer的视觉分割技术进展
专知会员服务
19+阅读 · 2月10日
【HKUST博士论文】增强大型语言模型的可信度:隐私与安全的视角
专知会员服务
14+阅读 · 1月28日
DeepSeek发布新款开源多模态AI模型Janus-Pro,超越 DALL-E 3 与 Stable Diffusion
专知会员服务
34+阅读 · 1月28日
Mamba之后是什么?朝着更具表现力的递归更新规则迈进
专知会员服务
15+阅读 · 1月18日
【HKUST博士论文】从查询到提示:走向开放世界感知
专知会员服务
21+阅读 · 1月17日
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
专知会员服务
21+阅读 · 1月15日
【NeurIPS2024】注意力迁移对视觉Transformer的惊人有效性研究
专知会员服务
19+阅读 · 2024年11月16日
【NeurIPS2024】LSH-MoE:通过局部敏感哈希实现通信高效的专家混合模型训练
专知会员服务
14+阅读 · 2024年11月14日
人形机器人与AI大模型之Robot+AI的Transformer之旅
专知会员服务
29+阅读 · 2024年11月7日
Transformer在药物发现及其他领域的应用综述
专知会员服务
15+阅读 · 2024年9月3日
基于Transformer模型的数据模态转换综述
专知会员服务
37+阅读 · 2024年8月17日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
荟萃目录
论文列表
原文:
相关论文
开源代码
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top