成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
230
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
The Expressive Power of Transformers with Chain of Thought
Arxiv
0+阅读 · 4月11日
Counting Like Transformers: Compiling Temporal Counting Logic Into Softmax Transformers
Arxiv
0+阅读 · 4月5日
Privacy Backdoors: Stealing Data with Corrupted Pretrained Models
Arxiv
0+阅读 · 3月30日
Implicit Multi-Spectral Transformer: An Lightweight and Effective Visible to Infrared Image Translation Model
Arxiv
0+阅读 · 4月10日
Transformers, Contextualism, and Polysemy
Arxiv
0+阅读 · 4月15日
Emotion Detection with Transformers: A Comparative Study
Arxiv
0+阅读 · 3月28日
The Illusion of State in State-Space Models
Arxiv
0+阅读 · 4月12日
OptoGPT: A Foundation Model for Inverse Design in Optical Multilayer Thin Film Structures
Arxiv
0+阅读 · 4月4日
Emotion Detection with Transformers: A Comparative Study
Arxiv
0+阅读 · 3月18日
Circuit Transformer: End-to-end Circuit Design by Predicting the Next Gate
Arxiv
0+阅读 · 3月14日
The Expressive Power of Transformers with Chain of Thought
Arxiv
0+阅读 · 3月20日
MatchXML: An Efficient Text-label Matching Framework for Extreme Multi-label Text Classification
Arxiv
0+阅读 · 3月11日
Evolution Transformer: In-Context Evolutionary Optimization
Arxiv
0+阅读 · 3月5日
Memory-Augmented Generative Adversarial Transformers
Arxiv
0+阅读 · 2月29日
RNNs are not Transformers (Yet): The Key Bottleneck on In-context Retrieval
Arxiv
0+阅读 · 2月29日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top