成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
241
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
Isolated Channel Vision Transformers: From Single-Channel Pretraining to Multi-Channel Finetuning
Arxiv
0+阅读 · 10月13日
Scattering Transformer: A Training-Free Transformer Architecture for Heart Murmur Detection
Arxiv
0+阅读 · 10月7日
HydroFusion-LMF: Semi-Supervised Multi-Network Fusion with Large-Model Adaptation for Long-Term Daily Runoff Forecasting
Arxiv
0+阅读 · 10月4日
Octic Vision Transformers: Quicker ViTs Through Equivariance
Arxiv
0+阅读 · 9月30日
Transformers through the lens of support-preserving maps between measures
Arxiv
0+阅读 · 9月30日
The Role of Logic and Automata in Understanding Transformers
Arxiv
0+阅读 · 9月28日
Constant Bit-size Transformers Are Turing Complete
Arxiv
0+阅读 · 9月28日
Intrinsic and Extrinsic Organized Attention: Softmax Invariance and Network Sparsity
Arxiv
0+阅读 · 6月18日
MMHMER:Multi-viewer and Multi-task for Handwritten Mathematical Expression Recognition
Arxiv
0+阅读 · 8月19日
MMHMER:Multi-viewer and Multi-task for Handwritten Mathematical Expression Recognition
Arxiv
0+阅读 · 8月20日
Fundamental Limits of Prompt Tuning Transformers: Universality, Capacity and Efficiency
Arxiv
0+阅读 · 6月5日
Arabic Dialect Classification using RNNs, Transformers, and Large Language Models: A Comparative Analysis
Arxiv
0+阅读 · 6月24日
A Little Depth Goes a Long Way: The Expressive Power of Log-Depth Transformers
Arxiv
0+阅读 · 5月22日
Enhancing Transformers for Generalizable First-Order Logical Entailment
Arxiv
0+阅读 · 6月2日
Hypergraph Vision Transformers: Images are More than Nodes, More than Edges
Arxiv
0+阅读 · 4月11日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top