成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
238
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
VCRScore: Image captioning metric based on V\&L Transformers, CLIP, and precision-recall
Arxiv
0+阅读 · 1月15日
$\text{Transformer}^2$: Self-adaptive LLMs
Arxiv
0+阅读 · 1月14日
A Survey of RWKV
Arxiv
0+阅读 · 1月5日
Image Segmentation with transformers: An Overview, Challenges and Future
Arxiv
0+阅读 · 1月16日
Enhancing Transformers for Generalizable First-Order Logical Entailment
Arxiv
0+阅读 · 1月1日
An Efficient Sparse Hardware Accelerator for Spike-Driven Transformer
Arxiv
0+阅读 · 1月14日
Efficient Large-Scale Traffic Forecasting with Transformers: A Spatial Data Management Perspective
Arxiv
0+阅读 · 2024年12月31日
Superposition in Transformers: A Novel Way of Building Mixture of Experts
Arxiv
0+阅读 · 1月6日
Ingredients: Blending Custom Photos with Video Diffusion Transformers
Arxiv
0+阅读 · 1月3日
Feature Group Tabular Transformer: A Novel Approach to Traffic Crash Modeling and Causality Analysis
Arxiv
0+阅读 · 1月11日
Attention Is All You Need For Mixture-of-Depths Routing
Arxiv
0+阅读 · 2024年12月30日
Are queries and keys always relevant? A case study on Transformer wave functions
Arxiv
0+阅读 · 1月13日
Element-wise Attention Is All You Need
Arxiv
0+阅读 · 1月10日
What Languages are Easy to Language-Model? A Perspective from Learning Probabilistic Regular Languages
Arxiv
0+阅读 · 1月12日
FAST: Fast Audio Spectrogram Transformer
Arxiv
0+阅读 · 1月2日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top