成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
N元
关注
0
综合
百科
VIP
热门
动态
论文
精华
Faster Transformer Decoding: N-gram Masked Self-Attention
Arxiv
0+阅读 · 12月18日
SAM Decoding: Speculative Decoding via Suffix Automaton
Arxiv
0+阅读 · 11月29日
Understanding Transformers via N-gram Statistics
Arxiv
0+阅读 · 11月5日
Summarization-Based Document IDs for Generative Retrieval with Language Models
Arxiv
0+阅读 · 10月30日
From N-grams to Pre-trained Multilingual Models For Language Identification
Arxiv
0+阅读 · 10月11日
A Realistic Threat Model for Large Language Model Jailbreaks
Arxiv
0+阅读 · 10月21日
Efficient Online Computation of Business Process State From Trace Prefixes via N-Gram Indexing
Arxiv
0+阅读 · 9月9日
N-gram Prediction and Word Difference Representations for Language Modeling
Arxiv
0+阅读 · 9月5日
CREST: Effectively Compacting a Datastore For Retrieval-Based Speculative Decoding
Arxiv
0+阅读 · 8月8日
Characterizing Learning Curves During Language Model Pre-Training: Learning, Forgetting, and Stability
Arxiv
0+阅读 · 7月30日
dzNLP at NADI 2024 Shared Task: Multi-Classifier Ensemble with Weighted Voting and TF-IDF Features
Arxiv
0+阅读 · 7月18日
Lossless Acceleration of Large Language Model via Adaptive N-gram Parallel Decoding
Arxiv
0+阅读 · 7月10日
Enhancements for Real-Time Monte-Carlo Tree Search in General Video Game Playing
Arxiv
0+阅读 · 7月3日
A Multi-Perspective Analysis of Memorization in Large Language Models
Arxiv
0+阅读 · 6月4日
Scaling up archival text analysis with the blockmodeling of n-gram networks -- A case study of Bulgaria's representation in the Osservatore Romano (January-May 1877)
Arxiv
0+阅读 · 5月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top