成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
一元语法
关注
0
综合
百科
VIP
热门
动态
论文
精华
Xmodel-1.5: An 1B-scale Multilingual LLM
Arxiv
0+阅读 · 2024年12月4日
Xmodel-1.5: An 1B-scale Multilingual LLM
Arxiv
0+阅读 · 2024年11月22日
Hierarchical mixtures of Unigram models for short text clustering: the role of Beta-Liouville priors
Arxiv
0+阅读 · 2024年11月14日
Hierarchical mixtures of Unigram models for short text clustering: the role of Beta-Liouville priors
Arxiv
0+阅读 · 2024年10月29日
Paramanu: A Family of Novel Efficient Generative Foundation Language Models for Indian Languages
Arxiv
0+阅读 · 2024年10月10日
On the Role of Context in Reading Time Prediction
Arxiv
0+阅读 · 2024年9月12日
Language Complexity and Speech Recognition Accuracy: Orthographic Complexity Hurts, Phonological Complexity Doesn't
Arxiv
0+阅读 · 2024年6月13日
Toward a Theory of Tokenization in LLMs
Arxiv
0+阅读 · 2024年4月12日
Localizing Paragraph Memorization in Language Models
Arxiv
0+阅读 · 2024年3月28日
VNLP: Turkish NLP Package
Arxiv
0+阅读 · 2024年3月2日
Two Counterexamples to Tokenization and the Noiseless Channel
Arxiv
0+阅读 · 2024年2月29日
Two Counterexamples to \textit{Tokenization and the Noiseless Channel}
Arxiv
0+阅读 · 2024年2月22日
Does VLN Pretraining Work with Nonsensical or Irrelevant Instructions?
Arxiv
0+阅读 · 2023年12月19日
Does VLN Pretraining Work with Nonsensical or Irrelevant Instructions?
Arxiv
0+阅读 · 2023年11月28日
Norm of Word Embedding Encodes Information Gain
Arxiv
0+阅读 · 2023年11月2日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top