成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
GPT-2
关注
0
综合
百科
VIP
热门
动态
论文
精华
AutoScale: Automatic Prediction of Compute-optimal Data Composition for Training LLMs
Arxiv
0+阅读 · 12月16日
Superficial Consciousness Hypothesis for Autoregressive Transformers
Arxiv
0+阅读 · 12月10日
The Asymptotic Behavior of Attention in Transformers
Arxiv
0+阅读 · 12月3日
Investigating Sensitive Directions in GPT-2: An Improved Baseline and Comparative Analysis of SAEs
Arxiv
0+阅读 · 11月18日
Evaluating Synthetic Activations composed of SAE Latents in GPT-2
Arxiv
0+阅读 · 11月18日
Learning from Implicit User Feedback, Emotions and Demographic Information in Task-Oriented and Document-Grounded Dialogues
Arxiv
0+阅读 · 11月9日
Investigating Sensitive Directions in GPT-2: An Improved Baseline and Comparative Analysis of SAEs
Arxiv
0+阅读 · 10月16日
AutoScale: Automatic Prediction of Compute-optimal Data Composition for Training LLMs
Arxiv
0+阅读 · 10月13日
Sparse Attention Decomposition Applied to Circuit Tracing
Arxiv
0+阅读 · 10月10日
How Language Models Prioritize Contextual Grammatical Cues?
Arxiv
0+阅读 · 10月4日
Modelando procesos cognitivos de la lectura natural con GPT-2
Arxiv
0+阅读 · 9月30日
Comparing Unidirectional, Bidirectional, and Word2vec Models for Discovering Vulnerabilities in Compiled Lifted Code
Arxiv
0+阅读 · 9月26日
SDBA: A Stealthy and Long-Lasting Durable Backdoor Attack in Federated Learning
Arxiv
0+阅读 · 9月23日
Retrieval-Augmented Natural Language Reasoning for Explainable Visual Question Answering
Arxiv
0+阅读 · 8月30日
Transformer Explainer: Interactive Learning of Text-Generative Models
Arxiv
0+阅读 · 8月8日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top