成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
稀疏自编码器
关注
15
稀疏自编码器是一种无监督机器学习算法,通过计算自编码的输出与原输入的误差,不断调节自编码器的参数,最终训练出模型。自编码器可以用于压缩输入信息,提取有用的输入特征。
综合
百科
VIP
热门
动态
论文
精华
The Knowledge Microscope: Features as Better Analytical Lenses than Neurons
Arxiv
0+阅读 · 2月27日
Tracking the Feature Dynamics in LLM Training: A Mechanistic Study
Arxiv
0+阅读 · 2月1日
Sparse Autoencoders Can Interpret Randomly Initialized Transformers
Arxiv
0+阅读 · 1月29日
Low-Rank Adapting Models for Sparse Autoencoders
Arxiv
0+阅读 · 1月31日
SAeUron: Interpretable Concept Unlearning in Diffusion Models with Sparse Autoencoders
Arxiv
0+阅读 · 1月31日
Sparse Autoencoders for Scientifically Rigorous Interpretation of Vision Models
Arxiv
0+阅读 · 2月10日
Rethinking Evaluation of Sparse Autoencoders through the Representation of Polysemous Words
Arxiv
0+阅读 · 2月18日
Can sparse autoencoders make sense of latent representations?
Arxiv
0+阅读 · 2月3日
Transcoders Beat Sparse Autoencoders for Interpretability
Arxiv
0+阅读 · 2月12日
Sparse Autoencoders Reveal Universal Feature Spaces Across Large Language Models
Arxiv
0+阅读 · 1月31日
Universal Sparse Autoencoders: Interpretable Cross-Model Concept Alignment
Arxiv
0+阅读 · 2月6日
AxBench: Steering LLMs? Even Simple Baselines Outperform Sparse Autoencoders
Arxiv
0+阅读 · 1月29日
AxBench: Steering LLMs? Even Simple Baselines Outperform Sparse Autoencoders
Arxiv
0+阅读 · 1月28日
Tracking the Feature Dynamics in LLM Training: A Mechanistic Study
Arxiv
1+阅读 · 2024年12月23日
Transformers Use Causal World Models in Maze-Solving Tasks
Arxiv
1+阅读 · 2024年12月16日
参考链接
父主题
自编码器
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top