成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
LORA
关注
2
综合
百科
VIP
热门
动态
论文
精华
PEFT-as-an-Attack! Jailbreaking Language Models during Federated Parameter-Efficient Fine-Tuning
Arxiv
0+阅读 · 12月19日
Exploring Gradient Subspaces: Addressing and Overcoming LoRA's Limitations in Federated Fine-Tuning of Large Language Models
Arxiv
0+阅读 · 12月18日
CoRa: A Collision-Resistant LoRa Symbol Detector of Low Complexity
Arxiv
0+阅读 · 12月18日
GeLoRA: Geometric Adaptive Ranks For Efficient LoRA Fine-tuning
Arxiv
0+阅读 · 12月17日
One Initialization to Rule them All: Fine-tuning via Explained Variance Adaptation
Arxiv
0+阅读 · 12月16日
A LoRA is Worth a Thousand Pictures
Arxiv
0+阅读 · 12月16日
Efficient Adaptation of Multilingual Models for Japanese ASR
Arxiv
0+阅读 · 12月14日
Privacy-Preserving Low-Rank Adaptation against Membership Inference Attacks for Latent Diffusion Models
Arxiv
0+阅读 · 12月16日
L4Q: Parameter Efficient Quantization-Aware Fine-Tuning on Large Language Models
Arxiv
0+阅读 · 12月16日
GeLoRA: Geometric Adaptive Ranks For Efficient LoRA Fine-tuning
Arxiv
0+阅读 · 12月15日
ASLoRA: Adaptive Sharing Low-Rank Adaptation Across Layers
Arxiv
0+阅读 · 12月16日
Low-Rank Adaptation with Task-Relevant Feature Enhancement for Fine-tuning Language Models
Arxiv
0+阅读 · 12月13日
ASLoRA: Adaptive Sharing Low-Rank Adaptation Across Layers
Arxiv
0+阅读 · 12月13日
GeLoRA: Geometric Adaptive Ranks For Efficient LoRA Fine-tuning
Arxiv
0+阅读 · 12月12日
MoSLD: An Extremely Parameter-Efficient Mixture-of-Shared LoRAs for Multi-Task Learning
Arxiv
0+阅读 · 12月12日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top