Personalizing visual generative models to meet specific user needs has gained increasing attention, yet current methods like Low-Rank Adaptation (LoRA) remain impractical due to their demand for task-specific data and lengthy optimization. While a few hypernetwork-based approaches attempt to predict adaptation weights directly, they struggle to map fine-grained user prompts to complex LoRA distributions, limiting their practical applicability. To bridge this gap, we propose LoFA, a general framework that efficiently predicts personalized priors for fast model adaptation. We first identify a key property of LoRA: structured distribution patterns emerge in the relative changes between LoRA and base model parameters. Building on this, we design a two-stage hypernetwork: first predicting relative distribution patterns that capture key adaptation regions, then using these to guide final LoRA weight prediction. Extensive experiments demonstrate that our method consistently predicts high-quality personalized priors within seconds, across multiple tasks and user prompts, even outperforming conventional LoRA that requires hours of processing. Project page: https://jaeger416.github.io/lofa/.


翻译:将视觉生成模型个性化以满足特定用户需求已受到越来越多的关注,然而当前的方法如低秩适应(LoRA)仍不实用,因为它们需要任务特定数据且优化过程耗时。尽管少数基于超网络的方法尝试直接预测适应权重,但它们难以将细粒度的用户提示映射到复杂的LoRA分布,限制了其实际应用。为弥合这一差距,我们提出了LoFA,一个高效预测个性化先验以实现快速模型适应的通用框架。我们首先识别了LoRA的一个关键特性:在LoRA与基础模型参数之间的相对变化中会出现结构化的分布模式。基于此,我们设计了一个两阶段超网络:首先预测捕捉关键适应区域的相对分布模式,然后利用这些模式指导最终的LoRA权重预测。大量实验表明,我们的方法能在数秒内一致地预测出高质量的个性化先验,适用于多种任务和用户提示,甚至优于需要数小时处理的传统LoRA。项目页面:https://jaeger416.github.io/lofa/。

0
下载
关闭预览

相关内容

国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员