Recent advancements in diffusion models have made fine-tuning text-to-image models for personalization increasingly accessible, but have also raised significant concerns regarding unauthorized data usage and privacy infringement. Current protection methods are limited to passively degrading image quality, failing to achieve stable control. While Targeted Data Protection (TDP) offers a promising paradigm for active redirection toward user-specified target concepts, existing TDP attempts suffer from poor controllability due to snapshot-matching approaches that fail to account for complete learning dynamics. We introduce TAFAP (Trajectory Alignment via Fine-tuning with Adversarial Perturbations), the first method to successfully achieve effective TDP by controlling the entire training trajectory. Unlike snapshot-based methods whose protective influence is easily diluted as training progresses, TAFAP employs trajectory-matching inspired by dataset distillation to enforce persistent, verifiable transformations throughout fine-tuning. We validate our method through extensive experiments, demonstrating the first successful targeted transformation in diffusion models with simultaneous control over both identity and visual patterns. TAFAP significantly outperforms existing TDP attempts, achieving robust redirection toward target concepts while maintaining high image quality. This work enables verifiable safeguards and provides a new framework for controlling and tracing alterations in diffusion model outputs.


翻译:扩散模型的最新进展使得针对个性化需求微调文本到图像模型变得更加便捷,但也引发了关于未经授权的数据使用和隐私侵犯的重大担忧。现有的保护方法仅限于被动降低图像质量,无法实现稳定控制。尽管目标数据保护(TDP)为主动将模型输出重定向至用户指定的目标概念提供了有前景的范式,但现有的TDP尝试因采用快照匹配方法而控制性较差,未能考虑完整的学习动态。我们提出了TAFAP(基于对抗性扰动的微调轨迹对齐方法),这是首个通过控制整个训练轨迹成功实现有效TDP的方法。与基于快照的方法(其保护效果易随训练进程被稀释)不同,TAFAP受数据集蒸馏启发,采用轨迹匹配技术,在整个微调过程中强制执行持久且可验证的变换。我们通过大量实验验证了该方法,首次在扩散模型中成功实现了目标变换,并同时控制了身份特征和视觉模式。TAFAP显著优于现有的TDP尝试,在保持高图像质量的同时,实现了向目标概念的稳健重定向。这项工作为扩散模型输出提供了可验证的防护机制,并为控制和追踪其修改提供了新的框架。

0
下载
关闭预览

相关内容

国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员