Recent advancements in human preference optimization, initially developed for Language Models (LMs), have shown promise for text-to-image Diffusion Models, enhancing prompt alignment, visual appeal, and user preference. Unlike LMs, Diffusion Models typically optimize in pixel or VAE space, which does not align well with human perception, leading to slower and less efficient training during the preference alignment stage. We propose using a perceptual objective in the U-Net embedding space of the diffusion model to address these issues. Our approach involves fine-tuning Stable Diffusion 1.5 and XL using Direct Preference Optimization (DPO), Contrastive Preference Optimization (CPO), and supervised fine-tuning (SFT) within this embedding space. This method significantly outperforms standard latent-space implementations across various metrics, including quality and computational cost. For SDXL, our approach provides 60.8\% general preference, 62.2\% visual appeal, and 52.1\% prompt following against original open-sourced SDXL-DPO on the PartiPrompts dataset, while significantly reducing compute. Our approach not only improves the efficiency and quality of human preference alignment for diffusion models but is also easily integrable with other optimization techniques. The training code and LoRA weights will be available here: https://huggingface.co/alexgambashidze/SDXL\_NCP-DPO\_v0.1


翻译:最初为语言模型开发的人类偏好优化技术近期在文本到图像扩散模型中展现出潜力,能够提升提示对齐度、视觉吸引力及用户偏好。与语言模型不同,扩散模型通常在像素空间或VAE空间中优化,这与人类感知机制不匹配,导致偏好对齐阶段的训练速度缓慢且效率低下。为解决这一问题,我们提出在扩散模型的U-Net嵌入空间中使用感知目标函数。该方法通过在嵌入空间中对Stable Diffusion 1.5及XL模型进行直接偏好优化、对比偏好优化和监督微调来实现。实验表明,该方法在生成质量与计算成本等多项指标上显著优于标准的潜空间实现方案。在PartiPrompts数据集上,针对SDXL模型,本方法相较于原始开源SDXL-DPO实现了60.8%的总体偏好度、62.2%的视觉吸引力及52.1%的提示遵循率提升,同时大幅降低了计算开销。本方法不仅提升了扩散模型人类偏好对齐的效率与质量,还可与其他优化技术便捷集成。训练代码与LoRA权重已发布于:https://huggingface.co/alexgambashidze/SDXL_NCP-DPO_v0.1

0
下载
关闭预览

相关内容

国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员