Recently, CLIP-guided image synthesis has shown appealing performance on adapting a pre-trained source-domain generator to an unseen target domain. It does not require any target-domain samples but only the textual domain labels. The training is highly efficient, e.g., a few minutes. However, existing methods still have some limitations in the quality of generated images and may suffer from the mode collapse issue. A key reason is that a fixed adaptation direction is applied for all cross-domain image pairs, which leads to identical supervision signals. To address this issue, we propose an Image-specific Prompt Learning (IPL) method, which learns specific prompt vectors for each source-domain image. This produces a more precise adaptation direction for every cross-domain image pair, endowing the target-domain generator with greatly enhanced flexibility. Qualitative and quantitative evaluations on various domains demonstrate that IPL effectively improves the quality and diversity of synthesized images and alleviates the mode collapse. Moreover, IPL is independent of the structure of the generative model, such as generative adversarial networks or diffusion models. Code is available at https://github.com/Picsart-AI-Research/IPL-Zero-Shot-Generative-Model-Adaptation.


翻译:最近,CLIP引导的图像合成表现出合适的性能,在适应预训练的源域生成器到一个看不见的目标域上。它不需要任何目标域样本,只需要文本域标签。训练非常高效,例如几分钟。然而,现有的方法在所生成图像的质量方面仍然存在一些限制,并且可能会遭受模式崩溃的问题。一个关键原因是,尽管跨域图像对可能非常不同,但所有跨域图像对都会应用固定的适应方向,从而导致相同的监督信号。为了解决这个问题,我们提出了一种基于图像特定提示学习(IPL)的方法,用于为每个源域图像学习特定的提示向量。这为每个跨域图像对提供了更精确的适应方向,赋予了目标域生成器更大的灵活性。各种域上的定性和定量评估表明,IPL有效提高了合成图像的质量和多样性,并减轻了模式崩溃的情况。此外,IPL独立于生成模型的结构,例如生成对抗网络或扩散模型。代码可在 https://github.com/Picsart-AI-Research/IPL-Zero-Shot-Generative-Model-Adaptation 上获取。

0
下载
关闭预览

相关内容

信息处理快报(IPL)致力于快速发表对信息处理的简短贡献。注重于原创研究文章,并且 这些文章着重于信息处理和计算方面,包括在计算机理论科学领域广为人知的工作以及高质量实验论文。 官网地址:http://dblp.uni-trier.de/db/journals/ipl/
专知会员服务
29+阅读 · 2021年5月6日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
IJCAI 2022 | 使用陈述句进行视觉问答的Prompt Tuning
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Conditional Prompt Learning for Vision-Language Models
Arxiv
13+阅读 · 2022年3月10日
Arxiv
21+阅读 · 2021年12月31日
Arxiv
17+阅读 · 2021年2月15日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员