The incredible generative ability of large-scale text-to-image (T2I) models has demonstrated strong power of learning complex structures and meaningful semantics. However, relying solely on text prompts cannot fully take advantage of the knowledge learned by the model, especially when flexible and accurate controlling (e.g., color and structure) is needed. In this paper, we aim to ``dig out" the capabilities that T2I models have implicitly learned, and then explicitly use them to control the generation more granularly. Specifically, we propose to learn simple and lightweight T2I-Adapters to align internal knowledge in T2I models with external control signals, while freezing the original large T2I models. In this way, we can train various adapters according to different conditions, achieving rich control and editing effects in the color and structure of the generation results. Further, the proposed T2I-Adapters have attractive properties of practical value, such as composability and generalization ability. Extensive experiments demonstrate that our T2I-Adapter has promising generation quality and a wide range of applications.


翻译:大规模文本到图像(T2I)模型的出色生成能力展示了学习复杂结构和有意义的语义的强大能力。然而,仅依靠文本提示不能充分利用模型学习的知识,特别是需要灵活和准确地控制(例如颜色和结构)时。在本文中,我们旨在“挖掘”T2I模型隐含学习的能力,然后明确地使用它们来更精细地控制生成。具体而言,我们建议学习简单且轻量级的T2I-Adapter,以将T2I模型中的内部知识与外部控制信号对齐,同时冻结原始大规模T2I模型。通过这种方式,我们可以根据不同条件训练各种适配器,实现丰富的控制和编辑效果,例如在生成结果的颜色和结构方面的调整。此外,所提出的T2I-Adapter具有实用价值的有点,例如可组合性和泛化能力。广泛的实验表明,我们的T2I-Adapter具有很好的生成质量和广泛的应用范围。

0
下载
关闭预览

相关内容

disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
相关资讯
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员