Denoising diffusion models (DDMs) have attracted attention due to their exceptional sample quality and diversity. This success is largely attributed to the use of class- or text-conditional diffusion guidance methods. In this paper, we propose a more comprehensive approach that expands beyond traditional guidance methods. By adopting this generalized perspective, we introduce two novel condition-free strategies to enhance the quality of generated images: blur guidance and advanced Self-Attention Guidance (SAG). Employing benign properties of Gaussian blur, blur guidance enhances the suitability of intermediate samples for fine-scale information and generates higher quality samples with a moderate guidance scale. Improving upon this, SAG utilizes intermediate self-attention maps to enhance the stability and efficacy. Specifically, SAG leverages intermediate attention maps of diffusion models at each iteration to capture essential information for the generative process and guide it accordingly. Our experimental results demonstrate that our zero-shot method enhances the performance of various diffusion models, including ADM, IDDPM, and Stable Diffusion. Furthermore, combining SAG with conventional guidance methods, such as classifier-free guidance, results in further improvement.


翻译:之所以取得这一成功,主要是因为使用了等级或文字上有条件的传播指导方法。在本文件中,我们提出了一个超越传统指导方法的更全面的方法。我们采用了这一普遍观点,引入了两种新的无条件战略,以提高生成图像的质量:模糊的指南和先进的自我注意指南。使用高斯模糊、模糊的指南的良性能,提高了中间样本对微量信息的适宜性,并以中度指导尺度生成质量更高的样本。在这方面,SAG利用中间自省图来提高稳定性和效能。具体地说,SAG利用每种循环中传播模型的中间关注图,为基因化进程获取基本信息,并据此指导它。我们的实验结果表明,我们的零射法提高了各种传播模型的性能,包括ADM、IDDPM和Stable Difcl。此外,SAG与常规指导方法相结合,如无分类指导,结果进一步得到改进。</s>

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
44+阅读 · 2022年9月6日
Arxiv
14+阅读 · 2022年8月25日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
相关论文
Arxiv
29+阅读 · 2022年9月10日
Arxiv
44+阅读 · 2022年9月6日
Arxiv
14+阅读 · 2022年8月25日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员