扩散模型在生成任务中取得了显著成功,但由于其迭代采样过程和二次复杂度的注意力机制,计算成本较高。现有的免训练加速策略通过降低每步计算开销,虽在减少采样时间方面表现有效,却相较于原始基线在保真度上存在明显差距。我们认为这一保真度差距源于:(a) 不同的提示词对应不同的去噪轨迹;(b) 此类方法未考虑扩散过程背后的常微分方程(ODE)建模及其数值解法。 为此,我们提出了一种新颖的加速范式——稳定性引导的自适应扩散加速(SADA),该方法通过统一的稳定性判据,将逐步稀疏性与逐 token 稀疏性决策融合,用于加速基于 ODE 的生成模型(如扩散模型与流匹配模型)的采样过程。针对问题 (a),SADA 能依据采样轨迹自适应地分配稀疏度;针对问题 (b),SADA 引入了基于数值 ODE 求解器的精确梯度信息,设计了有理论依据的近似方案。 我们在 SD-2、SDXL 和 Flux 上,使用 EDM 与 DPM++ 求解器对 SADA 进行了全面评估。结果显示,在几乎不损失保真度(以 LPIPS 和 FID 度量)的前提下,SADA 实现了稳定的加速效果,并显著优于现有方法。此外,SADA 可无缝适配其他推理流程与模态:它无需任何修改即可加速 ControlNet,并能在 MusicLDM 中实现加速,同时保持频谱图 LPIPS 表现优异。

成为VIP会员查看完整内容
6

相关内容

【ICLR2025】DynaPrompt:动态测试时提示调优
专知会员服务
10+阅读 · 2月2日
【KDD2025】DUET:双重聚类增强的多变量时间序列预测
专知会员服务
17+阅读 · 2024年12月30日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
18+阅读 · 2022年12月11日
【AAAI2022】一种基于状态扰动的鲁棒强化学习算法
专知会员服务
35+阅读 · 2022年1月31日
专知会员服务
12+阅读 · 2021年7月4日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
14+阅读 · 2020年10月10日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
【AAAI2023】用于图对比学习的谱特征增强
专知
19+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
473+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
58+阅读 · 2021年5月3日
VIP会员
相关VIP内容
【ICLR2025】DynaPrompt:动态测试时提示调优
专知会员服务
10+阅读 · 2月2日
【KDD2025】DUET:双重聚类增强的多变量时间序列预测
专知会员服务
17+阅读 · 2024年12月30日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
18+阅读 · 2022年12月11日
【AAAI2022】一种基于状态扰动的鲁棒强化学习算法
专知会员服务
35+阅读 · 2022年1月31日
专知会员服务
12+阅读 · 2021年7月4日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
14+阅读 · 2020年10月10日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员