扩散模型在生成任务中取得了显著成功,但由于其迭代采样过程和二次注意力机制的计算成本,其推理开销仍然非常高。现有的无需再训练的加速策略虽然在一定程度上减少了每步采样的计算开销,但相较于原始模型,在生成结果保真度上仍存在明显差距。

我们认为,这一保真度缺口主要源于两个关键原因:(a) 不同的提示(prompt)对应着不同的去噪轨迹;(b) 现有方法普遍忽略了扩散过程背后的常微分方程(ODE)结构及其数值解的性质。

为了解决这些问题,本文提出了一种新颖的加速范式 SADA(Stability-guided Adaptive Diffusion Acceleration),该方法通过统一的稳定性准则,在每一步与每个token粒度上动态分配稀疏性,实现对基于ODE的生成模型(如扩散模型与流匹配模型)的高效采样加速。 具体而言,对于问题(a),SADA根据每条采样轨迹的稳定性自适应地调整稀疏策略;对于问题(b),SADA提出了基于数值ODE求解器的梯度信息的近似计算方案,以实现理论上更稳健的近似采样。

我们在SD-2、SDXL和Flux等主流模型上,结合EDM与DPM++两种ODE求解器进行了全面评估。实验结果表明,在基本无明显保真度下降的前提下(LPIPS ≤ 0.10,FID ≤ 4.5),SADA可实现至少1.8× 的采样加速,显著优于现有方法。

更重要的是,SADA具备良好的通用性,能够无缝适配不同的生成流程与模态:在无需任何修改的情况下可加速ControlNet,并在MusicLDM上实现1.8×加速,同时保持谱图LPIPS约为0.01的高保真输出。 项目代码已开源,链接如下:

https://github.com/Ting-Justin-Jiang/sadaicml

成为VIP会员查看完整内容
3

相关内容

【ICML2025】SADA:稳定性引导的自适应扩散加速
专知会员服务
10+阅读 · 7月24日
【KDD2025】DUET:双重聚类增强的多变量时间序列预测
专知会员服务
17+阅读 · 2024年12月30日
【ICML2024】SAPG:分裂与聚合策略梯度
专知会员服务
19+阅读 · 2024年7月30日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
40+阅读 · 2022年11月5日
【AAAI2022】一种基于状态扰动的鲁棒强化学习算法
专知会员服务
35+阅读 · 2022年1月31日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
14+阅读 · 2020年10月10日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
【AAAI2023】用于图对比学习的谱特征增强
专知
19+阅读 · 2022年12月11日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
473+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
172+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【ICML2025】SADA:稳定性引导的自适应扩散加速
专知会员服务
10+阅读 · 7月24日
【KDD2025】DUET:双重聚类增强的多变量时间序列预测
专知会员服务
17+阅读 · 2024年12月30日
【ICML2024】SAPG:分裂与聚合策略梯度
专知会员服务
19+阅读 · 2024年7月30日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
40+阅读 · 2022年11月5日
【AAAI2022】一种基于状态扰动的鲁棒强化学习算法
专知会员服务
35+阅读 · 2022年1月31日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
14+阅读 · 2020年10月10日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员