Autoregressive (AR) image models achieve diffusion-level quality but suffer from sequential inference, requiring approximately 2,000 steps for a 576x576 image. Speculative decoding with draft trees accelerates LLMs yet underperforms on visual AR models due to spatially varying token prediction difficulty. We identify a key obstacle in applying speculative decoding to visual AR models: inconsistent acceptance rates across draft trees due to varying prediction difficulties in different image regions. We propose Adjacency-Adaptive Dynamical Draft Trees (ADT-Tree), an adjacency-adaptive dynamic draft tree that dynamically adjusts draft tree depth and width by leveraging adjacent token states and prior acceptance rates. ADT-Tree initializes via horizontal adjacency, then refines depth/width via bisectional adaptation, yielding deeper trees in simple regions and wider trees in complex ones. The empirical evaluations on MS-COCO 2017 and PartiPrompts demonstrate that ADT-Tree achieves speedups of 3.13xand 3.05x, respectively. Moreover, it integrates seamlessly with relaxed sampling methods such as LANTERN, enabling further acceleration. Code is available at https://github.com/Haodong-Lei-Ray/ADT-Tree.


翻译:自回归(AR)图像模型在质量上已达到扩散模型的水平,但其顺序推理过程缓慢,生成一幅576×576的图像约需2000步。基于草稿树的推测解码技术虽能加速大语言模型(LLM)的推理,但在视觉AR模型上表现不佳,其根本原因在于图像不同空间位置的令牌预测难度存在显著差异。我们发现,将推测解码应用于视觉AR模型的一个关键障碍在于:由于图像不同区域的预测难度不同,导致各草稿树的令牌接受率不一致。为此,我们提出邻接自适应动态草稿树(ADT-Tree),这是一种能够根据相邻令牌状态和先验接受率动态调整草稿树深度与宽度的邻接自适应动态草稿树。ADT-Tree首先通过水平邻接关系进行初始化,随后通过二分自适应机制优化深度与宽度,从而在简单图像区域生成更深层的树,在复杂区域生成更宽的树。在MS-COCO 2017和PartiPrompts数据集上的实证评估表明,ADT-Tree分别实现了3.13倍和3.05倍的加速效果。此外,该方法能够与LANTERN等松弛采样方法无缝集成,从而实现进一步的加速。代码已发布于 https://github.com/Haodong-Lei-Ray/ADT-Tree。

0
下载
关闭预览

相关内容

【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【CVPR2024】掩码自解码器是有效的多任务视觉通用模型
专知会员服务
20+阅读 · 2024年3月16日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员