Machine learning methods, such as diffusion models, are widely explored as a promising way to accelerate high-fidelity fluid dynamics computation via a super-resolution process from faster-to-compute low-fidelity input. However, existing approaches usually make impractical assumptions that the low-fidelity data is down-sampled from high-fidelity data. In reality, low-fidelity data is produced by numerical solvers that use a coarser resolution. Solver-generated low-fidelity data usually sacrifices fine-grained details, such as small-scale vortices compared to high-fidelity ones. Our findings show that SOTA diffusion models struggle to reconstruct fine-scale details when faced with solver-generated low-fidelity inputs. To bridge this gap, we propose SG-Diff, a novel diffusion model for reconstruction, where both low-fidelity inputs and high-fidelity targets are generated from numerical solvers. We propose an \textit{Importance Weight} strategy during training that serves as a form of self-guidance, focusing on intricate fluid details, and a \textit{Predictor-Corrector-Advancer} SDE solver that embeds physical guidance into the diffusion sampling process. Together, these techniques steer the diffusion model toward more accurate reconstructions. Experimental results on four 2D turbulent flow datasets demonstrate the efficacy of \model~against state-of-the-art baselines.


翻译:机器学习方法(如扩散模型)作为一种通过从计算更快的低精度输入进行超分辨率处理来加速高精度流体动力学计算的有前景途径,被广泛探索。然而,现有方法通常做出不切实际的假设,即低精度数据是从高精度数据下采样得到的。实际上,低精度数据是由使用较粗分辨率的数值求解器生成的。求解器生成的低精度数据通常会牺牲精细细节,例如与高精度数据相比的小尺度涡旋。我们的研究发现,面对求解器生成的低精度输入时,最先进的扩散模型难以重建精细尺度细节。为弥合这一差距,我们提出了SG-Diff,一种用于重建的新型扩散模型,其中低精度输入和高精度目标均由数值求解器生成。我们提出了一种训练期间的\textit{重要性权重}策略,作为一种自引导形式,专注于复杂的流体细节;以及一种\textit{预测器-校正器-推进器}随机微分方程求解器,将物理引导嵌入到扩散采样过程中。这些技术共同引导扩散模型实现更准确的重建。在四个二维湍流数据集上的实验结果证明了\model相对于最先进基线的有效性。

0
下载
关闭预览

相关内容

Spark机器学习:矩阵及推荐算法
LibRec智能推荐
16+阅读 · 2017年8月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员