This study derives a method to consistently recover the second-order convergence of the lattice Boltzmann method (LBM), which is frequently degraded by the improper discretisation of required source terms. The work focuses on advection-diffusion models in which the source terms are dependent on the intensity of transported fields. The main findings are applicable to a wide range of formulations within the LBM framework. All considered source terms are interpreted as contributions to the zeroth-moment of the distribution function. These account for sources in a scalar field, such as density, concentration or temperature. In addition to this, certain immersed boundary methods can be interpreted as a source term in their formulation, highlighting a further application for this work. This paper makes three primary contributions to the current state-of-the-art. Firstly, it identifies the differences observed between the ways source terms are included in the LBM schemes present in the literature. The algebraic manipulations are explicitly presented in this paper to clarify the differences observed, and identify their origin. Secondly, it derives in full detail, the implicit relation between the value of the transported macroscopic field, and the sum of the LBM densities. Moreover, this relation is valid for any source term discretization scheme, and three equivalent forms of the second-order accurate collision operator are presented. Finally, closed-form solutions of this implicit relation are shown for a variety of common models. The second-order convergence of the proposed LBM schemes is verified on both linear and non-linear source terms. Commonly used diffusive and acoustic scalings are discussed, and their pitfalls are identified. Moreover, for a simplified case, the competing errors are shown visually with isolines of error in the space of spatial and temporal resolutions.


翻译:这项研究得出了一种方法,以持续恢复拉蒂斯·博尔茨曼法(LBM)的二级趋同,该方法经常因所需源术语的不适当分解而退化。工作侧重于源术语取决于运输场强度的反向扩散模型。主要结果适用于LBM框架内的多种配方。所有考虑的来源术语都被解释为有助于分配功能的零移动。这些是在一个卡路里字段中的源,如密度、集中度或温度。此外,某些浸透的边界方法在拟定过程中可以被解释为源词,强调这项工作的进一步应用。本文对当前传输场强度的源术语作出了三大主要贡献。首先,它确定了源术语在LBMF框架内的广泛表述方式之间的差异。本文中明确介绍了平价操纵,以澄清所观察到的差异,并确定其来源。此外,某些深层边界方法的源值可以被解读为源值,而所迁移的直径直的直边界线系域规则系直径直线字段值值之间的隐隐相关关系,而LBMLA系统显示的直径序系直径直径直线系。

0
下载
关闭预览

相关内容

专知会员服务
79+阅读 · 2021年5月27日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月9日
Arxiv
0+阅读 · 2021年9月9日
Arxiv
3+阅读 · 2017年11月12日
VIP会员
相关VIP内容
专知会员服务
79+阅读 · 2021年5月27日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员