We present GeoTransolver, a Multiscale Geometry-Aware Physics Attention Transformer for CAE that replaces standard attention with GALE, coupling physics-aware self-attention on learned state slices with cross-attention to a shared geometry/global/boundary-condition context computed from multi-scale ball queries (inspired by DoMINO) and reused in every block. Implemented and released in NVIDIA PhysicsNeMo, GeoTransolver persistently projects geometry, global and boundary condition parameters into physical state spaces to anchor latent computations to domain structure and operating regimes. We benchmark GeoTransolver on DrivAerML, Luminary SHIFT-SUV, and Luminary SHIFT-Wing, comparing against Domino, Transolver (as released in PhysicsNeMo), and literature-reported AB-UPT, and evaluate drag/lift R2 and Relative L1 errors for field variables. GeoTransolver delivers better accuracy, improved robustness to geometry/regime shifts, and favorable data efficiency; we include ablations on DrivAerML and qualitative results such as contour plots and design trends for the best GeoTransolver models. By unifying multiscale geometry-aware context with physics-based attention in a scalable transformer, GeoTransolver advances operator learning for high-fidelity surrogate modeling across complex, irregular domains and non-linear physical regimes.


翻译:本文提出GeoTransolver,一种用于CAE的多尺度几何感知物理注意力Transformer。该方法采用GALE替代标准注意力机制,将学习状态切片上的物理感知自注意力与共享几何/全局/边界条件上下文的交叉注意力相耦合。该上下文通过多尺度球查询(受DoMINO启发)计算,并在每个模块中重复使用。在NVIDIA PhysicsNeNe中实现并发布的GeoTransolver,持续将几何、全局及边界条件参数投影到物理状态空间中,使潜在计算锚定于域结构和运行工况。我们在DrivAerML、Luminary SHIFT-SUV和Luminary SHIFT-Wing数据集上对GeoTransolver进行基准测试,与Domino、Transolver(PhysicsNeMo发布版本)及文献报道的AB-UPT进行对比,并评估阻力/升力R2及场变量的相对L1误差。GeoTransolver展现出更高的精度、对几何/工况变化的更强鲁棒性以及更优的数据效率;我们提供了在DrivAerML上的消融实验及最佳GeoTransolver模型的定性结果(如等值线图和设计趋势分析)。通过将多尺度几何感知上下文与基于物理的注意力统一于可扩展的Transformer架构中,GeoTransolver推动了面向复杂非规则域和非线性物理工况的高保真代理建模的算子学习进展。

0
下载
关闭预览

相关内容

【ICML2025】生成模型中潜空间的Hessian几何结构
专知会员服务
17+阅读 · 6月15日
非Transformer不可?最新《状态空间模型(SSM)》综述
专知会员服务
75+阅读 · 2024年4月16日
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
12+阅读 · 2021年10月23日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【ICML2025】生成模型中潜空间的Hessian几何结构
专知会员服务
17+阅读 · 6月15日
非Transformer不可?最新《状态空间模型(SSM)》综述
专知会员服务
75+阅读 · 2024年4月16日
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
12+阅读 · 2021年10月23日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员