This work concerns adaptive refinement procedures for meshes of polygonal virtual elements. Specifically, refinement procedures previously proposed by the authors for structured meshes are generalized for the challenging case of arbitrary element geometries arising in unstructured/Voronoi discretizations. Here, structured and unstructured meshes are considered and are created via Voronoi tessellation of sets of structured and unstructured seed points respectively. The novel mesh refinement procedures for both structured and unstructured meshes allow for accurate and efficient application of the virtual element method to challenging elastic problems in two-dimensions. The results demonstrate that the high efficacy of the proposed refinement procedures on structured meshes, as seen in previous work by the authors, is also achieved in the case of unstructured/Voronoi meshes. The versatility and efficacy of the refinement procedures demonstrated over a variety of mesh types indicates that the procedures are well-suited to virtual element applications.


翻译:本研究涉及适应性网格深度学习程序的多边形虚拟元素。具体来说,前段时间作者们在结构网格上提出的细化程序,现在被推广应用到无结构/ Voronoi 离散化中出现的任意元素几何体上。在这里,我们考虑了结构网格和无结构网格,它们通过对有序和无序的种子点进行 Voronoi 分割而产生。新颖的有关结构和无结构网格的网格细化程序允许在二维挑战性弹性问题中准确和高效地应用虚拟元素方法。结果表明,作者之前在结构网格上提出的细化程序的高效性在无结构/ Voronoi 网格上也可以实现。在多种网格类型上证明了细化程序的多才多艺和高效性,表明该程序非常适合虚拟元素应用。

0
下载
关闭预览

相关内容

【CVPR2022】基于粗-精视觉Transformer的仿射医学图像配准
专知会员服务
35+阅读 · 2022年4月2日
专知会员服务
25+阅读 · 2021年4月2日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
66+阅读 · 2022年4月13日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员