The normal mode model is one of the most popular approaches for solving underwater sound propagation problems. Among other methods, the finite difference method is widely used in classic normal mode programs. In many recent studies, the spectral method has been used for discretization. It is generally more accurate than the finite difference method. However, the spectral method requires that the variables to be solved are continuous in space, and the traditional spectral method is powerless for a layered marine environment. A Chebyshev-Tau spectral method based on domain decomposition is applied to the construction of underwater acoustic normal modes in this paper. In this method, the differential equation is projected onto spectral space from the original physical space with the help of an orthogonal basis of Chebyshev polynomials. A complex matrix eigenvalue / eigenvector problem is thus formed, from which the solution of horizontal wavenumbers and modal functions can be solved. The validity of the acoustic field calculation is tested in comparison with classic programs. The results of analysis and tests show that compared with the classic finite difference method, the proposed Chebyshev-Tau spectral method has the advantage of high computational accuracy. In addition, in terms of running time, our method is faster than the Legendre-Galerkin spectral method.


翻译:普通模式模型是解决水下声音传播问题最流行的方法之一。 除其他方法外, 经典普通模式程序广泛使用有限差异方法。 在许多最近的研究中, 光谱方法被用于离散。 一般来说, 光谱方法比有限差异方法更准确。 但是, 光谱方法要求要解决的变量在空间中是连续的, 传统的光谱方法对于层层海洋环境来说是无能为力的。 基于域分解的Chebyshev- Tau光谱方法适用于本文中水下声学正常模式的构建。 在这种方法中, 差异方程式被投射到原始物理空间的光谱空间上, 并借助Chebyshev 聚光谱学的正反向基础。 因此, 一个复杂的基质矩阵 egenvaly/ egenvector 问题形成, 由此可以解决水平波数和模型函数的解决方案。 声场计算的有效性与经典程序比较。 分析和测试的结果显示, 与典型的有限差异方法相比, 拟议的Chebyshev- Taukin 光谱方法比我们光谱率方法的优势。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
153+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
CCF推荐 | 国际会议信息8条
Call4Papers
9+阅读 · 2019年5月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2020年11月30日
Arxiv
0+阅读 · 2020年11月29日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
CCF推荐 | 国际会议信息8条
Call4Papers
9+阅读 · 2019年5月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员