This paper deals with the modeling of non-stationary signals, from the point of view of signal synthesis. A class of random, non-stationary signals, generated by synthesis from a random timescale representation, is introduced and studied. Non-stationarity is implemented in the timescale representation through a prior distribution which models the action of time warping on a stationary signal. A main originality of the approach is that models directly a timescale representation from which signals can be synthesized, instead of post-processing a pre-computed timescale transform. A maximum a posteriori estimator is proposed for the time warping parameters and the power spectrum of an underlying stationary signal, together with an iterative algorithm, called JEFAS-S, for the estimation, based upon the Expectation Maximization approach. Numerical results show the ability of JEFAS-S to estimate accurately time warping and power spectrum. This is in particular true when time warping involves fast variations, where a similar approach called JEFAS, proposed earlier, fails. In addition, as a by-product, the approach is able to yield extremely sharp timescale representations, also in the case of fast varying non-stationarity, where standard approaches such as synchrosqueezing fail.


翻译:本文从信号合成的角度论述非静止信号的建模,从信号合成的角度探讨非静止信号的建模; 介绍和研究由随机的时间尺度代表制合成产生的随机非静止信号的类别; 在时间尺度代表制中,通过先前的分布式实施非静止信号; 在固定信号上模拟时间扭曲动作的模型; 方法的主要原创性是,模型直接是一个时间尺度表示式,可以对信号进行合成,而不是从处理后的一个预先计算的时间尺度变换; 为时间扭曲参数和基本静止信号的电源谱,以及迭代算法(称为JEFAS-S,用于根据期望最大化办法进行估算); 数字结果表明,JEFAS-S有能力准确估计时间曲线和电频谱; 特别是,当时间扭曲涉及快速变化时,如果早先提出的类似方法称为JEFAS,则失败。 此外,作为副产品,该方法能够产生极其剧烈的时标定时尺度的同步,在快速的状态下,也能够产生极为剧烈的时空状态。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
71+阅读 · 2022年6月28日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年1月1日
Arxiv
0+阅读 · 2022年12月31日
Arxiv
0+阅读 · 2022年12月29日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员