Sparse phase retrieval with redundant dictionary is to reconstruct the signals of interest that are (nearly) sparse in a redundant dictionary or frame from the phaseless measurements via the optimization models. Gao [7] presented conditions on the measurement matrix, called null space property (NSP) and strong dictionary restricted isometry property (S-DRIP), for exact and stable recovery of dictionary-$k$-sparse signals via the $\ell_1$-analysis model for sparse phase retrieval with redundant dictionary, respectively, where, in particularly, the S-DRIP of order $tk$ with $t>1$ was derived. In this paper, motivated by many advantages of the $\ell_q$ minimization with $0<q\leq1$, e.g., reduction of the number of measurements required, we generalize these two conditions to the $\ell_q$-analysis model. Specifically, we first present two NSP variants for exact recovery of dictionary-$k$-sparse signals via the $\ell_q$-analysis model in the noiseless scenario. Moreover, we investigate the S-DRIP of order $tk$ with $0<t<\frac{4}{3}$ for stable recovery of dictionary-$k$-sparse signals via the $\ell_q$-analysis model in the noisy scenario, which will complement the existing result of the S-DRIP of order $tk$ with $t\geq2$ obtained in [4].


翻译:冗余字典下的稀疏相位恢复旨在通过优化模型,从无相位测量中重构出在冗余字典或框架下(近似)稀疏的目标信号。Gao [7] 针对冗余字典下的稀疏相位恢复问题,分别提出了通过$\ell_1$分析模型精确且稳定恢复字典$k$稀疏信号的测量矩阵条件,称为零空间性质(NSP)与强字典限制等距性质(S-DRIP),其中特别推导了阶数为$tk$($t>1$)的S-DRIP。本文受$0<q\leq1$的$\ell_q$最小化诸多优势(例如所需测量数量的减少)的启发,将这两个条件推广至$\ell_q$分析模型。具体而言,我们首先在无噪声场景下,提出了通过$\ell_q$分析模型精确恢复字典$k$稀疏信号的两个NSP变体。此外,我们研究了阶数为$tk$($0<t<\frac{4}{3}$)的S-DRIP在噪声场景下通过$\ell_q$分析模型稳定恢复字典$k$稀疏信号的能力,这将补充文献[4]中获得的阶数为$tk$($t\geq2$)的S-DRIP现有结果。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员