再说说稀疏信号处理

2019 年 2 月 9 日 算法与数学之美


过去数十年来,信号处理领域中各种方法层出不穷。其中有很多方法没有明确的物理背景或者意义,或者在非常特殊的情况下才有,完全只是某些数学的或者数据的折腾(英语叫manipulation)。或者有的物理意义也只是粗线条的,很明显的等等。我认为这些算法,除了可以试一下外,很难能说出别的道道

 

举个最简单的例子。在很多情况下,最大似然估计是最优的。在通信里面,最大似然估计在很多情况下是等价于最小距离判决,即哪个最靠近,哪个最有可能,就选哪个。但是,这种判决法只有在信噪比不是特别低的时候,才有道理。如果信噪比特别低了,说不定离得越远的越好呢。这个信噪比的界正是香农极限。香农极限说了,如果信噪比低于这个界,信号就检测不出来了,其实这时由于信噪比太低了,越接近的就不见得是越对的了。也就是说,在这种应用中,当信噪比低到一定程度后,所谓最优的最大似然估计法就毫无意义了。

 

过去十几年(2006年后)中信号处理界里最热的词可能就是"稀疏性"了。当然,稀疏性就是一种物理现象或者意义,但是我觉得只是粗线条的,从本质上就是自动假设的(英语叫Inherited)。所以人们在求信号的优化过程中加上一个最小个数的限制。但是,信号个数这个度量(叫L0)在数学上不是一个范数,也就是说,不能确定更“接近”的一定更好(有点类似于上面的通信问题中低信噪比的情况),数学家说了,这时数学工具不好使。所以,人们就用了一个“最接近”L0的范数,“当然”就是L1了。是范数了,就有距离的概念了,就可以说近就是好。问题是这个好与L0好是一回事么?用L1求出来的个数少是真的少么?

 

九十年代初的OMP法找信号是在信号库中一个一个找。先把能量最大的找到,然后减掉,再找下面的。对这种方法来说,信号库非常重要。如果信号库对了,还有啥方法可代替么?我认为没有。人们也许会问,此法利用到稀疏性了么?当然用到了,信号都是一个一个找了,还没用到稀疏性么?信号的个数总不会比一还少吧!当然,理论上可以多个多个一起找,但是这样的复杂度会太高了。

 

这里有两个问题。其一是信号库的问题。怎么知道信号库是对的?这个问题跟现在的稀疏信号处理的问题一样。稀疏信号处理也有类似的问题,即信号在什么域里是稀疏的,这就等价于有了正确的信号库。从这一点来说,九十年代的OMP与现在的稀疏信号处理一样。

 

第二个问题也许是计算复杂度。其实现在的稀疏信号处理一般优化算法的复杂度更高,为了降低计算复杂度,人们反而正是用OMP法来解。

 

从上面两点可以看出,九十年代初的OMP法与现在的稀疏信号处理法基本上是等价的,现在的各种方法都只是OMP法的各种变形,这点并不奇怪,从九十年代到现在都20多年了,本来也该会有对OMP法的自然变异了,而并非是因为是稀疏信号处理的推动。尽管是这么说,但是,由于稀疏性名字的出现,所以有更多的人被吸引过来做了。遗憾的是,现在在这个领域里的很多人都让各种优化给打鸡血了,难道这些优化算法能改进OMP法么?

 

再回到稀疏性的度量L0,假如说L0可以在数学上执行。因为稀疏信号处理的问题大多是不定的,即会有很多解。这时,稀疏性的限制就是说个数越少的越好。我觉得这样的思考都是在没有考虑噪声或者信噪比高的情况下的结论。哪如果信噪比不高呢?或者说信噪比要高到什么程度?

 

我的估计是这样的。在稀疏域中,噪声还是满域的且统计意义上是平的,叫噪声地层(noise floor)。在噪声地层上面大于XdB就可以被视为信号。这个X就是稀疏信号处理的界,类似于上面讲的香农界。这个X是什么?0?还是1.6?

 

也许这一点与数字通信理论完全不一样,因为在这里,信号的数值是任意的,无穷的,而数字通信理论中的信号只是有限的固定的。在这里,信号是人为定的,所以,上面的界X就是X,只知道它一定大于0。

 

————

编辑 ∑ Gemini

来源:夏香根科学网博客

微信公众号“算法数学之美”,由算法与数学之美团队打造的另一个公众号,欢迎大家扫码关注!


更多精彩:

如何向5岁小孩解释什么是支持向量机(SVM)?

自然底数e的意义是什么?

费马大定理,集惊险与武侠于一体

简单的解释,让你秒懂“最优化” 问题

一分钟看懂一维空间到十维空间

☞ 本科、硕士和博士到底有什么区别?

小波变换通俗解释

微积分必背公式

影响计算机算法世界的十位大师

数据挖掘之七种常用的方法

算法数学之美微信公众号欢迎赐稿

稿件涉及数学、物理、算法、计算机、编程等相关领域,经采用我们将奉上稿酬。

投稿邮箱:math_alg@163.com

登录查看更多
3

相关内容

在统计学中,最大似然估计(maximum likelihood estimation, MLE)是通过最大化似然函数估计概率分布参数的一种方法,使观测数据在假设的统计模型下最有可能。参数空间中使似然函数最大化的点称为最大似然估计。最大似然逻辑既直观又灵活,因此该方法已成为统计推断的主要手段。
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
151+阅读 · 2020年6月27日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
专知会员服务
31+阅读 · 2020年4月24日
【干货书】数值计算C编程,319页pdf,Numerical C
专知会员服务
67+阅读 · 2020年4月7日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
专知会员服务
61+阅读 · 2020年3月4日
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
从傅里叶分析角度解读深度学习的泛化能力
PaperWeekly
7+阅读 · 2018年8月24日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
面试整理:关于代价函数,正则化
数据挖掘入门与实战
8+阅读 · 2018年3月29日
文本情感分析的预处理
Datartisan数据工匠
17+阅读 · 2018年3月8日
傅里叶变换和拉普拉斯变换的物理解释及区别
算法与数学之美
11+阅读 · 2018年2月5日
【干货】机器学习中样本比例不平衡的处理方法
机器学习研究会
8+阅读 · 2018年1月14日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
[有意思的数学] 参数估计
机器学习和数学
15+阅读 · 2017年6月4日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
3+阅读 · 2018年4月18日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关VIP内容
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
151+阅读 · 2020年6月27日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
195+阅读 · 2020年5月2日
专知会员服务
31+阅读 · 2020年4月24日
【干货书】数值计算C编程,319页pdf,Numerical C
专知会员服务
67+阅读 · 2020年4月7日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
专知会员服务
61+阅读 · 2020年3月4日
相关资讯
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
从傅里叶分析角度解读深度学习的泛化能力
PaperWeekly
7+阅读 · 2018年8月24日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
面试整理:关于代价函数,正则化
数据挖掘入门与实战
8+阅读 · 2018年3月29日
文本情感分析的预处理
Datartisan数据工匠
17+阅读 · 2018年3月8日
傅里叶变换和拉普拉斯变换的物理解释及区别
算法与数学之美
11+阅读 · 2018年2月5日
【干货】机器学习中样本比例不平衡的处理方法
机器学习研究会
8+阅读 · 2018年1月14日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
[有意思的数学] 参数估计
机器学习和数学
15+阅读 · 2017年6月4日
Top
微信扫码咨询专知VIP会员