调和级数的几个有趣应用及一个著名悬而未解的数学问题

2019 年 9 月 10 日 遇见数学

[遇见数学翻译小组] 核心成员: 刘雄威

一个数学爱好者,希望为数学科普工作做更多贡献,欢迎纠错或讨论,微信号是Mr_LiuXW。

英文: plus.maths.org/content/perfect-harmony,   ★  提示: 如果文中数字/公式显示较大, 请点击右上角中"刷新"即可恢复正常. 

▌交通流量

在不允许超车的单行道交通中,一辆慢车后面跟着一堆想超车但不能超车的汽车。如果  辆汽车行驶,将形成多少条车流?如同上一个例子,这就像在问将观察到多少低速记录一样,我们知道答案:

因为车流中后车速度一定会比前车慢,所以两车的间隔会更大。这解释了为什么在长隧道出口附近的汽车往往比隧道入口附近的汽车行驶得更快,并且车流较稀疏时车与车的间隔也会更大。

▌更好的检测方法
假设你有一百根类似的木梁,并希望找到他们产生断裂应变的力的最小值  。您制作了一个简单的机器,将逐渐增大的力施加到水平放置的木梁上。通过逐渐增加力的大小,直到木梁断裂,你可以找到每根木梁的断裂应力  。假设我们用  表示第 根木梁的断裂应力。

以这种方式进行的销毁测试有一个缺点。虽然最后你知道了  根木梁的断裂应力 但在这个过程中你也毁坏了所有木梁。实际上我们想知道的并不是每根木梁断裂应力的精确值 而是  的最小值,其中 于是你改成以下实验。



测试第一根木梁使其产生断裂,并记录下第一根木梁的断裂应力()。然后,测试第二根木梁,不断增加作用在木梁中心的力  直至  的大小,但不要超过 如果木梁没有断裂,说明这跟木梁的断裂应力大于 如果木梁断裂了,则记录第二根木梁的断裂应力  。然后测试第三根木梁,使作用在木梁中心的力增加至  和  中的最小值。如果木梁断裂了,记录下断裂应力 如果没有断裂,则继续做下一根木梁的测试。

这个实验不断地记录木梁断裂应力的最小值,只有那些断裂应力打破新低记录的木梁才会被毁坏,因此如果试验木梁的数目为 则有  根木梁会被毁坏,而如果试验木梁  根,则有  根被毁坏。

▌洗牌

洗牌(从数学上讲)最简单的方法被称为"随机顶部"洗牌。卡牌组的顶部卡被随机地插入到卡牌组中。那么,必须重复多少次这样的洗牌以后我们才能视这个卡牌组为“随机的”洗过牌了呢?

我们知道,一开始置底的那张卡牌,在有另一张卡牌放置到它底下之前,这张卡牌(记为   )一直都是在置底的。现在从卡牌组顶部取出一张卡牌,再随即地放回卡牌组里,有   种可能的情况,这张卡牌被放置到   底下的概率为 因此平均下来经过   次这样的洗牌就会有一张牌置于   的底下。而因为有了第一张牌置于   的底下了,也就是   的底下有两个放牌的空间,所以这一次每一张牌经过洗牌后置于  的底下的概率就变成了 同样地预计经过   次的洗牌会有第二张牌置于B的底下。因此,预计经过   的洗牌会有两张牌置于   的底下。请注意,现在置于   底下的牌的顺序时随机的。不断重复这样的洗牌,整副卡牌置于   底下所需要的次数是

如此一来,   底下的卡牌顺序都是随机的,想要整副卡牌顺序都是随机的,只需要再洗一次牌,将   随机地放入卡牌组中。因此,随机地洗完整副牌所需的次数是:


▌穿越沙漠
这个问题在二次大战中引起了极大的关注,以至于有传言称,这是德国人设计出来并散布到英国的,以此分散英国科学家的注意力。

问题是这样,现在要乘吉普车穿越沙漠,但中途并没有燃料补给,也不能在车里携带足以穿越沙漠的燃料。目前你没有时间建立中途的补给站,但好消息是,手头有的是吉普车。现在的问题是,如何使用最少的燃料穿越沙漠?

我们以一辆吉普车能行驶一箱油的距离所耗油量作计量单位。如果两辆吉普车一起出发,则先一起走   箱油的距离,然后吉普车   将   箱油倒给吉普车 然后用剩下的   箱油返回原点。此时,吉普车   行驶距离合计为   箱油。

如果三辆吉普车出发,则先一起走   箱油的距离,然后吉普车   分别给吉普车   和吉普车   倒入   箱油,此时吉普车   剩下   箱油,但吉普车   的油箱是满的,这就跟上一种情况相同。当吉普车   返回到吉普车   所在处时,吉普车   已经没油了,但他们有足够的油一起回到原处。此时,吉普车   行驶距离合计为  箱油。

同样地推理,四辆吉普车,可以行驶的最长距离为   箱油的距离,则只需   辆吉普车你就能穿越沙漠,沙漠的距离计为

在这里,我们有一个新的级数,它也是调和级数(每一项都是等差级数的倒数),当然也发散的

事实上,这个级数的收敛性表明,通过使用这样转移油料大法,只要你有足够多的吉普车就可以穿过无穷大的沙漠(* ̄︶ ̄)。

▌其他级数
我们刚刚看到,即便删除了调和级数的偶数项,余下项组成的级数

级数依然发散。那么下面这个级数敛散性如何?

该级数删除了调和级数中第一项和带有合数(即非素数)分母的所有项,剩余的分母都是素数,你知道,素数的分布会越来越稀疏,但非常令人惊讶的是,由素数的倒数构成的级数依然发散。

这个事实的证明有点复杂(虽然这只是大一水平的难度),因此你可以尝试着去证明下。当你证得这个级数发散的同时,你也可以推断出质数的个数是无穷的。

与其删掉分母为合数的项,不如让我们来删掉分母中含零的项。这看起来仅仅是在原有的调和级数中删掉了分母为十的倍数的项。于是我们合理地作出这个级数依然发散的猜测,然而事实或许会违背你的直觉并使你震惊,因为我们的这种猜测是错的。

我们首先看一下那些分母只有一位数的项,显然只有9个,而且它们都小于1。因此他们的总和小于9。

然后,我们看级数中分母有两位数的项。有   项,且都小于 因此他们的总和小于 

通常,级数中分母为   位数的项都有   项,且每一项都小于 因此它们的总和总是小于
这是一个几何级数,项数趋于无穷时,总和等于90。因此,没有包含零位数的词的调和级数收敛。实际上可以进行更精确的分析至小数点后五位,以得到该级数等于 

▌与对数的联系

早在14世纪,尼克尔·奥里斯姆已经证明调和级数发散,但知道的人不多。17世纪时, 皮耶特罗·曼戈里、约翰·伯努利和雅各布·伯努利完成了全部证明工作。

现在让我们回到奥里斯姆的证明,即调和级数的分散。这是通过
实现的,在得出这个不等式中就有与对数的联系。


调和级数和对数之间的联系更加紧密。利用一点微积分知识更仔细地分析奥里斯姆的不等式,会发现   与   的自然对数   的发散速度一致。可以得到当   趋于无穷时,   两者只相差一个常量值,通常用   表示。
这后来以瑞士著名数学家伦纳德·欧拉的名字命名为欧拉常数(又称欧拉-马歇罗尼常数)  值已计算大约为 但对   的性质知之甚少。甚至不知道   是有限小数或无限小数,但是分析表明如果它是一个有理数,那么它的分母位数将超。如果你能解决这个著名悬而未解的问题,便也能立刻成为全世界的焦点。(- End -)

喜欢本篇内容请给我们点个在看

登录查看更多
0

相关内容

数学是关于数量、结构、变化等主题的探索。
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
153+阅读 · 2020年6月27日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
57+阅读 · 2020年4月8日
机器学习速查手册,135页pdf
专知会员服务
342+阅读 · 2020年3月15日
缺失数据统计分析,第三版,462页pdf
专知会员服务
109+阅读 · 2020年2月28日
卷积神经网络数学原理解析
算法与数学之美
20+阅读 · 2019年8月23日
一文读懂机器学习中的贝叶斯统计学
数据分析
26+阅读 · 2019年5月8日
计算:XGBoost背后的数学之美
论智
12+阅读 · 2018年8月20日
看精彩美剧学数学 - 数字追凶103:向量
遇见数学
6+阅读 · 2018年7月29日
大学数学不好,或许是数学教材的锅?
算法与数学之美
15+阅读 · 2017年8月1日
[有意思的数学] 参数估计
机器学习和数学
15+阅读 · 2017年6月4日
Monocular Plan View Networks for Autonomous Driving
Arxiv
6+阅读 · 2019年5月16日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
10+阅读 · 2018年12月6日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
卷积神经网络数学原理解析
算法与数学之美
20+阅读 · 2019年8月23日
一文读懂机器学习中的贝叶斯统计学
数据分析
26+阅读 · 2019年5月8日
计算:XGBoost背后的数学之美
论智
12+阅读 · 2018年8月20日
看精彩美剧学数学 - 数字追凶103:向量
遇见数学
6+阅读 · 2018年7月29日
大学数学不好,或许是数学教材的锅?
算法与数学之美
15+阅读 · 2017年8月1日
[有意思的数学] 参数估计
机器学习和数学
15+阅读 · 2017年6月4日
相关论文
Monocular Plan View Networks for Autonomous Driving
Arxiv
6+阅读 · 2019年5月16日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
10+阅读 · 2018年12月6日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员