趣图 | 著名的悖论蒙提霍尔问题到底是什么?

2020 年 8 月 7 日 CSDN

来源 | 后端技术指南针

写在前面


前几天和同事聊了个问题,觉得还蛮有趣,决定和大家分享一下。

Oh My God! 搞它搞它!

题目描述


我们的热心读者小明被选中参加一个抽奖游戏,游戏规则是这样的:
  • 小明面前有ABC三扇相同的门,小明和观众无法知道ABC三扇门背后有什么。
  • ABC三扇门中只有一扇门背后有一辆汽车,其他两扇门背后都是一瓶矿泉水。
  • 小明需要在3扇门中选中一个并且不开启,接下来主持人从另外两扇门中选中一扇门并且开启。
  • 小明选中了A门,主持人选中了B门,并且开启B门后是矿泉水。
  • 这时主持人问小明,明哥你要不要从A门换选C门呢?
大家都替小明思考一下,别瞎蒙,要有理有据,能不能提到这辆法拉利就在此一搏了!


蒙提·霍尔问题


相信很多老铁知道这个问题,这就是有名的蒙提霍尔问题(Monty Hall Problem),也称三门问题。

这是一个源自博弈论的数学游戏问题,出自美国的电视游戏节目Let's Make a Deal。

这里面有个非常重要的线索:主持人知道哪扇门后有汽车且会选中背后有水的那扇门,这也是争议的所在,相当于个隐含条件吧。
在维基百科对于Monty Hall问题的描述中,门的背后是山羊和汽车,本文替换成了矿泉水,但是数学原理是一样的,大白是想尽量排除干扰,避免读者钻牛角尖。
面对这个问题,很多人认为换或者不换选中汽车的概率都是1/2,还有一部分人认为应该换了之后的概率更大是2/3。


朴素分析


换或者不换,是个问题。


4.1 不换的1/2派


由于主持人已经帮小明淘汰了一个选项,剩下的就只有两个了。
很直观地感觉一下,A门和C门背后有汽车的概率都是1/2,这个结论也是符合大部分人直观第一感觉的答案,这也是大白的第一答案...害

但是还有句话,真理往往掌握在少数人手中,所以这个直观答案并不一定正确呀!


4.2 调换的2/3派


调换派认为不换的话有车的概率就是最初的1/3,由于B和C总体的概率为2/3,且已经被排除了B,那么修改选择后,选C有车的概率就是2/3。
详细分析一下这几种可能:
  • A扇门背后有车,如果调换到C,那么一定没有车,这种场景的概率是1/3。
  • A扇门背后无车,如果调换到C,那么一定有车,这种场景的概率是2/3。
确实非常有道理,用一个低概率成功去换取一个高概率成功,太机智了!


4.3 分歧所在


在主持人没有开启B门之前,我们对选择A后有汽车的概率是1/3是毫无争议的。
但是当主持人开启B门之后,就出现了分歧,那么不由得去想B门的开启是否影响了之前的选择A呢?


数学分析


没有数学分析,大家貌似说的都有道理,所以必须亮出大神器-概率分析。
这几个概率论的术语,大家都是学过的,所以不必有什么数学恐惧。


5.1 独立事件的概率和条件概率

  • 独立事件概率

我们设定事件a的概率为P(a),事件b的概率是P(b),且事件a和事件b是相互独立的。

则事件a和事件b同时发生的概率,满足如下公式:
P(ab)=P(ba)=P(a)P(b)
  • 条件概率

条件概率是在某种条件下,某个事件发生的概率,展示了事件之间的内在联系和影响。

我们来看两种条件概率的简单表述。

  1. 事件a发生之后,事件b发生的概率,可以记做P(b|a),此时满足公式:
P(b|a)=P(ab)/P(a)
等价于 P(ab)=P(b|a)P(a)
  1. 事件b发生之后,事件a发生的概率,可以记做P(a|b),此时满足公式:
P(a|b)=P(ab)/P(b)
等价于 P(ab)=P(a|b)P(b)
  1. 综合这两种条件事件,可以得到公式:
P(ab)=P(b|a)P(a)=P(a|b)P(b)


5.2 贝叶斯公式


我们综合计算得到一个公式:
P(b|a)P(a)=P(a|b)P(b)
这个公式做一个变形可以得到:
P(a|b)=P(b|a)P(a)/P(b)
没错,这就是大名鼎鼎的贝叶斯公式。

5.3 先验概率和后验概率


在贝叶斯公式中,还隐含着一些术语,来看下百度百科对于其中的定义:
P(A)是A的先验概率或边缘概率,它不考虑任何B方面的因素。
P(A|B)是B发生后A的条件概率,由于得自B的取值被称作A的后验概率。
P(B|A)是A发生后B的条件概率,由于得自A的取值被称作B的后验概率。
P(B)是B的先验概率或边缘概率,称作标准化常量。
贝叶斯公式的意义非常重大,它揭示了条件事件概率的内在联系,某些样本信息的出现对先验概率的影响。

贝叶斯公式为我们利用搜集到的信息对原有判断进行修正提供了有效手段。

在很多领域都有非常深远的影响,正好用在我们今天的蒙提霍尔问题上,继续来分析。

贝叶斯公式和蒙提霍尔问题


前面我们提到了,症结在于主持人选择B门并开启后无车,这个事件对于已作出选择的参与者来说是否有影响呢?

后验概率是否产生了影响,我们来推导一下:

  • 设定A、B、C门后有汽车分别记为事件a、b、c,则P(a)=P(b)=P(c)=1/3。
  • 设定参与者选择了A门,由于主持人默认需要选择没有汽车的门,因此参与者的选择影响了主持人的选择。
  • 设定主持人选择了B门且没有汽车,记为事件d,则P(d|a)=1/2,P(d|b)=0,P(d|c)=1。
  • 在主持人选择B门无汽车后,参与者选择A门有车的概率为P(a|d),即事件d发生后事件a的概率,由贝叶斯公式得:
P(a|d)=P(d|a)P(a)/P(d)
通过前面的分析,我们只需要求P(d|a)、P(a)、P(d)三个元素即可。

  • P(d|a)表示A门有汽车的情况下,主持人选择B门的概率,其为1/2;
  • P(a)表示A门有汽车的概率,其为1/3;
  • P(d)可以从全概率公式求得,其为1/2:
P(d)=P(d|a)P(a)+P(d|b)P(b)+P(d|c)P(c)
P(d)=1/2*1/3+0*1/3+1*1/3=1/2
综上得到:P(a|d)=1/2*1/3*2=1/3

在主持人选择B门开启后无汽车的情况下,参与者选A门有汽车的概率P(a|d)=1/3,因此后验概率并没有发生变化,并不是直观的1/2,而仍然是1/3。

因此如果做调换,那么相当于参与者选择了C门,计算过程类似,概率为2/3:
P(c|d)=P(d|c)P(c)/P(d)

蒙提霍尔问题的思考


想这个问题的时候,总觉得有漏洞,或者说必须在某些条条框框才能正常推演。
比如说假如主持人并不知道哪扇门后有汽车,他也是随机选择的。

比如说数据规模不一样,9扇门,主持人帮你否定7个,显然要换,正是因为数据规模很小才带来了和直觉相悖的感觉。

最后用Horst Hohberger的一段话概括,蒙提霍尔问题:
If you change, you win when your original choice was wrong;
if you don't change, you win when your original choice was right.
如果你想赢得汽车,两种情况的概率:

  • 不换情况下必须是最初选择是对的才会赢取法拉利,概率1/3
  • 调换情况下必须是最初选择是错的才会赢取法拉利,概率2/3

网上有一些大佬,写代码模拟这个独立重复实验,得到的结果也是一样的。


更多精彩推荐

     
     
       
糟糕!原来你的电脑就是这样被木马远控了
☞监控系统选型,这篇不可不读
封杀TikTok 无用,互联网百年老店生存法则
AI 医生正式上岗了?AI 医疗结合迎爆发点!
开源项目如何挣钱?Spark 商业化公司创始人曝光心路历程
图解一致性哈希算法,看这文就够了!
点分享
点点赞
点在看
登录查看更多
0

相关内容

本话题关于日常用语「概率」,用于讨论生活中的运气、机会,及赌博、彩票、游戏中的「技巧」。关于抽象数学概念「概率」的讨论,请转 概率(数学)话题。
最新《理论计算科学导论》书稿,655页pdf
专知会员服务
100+阅读 · 2020年9月17日
最新《因果推断导论》课程,102页ppt
专知会员服务
180+阅读 · 2020年9月1日
最新《机器学习理论初探》概述
专知会员服务
46+阅读 · 2020年5月19日
任煜:如何找到使命?(下篇)
混沌研习社广州分社
6+阅读 · 2019年7月6日
美联储若降息意味着什么?
FT中文网
3+阅读 · 2019年6月28日
效果惊人的GPT 2.0模型:它告诉了我们什么
自然语言处理NLP的坑到底有多大?
专知
46+阅读 · 2018年11月12日
机器学习不能做什么?
引力空间站
5+阅读 · 2018年3月28日
机器学习应该准备哪些数学预备知识?
AI100
4+阅读 · 2017年11月26日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
什么是常识?
keso怎么看
4+阅读 · 2017年8月2日
Arxiv
9+阅读 · 2020年2月15日
Arxiv
14+阅读 · 2020年1月27日
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
任煜:如何找到使命?(下篇)
混沌研习社广州分社
6+阅读 · 2019年7月6日
美联储若降息意味着什么?
FT中文网
3+阅读 · 2019年6月28日
效果惊人的GPT 2.0模型:它告诉了我们什么
自然语言处理NLP的坑到底有多大?
专知
46+阅读 · 2018年11月12日
机器学习不能做什么?
引力空间站
5+阅读 · 2018年3月28日
机器学习应该准备哪些数学预备知识?
AI100
4+阅读 · 2017年11月26日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
什么是常识?
keso怎么看
4+阅读 · 2017年8月2日
相关论文
Arxiv
9+阅读 · 2020年2月15日
Arxiv
14+阅读 · 2020年1月27日
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员