0%

贝叶斯定理(Bayes's theorem)及贝叶斯推断(Bayesian inference)

说明
1. 参考自阮一峰博客中的文章:贝叶斯推断及其互联网应用(一)

一、条件概率(Conditional probability)

  1. 条件概率,就是指在事件A发生的情况下,事件B发生的概率,用\(P(B\mid{A})\)来表示。
  2. 根据文氏图,可以很清楚地看到在事件A发生的情况下,事件B发生的概率就是\(P(A\bigcap{B})\)除以\(P(A)\)\[P(B\mid{A})=\cfrac{P(A\bigcap{B})}{P(A)}\] 因此:\[P({A} \bigcap {B})=P(B\mid{A})\times P(A)\] 同理可得:\[P({A} \bigcap {B})=P(A\mid{B})\times P(B)\] 所以:\[P(B\mid{A})\times P(A)= P(A\mid{B})\times P(B)\] 即:\[P(A\mid{B})= \cfrac{P(B\mid{A})\times P(A)}{P(B)} \]

二、全概率公式

假定样本空间S,是两个事件A与A'的和。

上图中,红色部分是事件A,绿色部分是事件A',它们共同构成了样本空间S。

在这种情况下,事件B可以划分成两个部分。

即:\[P(B) = P({B} \bigcap {A}) + P({B} \bigcap {A'})\]

在之前的推导当中,我们已知:\[P({A} \bigcap {B})=P(B\mid{A})\times P(A)\] 所以:\[P(B) = P(B\mid{A})\times P(A) + P(B\mid{A'})\times P(A')\]\(P(B)\)代入上一节中的条件概率公式 $P(A)= $ \[P(A\mid{B})= \cfrac{P(B\mid{A})\times P(A)}{P(B\mid{A})\times P(A) + P(B\mid{A'})\times P(A')} \]

三、贝叶斯定理及贝叶斯推断

对条件概率公式进行变形,可以得到如下形式: \[P(A\mid{B})= \cfrac{P(B\mid{A})}{P(B)} \times P(A)\]

  • \(P(A)\)称为"先验概率"(Prior Probability),即在B事件发生之前,我们对A事件概率的一个判断。
  • \(P(A\mid{B})\)称为"后验概率"(Posterior Probability),即在B事件发生之后,我们对A事件概率的重新评估。
  • \(\cfrac{P(B\mid{A})}{P(B)}\)称为"可能性函数"(likelihood),这是一个调整因子,使得预估概率更接近真实概率。

所以,条件概率可以理解成: 后验概率 = 先验概率 × 调整因子

这就是贝叶斯推断的含义。我们先预估一个"先验概率",然后加入实验结果,看这个实验到底是增强还是削弱了"先验概率",由此得到更接近事实的"后验概率"。

  • 在这里,如果"可能性函数"\(\cfrac{P(B\mid{A})}{P(B)}\)>1,意味着"先验概率"被增强,事件A的发生的可能性变大;
  • 如果"可能性函数"\(\cfrac{P(B\mid{A})}{P(B)}\)=1,意味着B事件无助于判断事件A的可能性;
  • 如果"可能性函数"\(\cfrac{P(B\mid{A})}{P(B)}\)<1,意味着"先验概率"被削弱,事件A的可能性变小。

四、水果糖的例子

问题:两个一模一样的碗,一号碗有30颗水果糖和10颗巧克力糖,二号碗有水果糖和巧克力糖各20颗。现在随机选择一个碗,从中摸出一颗糖,发现是水果糖。请问这颗水果糖来自一号碗的概率有多大?

我们假定,H1表示一号碗,H2表示二号碗。由于这两个碗是一样的,所以\(P(H_1)\) = \(P(H_2)\),也就是说,在取出水果糖之前,这两个碗被选中的概率相同。因此,\(P(H_1)\) = 0.5,我们把这个概率就叫做"先验概率",即没有做实验之前,来自一号碗的概率是0.5。

再假定,E表示水果糖,所以问题就变成了在已知E的情况下,来自一号碗的概率有多大,即求\(P(H_1\mid{E})\)。我们把这个概率叫做"后验概率",即在E事件发生之后,对P(H1)的修正。

根据条件概率公式,得到 \[P(H_1\mid{E}) = P(H_1) \times \cfrac{P(E\mid{H_1})}{P(E)}\]

已知,\(P(H_1)\) = 0.5,\(P(E\mid{H_1})\)为一号碗中取出水果糖的概率,等于0.75,那么求出\(P(E)\)就可以得到答案。

根据全概率公式: \[P(E)=P(E\mid{H_1}) \times P(H_1) +P(E\mid{H_2}) \times P(H_2)\]

所以: \[P(E)=0.75\times0.5+0.5\times0.5=0.625\]

五、假阳性问题

已知某种疾病的发病率是0.001,即1000人中会有1个人得病。现有一种试剂可以检验患者是否得病,它的准确率是0.99,即在患者确实得病的情况下,它有99%的可能呈现阳性(灵敏度为99%)。它的误报率是5%,即在患者没有得病的情况下,它有5%的可能呈现阳性(特异度为95%)。现有一个病人的检验结果为阳性,请问他确实得病的可能性有多大?

假定A事件表示得病,那么\(P(A)\)为0.001。这就是"先验概率",即没有做试验之前,我们预计的发病率。

再假定B事件表示阳性,那么要计算的就是\(P(A\mid{B})\)。这就是"后验概率",即做了试验以后,对发病率的估计。

\[P(A\mid{B})= \cfrac{P(B\mid{A})}{P(B\mid{A})\times P(A) + P(B\mid{\overline {A}})\times P(\overline {A})} \times P(A)\]

\[\approx \cfrac{0.99}{0.99 \times 0.001+0.05\times 0.999} \times {0.001} \]

我们得到了一个惊人的结果,\(P(A\mid{B})\)约等于0.019。也就是说,即使检验呈现阳性,病人得病的概率,也只是从0.1%增加到了2%左右。这就是所谓的"假阳性",即阳性结果完全不足以说明病人得病。

为什么会这样?为什么这种检验的准确率高达99%,但是可信度却不到2%?

首先是与误报率(5%)太高有关,其次也和发病率太低(0.1%)有关。