
【计】 Bayes rule
【计】 Bayes
law; theorem
【经】 law
贝叶斯法则(Bayes' Theorem)是概率论中的核心定理,用于描述在已知相关证据的条件下,如何更新某一假设的概率。其名称源于18世纪英国统计学家托马斯·贝叶斯(Thomas Bayes)。该法则的数学表达式为:
$$ P(A|B) = frac{P(B|A) cdot P(A)}{P(B)} $$
其中:
先验概率(Prior Probability)
指在获得新证据前,对事件发生概率的初始估计(如 ( P(A) ))。例如,在疾病检测中,人群的患病率即为先验概率。
似然概率(Likelihood)
指在假设成立的条件下,观察到当前证据的概率(如 ( P(B|A) ))。例如,若某人患病,检测结果呈阳性的概率。
后验概率(Posterior Probability)
指结合新证据后,对假设概率的修正结果(如 ( P(A|B) ))。例如,若检测呈阳性,此人实际患病的概率。
边际概率(Marginal Probability)
指证据发生的总概率,需考虑所有可能路径(如 ( P(B) = P(B|A)P(A) + P(B| eg A)P( eg A) ))。
《概率论导论》(Introduction to Probability)
麻省理工学院统计学教材,系统阐述贝叶斯法则的推导与实例 。
链接:https://ocw.mit.edu/resources/res-6-012-introduction-to-probability-spring-2018/
斯坦福大学哲学百科(Stanford Encyclopedia of Philosophy)
“贝叶斯定理”条目详解其哲学基础与认知科学应用 。
美国统计协会(ASA)白皮书
《贝叶斯方法在数据分析中的实践指南》,强调其在现代统计中的重要性 。
链接:https://www.amstat.org/asa/files/pdfs/Bayesian-Educational.pdf
贝叶斯法则(Bayes' Theorem)是概率论中的核心定理,用于在已知部分信息的情况下,更新对事件发生概率的估计。它由英国数学家托马斯·贝叶斯提出,是贝叶斯统计学的理论基础,广泛应用于机器学习、医学诊断、金融预测等领域。
贝叶斯法则的公式为: $$ P(A|B) = frac{P(B|A) cdot P(A)}{P(B)} $$ 其中:
先验与后验
贝叶斯法则通过先验概率(已有知识)和新证据(观测数据),推导出更新后的后验概率。例如:
动态更新
随着新数据的加入,后验概率可迭代成为新的先验概率,实现持续学习(如垃圾邮件过滤系统)。
假设某种疾病在人群中的患病率为1%($P(A)=0.01$),检测的灵敏度(患病者检测阳性概率)为99%($P(B|A)=0.99$),特异度(健康人检测阴性概率)为99%($P( eg B| eg A)=0.99$)。当某人检测为阳性时,真实患病的概率为: $$ P(A|B) = frac{0.99 cdot 0.01}{0.99 cdot 0.01 + 0.01 cdot 0.99} = 0.5 $$ 结果仅为50%,说明即使检测准确率高,但因患病率低,假阳性仍可能占多数。
贝叶斯法则的本质是通过数学框架将主观经验(先验)与客观数据(似然)结合,量化不确定性。其优势在于灵活性和可解释性,但需注意先验选择的合理性。
【别人正在浏览】