Direkt zum Inhalt

Mit dem nach dem englischen Mathematiker und Pfarrer Thomas Bayes (ca. 1702–1761) benannten Satz von Bayes (Bayes’sche Satz) kann man bedingte Wahrscheinlichkeiten ineinander umrechnen. Genauer gesagt beschreibt der Satz den Zusammenhang zwischen der Wahrscheinlichkeit, dass ein Ereignis A eintritt, wenn ein Ereignis B sicher geschieht, also P(A|B) bzw. „P von A unter der Bedingung B“, und der Wahrscheinlichkeit, dass B eintritt, wenn A sicher geschieht, also P(B|A) bzw. „P von B unter der Bedingung A“:

\(P(A|B) = \displaystyle \frac{P (B|A) \cdot P(A)}{P(B)}\)

Die Formel kann man sich plausibel machen, indem man die Wahrscheinlichkeit für die Schnittmenge von A und B, also für das Ereignis, dass A und B beide eintreten, mit der Definition der bedingten Wahrscheinlichkeit jeweils aufschreibt:

\(P (A \cap B) = P(A|B) \cdot P(B)\)   und   \(P (A \cap B) = P(B|A) \cdot P(A)\), also ist

\(P(A|B) \cdot P(B) = P(B|A) \cdot P(A) \quad \Rightarrow \quad P(A|B) = \displaystyle \frac{P (B|A) \cdot P(A)}{P(B)}\)


Schlagworte

  • #Stochastik
  • #Wanrscheinlichkeitsrechnung
  • #bedingte Wahrscheinlichkeit
  • #stochastische Unabhängigkeit