Direkt zum Inhalt

Eine Aussage über stochastische Ereignisse bzw. Zufallsvariablen, derzufolge sich zwei solche stochastischen Größen gegenseitig nicht beeinflussen. Dem liegt die folgende Definition zugrunde (der Einfachheit halber betrachten wir ab jetzt nur für Ereignisse, die Unabhängigkeit von Zufallsvariablen ist eher von theoretischem Interesse und für die Schule nicht so wichtig):

Zwei Ereignisse A und B heißen (stochastisch) unabhängig, wenn

\(P(A\cap B) = P(A) \cdot P(B)\)

andernfalls sind sie (stochastisch) abhängig.

Wenn die Ereignisse A und B unabhängig sind, so sind auch die folgenden Ereignisse jeweils voneinander unabhängig: A und \(\overline{B}\), \(\overline{A}\) und B sowie \(\overline{A}\) und \(\overline{B}.\)

Beispiele:

  • Zufallsexperiment: zweimaliges Werfen eines Würfels, \(|\Omega | = 36.\) A: „Gerade Augensumme“, B: „erste Augenzahl gerade“.

\(P (A) = 0,5, P (B) = 0,5,\ P (A \cap B) = 0,25 = P (A) \cdot P (B).\) \(A\) und \(B\) sind also unabhängig.

  • Zufallsexperiment: Dreimaliger Münzwurf, \(|\Omega | = 8.\) A: „mindestens einmal Kopf “, B: „höchstens einmal Zahl“.

\(P (A) = \frac{7}{8} ;\ P (B) = \frac{1}{2} ;\ P (A \cap B) = \frac{4}{8} \neq P (A) \cdot P (B).\)

\(A\) und \(B\) sind also abhängig.


Schlagworte

  • #Stochastik
  • #Wahrscheinlichkeitsrechnung
  • #bedingte Wahrscheinlichkeit