Der Erwartungswert \(E(X) = \mu\) ist die wichtigste Größe, mit der sich eine Wahrscheinlichkeitsverteilung F(X) charakterisieren lässt. Wenn die Zufallsvariable X in einem Zufallsexperiment gemessen („realisiert“) wird, wird sich der arithmetische Mittelwert bei unendlich vielen Wiederholungen beliebig dicht an den Erwartungswert annähern. Anders gesagt: E(X) ist das Ergebnis, das man „auf die Dauer erwarten kann“. Bei nur einmaliger Ausführung des Zufallsexperiments hat E(X) die höchste Wahrscheinlichkeit, je nach Breite der Verteilung kann es aber auch gut möglich sein, etwas deutlich anderes zu erhalten. Der Zusammenhang zwischen Mittelwert und Erwartungswert zeigt sich auch darin, dass der Mittelwert einer Stichprobe die Schätzfunktion für den Erwartungswert der Grundgesamtheit ist (Parameterschätzung).
Man berechnet den Erwartungswert bei eine diskreten Verteilung als mit den jeweiligen Wahrscheinlichkeiten „gewichtete“ Summe der möglichen Ergebnisse, d. h., es wird jedes Element der Ergebnismenge \(\Omega\) mit seiner Wahrscheinlichkeit multipliziert und dann über alle n Ergebnisse summiert:
\(E(X) = \mu = \displaystyle\sum_{i=1}^n x_i \cdot P(X=x_i)\)
Beispiele:
- Werfen eines Würfels. X ist die geworfene Augenzahl, \(\Omega = \{ 1; 2; 3; 4; 5; 6 \}\), \(n=|\Omega|=6\).
\(E (X) = \mu = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6} + 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6} = 3,5\)
- Dreimaliges Werfen einer Münze. X ist die Zahl der Münzen, die Zahl zeigen, \(\Omega = \{ 0; 1; 2; 3 \}\), \(n=|\Omega|=4\).
\(E (X) = \mu = 0 \cdot \frac{1}{8} + 1 \cdot \frac{3}{8} + 2 \cdot \frac{3}{8} + 3 \cdot \frac{1}{8} = 1,5\)
Bei einer kontinuierlichen bzw. stetigen Verteilung wird aus der Summe ein Integral:
\(E (X) = \mu = \displaystyle \int_{-\infty}^{+\infty}t\cdot f(t)\text d t\)
Für den Erwartungswert gelten die folgenden Regeln:
- E(X + Y) = E(X) + E(Y) (Linearität)
- E(X + a) = E(X) + a und E(a · X) = a · E(X), wenn a eine beliebige Konstante ist
- \(X = a \ \Rightarrow \ E(X) = a\) (konstante Zufallsvariable)
Wenn X und Y stochastisch unabhängig sind, gilt außerdem \(E(X \cdot Y) = E(X) \cdot E(Y)\)
Der Erwartungswert der quadratischen Abweichung einer Zufallsvariablen von ihrem Erwartungswert ist ihre Varianz: \(Var(X) = E \left( (X-E(X))^2 \right)\). Eine Zufallsvariable bzw. Wahrscheinlichkeitsverteilung mit dem Erwartungswert 0 und der Varianz 1 heißt normiert oder standardisiert. Die zu X gehörige standardisierte Zufallsvariable ist
\(\displaystyle Y = \frac{X-E(X)}{\sqrt{Var(X)}}\)
Die wichtigste normierte Verteilung ist die Standardnormalverteilung.