Drei Axiome , d. h. grundlegende Annahmen bzw. Aussagen, aus denen man die gesamte Wahrscheinlichkeitsrechnung ableiten kann. Dabei soll die Menge \(\Omega = \big\{ \omega _1 , \omega _2 , ... \omega _n \big\}\) die Ergebnismenge eines Zufallsexperiments sein, E eine Teilmenge von \(\Omega\) ( \(E \subseteq \Omega\) ) und P eine Funktion , die jedem E eine reelle Zahl zwischen 0 und 1 zuordnet. Wenn die drei folgenden Aussagen gelten, dann ist P ( E ) eine Wahrscheinlichkeitsverteilung. Wenn zwei Zufallsexperimente dieselbe Ergebnismenge und dieselbe Wahrscheinlichkeitsverteilung haben, sind...
Eine Bernoulli-Kette ist ein Zufallsversuch , der aus n unanbhängigen Wiederholungen des gleichen Bernoulli-Experiments besteht. Dieses hat nur zwei verschiedene Ausgänge, der eine hat die Erfolgs - oder Trefferwahrscheinlichkeit p und der andere die Wahrscheinlichkeit 1 – p . Beispiele für Bernoulli-Experimente: Wenn man die Ergebnismenge eines einzelnen Bernoulli-Experiments abstrakt mit \(\Omega = \{0; 1\}\) angibt, besteht die Ergebnismenge der Bernoulli-Kette aus allen n -Tupeln , die nur die Zahlen 0 und 1 enthalten. (Man kann natürlich die beiden Bernoulli-Ergebnisse auch anders...
Die Binomialverteilung ist die wichtigste (diskrete) Wahrscheinlichkeitsverteilung . Sie gibt die Wahrscheinlichkeit dafür an, in einer Bernoulli-Kette eine bestimmte Anzahl von „Erfolgen“ zu erzielen. Wenn die beiden möglichen Ausgänge des Einzelexperiments die Wahrscheinlichkeit p („Erfolg“) und 1 – p („verloren“) haben, dann beträgt die Wahrscheinlichkeit, bei n Wiederholungen genau k -mal Erfolg zu haben, \(P(X=k) = B_{n; p}(k)= \begin{pmatrix}n\\k\end{pmatrix} \cdot p^k \cdot (1-p)^{n-k}\) dabei sind \(n \in \mathbb{N}\) , \(0 \le p \le 1 \) , \(k \in \{0; 1; \ldots n\}\) und X ist...
Bei einem Bernoulli-Experiment die Wahrscheinlichkeit p für das „erwünschte“ (oder aus anderen Gründen interessante) Ergebnis . Die Gegenwahrscheinlichkeit (für das andere Ergebnis „kein Erfolg“ bzw. „Niete“) hat keinen besonderen Namen.
Eine Wahrscheinlichkeitsverteilung , die angibt, mit welcher Wahrscheinlichkeit bei einer Bernoulli-Kette höchstens k -mal Erfolg gezogen wird. Wenn die Zufallsvariable X die Zahl der „Erfolge“ beschreibt, ist \(P(X \le k) = \displaystyle F_{n;p}(k) = \sum_{j=0}^k B_{n; p}(j)= \sum_{j=0}^k \begin{pmatrix}n\\j\end{pmatrix} \cdot p^j \cdot (1-p)^{n-j}\) dabei sind B n ; p ( k ) die Binomialverteilung , \(n \in \mathbb{N}\) , \(0 \le p \le 1 \) , \(k \in \{0; 1; \ldots n\}\) und X ist die Zufallsvariable, die beschreibt, wie oft bei n Versuchen „Erfolg“ herauskommt. Der Ausdruck \(\begin...
Eine kumulierte oder kumulative Wahrscheinlichkeitsverteilung (auch Summenvertielung ) gibt die Wahrscheinlichkeit von „ Höchstens - Ereignissen “ an: „Wie wahrscheinlich ist es, dass ich höchstens zwei Sechsen bekomme, wenn ich fünfmal würfele?“ In diesem Fall bekommt man die Antwort mit der kumulierten Binomialverteilung : \(P(X \le 2) = F_{5;\frac{1}{6}}(2) = \displaystyle \sum_{j=0}^2 B_{5; \frac{1}{6}}(j)= \sum_{j=0}^2 \begin{pmatrix}5\\j\end{pmatrix} \cdot \left( \frac{1}{6} \right)^j \cdot \left(\frac{5}{6}\right)^{5-j}\) B n ; p ( k ) ist dabei die (nichtkumulierte)...
Die Normalverteilung oder Gauß-Verteilung ist die wichtigste stetige Wahrscheinlichkeitsverteilung . Im Fall der Standardnormalverteilung (siehe unten) wird Ihre Dichte durch die sog. Gauß-Funktion \(\displaystyle \varphi(x) = \frac{1}{\sqrt{2\pi}}\cdot \text{e}^{-\frac 1 2 x^2};\ x \in \mathbb R\) beschrieben, den glockenförmigen Funktionsgraph nennt man Gauß-Kurve (nach dem berühmten Mathematiker Carl Friedrich Gauß , 1777–1855). Die Verteilungsfunktion ( kumulierte Verteilung , Summenverteilung ) ist das uneigentliche Integral \(\displaystyle \Phi(x) = \frac{1}{\sqrt{2\pi}}\cdot \int_{-...
Eine Gruppe von nach dem ukrainisch-russischen Mathematiker P. L. Tschebyschew (auch Tschebyschow), 1821–1894, benannten Ungleichungen, mit denen man abschätzen kann, wie wahrscheinlich es ist, dass der Wert einer Zufallsvariablen X mit dem Erwartungswert \(E(X) = \mu\) und der Varianz \(Var(X) = \sigma^2\) außerhalb bzw. innerhalb eines gegebenen Intervalls um den Erwartungswert liegt. Hat also X die Warscheinlichkeitsverteilung P mit \(E(X) = \mu\) und \(Var(X) = \sigma^2\) , dann gilt für jede positive reelle Zahl a : \(\displaystyle P(|X-\mu| > a) < \frac{\sigma^2}{a^2}\) \(...
Die Varianz ist ist eine Größe, mit der sich stochastische Verteilungen charakterisieren lassen. Man unterscheidet dabei zwei Fälle: Statistik: Die Varianz einer empirischen Stichprobe vom Umfang n , zur Verdeutlichung auch Stichprobenvarianz genannt, ist definiert als \(\displaystyle s^2 = \frac{1}{n - 1} \cdot \sum_{i=1}^n ( x_i - \overline{x} )^2\) dabei ist \(\bar x\) der empirische Mittelwert der Stichprobenwerte. Die Stichprobenvarianz ist ein häufig verwendetes empirisches Streuungsmaß . Achtung: Diese Definition mit „ n – 1“ im Nenner wird manchmal auch „ korrigierte...
Eine Wahrscheinlichkeitsverteilung (oder kurz Verteilung ) ist eine Funktion , die für alle möglichen Ergebnisse bzw. Ereignisse bei einem Zufallsexperiment angibt, wie wahrscheinlich sie sind. Dabei muss man zunächst einmal unterscheiden, ob es nur einzelne diskrete Ergebnisse gibt („Kopf“ und „Zahl“ oder „Augenzahl 1 bis 6“) oder man es mit einer stetigen bzw. kontinuierlichen Zufallsvariablen („Größe von 1,50 m bis 1,80 m“) zu tun hat. Dementsprechend spricht man auch von diskreten und stetigen Verteilungen . Weiterhin unterscheidet man zwischen einer Verteilung, welche die...