Direkt zum Inhalt

Die lineare Regression ist eine statistische Methode, um die Daten aus einer Stichprobe oder einem Experiment durch eine angenommene lineare Funktion zu beschreiben. Den Graphen dieser Funktion nennt man auch Ausgleichsgerade. Es gibt einfache grafische Verfahren, um eine gute Näherung einer solchen Gerade  zu bekommen. Rechnerisch lassen sich dagegen exakte Werte von Steigung m und Achsenabschnitt b derjenigen Geraden y = mx + b ermitteln, die am besten zu den Daten passt. „Passen“ bedeutet dabei, dass die über alle Datenpunkte summierte Abweichung minimal werden soll.

In der Schule zugelassene Taschenrechner sowie alle gängigen Tabellenkalkulationsprogamme beistzen Funktionen, mit denen sich zu einem eingegebenen Datensatz die entsprechenden Parameter ermitteln lassen. Dazu zählt auch der sogenannte Korrelationskoeffizient r, der ein Maß dafür abgibt, wie gut die berechnete beste Ausgleichsgerade die experimentellen Werte beschreibt.

Formeln zur Berechnung der Parameter

Eine Messung ergibt für zwei Zufallsgrößen X und Y die n Wertepaare (xi; yi), z. B. für Strom und Spannung in einem Stromkabel oder für Fahrzeit und zurückgelegte Strecke. Die arithmetischen Mittelwerte seien \(\bar{x}\) und \(\bar{y}\) . Die angenommene lineare Funktion hat die Gleichung Y = mX + b. Dann gilt:

\(\displaystyle m = \frac{ \sum_{i=1}^n ( x_i - \bar{x} )( y_i - \bar{y} ) }{ \sum_{i=1}^n ( x_i - \bar{x} )^2 }\)

\(b = \bar{y} - m\bar{x}\)

 


Schlagworte

  • #beurteilende Statistik
  • #Regressionsrechnung