Inhaltsverzeichnis
Auch bei dieser Methode der Zeitreihenanalyse, der Methode der Kleinsten Quadrate, orientieren wir uns an einem weiteren Beispiel.
Beispiel
Beispiel 62:
In der schönen Stadt Median-City wurden die folgenden Daten erhoben:
xi | yi |
4 | 6 |
8 | 10 |
10 | 12 |
6 | 9 |
7 | 5 |
Berechne eine lineare Regression mit Hilfe der Methode der Kleinsten Quadrate.
Als erstes erstellt man eine Punktwolke, indem man die Punkte (also den x- und den y-Wert) in ein Koordinatensystem einträgt. Bspw. ist der 5. Punkt der Wolke
Dabei beschreibt
Folgende Fragen stellen sich:
- Kann man einen linearen Trend durch die Punkte (die sog. Punktwolke) legen, die gewissen Optimalitätseigenschaften genügt?
- Lässt sich damit prognostizieren, was der y-Wert ist, wenn z.B. x = 12oder 13 etc. ist?
Punktwolke, Regressionsgerade und Residuenquadrate
Die gestellten Fragen könne mit Hilfe der Methode der Kleinsten Quadrate (= KQ-Methode = OLS-Methode (Ordinary-Least-Squares-Methode)) beantwortet werden. Die Regressionsgerade (= Ausgleichsgerade) wird so durch die Punktwolke gelegt, dass sich die minimale Summe der Residuen
Dabei ergeben sich die geschätzten Werte
Im Gegensatz dazu beschreibt
Die Differenz zwischen dem realen Wert
Errechnet werden soll nun die lineare Schätzung
Man erhält die Steigung b der Geraden durch unterschiedlich aussehende Formeln:
Steigung a der Regressionsgeraden:
Auch den Ordinatenabschnitt b (y-Achsenabschnitt, bzw. Schnittpunkt mit der y-Achse) kann man auf verschiedene Wege berechnen.
Ordinatenabschnitt b der Regressionsgeraden:
Berechnung am Beispiel
Rechnen wir dies mit den Zahlen des Beispiels 62 aus:
i | | | | | | | |
1 | 4 | 6 | 16 | 24 | 9 | 5,76 | 7,2 |
2 | 8 | 10 | 64 | 80 | 1 | 2,56 | 1,6 |
3 | 10 | 12 | 100 | 120 | 9 | 12,96 | 10,8 |
4 | 6 | 9 | 36 | 54 | 1 | 0,36 | - 0,6 |
5 | 7 | 5 | 49 | 35 | 0 | 11,56 | 0 |
Σ | 35 | 42 | 265 | 313 | 20 | 33,2 | 19 |
Damit erhält man zunächst die Steigung a der Regressionsgeraden als
Den Ordinatenabschnitt b erhält man mit
Tragen wir diese Gerade in unser Diagramm ein:
Die Residuen können wir aus der Differenz der beobachteten Werten
Die geschätzten Werten
Daraus ergeben sich dann die Residuen:
Die Residuenquadrate sind in der folgenden Tabelle eingetragen:
| | | | |
4 | 6 | 5,55 | 0,45 | 0,2025 |
8 | 10 | 9,35 | 0,65 | 0,4225 |
10 | 12 | 11,25 | 0,75 | 0,5625 |
6 | 9 | 7,45 | 1,55 | 2,4025 |
7 | 5 | 8,4 | - 3,4 | 11,56 |
Für die Summe der Residuenquadrate eribt sich somit
Stellt sich nun die Frage, wie gut die Anpassung der Punkte funktioniert durch eine lineare Regression, welches durch den Determinationskoeffizienten (= Bestimmtheitsmaß) D beantwortet werden kann:
6 | 5,55 | 5,76 | 8,1225 |
10 | 9,35 | 2,56 | 0,9025 |
12 | 11,25 | 12,96 | 8,1225 |
9 | 7,45 | 0,36 | 0,9025 |
5 | 8,40 | 11,56 | 0,0 |
33,20 | 18,05 |
Würde bedeuten, dass für unser Beispiel 62 der Determinationskoeffizienten
Es gilt:
- D ist der durch die Regression erklärte Anteil der Varianz, was sich aus der Definition ergibt.
ist die Varianz der Werte der Geraden , im Gegensatz dazu ist die Varianz der empirisch beobachteten Werte - Für D gilt
, liegt demnach immer zwischen 0 und 1. - D ist maßstabsunabhängig
, also der Determinationskoeffizient ist das Quadrat des Bravais-Pearsonschen Korrelationskoeffizienten.
Weitere interessante Inhalte zum Thema
-
Regressionsanalyse
Vielleicht ist für Sie auch das Thema Regressionsanalyse aus unserem Online-Kurs SPSS Software interessant.