ZU DEN KURSEN!

SPSS Statistik-Software - Kreuztabellen

Kursangebot | SPSS Statistik-Software | Kreuztabellen

SPSS Statistik-Software

Kreuztabellen

Zu den wichtigen Funktionen von SPSS zählen die Kreuztabellen. Will man eine Analyse durchführen, gibt man sich in der Regel nicht mit Mittelwerten, Standardabweichungen etc. zufrieden. mEISTENS will man analysieren, ob z.B. Männer oder Frauen mehr Unfälle bauen oder Ob das vielleicht davon abhängig ist, ob man sich auf einem Parkplatz oder der Autobahn befindet.

Kreuztabellen sind ein mächtiges Werkzeug von SPSS, da Kreuztabellen eine Analyse ermöglichen, die die verschiedenen Merkmalsausprägungen berücksichtigen.

Bei den Kreuztabellen (auch Kontingenztafeln genannt) wird in SPSS eine Spalte und mindestens eine Zeile gewählt. Diese werden dann gegeneinander abgetragen.

Kreuztabellen
Kreuztabellen

Wenn man ausgesucht hat, welche Variablen betrachtet werden sollen, steht die Wahl der Statistiken an.

Einstellungen
Einstellungen

Chi-Quadrat-Test

Der Chi-Quadrat-Test testet den Zusammenhang der Variablen, die sich in der Kreuztabelle „gegenüberstehen“.

Neben der ausGegebenen Kreuztabelle gibt SPSS auch den Chi-Quadrat-Test aus.

Chi-Quadrat-Tests

 

Wert

df

Asymp. Sig. (zweiseitig)

Pearson-Chi-Quadrat

20,326a

16

,206

Likelihood-Quotient

28,026

16

,031

Zusammenhang linear-mit-linear

11,147

1

,001

Anzahl der gültigen Fälle

25

 

 

a. 34 Zellen (100,0%) haben die erwartete Anzahl von weniger als 5. Die erwartete Mindestanzahl ist ,48.

1. "Pearson-Chi-Quadrat" berechnet sich nach der Formel
$$\chi^2=\Sigma \frac{(f_0-f_e)^2}{f_e}$$

Hierbei handelt es sich um den Standardtest, der hierbei meistens durchgeführt wird.

2. Der "Likelihood-Quotient" ist eine mögliche Alternative zum normalen "Chi-Quadrat-Test“
$$\chi^2=-2 * \Sigma f_0 *ln  \frac{f_0}{f_e}$$

Bei großen Stichproben nähern sich der Pearson-Chi-Quadrat und der Likelihood-Quotient dem Chi-Quadrat an.

3. Der "Zusammenhang linear-mit-linear" gibt das Mantel-Haenszel Chi Quadrat an. Es wird aus dem Quadrat der Pearsonschen Korrelationskoeffizienten multipliziert mit der Anzahl aller Fälle minus 1 errechnet:
$$\chi^2=r^2 * (n-1)$$

Korrelationen

Der Chi-Quadrat-Test gibt an, ob ein Zusammenhang zwischen Variablen vorliegt. Er gibt aber nicht an, wie stark dieser Zusammenhang ist. Zu diesem Zwecke berechnet man Korrelationsmaße.

Wählt man den Reiter „Korrelationen“ aus, errechnet SPSS folgende Tabelle:

Symmetrische Maße

 

Wert

Asymp. Standardfehlera

Näherungsweise Ab

Näherungsweise Sig.

Intervall bezüglich Intervall

Pearson-R

-,682

,079

-4,466

,000c

Ordinal bezüglich Ordinal

Spearman-Korrelation

-,718

,090

-4,944

,000c

Anzahl der gültigen Fälle

25

 

 

 

a. Die Nullhypothese wird nicht vorausgesetzt.

b. Unter Annahme der Nullhyphothese wird der asymptotische Standardfehler verwendet.

c. Basierend auf normaler Approximation.

Abhängig davon, ob eine Intervallskala oder Ordinalskala vorliegt, verwenden wir entweder die Korrelation nach Pearson oder nach Spearman. Wenn Sie jetzt aufgepasst haben, merken Sie, dass „Sex“ nominal skaliert ist. Daher müssen wir uns das Ergebnis etwas genauer anschauen. Für 1 hatten wir „männlich“ und für 2 hatten wir „weiblich“ definiert. Also können wir hier eine negative Korrelation vom Übergang von „weiblich“ zu „männlich“ ablesen. Anders formuliert bedeutet das ganz einfach, dass die Männer größer sind. Außerdem liegt hier ein höchst signifikantes Ergebnis (p

Man kann aber durch diese Ergebnisse nicht sagen, dass die Frauen x5 kleiner sind. Vielmehr gibt die Korrelation die stärke des Zusammenhangs an.

Folgende Übersicht soll einmal zeigen, was verschiedene Zusammenhänge bedeuten:

Größe des Koeffizienten

 

0

r

0,2

Sehr schwache Korrelation

0,2

r

0,5

Schwache Korrelation

0,5

r

0,7

Mittlere Korrelation

0,7

r

0,9

Starke Korrelation

0,9

r

1

Sehr starke Korrelation

Zusammenhangsmaße für nominalskalierte Variablen

Die restlichen Auswertungsmöglichkeiten können wir aufgrund des Rahmens dieses Kurses nicht so tiefgehend behandeln. Wir wollen Ihnen aber die Formeln, oder Definitionen an die Hand geben, mit denen Sie den Inhalt leicht verstehen.

  • Kontingenzkoeffizient

 $$c=\sqrt{\frac{\chi^2}{\chi^2 +N}}$$

(N= Gesamthäufigkeit der Kreuztabelle)

  •  Phi (nur bei 2x2 Tabellen anwendbar!)

$$\varphi=\sqrt{\frac{\chi^2}{N}}$$

  •  Cramers V (eine Abwandlung von Phi für beliebige Kreuztabellen)

  $$V=\sqrt{\frac{\chi^2}{N*(k-1)}}$$ 
k ist hierbei der kleinere Wert von Zeilen oder Spalten

  •  Lambda stellt den relativen Wert der Fehlerreduktion dar:

 $$Lambda=\frac{Fehler Prog.1- Fehler Prog. 2}{Fehler Prog.1}$$

  • Der Unsicherheitskoeffizient ist eine Abwandlung von Lambda, bei dem nicht von Fehlern, sondern von Unsicherheiten gesprochen wird.

Zusammenhangsmaße für ordinalskalierte Variablen

  • Wichtig für alle diese Maße sind die Anzahl der Fehlordnungen (Inversionen I) und der richtigen Ordnungen (Proversionen P)
  • Gamma berechnet sich nach der Formel

 $$G=\frac {P-I}{P+I}$$

  •  Somers d:

 $$d=\frac {P-I}{P+I+T_y}$$
T ist hier ein Korrekturterm

Auf die Darstellung der restlichen Möglichkeiten werden wir verzichten, da diese für den größten Teil der Kursteilnehmer irrelevant sein werden.

… Lek 8 …