Website-Icon Björn Walther

T-Test bei abhängigen Stichproben in SPSS durchführen

Ziel des t-Test bei abhängigen Stichproben in SPSS (gepaarter t-Test)

Der t-Test für abhängige Stichproben (auch: gepaarter t-Test oder verbundener t-Test) prüft, ob bei zwei abhängigen bzw. verbundenen Stichproben die Mittelwerte unterschiedlich sind. Abhängig, verbunden bzw. gepaart bedeutet, dass dieselben Untersuchungsobjekte zu zwei Zeitpunkten befragt/vermessen wurden.
Bei unabhängigen Stichproben ist der t-Test für unabhängige Stichproben zu rechnen. Wie der Test in Excel zu rechnen ist, zeigt dieser Artikel. Für R empfehle ich diesen Artikel.

Voraussetzungen des t-Test bei abhängigen Stichproben in SPSS

Die wichtigsten Voraussetzungen sind:

 

Durchführung des t-Test bei abhängigen Stichproben in SPSS

Über das Menü in SPSS: Analysieren -> Mittelwerte vergleichen -> T-Test bei verbundenen Stichproben

Als Variablen sind Messwerte zum Zeitpunkt 1 als Variable 1 und Messwerte zum Zeitpunkt 2 als Variable 2 auszuwählen.

 

Optional: Unter Optionen 95% Konfidenzintervall und „Fallausschluss Test für Test“.

 

Interpretation des t-Test bei abhängigen Stichproben in SPSS

 

1. Ein erster Blick lohnt sich immer auf die Mittelwerte (18,7647 und 27,6471) in der Tabelle „Statistik bei gepaarten Stichproben“. Dadurch gewinnt man einen ersten Eindruck. Im Beispiel hat sich der Mittelwert recht deutlich erhöht, was ein erster wichtiger Hinweis ist.

2. Die Mittelwertdifferenz (-8,8235) ist in der Tabelle „Test bei gepaarten Stichproben“ angegeben und berechnet sich stets aus der Differenz von Mittelwert zum Zeitpunkt 1 und Mittelwert zum Zeitpunkt 2. Hier wären das 18,7647-27,6471 = -8,8235.

3. Schließlich muss noch die Frage beantwortet werden, ob diese Mittelwertdifferenz, also Veränderung über die Zeit signifikant ist. Dazu wird ebenfalls in der Tabelle „Test bei gepaarten Stichproben“ geschaut. Hierzu prüft man Sig. (2-seitig). Ist sie kleiner als Alpha=0,05 (bzw. euer vorher definiertes Alpha), geht man von statistisch signifikanten Unterschieden hinsichtlich der Mittelwerte zwischen den Zeitpunkten aus.
Der Unterschied wäre außerdem signifikant, wenn das 95%-Konfidenzintervall (hier nicht dargestellt) den Wert „0“ nicht beinhaltet, also beide Intervallgrenzen positiv oder negativ sind

ACHTUNG: Hat man bereits eine Vermutung, dass z.B. eine Stichprobe einen höheren/niedrigeren Wert hat, ist dies eine gerichtete Hypothese und man muss 1-seitig testen. Dazu halbiert man den bei Sig. (2-seitig) erhaltenen Wert und prüft jenen auf Signifikanz.
Ist die Veränderung zwar signifikant, allerdings entgegen der Hypothese, kann die Hypothese entsprechend NICHT bekräftigt werden.

4. Schließlich muss nach einem signifikanten Unterschied noch die Effektstärke ermittelt werden. Die Effektstärke beschreibt, wie stark sich die Testvariable zwischen beiden Zeitpunkten unterscheidet und dient als standardisierte Größe zur Einordnung von Unterschieden. Die Effektstärke (Cohen’s d und Hedges‘ g) wird von SPSS ab Version 27 ausgegeben:

Im Normalfall wird Cohen’s d berichtet. Sollte N 

 

Hier ist ablesbar: d=-1,636. Da Effektstärken immer positiv berichtet und interpretiert werden, ist d=1,636.

In früheren Versionen von SPSS muss die Berechnung manuell erfolgen. Dazu dient die folgende Formel mit t und der Wurzel der Stichprobengröße N. Das Ergebnis ist identisch zur SPSS-Ausgabe.

   

Die erhaltenen Werte beurteilt man mit Cohen (1988), S. 25-26 bzw. Cohen (1992). Mit dem obigen Cohen’s d von 1,636 ist erkennbar, dass es ein starker Effekt ist, da es über der Grenze zum starken Effekt von d=0,8 liegt.

 

Reporting des gepaarten t-Tests

Verglichen mit vor dem Training (M = 18,76; SD = 9,11) schaffen Probanden nach dem Training (M = 27,65; SD = 13,28) eine signifikant höhere Anzahl Wiederholungen, t(16) = 6,74; p

 

Tipp zum Schluss

Findest du die Tabellen von SPSS hässlich? Dann schau dir mal an, wie man mit wenigen Klicks die Tabellen in SPSS im APA-Standard ausgeben lassen kann.

 

Videotutorials

https://www.youtube.com/watch?v=M_6xwqyqhWg/

 

https://www.youtube.com/watch?v=cn1DCh37wwQ/

 

https://www.youtube.com/watch?v=zYDj9MoIJuw/

 

Literatur

  • Cohen, J. (1988). Statistical power analysis for the behavioral sciences. Hillsdale, N.J: L. Erlbaum Associates
  • Cohen, J. (1992). A power primer. Psychological bulletin, 112(1), 155.
  • Rosenstein, L. D. (2019). Research design and analysis: A primer for the non-statistician.

 

Die mobile Version verlassen