1 Ziel des Friedman-Test in SPSS
Der Friedman-Test ist ein nicht parametrischer Mittelwertvergleich bei 3 oder mehr abhängigen Stichproben. Die Nullhypothese geht von Gleichheit der Gruppen- bzw. Zeitpunktmittelwerte aus. Der Friedman-Test verwendet Ränge statt die tatsächlichen Werte und ist das Gegenstück zur ANOVA mit Messwiederholung, allerdings hat er nicht solche strengen Voraussetzungen.
2 Voraussetzungen des Friedman-Tests in SPSS
- mindestens drei voneinander abhängige Stichproben/Gruppen
- ordinal oder metrisch skalierte y-Variable
- normalverteilte y-Variable innerhalb der Gruppen nicht nötig
3 Durchführung des Friedman-Tests in SPSS
Über das Menü in SPSS: Analysieren -> Nichtparametrische Test -> Verbundene Stichproben
Unter dem Reiter Variablen sind die Testvariablen zu definieren. Als Testvariablen sind die zu testenden, also die abhängigen Variablen einzusetzen. Typischerweise hat man zu jedem Zeitpunkt eine Messung für alle Individuen vorliegen. In meinem Falle heißen die Variablen wie die Zeitpunkte: T0, T1 und T2.
Als Test muss unter dem Reiter Einstellungen der Friedman-Test ausgewählt werden. Dazu wählt ihr “Tests anpassen” und bei “Veränderungen vergleichen” ist “Friedmans zweifaktorielle ANOVA nach Rang” auszuwählen. Bei Mehrfachvergleiche empfiehlt sich zudem “Alle paarweise” auszuwählen”.
Ein Klick auf “OK” führt die Berechnung durch und zeigt die Ergebnisse an.
4 Interpretation der Ergebnisse des Friedman-Tests in SPSS
Die Hypothesenübersicht gibt zunächst lediglich an, was mit der Nullhypothese (Gleichheit der mittleren Ränge) zu geschehen hat. Aufgrund dessen, dass die Signifikanz mit 0,000 unter dem typischen Alphawert von 0,05 liegt, ist diese abzulehnen, was SPSS auch anzeigt, wenn dies der Fall ist. Sollte dies nicht der Fall sein, gibt auch SPSS hierüber Auskunft. Mit einem Doppelklick auf die obige Hypothesenübersicht öffnet sich ein weiteres Fenster, das kurz deskriptive Statistiken wie die Beobachtungsanzahl (“Gesamtzahl”) und je Zeitpunkt die mittleren Ränge und Häufigkeiten zeigt. Zusätzlich gibt es die Teststatistik und erneut die Signifikanz.
Allerdings erkennt man hieraus nicht, ob zwischen den Zeitpunkt T0 und T1, T1 und T2 oder T0 und T2 ein statistisch signifikanter Unterschied besteht. Dies erkennt man erst, wenn man mit einem öffnet:
Dazu wählt man in der Fußleiste unter Ansicht “Paarweise Vergleiche” auswählen.
Die dann angezeigte Tabelle zeigt für alle paarweisen Vergleiche (hier die eben genannten drei) die Angepassten Signifikanzen, die zur Beurteilung herangezogen werden. Im Fall des Beispiels sind die Unterschiede zwischen T0 und T2 sowie T1 und T2 statistisch signifikant. Der Unterschied zwischen T0 und T1 ist nicht statistisch signifikant. Die Intervention nach T0 scheint also (noch) nicht gewirkt zu haben.
Die Signifikanz ist deswegen angepasst, weil hier für die Mehrfachtestung auf dieselbe Stichprobe kontrolliert wird. Das dient zur Vermeidung von Alphafehlerkumulierung (hohe Wahrscheinlichkeit, die Nullhypothese fälschlicherweise abzulehnen). Es wird die normale Signifikanz mit der Anzahl der Tests multipliziert. Bei T1-T2 sieht man dies ganz gut. Die normale Signifikanz ist 0,008. Es sind 3 paarweise Vergleiche. 0,008*3=0,024.
5 Ermittlung der Effektstärke des Friedman-Tests
Die Effektstärke r wird mit folgender Formel berechnet. Der z-Wert wird durch die Wurzel der Stichprobengröße geteilt. Aufgrund der Betragsstriche wird dieser Quotient immer positiv sein.

Im Beispielt ist also für T0-T2 der Wert -1,433 durch die Wurzel aus 15 zu teilen und der Betrag dessen zu nehmen. Das Ergebnis hieraus lautet: 0,37.
Laut Cohen: Statistical Power Analysis for the Behavioral Sciences (1988), S. 79-81 sind die Effektgrenzen:
- ab 0,1 ist es ein schwacher Effekt
- ab 0,3 ist es ein mittlerer Effekt
- und ab 0,5 ist es ein starker Effekt.
6 Literatur:
- Friedman, M.: The Use of Ranks to Avoid the Assumption of Normality Implicit in the Analysis of Variance. In: Journal of the American Statistical Association. 32(200)/1937, S. 675–701
- Friedman, M.: A Correction: The Use of Ranks to Avoid the Assumption of Normality Implicit in the Analysis of Variance. 34(205)/1939, S. 109
- Cohen, J.: Statistical Power Analysis for the Behavioral Sciences (1988), S. 79-81
7 Videotutorial