Inhaltsverzeichnis
1 Ziel der einfaktoriellen Varianzanalyse (ANOVA) mit Messwiederholung
Die einfaktorielle Varianzanalyse (kurz: ANOVA) mit Messwiederholung testet abhängige Stichproben darauf, ob bei mehr als zwei Zeitpunkten die Mittelwerte einer abhängigen Variable unterschiedlich sind. Die Varianzanalyse in SPSS kann man mittels weniger Klicks durchführen.
Habt ihr nur zwei Messwiederholungen, verwendet ihr den t-Test bei abhängigen Stichproben in SPSS. Habt ihr keine Messwiederholungen und wollte dennoch eine einfache ANOVA in SPSS rechnen, braucht ihr mindestens drei Gruppen.
2 Voraussetzungen der einfaktoriellen Varianzanalyse (ANOVA) mit Messwiederholung
Die wichtigsten Voraussetzungen sind:
- mehr als zwei Messungen einer abhängigen Variable, sog. Messwiederholungen
- metrisch skalierte y-Variable
- normalverteilte Fehlerterme zu den jeweiligen Zeitpunkten
- Sphärizität, also Homoskedastizität (nahezu gleiche) Varianzen der y-Variablen der Gruppen (Levene-Test über die Ausgabe beim Durchführen der ANOVA)
- Optional: fehlende Werte definiere, fehlende Werte identifizieren und fehlende Werte ersetzen
3 Durchführung der einfaktoriellen Varianzanalyse mit Messwiederholung in SPSS (ANOVA)
Über das Menü in SPSS: Analysieren -> Allgemeines lineares Modell -> Messwiederholung
Als erstes sind die Messwiederholungen zu definieren, also der Innersubjektfaktor und die Anzahl der Stufen. Im Beispiel messe ich zu 3 Zeitpunkten den Ruhepuls, dazwischen befinden sich 5 und 10 Trainingswochen im Vergleich zur Ausgangsmessung. Der Innersubjektfaktor bekommt bei mir daher den Namen Trainingswochen und da ich 3 Messzeitpunkte habe, definiere ich 3 Stufen.
Im Anschluss lege ich die Innersubjektvariablen fest, also die Variablen, die die Messungen beinhalten. In meinem Fall sind das die Variablen t0, t5 und t10.
Im Anschluss daran arbeiten wir uns rechts durch die Schaltflächen. Zunächst interessiert uns “Diagramme”. Hier wählen wir den (Innersubjekt)Faktor aus und schieben ihn auf die “Horizontale Achse”, klicken hinzufügen und dann auf weiter.
Als nächstes ist im Menü “Geschätzte Randmittel” auszuwählen. Hier definieren wir den post-Hoc-Test. Wir versuchen damit, wie bei Mehrfachvergleichen auf derselben Stichprobe üblich, den Alphafehler kumulieren zu lassen. Wir wählen also Haupteffekte vergleichen und wählen dann Bonferroni aus und wählen weiter.
Schließlich gehen wir noch in “Optionen” und wählen “Deskriptive Statistiken” sowie “Schätzungen der Effektgröße” aus.
Wenn auch das geschafft ist, kann die ANOVA mit Messwiederholung von SPSS gerechnet werden und wir schauen uns die Ergebnisse an und interpretieren sie im nächsten Schritt.
4 Interpretation der einfaktoriellen Varianzanalyse mit Messwiederholung in SPSS (ANOVA)
4.1 Deskriptive Statistiken
Zunächst ist der Blick ganz kurz auf die deskriptiven Statistiken zu richten. Hier sehen wir die Mittelwerte der zu testenden Variable zu jedem Zeitpunkt. Habt ihr hier kaum Unterschiede in den Mittelwerten gibt es wohl auch keinen signifikanten (also systematischen) Unterschied. Im Beispiel sinkt der Ruhepuls kontinuierlich von 68,08 auf 62,19 (nach 5 Wochen Training) und schließlich 52,62 (nach 10 Wochen Training). Hier könnte es also durchaus einen systematischen Unterschied geben – was für die positive Wirkung des Trainings sprechen würde.
Ganz am Ende des SPSS-Outputs findet sich auch ein Profildiagramm mit den Gschätzten Randmitteln, also den in der Tabelle dargestellten Mittelwerten. Dieses Diagramm zeigt den Abwärtstrend auch recht gut.
4.2 Mauchly-Test auf Sphärizität
Als nächstes ist es notwendig die Sphärizität zu prüfen. Der Mauchly-Test wird hierfür verwendet:
Hier geht es uns eigentlich nur darum zu schauen, ob in der Spalte “Sig.” ein Wert unter 0,05 steht. Ist dies der Fall, wird die Nullhypothese von Sphärizität verworfen. Liegt keine Sphärizität vor, müssen wir bei der kommenden Auswertung eine Korrektur vornehmen. Ein Hinweis sei aber für den Mauchly-Test gemacht. Bei kleinen Stichproben wird eine Verletzung von Sphärizität häufig nicht erkannt. Bei großen Stichproben sind nur sehr kleine Abweichungen notwendig, um Sphärizität zu verletzen. Hier ist also Vorsicht geboten.
4.3 Test der Innersubjekteffekte
Der Test der Innersubjekteffekte sagt uns, ob wir einen signifikanten Unterschied der abhängigen Variable im Zeitablauf feststellen konnten. Hier schauen wir in der Spalte “Sig.” nach. Im Beispiel liegt keine Sphärizität vor, weswegen für den Innersubjekteffekt Trainingswochen in der Zeile “Sphärizität angenommen” geschaut werden kann. Die Signifikanz ist mit 0,000 unter der 0,05-Grenze. Liegt keine Sphärizität vor, werden die Freiheitsgrade (df) korrigiert und man kann die Zeilen Greenhouse-Geisser oder Huynh-Feldt interpretieren und dort auf die Signifikanz schauen. Wird die Nullhypothese (Gleichheit der Mittelwete) also aufgrund einer Signifikanz unter 0,05 verworfen werden, gibt es systematische Unterschiede in den Zeitpunkten bezüglich des Ruhepulses. Allerdings ist unklar, zwischen welchen Zeitpunkten sich ein signifikanter Unterschied zeigt. Hierzu schauen wir in die Posthoc-Tests.
4.4 Post-hoc Tests
Bei den paarweisen Vergleichen sehen wir nun, ob die Unterschiede zwischen den Messzeitpunkten (Trainingswochen) signifikant, also systematisch sind. In diesem konstruierten Beispiel ist dies tatsächlich der Fall, da alle paarweisen Vergleiche eine Signifikanz von 0,000 aufweisen und damit unter der Grenze von 0,05 liegen. Man kann also schließen, dass das Training bereits nach 5 Wochen den Ruhepuls signifikant senken konnte (um die Mittlere Differenz von 5,892). Außerdem ist der Unterschied nach 10 Wochen auch noch signifikant, die mittlere Differenz ist 15,459. Zusätzlich ist aber auch der Unterschied zwischen 5 Wochen Training und 10 Wochen Training signifikant (mittlere Differenz 9,568). In euren Rechnungen gibt es nicht immer zwingend so viele signifikante Unterschiede. Schon ein einziger Unterschied zwischen 2 Zeitpunkten kann für die Beantwortung der Forschungsfrage ausreichend sein.
4.5 Ermittlung der Effektstärke
Die Effektstärke wird von SPSS nicht ausgegeben, also wie stark sich die Stichproben unterscheiden. Die ist manuell zu berechnen und mit Cohen: Statistical Power Analysis for the Behavioral Sciences (1988), S. 284-287 zu beurteilen. Die Berechnung erfolgt über die Formel mit f als Wurzel aus Eta² geteilt durch 1-Eta².
Ab 0,1 ist es demnach ein schwacher Effekt, ab 0,25 ein mittlerer und ab 0,4 ein starker Effekt. Im Beispiel ist das Eta² aus der Tabelle “Test der Innersubjekteffekte” in der Spalte “Partielles Eta-Quadrat” abzulesen. Es beträgt 0,559. Wird es in die Formel eingesetzt, ergibt sich ein sehr großer Wert von 1,126, was einem starken Effekt entspricht.
5 Videotutorial