ANOVA (einfaktorielle Varianzanalyse) in SPSS durchführen

von | Zuletzt bearbeitet am: Dec 15, 2023 | ANOVA, Mittelwertvergleich, SPSS

1 Ziel der einfaktoriellen Varianzanalyse (ANOVA)

Die einfaktorielle Varianzanalyse (kurz: ANOVA) testet unabhängige Stichproben darauf, ob bei mehr als zwei unabhängigen Stichproben die Mittelwerte einer abhängigen Variable unterschiedlich sind. Die Varianzanalyse in SPSS kann man mittels weniger Klicks durchführen. In Excel und R kann man sie auch durchführen. Sollte eine der folgenden Voraussetzungen nicht erfüllt sein, ist ein Kruskal-Wallis-Test zu rechnen.

Habt ihr einen zweiten Faktor, ist die zweifaktorielle ANOVA zu rechnen. Solltet ihr lediglich eine Kontrollvariable haben, ist eine ANCOVA hingegen die richtige Methode. Sind euer Gruppen/Stichproben abhängig, rechnet ihr den Friedman-Test in SPSS.

 

2 Voraussetzungen der einfaktoriellen Varianzanalyse (ANOVA)

Die wichtigsten Voraussetzungen sind:

 

ANOVA (einfaktorielle Varianzanalyse) in SPSS durchführen - Daten analyisieren in SPS (10)

Fragen können unter dem verlinkten Video gerne auf YouTube gestellt werden.

 

3 Durchführung der einfaktoriellen Varianzanalyse in SPSS (ANOVA)

1) Über das Menü in SPSS: Analysieren -> Mittelwerte vergleichen -> Einfaktorielle Varianzanalyse

ODER

2)Analysieren > Allgemeines lineares Modell > Univariat (*empfohlen)

Als Faktor ist das beiden Gruppen trennende Merkmal/Variable auszuwählen und die Gruppen anhand der Merkmalsausprägungen zu definieren.

ANOVA SPSS

 


 

Unter Optionen Deskriptive Statistiken, Homogenitätstests und Schätzungen der Effektgröße auswählen.

ANVOVA SPSS Optionen

 

 


 

Bei Diagramme den Faktor als Horizontale Achse definieren und auf hinzufügen klicken.

Randmittel ANOVA SPSS

 


 

Unter Post hoc den Faktor als “Post-hoc Tests für auswählen” und “Bonferroni” anhaken – dient dem mehrfachen paarweisen Vergleich zwischen den Gruppen. Obwohl Bonferroni aufgrund seiner starken Konservativität nicht unumstritten ist (vgl. Cabin, Mitchell (2000)), ist es zumeist besser konservativer zu testen, um eine Alphafehlerkumulierung zu verhindern.

ANVOA Post-Hoc SPSS

 

4 Interpretation der einfaktoriellen Varianzanalyse in SPSS (ANOVA)

1. Einen ersten Eindruck bzgl. Unterschiede kann man in der Tabelle “Deskriptive Statistiken” und in der Grafik “Geschätzte Randmittel” bekommen. Im Beispiel ist erkennbar, dass sich die drei Gruppen hinsichtlich des Ruhepulses durchaus unterscheiden. Je trainierter, desto niedriger ist der mittlere Ruhepuls. Die Frage, ob dies signifikant ist und welche Gruppen sich unterscheiden, wird nachfolgend beantwortet.

ANOVA Deskriptive Statistik SPSS Geschätzte Randmittel ANOVA SPSS

 


 

2. Die Voraussetzung der Varianzhomogenität wird mit dem Levene-Test direkt mit den Ergebnissen der einfaktoriellen Varianzanalyse (ANOVA) ausgegeben – die Interpretation dessen erfolgt nur der Vollständigkeit wegen. Einschränkungen des Levene-Tests, siehe Kasten unten.
Die Nullhypothese lautet hierbei, dass die Varianzen homogen sind. Die Signifikanz sollte demzufolge über 0,05 liegen, damit sie nicht verworfen werden kann und den Stichproben homogene Varianzen bescheinigt werden. Im Beispiel ist die Signifikanz auf Basis aller Lagemaße deutlich über 0,05 und damit liegt Varianzhomogenität vor.
Bzgl. der Lagemaße, wird aufgrund höherer Robustheit “Basiert auf dem Median” empfohlen (George, Mallery (2019), S. 166). Hier ist der Levene-Test mit p = 0,991 deutlich nicht signifikant.

Levene Test ANOVA SPSS

 

ACHTUNG: Der Levene-Test ist, wie oben angedeutet, zur Beurteilung von Varianzhomogenität NICHT ZU EMPFEHLEN.
Hierzu Field, A. (2018), S. 259:
Statisticians used to recommend testing for homogeneity of variance using Levene’s test and, if the assumption was violated, using an adjustment to correct for it. People have stopped using this approach for two reasons.

First, violating this assumption matters only if you have unequal group sizes; if group sizes are equal this assumption is pretty much irrelevant and can be ignored.
Second, tests of homogeneity of variance work best when you have equal group sizes and large samples (when it doesn’t matter if you have violated the assumption) and are less effective with unequal group sizes and smaller samples – which is exactly when the assumption matters.

Plus, there are adjustments to correct for violations of this assumption that can be applied (as we shall see): typically, a correction is applied to offset whatever degree of heterogeneity is in the data (no heterogeneity = no correction). The take-home point is that you might as well always apply the correction and forget about the assumption. If you’re really interested in this issue, I like the article by Zimmerman (2004).

Man kann also ruhigen Gewissens auf Homogenität (und analytische Tests hierauf) verzichten, wenn die Gruppengrößen in etwa gleich sind. Sind sie ungleich, die Varianzen der Testvariable per Gruppe via Augentest in etwa gleich, ist dies i.d.R. ausreichend.
Im Zwefel kann eine >Welch-ANOVA gerechnet werden, die für etwaige Verletzungen von Homogenität korrigiert und im Kern analog interpetiert wird.


 

3. Die Tabelle “Tests der Zwischensubjekteffekte” zeigt, ob statistisch signifikante Unterschiede hinsichtlich der Gruppen existieren. Das erkennt man in der Zeile, in der der vorher definierte Faktor (die Trennungsvariable, hier: Training) steht.  Ist die Signifikanz kleiner als 0,05, geht man von statistisch signifikanten Unterschieden hinsichtlich der Mittelwerte zwischen den Gruppen aus.
Die Frage zwischen welchen Gruppen signifikante Unterschiede bestehen, beantworten die Post-hoc-Tests (weiter unten).

Zwischensubjekteffekte ANOVA SPSS

 


 

4. ACHTUNG: Ein 1-seitiges testen ist nicht möglich, da bei mehr als zwei Gruppen nicht gesagt werden kann, welche Gruppe einen größeren oder kleineren Wert hat.

 


 

5. In der Tabelle “Mehrere Vergleiche” sieht man die paarweisen Vergleiche, die sog. post hoc-Tests. Hier wird in der ersten Spalte eine Gruppe und in der zweiten Spalte paarweise mit allen anderen Gruppen getestet. Auch hier ist das Hauptaugenmerk auf die Signifikanz zu richten. Wenn zwischen zwei Gruppen ein statistisch signifikanter Unterschied besteht, ist auch hier der Signifikanzwert kleiner als 0,05.
Im Beispiel ist das lediglich zwischen untrainiert und gut trainiert der Fall (p=0,001)

Mehrere Vergleiche ANOVA SPSS

 


 

6. Die Effektstärke der ANOVAwird von SPSS in der oberen Tabelle “Tests der Zwischensubjekteffekte” ausgegeben. Sie steht in der Spalte “Partielles Eta-Quadrat” in der Zeile des Faktors (hier: Training). Sie ist manuell umzurechnen und mit Cohen: Statistical Power Analysis for the Behavioral Sciences (1988), S. 284-287 zu beurteilen. Die Berechnung erfolgt über die Formel mit f als Wurzel aus Eta² geteilt durch 1-Eta². Im Beispiel ist sie 0,662.

    \[  f = \sqrt{\frac{\eta^2}{1-\eta^2}} \]

Ab 0,1 ist es laut Cohen(1988) ein schwacher Effekt, ab 0,25 ein mittlerer und ab 0,4 ein starker Effekt. Im Beispiel liegt 0,662 deutlich über der Grenze zum starken Effekt. Es ist demzufolge ein starker Effekt für die ANOVA.

ACHTUNG: Je nach Kontext ist es sinnvoller eine Effektstärke für den jeweils signifikanten paarweisen Vergleich zu ermitteln. Hierzu berechnet man für die signifikanten Vergleiche einfach einen t-Test bei unabhängigen Stichproben. Ab SPSS 27 wird die Effektstärke für jenen t-Test direkt ausgegben, vorher muss man es manuell berechnen, was der verlinkte Artikel aber ebenfalls zeigt.

 

5 Beispieldatensatz

ANOVA SPSS-Beispieldatensatz

 

6 Tipp zum Schluss

Findest du die Tabellen von SPSS hässlich? Dann schau dir mal an, wie man mit wenigen Klicks die Tabellen in SPSS im APA-Standard ausgeben lassen kann.

 

7 Literatur

  • Cabin, R. J., & Mitchell, R. J. (2000). To Bonferroni or not to Bonferroni: when and how are the questions. Bulletin of the ecological society of America, 81(3), 246-248.
  • Cohen, J. (1988). Statistical power analysis for the behavioral sciences. Hillsdale, N.J: L. Erlbaum Associates.
  • Field, A. (2018). Discovering Statistics using IBM SPSS Statistics, SAGE.
  • George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 Step by Step: A Simple Guide and Reference. Routledge.

 

Hat dir der Beitrag geholfen?

Dann würde ich mich über eine kleine Spende freuen, die es mir erlaubt, weiterhin kostenfreie Inhalte zu veröffentlichen.
Alternativ kannst du über meinen Amazon Affiliate-Link einkaufen – ohne Zusatzkosten.

Vielen Dank und viel Erfolg!

Über mich

Björn Walther

Ein 💚 für Statistik & Datenanalyse

Excel Online-Kurs

YouTube-Kanal

Inhalt