Statistische Auswertungen - Eine Einführung für Anfänger

Aktualisiert: 12. Dez 2020

Viele Studenten müssen im Zuge ihrer Seminar-, Bachelor- oder Masterarbeit erstmalig eine statistischen Auswertung durchführen. Dieser Artikel soll Ihnen daher die wichtigsten statistischen Grundlagen vermitteln. Sie sollen dazu in die Lage versetzt werden, eigene einfache statistische Auswertungen zu verstehen und durchzuführen.


Sie benötigen Hilfe bei Ihrer statistischen Auswertung in SPSS, R, Python oder Excel, dann zögern Sie nicht uns zu kontaktieren (Kontaktdaten unten rechts). Unsere Experten helfen Ihnen gerne weiter (kostenloses unverbindliches Erstgespräch)!


Zunächst ist wichtig zu verstehen, dass die statistische Datenanalyse einer bestimmten Systematik folgt. In der Regel wird mit der deskriptiven Statistik (auch: beschreibende Statistik) begonnen und anschließend folgt die Inferenzstatistik (auch: schließende Statistik). Wir möchten im Folgenden diese beiden wichtigen Teilgebiete der Statistik kurz vorstellen und anschließend die besprochene statistische Theorie anhand eines Beispiels in SPSS veranschaulichen.


In der deskriptiven Statistik geht es darum, die Daten mit Hilfe von statistischen Kennzahlen und Grafiken zu beschreiben. Die wichtigsten statistischen Kennzahlen lassen sich in Lageparameter (z.B. Mittelwert, Median, etc.) und Streuungsparameter (Varianz und Standardabweichung) unterteilen.

  • Mittelwert: Durchschnitt aller Beobachtungen

  • Median: Mittlere Wert der nach Größe sortierten Beobachtungen (mittleres Quartil)

  • Modus: Beobachtung mit der größten Häufigkeit

  • Unteres / Oberes Quartil (Q1/Q3): Wert, für den gilt, dass 25 % / 75 % aller Beobachtungen kleiner sind als dieser Wert

  • Varianz: Mittlere quadratische Abweichung vom Mittelwert

  • Standardabweichung: Quadratwurzel der Varianz (im Vgl. zur Varianz hat die Standardabweichung die gleiche Einheit wie die Zufallsvariable)

Weitere häufig angegebene deskriptive Statistiken sind Schiefe und Kurtosis (Wölbung). Erstere quantifiziert Art und Stärke der Asymmetrie der Wahrscheinlichkeitsverteilung der Variable, während Letztere angibt, wie spitz oder flach die Verteilung unserer Variable ist. Gerne verwendete Grafiken im Bereich der deskriptiven Statistik sind absolute und relative Häufigkeitsdiagramme, Histogramme und Boxplots.


Welche statistischen Kennzahlen und Grafiken verwendet werden, hängt in erster Linie vom Skalenniveau der betrachteten Variablen ab. Insbesondere die folgenden Skalen werden unterschieden:

  • Nominalskala: Ausprägungen der Variablen können zwar unterschieden werden, weisen jedoch keine natürliche Rangfolge auf (z.B. Geschlecht, Wohnort, etc.).

  • Ordinalskala: Ausprägungen der Variablen weisen zwar eine natürliche Rangfolge, jedoch können die Unterschiede zwischen Ausprägungen nicht quantifiziert werden (z.B. Schulnoten, Likert-Items, etc.).

  • Intervallskala: Ausprägungen der Variablen können geordnet werden und die Abstände zwischen den Ausprägungen sind auch quantifizierbar.

Im Falle einer intervallskalierten Variable erfolgt die grafische Visualisierung häufig über ein Histogramm oder einen Boxplot. Darüber hinaus werden i. d. R. alle der oben genannten statistischen Kennzahlen mit Ausnahme des Modus für die Variable berechnet. Für ordinalskalierte Variablen werden dagegen nur Modus und Median berechnet. In vielen statistischen Analysen werden zudem Mittelwert und Varianz ermittelt. Diese sind allerdings bei ordinalskalierten Merkmalen mit Vorsicht zu betrachten. Bei nominalskalierten Daten macht dagegen nur die Erstellung eines Häufigkeitsdiagramms sowie die Berechnung des Modus Sinn.


Nachdem alle Variablen im Datensatz im Zuge der deskriptiven Statistik mit Hilfe von statistischen Kennzahlen und Grafiken ausführlich beschrieben worden sind, folgt der inferenzstatistische Part. Um eine Forschungsfrage zu untersuchen, wird in der Statistik ein Hypothesenpaar, bestehend aus Null- und Alternativhypothese, formuliert. In der Inferenzstatistik wird anhand des vorliegenden Datensatzes mit Hilfe eines sogenannten Hypothesentests eine Entscheidung über die Gültigkeit der Null- oder Alternativhypothese getroffen. Bei der Formulierung der Hypothesen ist zu beachten, dass die Nullhypothese nicht unterstützt, sondern nur abgelehnt oder nicht abgelehnt werden kann. Daher ist die Alternativthese stets die These, welche gestützt werden soll.


Es gibt unzählige statistische Tests. Bei der Auswahl ist daher stets zu berücksichtigen, ob der Test zur Analyse der Hypothese geeignet ist und ob die Testvorraussetzungen erfüllt sind. Formal handelt es sich bei einem Test um eine mathematische Funktion, die einem Beobachtungsergebnis eine Entscheidung zuordnet. Da die vorhandenen Daten allerdings Realisierungen von Zufallsvariablen sind, kann es auch zu Fehlentscheidungen kommen. Wird die wahre Nullhypothese abgelehnt, so spricht man vom Fehler 1. Art (auch: Alpha-Fehler). Ein Fehler 2. Art (auch: Beta-Fehler) liegt dagegen vor, wenn die unwahre Nullhypothese nicht verworfen wird. In der statistischen Praxis versucht man die Wahrscheinlichkeit für Fehlentscheidungen zu kontrollieren. Hierzu wird das sogenannte Signifikanzniveau festgelegt, welches eine obere Schranke für die Wahrscheinlichkeit des Fehlers 1. Art darstellt. Anschließend versucht man, einen optimalen Test zum vorgegebenen Signifikanzniveau zu erhalten, indem man unter allen Tests zum gewählten Signifikanzniveau denjenigen sucht, der die geringste Wahrscheinlichkeit für einen Fehler 2. Art besitzt.


Für die Testentscheidung wird bei jedem statistischen Test eine sogenannte Teststatistik berechnet. Aus deren Verteilung kann anschließend der P-Wert (auch: P-Value) bestimmt werden. Der P-Wert gibt das größtmögliche Signifikanzniveau an, bei dem die berechnete Teststatistik gerade noch nicht zu einer Ablehnung der Nullhypothese führt. Ist der P-Wert also kleiner als das gewählte Signifikanzniveau, so wird die Nullhypothese verworfen. Häufig wird ein Signifikanzniveau von 5 % gewählt.


Aber nun genug von der statistischen Theorie. Kommen wir zur Praxis. Hierzu betrachten wir einen sehr einfachen Datensatz, bestehend aus 200 Personen und den zwei Variablen Gruppe und Gewicht. Für die statistischen Auswertung verwenden wir die weit verbreitete Statistik-Software SPSS.


Wir starten mit der deskriptiven Statistik. Da die Variable Gruppe nominalskaliert ist , erstellen wir für diese ein relatives Häufigkeitsdiagramm. Hierzu gehen wir in der SPSS-Menüleiste auf Analysieren --> Deskriptive Statistiken --> Häufigkeiten und wählen im sich öffnenden Tab die Variable Gruppe aus. Für die Erstellung des relativen Häufigkeitsdiagramms müssen wir zudem im Submenü Diagramme das Balkendiagramm und die Prozentwerte aktivieren. Daraufhin wird uns das folgende relative Häufigkeitsdiagramm im SPSS-Outputfenster angezeigt:

Der SPSS-Output lässt erkennen, dass sich jeweils 100 Beobachtungen in Gruppe 1 und in Gruppe 2 befinden. Als nächstes berechnen wir die gängigsten deskriptiven Statistiken für die intervallskalierte Variable Gewicht. Außerdem betrachten wir das Histogramm der Variable. Hierzu gehen wir wieder auf Analysieren --> Deskriptive Statistiken --> Häufigkeiten und wählen dieses Mal die Variable Gewicht sowie im Tab Statistiken Mittelwert, Median, Minimum, Maximum, Standardabweichung, Schiefe und Kurtosis aus. Im Submenü Diagramme entscheiden wir uns für das Histogramm inkl. überlappender Normalverteilungskurve. Außerdem entfernen wir den Haken bei "Häufigkeitstabelle anzeigen". Nachdem wir auf OK gedrückt haben, bekommen wir den folgenden SPSS-Output zu sehen:

Eine Betrachtung der deskriptiven Statistiken zeigt, dass das durchschnittliche Gewicht rd. 82 kg beträgt. Die schwerste Person im Datensatz wiegt knapp 117 kg, während die leichteste Person ein Gewicht von ca. 36 kg. aufweist. Die Streuung der Variable (Standardabweichtung) liegt bei 15,2 kg. Ein Blick auf Schiefe und Kurtosis sowie deren Standardfehler verrät, dass sich beide Kennzahlen nicht statistisch signifikant von Null unterscheiden. Die Verteilung ist also symmetrisch wie die Normalverteilung und besitzt auch die gleiche Kurtosis. Dementsprechend überrascht es nicht, dass das Histogramm eine große Ähnlichkeit mit einer Normalverteilung mit dem Mittelwert und der Varianz der Variable Gewicht besitzt.


Nachdem wir die beiden Variablen Gruppe und Gewicht nun ausführlich beschrieben haben, kommen wir nun zu unserer Forschungsfrage. Wir möchten wissen, ob sich das durchschnittliche Gewicht der Personen in Gruppe 1 und Gruppe 2 unterscheidet. Hierzu erstellen wir zunächst einen auf die Gruppe bedingten Boxplot in SPSS, indem wir im Menüband auf Analysieren --> Deskriptive Statistiken --> Explorative Datenanalyse gehen. Unsere abhängige Variable ist das Gewicht und der Faktor ist die Variable Gruppe. Außerdem setzen wir im Submenü Diagramme einen Haken bei "Normalverteilungsdiagramm mit Tests" und deaktivieren "Stamm-Blatt". Nach der Bestätigung der Anweisungen bekommen wir unter anderem den folgenden Output im SPSS-Ausgabefenster zu sehen.

Der Boxplot zeigt, dass das sowohl das Median-Gewicht (schwarze Linie in der Box) als auch das untere und obere Quartil (Boxenden) in Gruppe 1 höher sind. Außerdem ist zu erkennen, dass in beiden Gruppen einige wenige Ausreißer vorliegen (Punkte außerhalb der Antennen). Ein Blick auf die deskriptiven Statistiken zeigt, dass auch das mittlere Gewicht von Gruppe 1 über dem von Gruppe 2 liegt. Die Standardabweichungen liegen dagegen relative nahe beieinander. Die ebenfalls angezeigten Ergebnisse der Tests auf Normalverteilung (Kolmogorov-Smirnov-Test und Shapiro-Wilk-Test) lehnen für beide Gruppen die Nullhypothese einer Normalverteilung nicht ab.


Auf Grundlage der bisher gewonnenen Erkenntnisse vermuten wir, dass ein Unterschied zwischen den Gruppen vorliegt. Dementsprechend lautet unser Hypothesenpaar wie folgt:


H0: Das Durchschnittgewicht von Gruppe 1 und Gruppe 2 unterscheidet sich nicht.

HA: Das Durchschnittgewicht von Gruppe 1 und Gruppe 2 unterscheidet sich.


Zur Überprüfung der Gültigkeit der Nullhypothese wird ein t-Test für unabhängige Stichproben (Gruppen) durchgeführt. Dieser Tests setzt eine intervallskalierte Zielvariable, die in beiden Gruppen normalverteilt ist, voraus. Wie wir bereits wissen, ist diese Annahme hier erfüllt. Noch zu überprüfen ist allerdings die Annahme der Varianzhomogenität. Diese fordert, dass die Zielvariable in beiden Gruppen eine annähernd gleiche Varianz besitzt. Um dies zu überprüfen, muss ein Levene-Test auf Varianzhomogenität gemacht werden. Dieser wird daher auch automatisch bei der Durchführung des t-Tests für unabhängige Stichproben mit ausgegeben.


Zur Durchführung des Tests gehen wir auf Analysieren --> Mittelwerte vergleichen --> t-Test bei unabhängigen Stichproben. Anschließend wählen wir Gewicht als Testvariable und Gruppe als Gruppierungsvariable. Für Letztere müssen wir zudem im Submenü "Gruppe definieren" die Werte 1 und 2 angeben, da diese die eigentlichen Variablenwerte sind. Nach der Bestätigung können Sie die Testergebnisse im SPSS-Ausgabefenster sehen. Zunächst erscheinen die bereits bekannten deskriptiven Gruppenstatistiken. Darunter sind die Testergebnisse zu finden.

Der p-Wert des Levene-Tests liegt bei 0,25 (25 %), weshalb die Nullhypothese der Varianzhomogenität auf Grundlage der hier vorliegenden Daten bei einem gängigen Signifikanzniveau von 5 % nicht verworfen wird. Folglich sind die Annahmen des t-Tests erfüllt. Aus diesem Grund ist bei der Interpretation des t-Tests nur Zeile 1 relevant. (Zeile 2 zeigt dagegen die Ergebnisse des t-Tests mit Welch-Korrektur, die allerdings nur bei Varianzheterogenität anzuwenden ist.)


Es ist zu sehen, dass der t-Test einen p-Wert von 0.001 aufweist. Folglich lehnen wir die Nullhypothese von gleichen Durchschnittsgewichten in beiden Gruppen ab. Das Durchschnittsgewicht der Mitglieder von Gruppe 1 liegt circa 7 kg über dem der Mitglieder von Gruppe 2 und dieser Unterschied ist statistisch signifikant von Null verschieden.


Zusammenfassung -Key Facts

Ziel dieses Artikels war es Ihnen die absoluten Grundlagen der statistischen Datenanalyse zu vermitteln. Wir haben den Unterschied zwischen deskriptiver und induktiver Statistik erläutert und eine praktische Anleitung zur Analyse einer Forschungsfrage in der Statistik-Software SPSS vorgestellt. Dabei war es uns wichtig zu betonen, dass es bei der Anwendung von statistischen Verfahren (z.B. Hypothesentests) essentiell ist, deren Annahmen zu überprüfen.


Wir hoffen, dass Ihnen dieser Artikel bei Ihren ersten statistischen Auswertungen weiterhilft. Falls Sie Hilfe bei Ihrer statistischen Auswertung benötigen oder komplexere statistische Auswertungen in SPSS, R, Python oder Excel bestellen wollen, zögern Sie nicht uns zu kontaktieren. Unser Team an Freelancern verfügt über langjährige Erfahrung auf dem Gebieten der Statistik. Wir beraten Sie gerne im Rahmen eines kostenlosen und unverbindlichen Erstgespräch. Sie können uns jederzeit per E-Mail oder Telefon (siehe unten rechts) erreichen.

ÜBER UNS

support@statistikprofis.com

Tel.: +49 1573 4946886

© Copyright - StatistikProfis