


In vielen natur-, wirtschafts- und sozialwissenschaftlichen Bereichen ist die Befragung das Mittel der Wahl für das Testen empirischer Hypothesen. In diesen einfachen 3 Schritten erklären wir die, wie du vorgehen kannst:
Dieser Schritt stellt die umfangreichste Arbeit dar und macht ca. 70% der gesamten Analyse aus. Zur Datenaufbereitung zählen:
Datenbereinigung (löschen überflüssiger Variablen) Bestimmung der Skalenniveaus, labeln der Variablen und Werte Fehlende Werte löschen oder ersetzen (z.B. durch eine Mittelwertimputation) Überprüfung der Daten auf Plausibilität (stimmen die Daten?), Validität (stellen die Daten dar, was ich messen will?) und Reliabilität (Sind die Konstrukte messgenau?). In der Regel werden etablierte Messinstrumente verwendet, weshalb eine Validierung nicht notwendig ist. Soll ein eignes Messinstrument verwendet werden, müssen aufwändige Faktoranalysen (explorative, konfirmatorische) durchgeführt werden Erstellung der Konstrukte und Datentransformation (Recodierung negativ gepolter Items), dabei kann man sich in der Regel nach dem Manual der Originalstudien der Messinstrumente richten. Für viele Modelle müssen zusätzlich Dummy Variablen erstellt werden Sortieren des Datensatzes. Datenanalyse lebt von Übersichtlichkeit!
Je nach Skalenniveau werden die Daten nun dargestellt. Für nominale Daten werden Häufigkeiten und Balkendiagramme abgebildet. Dasselbe erfolgt für ordinale Daten, nur kann hier der Median ergänzt werden. Metrische und quasi-metrische Daten werden mit allen Parametern von Verteilungen beschrieben (Mittelwert, Standardabweichung, Median…) Metrische- und quasi-metrische Daten werden mit Boxplots und Histogrammen abgebildet. Zudem werden sie auf Normalverteilung überprüft.
Dieser Schritt verursacht wohl die meisten Probleme. In Abhängigkeit der Hypothesen, des Skalenniveaus und der Verteilung der Daten muss der richtige Test auf Signifikanz gewählt werden. Zusätzlich muss daraus die Effektstärke berechnet werden. Ergänzend kann auch bayesianische Statistik erfolgen.
Im Folgenden siehst du Beispiele für Fragebogenauswertung in SPSS und R, jedoch können wir dich auch in JAMOVI, JASP, STATA und Python unterstützen:
Hier siehst du einen Überblick, bei welchen Fragebogen Auswertungen wir dich unterstützen können:
Zuerst musst du die Daten importieren. Über RStudio geht es ganz leicht über Import Dataset im rechten oberen Fenster. Du hast die Möglichkeit Excel Daten direkt oder als .csv zu importieren. Auch SPSS oder STATA Datentypen sind einfach imortierbar. Alternativ kannst du das ganze auch einfach mit diesen Befehlen in der Konsole laden
In RStudio stellt die Datenanasicht nun eine einfache zweidimensionale Übersicht deiner Daten dar. Zeilen sind Versuchspersonen und Spalten Variablen.
Datenanalyse lebt von Übersichtlichkeit. Lösche also was du nicht brauchst, z.B. Browserdaten, Time Tracker, Indexvariablen etc..
Lösche die Versuchspersonen, die den Fragebogen abgebrochen oder gar nicht ausgefüllt haben.
Zu den Skalenniveaus
Üblicherweise werden Konstrukte durch mehrere Items operationalisiert. Damit dies jedoch funktioniert, solltest du einmal die Reliabilität überprüfen. Hier kannst du Cronbachs-Alpha oder McDonalds-Omega bestimmen.
Ist deine Skala reliabel, kannst du die Items zu einem Score zusammenfassen. Dabei wird häufig der Mittelwert gewählt.
Im ersten Schritt musst du deine Daten nun einmal beschrieben. Hier spielt das Skalenniveau wieder eine entscheidende Rolle, denn von diesem ist der Informationsgehalt deiner Daten abhängig. Dieser entscheidet, was du mit den Daten machen kannst. Einen Mittelwert der Variable, die das Geschlecht einer Person angibt, zu berechnen, ergibt keinen Sinn. Genau so wenig wie einfach Häufigkeiten einer Variablen anzugeben, die das Alter in Jahren misst. Am besten gehst du wie folgt vor:
Häufigkeiten für nominale und ordinale DatenHier kannst du dir einen Überblick über die verschiedenen Arten der Hypothesentests verschaffen, wie Signifikanzwerte, Effektstärke oder Bayes-Statistiken.
Zu den Hypothesentests