Sie sind auf Seite 1von 51

Forschungsmethoden – Innovation und Profession: Einführung in die Methodologie quantitativer

Forschung (25.05.23)

1.Was sind quantitative Methoden – Einführung in die Methodologie Quantitativer


Forschung

Ø Quantitativen Methoden in den empirischen Human- und Sozialwissenschaften umfassen


zunächst alle Vorgehensweisen zur numerischen Darstellung empirischer Sachverhalte

Quantitative Methoden in den Bildungswissenschaften – Warum?


Ø Ein Teil der erziehungs-/bildungswissenschaftlichen Forschung versteht sich als
empirische Wissenschaft, deren Erkenntnisse durch Beobachtung gewonnen werden (z.B.
mit Fragebögen)
Ø Bei der Beobachtung (geschlossene Formate) werden Daten gewonnen
Ø Diese Daten werden oftmals mit quantitativen Methoden zusammengefasst und
interpretiert („Statistik“)

Was ist Statistik? (schwierig eine einheitliche Definition zu fassen)


Ziel wissenschaftlichen Arbeitens = Verdichtung von Einzelinformationen und Beobachtungen

Ø Statistik à dient der Aufbereitung, Zusammenfassung und Darstellung von Informationen


(deskriptive Statistik)
Ø Statistik dient der Bewertung von Informationen im Hinblick auf theoretische Aussagen:
Statistik „ermöglicht empirischen Wissenschaften objektive Entscheidungen über die
Brauchbarkeit der überprüften Hypothesen“

Deskriptive Statistik
Bivariable oder multivariable Statistik

Quantifizierende Beschreibung
Voraussetzung für die Anwendbarkeit statistischer Verfahren: das Vorliegen von quantitativen
Informationen

Ø „Schüler X ist emotional auffällig in der Schule“ = ist eine qualitative Beschreibung

Ø Eine quantitative Beschreibung gibt an, wie sehr der Schüler X emotional auffällig in der
Schule ist, wie stark das Merkmal „emotionale Auffälligkeit“ ausgeprägt ist
Warum müssen Sie quantitative Methoden bzw. Statistik lernen?
Statistik im wissenschaftlichen Prozess
Ø Empirische Studien der Bildungswissenschaften – Lesen, Verstehe, Beurteilen
Ø Planung und Auswertung eigener Untersuchungen

Statistik in der praktischen Arbeit von Lehrer*innen


Statistik als Basisqualifikation e nz
Statistik im Alltag m pet
de nko
e tho
M
à Methodenkompetenz soll gesteigert werden

Ziele
Ø Ausbildung kritischer Anwender*innen
Ø Keine mathematischen Grundlagen à Lehrbücher
Ø Erlernen der Rechenschritte dient dem Verständnis der Verfahren
Ø Nur grundlegende Formeln
Ø Lernziele: Prinzip und Logik der Verfahren; Anwendungsbereich; Grenzen; Problem;
Interpretieren
Ø Ggf. später in bzw. für Veranstaltungen des Praxissemesters. Berechnung mittels SPSS
oder anderer Computer-Statistikprogramme

2. Forschungslogischer Ablauf von empirischen Studien


„Forschendes Lernen“ im Studienprojekt
Ø Dabei geht es darum, theoriegeleitet und sich selbstreflexiv mit dem Handlungsfeld
Schule auseinanderzusetzen unter einer klar formulierten Fragestellung und mit einem
Vorgehen, das sich auf geeignete Forschungsmethoden stützt

Begriff „Forschendes Lernen“


à Schneider und Wildt (2004) definieren z.B. „forschendes Lernen im Kontext schulpraktischer
Studien“ als einen „wissenschaftsgeprägten Zugang zur pädagogischen Berufspraxis“
Im Mittelpunkt stehen dabei:
Ø Bereitschaft zur kontinuierlichen Reflexion des Praxisfelds mit Hilfe wissenschaftlicher
Theorien und Methoden
Ø Eine distanzierte und problemorientierte Haltung gegenüber vermeintlich sicheren
Erkenntnissen
Ø Hypothesenentwickelndes bzw. hypothesenprüfendes Herangehen an Unterricht
Ø Orientierung an Erhebungs- und Auswertungsmethoden, die kritische Analysen und
intersubjektive Nachvollziehbarkeit erlauben
à intersubjektive Nachvollziehbarkeit = für andere nachvollziehbar machen
Reflexion: Fragen
Ø Was sind die Bestandteile einer empirischen Untersuchung in der Schul- und
Unterrichtsforschung, die quantitative Zugänge wählt?
Ø Wie lassen sich die Bestandteile im Kontext des „forschenden Lernens“ konkretisieren?

Forschungslogischer Ablauf empirischer Untersuchungen


Linearer Forschungsablauf mit drei Grundfragen

1. zu Beginn Entdeckungszusammenhang (Interesse und Anlass in den Blick nehmen à


„Was?“) Problem muss präzisiert werden und mit Theorie aus der bisherigen Forschung
(Stand der Forschung) abzugleichen
à am Ende steht das Ziel eine Fragestellung aufzustellen (FORSCHUNGSFRAGE)

2. Begründungszusammenhang (größter Teil) stellt die Fragen nach „Wie?“ Und „bei Wem?“
à Beginnt mit der Operationalisierung der Begriffe
• Viele theoretische Begriffe lassen sich nicht direkt beobachten (z.B. Soziale
Schicht), daher müssen die Begriffe beobachtbaren Sachverhalten zugeordnet
werden
à diese Zuordnung von einem oder mehreren beobachtbaren Indikatoren zu einem
theoretischen Begriff wird als Operationalisierung bezeichnet
• Theoretischen Konstrukte werden in einem empirischen Forschungsprozess durch
Indikatoren repräsentiert
à Indikator = beobachtbarer Sachverhalt
à Hypothesen
• Eine begründete und theoriegeleitete Vermutung zwischen mindestens zwei
Sachverhalten, die empirisch überprüft wird
à schauen welche Erhebungsinstrumente gewählt werden sollen
à Wer soll untersucht werden (Stichprobe – willkürlich, Zufall)
à Datenerhebung
à Auswertung
à Interpretation
à Hypothesen, Theorie
3. Verwertungszusammenhang à für wen sind die Ergebnisse?
à Darstellung à Publikation / Vortrag

3. Fragestellungen und Hypothesen


Ø Das Ziel einer empirischen Untersuchung: formuliert als Fragestellung, konkretisiert in
Hypothesen (Annahme, Behauptung)

Hypothese:
Ø Vermutung über einen bestimmten Sachverhalt, dessen Richtigkeit noch nicht bewiesen ist
Ø Besteht häufig aus der Verknüpfung von zwei Variablen (Merkmalen) sowie aus der
dazugehörigen Verknüpfungsregel
Ø Verknüpfungsregel bestimmt die kausale Ordnung und die Struktur des Zusammenhangs

Kategorisierung wissenschaftlicher Hypothesen – und Beispiele

Zusammenhangshypothese: zwischen zwei oder mehr Merkmalen besteht ein Zusammenhang


Ø Abi-Note und Intelligenz hängen miteinander zusammen. (ungerichtet)
Ø Je höher die Intelligenz, desto besser die Abi-Note. (gerichtet)
Unterschiedshypothese: Zwei (oder mehr) Gruppen unterscheiden sich bezüglich eines Merkmals
Ø Jungen und Mädchen sind unterschiedlich gut im Lesen. (ungerichtet)
Ø Jungen sind weniger gut im Lesen als Mädchen. (gerichtet)

Veränderungshypothese: die über die Zeit verteilten Ausprägungen einer (oder mehrerer)
unabhängiger Variablen verändert die Ausprägung einer (oder mehrerer) abhängiger Variablen
Ø Die Schulfreude verändert sich während der Schulzeit. (ungerichtet)
Ø Die Schulfreude nimmt während der Schulzeit ab. (gerichtet)

Gerichtete Hypothese = geben die Richtung des Unterschieds des Zusammenhangs an (theoretisch
begründet)
Ungerichtete Hypothese = postulieren nur einen Unterschied, einen Zusammenhang, eine
Veränderung, ohne diesen genauer zu benennen (freier formuliert)

Hypothesen – Kriterien (nicht jede Hypothese ist auch gleich eine Hypothese)
Ø Eine wissenschaftliche Hypothese ist eine allgemeingültige, über den Einzelfall oder ein
singuläres Ereignis hinausgehende Behauptung
Ø Einer wissenschaftlichen Hypothese muss zumindest implizit die Formalstruktur eines
sinnvollen Konditionalsatzes („wenn-dann-Satz“ bzw. „je-desto-Satz“) zugrunde liegen +
weisen über den Einzelfall hinaus
Ø Der Konditionalsatz muss potenziell falsifizierbar sein, d.h. es müssen Ereignisse denkbar
sein, die dem Konditionalsatz widersprechen (hypothesenkonträre Ergebnisse sind
möglich)

Exkurs Operationalisierung:
Ø Die meisten Hypothesen enthalten theoretische Konzepte wie „Vertrauen“ oder
„Legitimität“, die sich nicht direkt, sondern bestenfalls indirekt beobachten lassen
à es handelt sich um sogenannte latente Konstrukte, die sich der unmittelbaren
Beobachtung entziehen
Ø Hypothesen beziehen sich häufig auf einen vermuteten Zusammenhang zwischen zwei nicht
direkt beobachtbaren Konzepten

Beispiel: „Je höher der soziale Status, desto größer die Wahrscheinlichkeit der Wahlbeteiligung“
Ø Die beiden Konzepte: „sozialer Status“ und „Wahlbeteiligung“ sind in der Regel nicht direkt
beobachtbar
à für empirische Überprüfung müssen diese Konzepte mit beobachtbaren Indikatoren
verknüpft werden, die Rückschlüsse auf diese nicht direkt beobachtbaren Konzepte
erlauben à diese Phase wird Operationalisierung genannt
Erwartungshorizont:
1. Warum sind die Abbildungen Beispiele für quantitative Methoden?
à Merkmale die messbar sind
à unterschiedliche Merkmalsausprägungen
à standardisierter Fragebogen als Erhebungsmethode
à nummerische Werte
à Erhebung über einen längeren Zeitraum (Längswertstudie)
à verschiedene Messwerte zum Ausdruck bringen
à standardisiert
à zügige Verarbeitung der Daten + höhere Vergleichbarkeit

Zusatz:
Definition: Quantitative Forschung
Ø Bei quantitativer Forschung handelt es sich um ein Datenerhebungsverfahren der
empirischen Sozialforschung. Mit der Anwendung quantitativer Methoden werden
numerische Daten erhoben. Diese lassen sich im Anschluss statistisch verarbeiten, um
Hypothesen zu überprüfen oder neue Erkenntnisse zu gewinnen
1.06.23 – Forschungsmethoden „Innovation & Profession“: Qualitative
und quantitative Zugänge – Stichprobenwahl und Grundlagen der
Messung (Selbststudium)

1. Stichprobenwahl (bei wem? - Begründungszusammenhang)


1.1 Stichprobe und Grundgesamtheit

von der Grundgesamtheit … über ein Auswahlverfahren … zur Stichprobe

Definition Stichprobe = „Auswahl von Personen aus einer bestimmten Gruppe (Grundgesamtheit
oder Population), die befragt oder untersucht wird, um Informationen über diese Grundgesamtheit
zu erhalten“

Zwei unterschiedliche Beispiele:


1. Beispiel:
Ø Forschungsanliegen: Evaluation einer Unterrichtsmethode in einer Schulklasse durch
Befragung der Schüler*innen
Ø Stichprobe: Alle Schüler*innen der Klasse (=Vollerhebung)
à Stichprobe = Grundgesamtheit

2. Beispiel:
Ø Forschungsanliegen: Wie beurteilen 15-Jährige in Deutschland die
Unterrichtspraktiken im Jahr 2009?
Ø Stichprobe: Eine Zufallsauswahl von 15-Jährigen in Deutschland, die ein
repräsentatives Abbild aller 15-Jährigen in Deutschland sind, da Vollerhebung zu teuer
und aufwändig ggf. sogar nicht realisierbar
à Stichprobe nicht = Grundgesamtheit

Inferenzstatistik
Ø Inferenzstatistische Aussagen gehen über das Beobachtbare hinaus und sind deshalb
mit Unsicherheit behaftet
à erfordert das Arbeiten mit Wahrscheinlichkeiten
Ø Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige
Population
à dieses Prinzip nennt man auch Induktionsschluss (der Schluss vom Speziellen, vom
Einzelfall auf das Allgemeine)
Ø Aussagen der Inferenzstatistik haben in der Regel einen größeren Geltungsbereich als
die der Deskriptivstatistik

Deskriptivstatistik vs. Inferenzstatistik


Zwei unterschiedliche Beispiele:
1. Beispiel:
Ø Forschungsanliegen: Evaluation einer Unterrichtsmethode in einer
Schulklasse durch Befragung der Schüler*innen
Ø Stichprobe: Alle Schüler*innen der Klasse (=Vollerhebung)
à Stichprobe = Grundgesamtheit
à Deskriptive Statistik reicht aus / Inferenzstatistik erübrigt sich

2. Beispiel:
Ø Forschungsanliegen: Wie beurteilen 15-Jährige in Deutschland die
Unterrichtspraktiken im Jahr 2009?
Ø Stichprobe: Eine Zufallsauswahl von 15-Jährigen in
Deutschland, die ein repräsentatives Abbild aller 15-
Jährigen in Deutschland sind, da Vollerhebung zu teuer und
aufwändig ggf. sogar nicht realisierbar
à Stichprobe nicht = Grundgesamtheit
à Deskriptivstatistik erlaubt nur Aussagen über das Kollektiv (die konkrete Gruppe an Probanden)
/ Inferenzstatistik notwendig, um Aussagen über die Grundgesamtheit zu treffen

Deskriptive Statistik
Deskriptive (auch: beschreibende) Statistik
Ziel = Aussagen über eine bestimmte Gruppe
Ø Organisation, Zusammenfassung und Darstellung von Daten, um sie für einen
Adressaten leichter verständlich zu machen
Ø Deskriptive Statistik leitet zu einer übersichtlichen und anschaulichen
Informationsaufbereitung an
„Statistische Methoden zur Beschreibung der Daten in Form von Grafiken,
Tabellen oder einzelnen Kennwerten bezeichnen wir zusammenfassend als
deskriptive Statistik“

à es werden nur die Eigenschaften der jeweiligen Stichprobe beschrieben


und ausgewertet à es findet jedoch keine Schlussfolgerungen über andere
Zeitpunkte oder die Grundgesamtheit

Kennzeichnung: Inferenzstatistik
Inferenzstatistik (auch: schließende Statistik)
Ziel: Ableitung von allgemeingültigen Aussagen
à Gegensatz zur Deskriptiven Statistik möchte die Inferenzstatistik eine Aussage über die
Grundgesamtheit treffen
Ø Verallgemeinerung über die beobachteten Personen hinaus
Ø Trennung von zufälligen und systematischen Einflüssen
Ø Absicherung von Erklärungen gegen den Zufall
Ø Dient der Überprüfung von wissenschaftlichen Hypothesen

„Die Inferenzstatistik ermöglicht im Unterschied zur deskriptiven Statistik


die Überprüfung von Hypothesen“

à zieht aus Stichprobendaten Rückschlüsse auf die Grundgesamtheit


à für eine gegebene Hypothese über die Grundgesamtheit verwendet die
Inferenzstatistik eine Stichprobe und gibt einen Hinweis auf die Gültigkeit
der Hypothese ausgehend von der erhobenen Stichprobe

Unterschied zwischen Inferenzstatistik und Deskriptivstatistik


Ø Ziel der deskriptiven Statistik ist es, einen Überblick über die vorliegenden Daten zu
erhalten, diese zu ordnen und zusammenzufassen
Ø In der deskriptiven Statistik geht es also um das Beschreiben von Daten und die
Ergebnisse beziehen sich dabei immer auf den vorliegenden Datensatz
Ø Induktive Statistik (Inferenzstatistik genannt) à hier werden Aussagen über einen
Datensatz hinaus getroffen, indem von einer Stichprobe auf eine Grundgesamtheit
geschlossen wird
Ø Nur mit der Inferenzstatistik kann eine Aussage über die Grundgesamtheit getroffen
werden
Zusammenfassung:
à in den meisten Fällen ist es nicht möglich, alle Daten der Grundgesamtheit zu erhalten, daher
wird eine Stichprobe gezogen
o Diese Stichprobe kann nun mithilfe der Deskriptiven Statistik beschrieben
werden, z.B. mit dem Mittelwert, der Lageparameter und dem
Streuungsparametern wie der Standardabweichung
à damit können aber noch keine Aussagen über die Grundgesamtheit getroffen
werden à das ist die Aufgabe der Inferenzstatistik
o Die Inferenzstatistik verwendet eine Stichprobe aus der Grundgesamtheit, um mit
Hilfe dieser Stichprobe Schlussfolgerungen über die Grundgesamtheit zu ziehen
o Ziel der Inferenzstatistik = von bekannten Parametern einer Stichprobe auf
unbekannte Parameter der Grundgesamtheit zu schließen

Wie lese ich den Standardfehler (SE)?


Ø Der Standardfehler ist ein Maß für die Genauigkeit der Schätzung des jeweiligen
Stichprobenwertes für die Population
Ø Berechnung eines Vertrauensbereichs möglich (Konfidenzintervall)

Berechnung eines Vertrauensbereichs (Konfidenzintervalls)

Ø Standardfehler mit 1,96


multiplizieren (im Beispiel:
1,96*1,1=2,2)
Ø Diesen Wert oberhalb und
unterhalb abtragen
Ø Interpretation: zu 95%-
iger Wahrscheinlichkeit
liegt der Populationswert in
diesem Bereich (im
Beispiel: zwischen 27,9%
und 32,3%)

Beispiele für inferenzstatistische Fragestellungen


Schätzung von Populationsparametern:
Ø Schätzung von Populationsanteilen:
Das Beispiel zu prozentualen Angaben zu Unterrichtspraktiken
Ø Schätzung von Populationsmittelwerten:
Durchschnittliche Lesekompetenz von 15-Jährigen
Testen statistischer Hypothesen:
Ø Vergleich zweier Populationsmittelwerte: Sind Schüler*innen mit Förderunterricht
besser als ohne? (Unterschiedshypothese)
Ø Vergleich zweier Populationsmittelwerte: Haben junge Erwachsene ein besseres
Gedächtnis als ältere? (Veränderungshypothese)
Ø Prüfen, ob eine Populationskorrelation von Null verschieden ist: Zusammenhang
zwischen „Lernmotivation“ und „Lernerfolg“ (Zusammenhangshypothese)

Testen von statistischen Hypothesen: Der Signifikanztest


Ø Wissenschaftliche Hypothesen werden meist in statistische Hypothesen überführt
Ø Diese statistischen Hypothesen werden meist mittels Signifikanztest überprüft

Was ist ein Signifikanztest?


à Ziel: Überprüfung einer Hypothese, die die Eigenschaften einer oder mehrerer
Populationen betrifft

Signifikanztest, Zufall, Wahrscheinlichkeit


Ø Der Signifikanztest macht die Annahme, dass aus einer Population Personen per Zufall
gezogen werden (à Stichprobe)
Ø Abhängig von der zufälligen Auswahl der Elemente aus der Population haben bestimmte
Werte in der Stichprobe eine bestimmte Wahrscheinlichkeit

Zentrale Begriffe der Inferenzstatistik: Population oder Grundgesamtheit


à potenziell untersuchbare Elemente, die ein oder mehrere gemeinsame Merkmale aufweisen

Beispiele:
Ø 15-jährige in Deutschland
Ø Schüler*innen der 4. Jahrgangsstufe in Deutschland
Ø Erstsemesterstudierende der Uni Köln im Wintersemester 2011/12, die ein
Lehramtstudium aufgenommen haben
Ø Schüler*innen einer Klasse

Stichprobe
Ø Teilmenge einer Population (einer Grundgesamtheit), die nach bestimmten Regeln
gewonnen wird
Ø Mit der Stichprobe werden Untersuchungen durchgeführt, um die Ergebnisse dann auf
die Grundgesamtheit zu übertragen (Stichprobe steht also stellvertretend für die
Grundgesamtheit)
Ø Für die Elemente der Stichprobe liegen Beobachtungswerte vor (und diese sollen auf
die Population „verallgemeinert“ werden)
Ø Vollerhebung = Stichprobe und Grundgesamtheit sind identisch
Ø Zu unterscheiden = Stichprobenarten

1.2. Stichprobenarten
Es gibt unterschiedliche Verfahren, wie Personen für eine Stichprobe ausgewählt werden
Ø Grundsätzlich Unterscheidung zwischen zufallsgesteuerte und nicht-
zufallsgesteuerte Auswahlverfahren

In der Regel sind zufallsgesteuerte Verfahren vorzuziehen, da sie repräsentative


Stichprobenzusammensetzungen gewährleisten

Über die Auswahl der Objekte entscheidet Nicht-zufallsgesteuert


der Zufall
à Zufallsstichprobe à Ad hoc
à Klumpenstichprobe à Gelegenheitsstichprobe
à Geschichtete Stichprobe à Theoriegeleitete Auswahl

Zufallsstichprobe / Einfach Zufallsauswahl


In diesem Verfahren hat jedes Mitglied einer Population die gleiche Chance, in die Stichprobe
aufgenommen zu werden

Ø Aus einer Grundgesamtheit (Population) von N Objekten wird eine Stichprobe von n
Objekten gezogen

„Eine einfache Zufallsstichprobe ist eine Teilmenge aus einer


Grundgesamtheit, wenn alle gleich großen Teilmengen, die aus dieser
Grundgesamtheit gebildet werden können, gleich wahrscheinlich sind“

Beispiel 1: Würfen
Population von Objekten N = 6 (Werte 1, 2, 3, 4, 5, 6)
Ø Jeder Wert (1, 2, 3, 4, 5, 6) ist gleich wahrscheinlich (p=1/6)
Ø Eine Zufallsstichprobe von n = 2 ergibt z.B. Werte 2 und 5

Beispiel 2: sozialwissenschaftliche Studie


Voraussetzung: Man braucht ein Register, das alle Personen (Objekte) der Population umfasst (Wie
groß ist N und wer gehört dazu?)

Beispiel: PISA – Schülerregister der Ministerien


Vorgehen: meist wird ein Computerverfahren verwendet, dass eine bestimmte Anzahl von
Probanden aus dem Register wählt
Rücklauf
Ø Wichtiger Indikator/Faktor zur Beurteilung der Repräsentativität einer Stichprobe
Ø Wie viele der durch die Stichprobenziehung eingeplanten („gezogenen“) Personen
haben tatsächlich an der Studie teilgenommen?
à meist in Prozent angegeben („Rücklaufquote“)
Ø Gefahr der Stichprobenverzerrung durch systematische Nicht-Teilnahme (non-
response bias)

Nichtzufallsgesteuerte Auswahlverfahren
Ø Bei Nicht-Zufallsgesteuerten Auswahlverfahren ist die Repräsentativität immer
fraglich
à zumindest bliebt die Frage offen, inwieweit von der Stichprobe auf die / eine
Grundgesamtheit geschlossen werden kann
Ø Besonders problematisch ist, wenn die Grundgesamtheit nicht (präzise) definiert
werden kann

Folgen = z.B. Einschränkungen in den Varianzen erhobener Variablen

Ad hoc Auswahl (Gelegenheitsstichprobe)


Ø Bei der „ad hoc“ Auswahl werden die Personen ausgewählt, die zum
Untersuchungszeitpunkt einfach zu erreichen sind

Beispiel 1: Ein Dozent will ein kurzes Experiment machen, und beauftragt die Hilfskräfte der
Beteilung, daran teilzunehmen, da diese direkt im Nebenraum sitzen.

Beispiel 2: Für eine Umfrage wird eine Gruppe von Freunden befragt (z.B., weil der Interviewer
diese gleichzeitig antrifft).

Theoriegeleitete Auswahl
Ø Die Auswahl der Stichprobe erfolgt nach theoretischen Gesichtspunkten

Beispiel: Zur Evaluation einer neuen Therapieform werden Patienten mit einer besonders schweren
Zwangserkrankung ausgewählt
2. Grundlagen der Messung
2.1 Merkmale und Merkmalsträger
> bei einer Datenerhebung geht es darum, bestimmte Eigenschaften (d.h. Merkmale) der
untersuchten Personen oder Objekte (d.h.) Merkmalsträger zu erfassen

Merkmale – von Personen/ Objekten als Merkmalsträger


1. Lernfreude
à von Schüler*innen
2. Unterrichtspraktiken
à beurteilt von 15-Jährigen in Deutschland
3. Emotionale Probleme, Verhaltensprobleme
à erfragt bei Schüler*innen der 6. Und 10. Klasse
4. Rechtschreibleistung
à getestet bei Grundschüler*innen

Quantifizierende Beschreibung
Ø Voraussetzung für die Anwendbarkeit statistischer Verfahren = das Vorliegen von
quantitativen Informationen
Ø „Im Studium geht es darum, etwas Interessantes zu Lernen“
à ist eine qualitative Beschreibung
Ø Eine quantitative Beschreibung gibt an, wie sehr ein Student/Studentin lernmotiviert
ist, wie stark das Merkmal „Lernmotivation“ ausgeprägt ist

Beispiele:
Klassifikation von Merkmalen: Qualitativ vs. Quantitativ

Qualitative Merkmale beschreiben die Quantitativen Merkmale


Zugehörigkeit einer Person oder eines beschreiben die Ausprägung
Objekts zu einer Kategorie eines Merkmals auf einem
Kontinuum

Vom Merkmal zur Variable


Ø Um ein Merkmal zu erfassen, muss eine präzise Operationalisierung (Messvorschrift)
vorliegen
Ø Operationalisierung definiert, wie unterschiedliche Ausprägungen eines Merkmals in
Zahlen übertragen (kodiert) werde
Ø Man spricht dann nun von einer Variablen
Ø Eine Messung ist also eine Zuordnung von Zahlen zu Objekten gemäß den Regeln einer
Operationalisierung

Zusammenfassung:
Operationalisierung = der Vorgang der Zuordnung beobachtbarer Größen zu
unbeobachtbaren Begriffen (von Eigenschaften oder
Merkmalen)
Ø Eine operationale Definition definiert einen Begriff durch die Angabe der Operationen,
die zur Erfassung des bezeichneten Sachverhalts notwendig sind

Variable = stellen Merkmale von Personen oder Objekten


dar, die verschiedene Ausprägungen aufweisen können.
Personen oder Objekte werden als Merkmalsträger
aufgefasst
2.2 Messtheorie
Messtheorie
Ø Beschäftigt sich mit der Frage, wie man zu den Zahlen kommt, die in der Statistik
verarbeitet werden und welche Aussagekraft diese Zahlen haben
Ø Sie ist kein Teilgebiet der Statistik, sondern dieser vorgeschaltet
Ø Wichtig: Nicht der Mensch an sich wird gemessen, sondern lediglich eines oder
mehrere Merkmale

Was ist Messen?


Messen ist das Zuordnen von Zahlen zu Objekten oder Ereignissen nach
bestimmten Regeln

Genauer:
Messen besteht im Zuordnen von Zahlen zu Objekten, so dass bestimmte
Relationen zwischen den Zahlen

Analoge Relationen zwischen den Objekten reflektieren

Messtheorie: Begriffe
Empirisches Relativ = Menge an Objekten, zwischen denen beobachtbare Relationen
bestehen

Numerisches Relativ = Menge von Zahlen, für die bestimmte Relationen definiert sind
à bezieht sich immer auf Daten (beschreibt eine
Zahlenmenge)

Relationen = Beziehung zwischen Objekten bezüglich bestimmter


Eigenschaften

Unterscheidungsgesichtspunkte von Relationen:


a) Die Anzahl der in Relation stehenden Objekte
b) Die Art der Relation
Äquivalenz , Ordnung (<), Größe des Abstands

Eine Relation stellt eine Beziehung zwischen den Elementen einer Menge her, z.B. durch die
Beziehung „kleiner als“
Ø Eine homomorphe Abbildung stellt sicher, dass eine eindeutige Zuordnung von
Eigenschaften des Objekts zu Zahlenwerten vorgenommen wird
à dabei wird jedem Element des empirischen Relativs genau eine Zahl im
numerischen Relativ zugeordnet
Ø Bei der homomorphen Abbildung kann eindeutig vom empirischen Relativ auf das
numerische Relativ geschlossen werden, jedoch nicht umgekehrt

Definition „Messen“:
„Das Messen ist eine Zuordnung von Zahlen zu Objekten oder Ereignissen, sofern diese
Zuordnung eine homomorphe Abbildung eines empirischen Relativs in ein numerisches ist“
(homomorph = strukturerhaltend, analog)

Was ist die Aufgabe der Messtheorie?


Ø Die Benennung relationaler Regeln, die im empirischen Relativ erfüllt sein müssen,
damit es durch ein numerisches Relativ homomorph (strukturerhaltend, analog)
repräsentiert werden kann

Messen – Welche Voraussetzungen gibt es für Messen?


a) Festlegung einer zu messenden Eigenschaft bzw. eines Merkmals
b) Prüfung der Messbarkeit der Eigenschaft, Operationalisierung
c) Bereitstellung eines Messinstruments (z.B. Fragebogen, Untersuchungsmaterialien)
2.3. Skalenniveaus
Skala
Ø Eine Skala ist eine Zuordnungsvorschrift, die die Regeln angibt, nach der empirische
Beobachtungen (Merkmalsausprägungen) Zahlen zugeordnet werden

à man unterscheidet verschiedene Skalenniveaus

Ø Skalenniveaus werden danach unterschieden, welche Relationen („Arten der


Verschiedenheit“) zwischen den Objekten des empirischen Relativ bestehen
Weshalb wird zwischen Skalenniveaus unterschieden?
Das Skalenniveau entscheidet darüber:
Ø Wie die empirischen Sachverhalte durch die Zahlen abgebildet werden
Ø Welche Transformationen der Zahlen erlaubt sind
Ø Welche Aussagen über Zahlenverhältnisse sinnvoll sind
Ø Welche Operationen mit den Zahlen sinnvoll sind, also auch, welche statistischen
Verfahren angemessen sind
Forschungsmethoden. „Innovation und Profession“: Erhebungsinstrumente
22.06.23

1. Einstieg: Erhebungsinstrumente – Welche Informationen werden wie


erfasst

Beispiel 1: Schulische Leistung eines Schülers, 8. Jahrgangsstufe, Gymnasium, Fach


Deutsch

Beispiel 2: Störungen im Unterricht

Erhebungsinstrumente (Verfahren)
Häufig in quantitativen Untersuchen eingesetzt:
Ø Fragebogen (möglichst standardisiert)
Ø Papier-Bleistift-Tests (d.h. Tests mit schriftlichem Frage- und Antwortformat)

Quantifizierung qualitativ gewonnener Informationen: (qualitativ gewonnene Informationen


werden quantifiziert)
Ø Analyse von Videos („Rating“/ Bewertung anhand von Kategorien)
Ø Statistische Verarbeitung von Kodierungskategorien aus Interviews,
Beobachtungen, Dokumenten u.a.

Erhebungsinstrumente: Hauptgütekriterien
Ø Objektivität
àFrage: ist das Ergebnis der Messung unabhängig vom Untersucher/ der
Untersucherin
Ø Reliabilität
à Ist die Messung zulässig? (Genauigkeit der Messung)
Ø Validität
à Wird das gemessen, was gemessen werden soll?

Erhebungsinstrumente: Auswahlkriterien (weitere Kriterien, die möglicherweise die Auswahl


von Erhebungsinstrumenten oder weitere Entscheidungen zu ihrem Einsatz in einer konkreten
empirischen Untersuchung beeinflussen können)
Ø Erhebungsinstrument muss zu bestimmten Eigenschaften der zu untersuchenden
Personen / Objekte (z.B. Alter der Schüler*innen) passen
Ø Verhaltensmodalität (z.B. Tests vs. Selbsteinschätzung)
Ø Praktische Einschränkungen (z.B. Aufwand, Kosten)
Ø Genauigkeitsanspruch (z.B. Länge eines Tests) -> mehr Zeit + je mehr Infos
gesammelt werden können, umso höher die Zuverlässigkeit eines
Erhebungsinstruments
Ø Ethische Überlegungen (z.B. Zumutbarkeit für die Schüler*innen)

2. Modellhafter Zugang Input:


-> liegen die bundesweiten Standards für
Bildungswissenschaften der
Kultusministerkonferenz zugrunde
-> konkretisiert über die Modulbeschreibung
in der Studienordnung für den Master

Prozess:
-> gehört die Vermittlung der in der
Modulbeschreibung ausgewiesenen Inhalte im
Rahmen der Vorlesung des Moduls

Output:
-> Lernertrag auf Seiten der SuS (bestandene
Klausur)

Kontext:
-> Lern- und Eingangsvoraussetzungen der
SuS
Modell der Unterrichtsqualität (Helmke)

Angebots-Nutzungs-Konzept:
-> Unterricht als Angebot von
Lerngelegenheiten für SuS, welches
maßgeblich von der Lehrkraft
bereitgestellt wird
-> wie Unterricht als Angebot auf
die SuS wirkt, ist nicht allein von
der Qualität des Angebots abhängig,
kommt auch darauf an, wie die SuS
den Unterricht nutzen
-> SuS bringen bestimmte
Lernvoraussetzungen mit, z.B.
Motivation für das Unterrichtsfach
oder bereichsspezifisches
Vorwissen
-> Helmke bezeichnet sein Modell als
Wirkungsmodell, da Ergebnisse von
Unterricht als Auswirkung von
Angebot und Nutzung des
Unterrichts verstanden werden

Instrumente zur Erfassung der Merkmale


von Lernenden:
-> Lern- und Eingangsvoraussetzungen
-> Mediationsprozesse
-> Lernergebnisse auf der Wirkungs- und
Ertragsebene von Unterricht
Skalenhandbuch /
Skalendokumentation
3. Merkmale von Lernenden – Instrumente -> dokumentiert, was erhoben
wurde
3.1. Lernvoraussetzungen: Demographische Merkmale -> Darstellung der Ergebnisse aus
(können als Hintergrundmerkmale beschrieben werden) einem Fragebogen
-> enthält relevante
Informationen zur
Nachvollziehbarkeit

Zu den Lernvoraussetzungen gehören z.B.:


Ø Demographische Merkmale – Variable „Geschlecht“
Ø Herkunftsmerkmale – „Migrationshintergrund“ / Indikatoren für ihre soziale
Herkunft

3.2. „Wirkungsvariablen“ – Mit Blick auf den Unterricht


Wirkungsvariablen = z.B. Fachleistung (erfasst über standardisierte Leistungstests)

3.3 Mediationsvariablen – Mit Blick auf den Unterricht


Mediationsvariablen = können bedingt sein durch die Lern- und Leistungsmotivation von
SuS

SELLMO – „Skalen zur Erfassung der Lern- und Leistungsmotivation“


Beschreibung:
Ø Diese Skala erfasst, inwiefern die Schüler*innen sich beim Lernen in der Schule an Lernzielen orientieren (lernen,
um Wissen und Kompetenzen zu erwerben).
Manifeste und latente Variablen
Manifeste Variablen
Ø Direkt beobachtbar,
Ø Einfach zu messen
Ø Einfache Kontrolle potenzieller Messfehler

z.B. Zustimmung zu der Aussage „In der Schule geht es mir darum, neue Ideen zu
bekommen.“
> Alter, Gewicht etc.

Latente Variablen (Konstrukte)


Ø Sind nicht direkt erfassbar
Ø Man versucht, über beobachtbare Indikatoren indirekt auf ein latentes Merkmal
zu schließen
Ø Können nicht direkt gemessen werden

z.B. Lernziele
> Persönlichkeitseigenschaften
> Lernerfolg

à latente Variablen werden operationalisiert, um sie messbar zu machen à Messung


durch Indikatoren

SELLMO: Manifeste und latente Variablen

Fragen Übung:
1. Warum werden mehrere, teils ähnliche Items verwendet?
2. Wie können die gewonnenen Informationen zusammenfassend berichtet werden?
o Für jedes „Item“ ein Wert pro Schüler*in zwischen 1-5
o Aufsummiert zu einer Skala (Werte zwischen 8 und 40) bzw. Werte auf
der Erhebungsskala (zwischen 1 und 5), wenn durch die Anzahl der Items
wieder geteilt wurde
o Zwei Vorteile einer Skalenbildung auf Basis von Items:
à das latente Konstrukt wird über mehrere Indikatoren erfasst
à Qualität der Messung à Testgütekriterium „Reliabilität“

4. Merkmale des Unterrichtsprozesses


4.1 Modell der Unterrichtsqualität
Ø Merkmale des Unterrichts an dem Modell nach Helmke
o Unterricht als „Angebot“
o „Qualitätsmerkmale“ von Unterricht (Klarheit, Angemessenheit,
Methodenvariation, Individualisierung, Motivierung)
o „Merkmale guten Unterrichts“ (Effizienz der Klassenführung, Quantität des
Unterrichts, Unterrichtszeit, Lerngelegenheiten, Qualität des Lehrmaterials)

Empirische Unterrichtsforschung
„in der empirischen Unterrichtsforschung charakterisiert man Unterricht im Hinblick auf
bestimmte Qualitätsdimensionen (z.B. Strukturiertheit, Verständlichkeit, Motivierung),
die nachweislich (belegt durch vorangegangene Untersuchungen) eine Rolle für den
Lernerfolg spielen.
Es handelt sich um eine „variablenorientierte“ Betrachtungsweise, die davon ausgeht, dass
sich der Unterricht verschiedener Lehrpersonen hinsichtlich bestimmter Merkmale
(Variablen), die von der Lehrkraft in verschiedenen Situationen (Fächer, Klassen,
Zeitpunkte) variieren können (z.B. höhe Ausprägung der Variable ‚Verständlichkeit‘ bei
Lehrperson A, niedrige Ausprägung der Variable bei Lehrperson B).
Die empirische Unterrichtsforschung untersucht, ob unterschiedliche Ausprägungen
solcher Variablen mit Unterschieden im Lernerfolg (z.B. Leistungszuwachs, Verbesserung
der Lernfreude) einhergehen (…)“

4.2 Konzept der Basisdimension


Prozess-Produkt-Paradigma
Ø Geprägt durch die Suche nach Beziehungen zwischen Merkmalen des
Unterrichtsprozesses und Effektvariablen (Bewirken die Erhebung der fachlichen
Leistung)

Zielkriterium: meist die fachlichen Leistungen von Lernenden


Kritik am Vorgehen: In der Regel: isolierte Betrachtung von Einzelmerkmalen des
Unterrichts
Aber: viele Untersuchungen mit stabilen Ergebnissen, darunter
Ø Klarheit und Verständlichkeit
Ø Sequenzierung und Strukturierung des Unterrichts
Ø (positive) Verstärkung
Ø Zeit- bzw. Klassenmanagement
Ø Motivierungsqualität
Ø Adaptivität (u.a. Individualisierung, Differenzierung)
Basisdimensionen der Unterrichtsqualität
Ø Drei ausgewählte Dimensionen, die wiederkehrend als relevant herausgestellt
wurden
Effektive Klassenführung & kognitive
Aktivierung = bedingen insbesondere
Zuwächse in den fachspezifischen
Lernfortschritten der SuS

Unterstützendes Sozialklima = welches


5. positive Auswirkungen auf motivationale
Merkmale von SuS besitzt und daher indirekt
zum Erwerb von Fachleistungen der SuS
beitragen kann

Ansätze zur standardisierten Erfassung von Unterrichtsmerkmalen sind:


Ø Befragung von SuS oder Lehrer*innen
Ø Beobachtung über Externe und die Analyse von videografiertem Unterricht

5. Erfassung von Unterrichtsmerkmalen

5.1 Befragung von SuS / Analyse von Schülerurteilen zum Unterricht


Ø Schüler*innen als Quelle der Unterrichtsbeschreibung/ Unterrichtsbeobachtung
Ø Verschiedene Studien verweisen auf „Expertenstatus“ der SuS, da diese durch
jahrelanges, intensives und wiederkehrendes Beobachten von verschiedenen
Lehrpersonen sich diesen Status aneignen konnten
Ø Kriterium „Validität“ -> Urteile von SuS zur Unterrichtsqualität gelten als:
o Hoch valide mit Blick auf ihr:
- Subjektives Erleben im Unterricht, v.a. affektiv, soziale Sicht (gutes Bild zu
zeichnen)
- Beschreibung von Unterrichtsroutinen
o Eingeschränkt für:
- Differenzierte Beschreibung des Unterrichtsgeschehens
o Gering für:
- Beurteilung didaktischer Konzeptionen und ihre Implementation
Ø Unterscheidung:
o Individuelle Wahrnehmung des / der einzelnen Schüler*innen von der
Geteilte Wahrnehmung der Lerngruppe (meist Mittelwert der Klasse): gilt
als bester Schätzer für Unterrichtsprozesse
Ø Auswertung von Schülerurteilen sollte nicht nur auf einzelne Schüler*innen
beschränkt sein, sondern Kennwerte der Lerngruppe müssen mit einbezogen
werden
Ø Sollten alle Schüler*innen befragt werden – Implikationen: Ökonomische
Befragung und Auswertung

Messung in BIJU
5.2 Beurteilung videografierten Unterrichts
Analyse videografierten Unterrichts
Beispiel für fächerübergreifend einsetzbare (ereignisbezogene) Items zu Störungen im
Unterricht
Beurteilungsverfahren (z.B. Video) – Unterscheidung zwischen hoch und niedrig inferent
Hoch inferente Verfahren
Ø Relativ großer Interpretationsspielraum
Ø Anwendung dann sinnvoll, wenn es um übergreifende Aspekte von Unterricht geht
Ø Kontrolle sinnvoll (Prüfung der Intersubjektivität, Interrater-Reliabilität)

z.B. Zustimmung zu der Aussage: „Im Unterricht wird fortwährend laut gequatscht“

niedrig inferent Verfahren


Ø Relativ kleiner Interpretationsspielraum (leicht beobachten und beurteilen)
Ø Es geht meist um spezifische Aspekte von beobachtbarem Unterricht, also
Merkmale die gut sichtbar sind
Ø Kontrolle ggf. nur bedingt nötig – Ergebnisse relativ zuverlässig und es reicht
eine Person als Beobachter*in

z.B. Einzelarbeit als Sozialform während der Erarbeitungsphase im Unterricht


(Ja/Nein)

Beurteilung von videographiertem Unterricht durch Externe


Ø Geschulte Personen beurteilen Unterricht
Ø Grundlage: Videographierte Stunden
Ø Hohe Validität für:
o Die Beschreibung didaktischer und methodischer Aspekte des Unterrichts im
Quervergleich und entlang von didaktischen Leitlinien sowie
o Die Beschreibung von Interaktionen in der Gesamtgruppe (Klassenunterricht)
Ø Nachteile sind u.a.
o Lediglich Ausschnitt aus videographiertes Material – ermöglicht nur einen
geringen Aufschluss über seine Kontextualisierung
o Relativ hoher Aufwand (Datenerhebung, Analyse)

Zusammenfassung:
Ø Mit einem Erhebungsinstrument verbindet sich die Entscheidung, welche
Informationen wie erfasst werden
Ø Fragebögen und Tests = häufige Verfahren in der quantitativen Forschung
Ø Konstrukte werden über manifeste Variablen erhoben, Fragebogen-Items werden
durch Skalenbildung in Fragebogen-Skalen zusammengefasst à Informationen
werden in Dokumentationen zu Fragebögen festgehalten
Forschungsmethoden. Innovation & Profession: Deskriptive Statistik I –
Datenauswertung mithilfe der univariaten Statistik – 29.06.23

Wo befinden wir uns im Forschungslogischen Ablauf empirischer Untersuchungen:


Ø Im Begründungszusammenhang – Wie (Auswertung)

1. Häufigkeiten – Deskriptive Statistik


Deskriptive Statistik (beschreibende Statistik) dient der Organisation, Zusammenfassung und
Darstellung von Daten, um sie für einen Adressaten leichter verständlich zu machen

Ø Erster Schritt bei der Durchführung einer empirischen Untersuchung = die Daten
einzelner Variablen aufzubereiten und darzustellen
Ø Möglichkeiten zur Darstellung = Erstellung von Tabellen, Grafiken oder die Berechnung
einzelner statistischer Kennwerte

Erster Schritt: Analyse von Häufigkeiten


Sobald die Datenerhebung (z.B. mit einem Fragebogen/Test als Erhebungsinstrument)
abgeschlossen ist, stellt sich die Frage:

„Wie kommt man von den Rohdaten (Urliste) zu einer ersten zusammenfassenden Darstellung?“
Ø Elementare erste Schritt= Darstellung von Häufigkeiten; diese liefern ein Bild der
Verteilung der Werte

Beispiel: Bekanntgabe eines Notenspiegels für eine Klassenarbeit

Häufigkeiten und Verteilung


Der Weg von der Urliste zum Diagramm
1. Urliste: die individuellen Messwerte der Personen/Objekte (gewonnen aus den Rohdaten)
2. Die Messwerte werden in eine Datenmatrix einer Statistik-PC-Software (z.B. Excel oder
SPSS) eingegeben und verarbeitet
3. Die tabellarische Beschreibung der Merkmalsverteilung kann nun, mithilfe einer PC-
Software, durch eine Häufigkeitsverteilung (-tabelle) erfolgen
4. Darauf aufbauend kann eine grafische Darstellung dieser Häufigkeitsverteilung erfolgen
(z.B. in Form eines Diagramms / Säulendiagramms)
Beispiel: Überführung der Rohdaten in eine Datenmatrix, illustriert am Schulnoten-Beispiel

-> Rohdaten/Urliste
werden in eine
Datenmatrix überführt
-> zur Erstellung der
Matrix wird nun für jeden
SuS eine Zeile und für
jede Variable eine Spalte
angelegt

Beispiel für die Erstellung einer Häufigkeitstabelle (-verteilung): das Merkmal „Schulnote“

-> der Notenspiegel enthält die absoluten


Häufigkeiten (fabs) der Variable Schulnote für
ihre sechs Kategorien (k) für n= 26
Schüler*innen

Beispiel für grafische Darstellung einer Häufigkeitsverteilung (absolute Häufigkeit): Das Merkmal
„Schulnote“
Relative/prozentuale Häufigkeit
Neben den absoluten Häufigkeiten werden in empirischen Untersuchungen vielfach die
prozentualen Häufigkeiten (f%) berichtet
Ø Hierfür werden zuerst die relativen Häufigkeiten (frel) berechnet, indem die absoluten
Häufigkeiten durch die Anzahl der Personen bzw. Objekte der Stichprobe (n) geteilt
werden
Ø Daraufhin werden die relativen Häufigkeiten mit 100 multipliziert (um die prozentualen
Häufigkeiten zu erhalten)

Beispiel für grafische Darstellung einer Häufigkeitsverteilung (prozentuale Häufigkeit): das


Merkmal „Schulnote“
2. Maße der zentralen Tendenz
In der statistischen Datenanalyse dienen Mittelwerte der Darstellung einer wichtigen Eigenschaft
von Häufigkeitsverteilungen mithilfe eines einzigen Kennwertes à daher werden sie auch als Maße
der zentralen Tendenz bezeichnet

Wozu dienen sie?


Ø Dienen der Darstellung einer wichtigen Eigenschaft von Häufigkeitsverteilungen mithilfe
eines einzigen Kennwertes

Welche Maße gibt es?


-> Modalwert (Modus) -> Mo
-> Median -> Med
-> Arithmetisches Mittel -> M oder AM

1. Arithmetische Mittelwert („Mittelwert“, „Durchschnittswert“)


è Definiert als die Summer der einzelnen Personenwerte auf einer Variablen, geteilt durch
die Anzahl der Fälle (d.h. der Personen bzw. Objekte in der Stichprobe)
è Vorausgesetzt wird mindestens Intervallskalenniveau

Beispiel: Schulnoten:
Ø Summiert werden alle Noten der Rohdaten der variable Schulnote (Summenwert ist dann
78), dieser wird anschließend durch die Anzahl der Schüler (26) geteilt -> man erhält den
Mittelwert

Weiteres Beispiel:
2. Modalwert (Modus)
Ø Ist definiert als die Kategorie (Wert) mit der größten Häufigkeit
Ø Er wird aus der Häufigkeitsverteilung einer Variablen ermittelt
Ø Ist für alle Skalenniveaus einsetzbar

Beispiel:
Note 3 ist am häufigsten vertreten, sie
wurde von 34,6% der SuS erreicht
Ø Im Schulnotenbeispiel hat der
Modalwert also den Wert Mo=3

3. Median
Ø Definiert als der Wert, der die in eine Rangfolge gebrachten Messwerte in zwei gleich
große Hälften teilt
Ø Anwendbar ab Ordinalskalenniveau
Ø Ermittlung: alle Werte in aufsteigende Rangfolge bringen und Wert bestimmen, unterhalb
dessen 50% aller Werte liegen (50. Prozentrang, 50. Perzentil)
Ø Zwei Fälle
a) Ungruppierte Häufigkeit, falls n ungerade
Beispiel (n=5): Werte 1,2,3,4,5, à Md = 3
b) Ungruppierte Häufigkeiten, falls n gerade
Beispiel (n=4): Werte 1,2,3,4 à Md = (2+3) / 2 = 2,5

Median vs. Arithmetisches Mittel


Median Arithmetisches Mittel
Nicht alle Werte gehen in die Berechnung ein Alle Werte gehen in die Berechnung ein
(lediglich die Anzahl aller Werte)
Extremwerte werden nicht berücksichtigt Extremwerte werden berücksichtigt
Abstände zwischen den Werten werden nicht Alle Abstände werden berücksichtigt (->
berücksichtigt (-> Ordinalskala) Intervallskala)
Schöpft die in den Daten enthaltenen Schöpft die in den Daten enthaltenen
Informationen bezüglich der zentralen Tendenz Informationen bezüglich der zentralen Tendenz
nicht voll aus besser aus
Besitzt größere Bedeutung als der Median in
statistischen Analyseverfahren
3. Dispersion (Streuung)
Dispersion (auch: Streuung) bezieht sich auf die Unterschiedlichkeit der Werte der Verteilung
einer Variablen

Warum ist die Betrachtung nötig? – Beispiel:

In Studie 1 und Studie 2 =


prozentuale Häufigkeiten
zu sehen
-> Studie 1 = heterogener
-> Studie 2 = homogener

Unterstellt man der vierstufen Skala Intervallskalenniveau, so lassen sich für beide Studien die
arithmetischen Mittelwerte berechnen
Ø Studie 1: M = 2,39
Ø Studie 2: M = 2,33

Mittelwerte unterscheiden sich lediglich in der zweiten Nachkommastelle, beide Mittelwerte


liegen nahe der Antwortkategorie „trifft eher nicht zu“ (kodiert mit 2)

-> in beiden Studien zeigt sich, dass


die befragten SuS im Durchschnitt
der Frage eher nicht zustimmten,
denn die Differenz der Mittelwert
ist sehr klein (0,06)

Dispersion:
Ø Relevanz für die empirische Forschung:
-> viele Forschungsfragen zielen darauf ab, Unterschiedlichkeiten einer
Merkmalsausprägung zu beschreiben und auch zu erklären
-> um diese Frage beantworten zu können, muss die in einer Untersuchung vorliegende
Unterschiedlichkeit erst einmal beschrieben und quantifiziert werden

Grundsätzlich zwei Möglichkeiten:


Ø Grafische Darstellung (u.a. für den ersten Einblick in die Daten)
Ø Maße (Kennwerte) für die Verteilung
Graphische Darstellungen
Liniendiagramm
Ø Dient der grafischen Veranschaulichung einer Häufigkeitsverteilung
Ø Das Säulendiagramm kann in ein Liniendiagramm überführt werden

Wie bei den Säulendiagrammen


werden auch bei den
Liniendiagrammen die
Kategoriengrenzen auf der x-
Achse und die Häufigkeiten
(absolut oder prozentual) auf der
y-Achse abgetragen

Histogramm
Ø Zur grafischen Veranschaulichung einer Häufigkeitsverteilung einer diskreten
(diskontinuierlichen) Variablen

-> auf der Abszisse (x-Achse): Kategoriengrenze


-> auf der Ordinate (y-Achse): Häufigkeiten (absolut oder prozentual)

Weiterführend kann aus einem Histogramm das sog. Polygon entwickelt werden
Polygon
Ø Eignet sich zur grafischen Veranschaulichung einer stetigen (kontinuierlichen) Häufigkeit
Ø Sofern die Stichprobe sehr groß und die Kategorien eng sind, kann auch eine Rundung des
Kurvenverlaufs erzeugt werden, sodass keine Knicke mehr im Kurvenverlauf auftreten
Verteilungen – wichtige Bezeichnungen (Begriffspaare)

4. Dispersionsmaße - Streuungsmaße
Dispersionsmaße sind zusammenfassende Maße für die Unterschiedlichkeit der Messwerte einer
Verteilung
-> zwei Studien mit je 9 Teilnehmer*innen
-> jede*r Teilnehmer*in erhält eine Punktzahl
gemäß erreichter Leistung

-> Test ist so konzipiert, dass man zwischen


0-6 Punkte erreichen kann
Studie 1 = SuS haben im Punktebereich 1-5
abgeschnitten
Studie 2 = SuS im Punktebereich 2-4

-> in beiden Studien ist der Mittelwert (M)=3

Kennwerte = Range, Varianz und Standardabweichung

Range (auch: Spannweite, Variationsbreite)


Ø Gilt als einfachstes Streuungsmaß
Ø Berechnung sieht vor: Differenz zwischen dem größten und kleinsten Wert der Verteilung
zu berechne
-> je kleiner der Range,
desto homogener muss man
sich die Messwerte einer
Verteilung vorstellen
-> je größer der Range,
desto heterogener liegen
die Messwerte vor

Berechnung der Range


streng genommen erst ab
Intervallskalenniveau, doch
in der Forschungspraxis
meist schon ab
Ordinalskalenniveau
angewendet
Varianz / Standardabweichung
Ø Vorteil des Range = Einsatz ab Ordinalskalenniveau
Ø Nicht sehr informativ, da man oft daran interessiert ist, wie stark die Verteilung um das
arithmetische Mittel streut (bei Intervallskalenniveau)
Ø Bekannt, sehr häufig verwendete Kennwerte:
-> Varianz
-> Standardabweichung
Ø Nachvollziehbar in der Reihenfolge:
AD-Streuung (Average Deviation) à Varianz à Standardabweichung

AD-Streuung (“average deviation”) (Durchschnittliche Streuung um den Mittelwert)


Ø Ein naheliegendes Maß zur Quantifizierung der Unterschiedlichkeit bei intervallskalierten
Daten ist der durchschnittliche Abstand aller Werte vom Mittelwert (im Beispiel ist 3 der
Mittelwert)

Ø Es werden alle Werte für die Berechnung verwendet


Ø AD-Streuung wird in der Praxis allerdings fast nie verwendet

Varianz
Ø Im Allgemeinen ist es sinnvoll, größere Abweichungen vom Mittelwert stärker zu gewichten
als kleinere, daher sieht die Varianz im Vergleich zur AD vor, die gebildeten Abweichungen
vom Mittelwert zu quadrieren
-> damit schlagen sich größere Abweichungen vom Mittelwert deutlicher im Kennwert
nieder als dies bei der AD der Fall ist
-> dies wird erreicht, indem man die Abweichungen jeweils quadriert
Standardabweichung („Streuung“, standard deviation, SD)
Varianz = Quadrierung der einzelnen Abweichungen à Maß der Dispersion in quadrierten Einheiten
der zugrundliegenden Skala
à Wenig anschaulich

à daher: Quadratwurzel aus der Varianz ziehen, damit entspricht die Einheit des
Dispersionsmaßes der Einheit der ursprünglichen Skala
Ø Man erhält die Standardabweichung (Streuung)
Bedeutung der Standardabweichung
Ø Die Standardabweichung beschreibt die Breite der Normalverteilung einer Variable (auch
„Gauß-Verteilung“)
Forschungsmethoden. Innovation & Profession: Deskriptive Statistik II –
06.07.23

1.Warum Zusammenhänge (Korrelationen) analysieren?


Bivariate / Multivariate Deskriptivstatistik (bivariate Deskriptivstatistik = Analyse von Zusammenhängen
zweier Variablen)
Analyse eines Zusammenhangs zwischen zwei Variablen – auch Korrelationen genannt – nimmt eine
wichtige Rolle in der erziehungswissenschaftlichen Forschung ein
-> in der erziehungswissenschaftlichen Forschung gibt es komplexe Fragestellungen, die sich nicht
anhand nur der univariaten Statistik bearbeiten lassen

Univariat = auf eine Variable bezogen


Bivariat = auf zwei Variablen bezogen
Multivariat = auf mehr als zwei
Variablen bezogen

Beispiele für bivariate Deskriptivstatistik:


1. Längsschnittstudie – z.B.: „Wie verändert sich die Lernfreude bei SuS über die Schulzeit?
2. Surveys – z.B. „Zusammenhänge zwischen Lehrer*innen-Angaben und Schülerverhalten“
3. Wirksamkeitsuntersuchung – z.B. „Wie lernwirksam ist ein bestimmtes
Rechtschreibtraining bei Kindern?“

Zu 1: Fragestellung: „Wie entwickelt sich die fachspezifische Lernfreude über die Schulzeit?

Beispiel:
-> mehrere Messzeitpunkte
vorgesehen, die danach
fragen, wie sich die
Lernfreude der SuS
verändert
-> Zusammenhang zwischen
dem variierenden
Messzeitpunkt und der
variierenden Lernfreude

Fragestellungen – Hypothesen
Ø Das Ziel einer empirischen Untersuchung: formuliert als Fragestellung, konkretisiert als
Hypothese

Hypothese:
Ø Vermutung über einen bestimmten Sachverhalt, dessen Richtigkeit noch nicht bewiesen ist
Ø Besteht häufig aus der Verknüpfung zwei Variablen (Merkmalen) sowie aus der
dazugehörigen Verknüpfungsregel
Ø Verknüpfungsregel bestimmt die kausale Ordnung und die Struktur des Zusammenhangs
Kategorisierung wissenschaftlicher Hypothesen – und Beispiele

2. Deskriptive Statistik II: Korrelation


2.1 Kreuztabelle (tabellarische Darstellung von Häufigkeiten von zwei Merkmalen X, Y)
Ø In quantitativen Studien lässt sich der Zusammenhang zweier Merkmale (Variablen x und
y hinsichtlich ihrer Häufigkeiten tabellarisch in Form einer Kreuztabelle darstellen
Ø Einfachste Form: Vier-Felder-Tafel bei dichotomen (zweistufigen) Ausprägungen

Erläuterung der Kreuztabelle anhand der…


Untersuchung der
Ø Veränderungshypothese:
Veränderungshypothese:
-> Die Schulfreude verändert sich während der Schulzeit (ungerichtet)
à 20 SuS wurden in der 3 Klasse
-> Die Schulfreude nimmt während der Schulzeit ab (gerichtet) und später in der 7 Klasse zu
ihrer allgemeinen Schulfreude
befragt
-> Fragebogen Item: „Hast du
Freude am Schulbesuch?“
-> Antwortkategorie: „Ja/Nein“
-> Variablen Zeitpunkt und
Schulfreude haben beide jeweils
dichotome (zweistufige)
Ausprägungen und werden
hinsichtlich ihrer absoluten
Häufigkeit in einer Kreuztabelle
dargestellt
Berechnung von Korrelationskoeffizienten (Eta-Quadrat und Produkt-Moment-Korrelation)
Eta Quadrat (n2) à woran hat es gelegen?
Erläuterung von Eta-Quadrat anhand der Unterschiedshypothese:
> mit einer Unterschiedshypothese wird untersucht, ob und wie stark sich Gruppen von Personen
oder Objekten hinsichtlich einer interessierenden Variablen unterscheiden
à interessierende Variable wird auch abhängige Variable (AV) genannt
à die Variable mit der Gruppen unterschieden werden, werden als unabhängige Variable (UV)
bezeichnet
Beispiel:
-> Jungen und Mädchen sind unterschiedlich gut im Lesen (ungerichtet)
-> Jungen sind weniger gut im Lesen als Mädchen (gerichtet)

à Lesefähigkeit = eine Variable in Abgängigkeit von der Unterscheidung einer Stichprobe nach
Geschlecht
è Lesefähigkeit stellt die AV (Abhängige Variable) dar
è Geschlecht der SuS ist die UV (unabhängige Variable)

Mit einer Unterschiedshypothese


wird untersucht, ob und wie stark
sich Gruppen von Personen oder
Objekten hinsichtlich einer
interessierenden Variablen
unterscheiden
-> Beispiel: zielt auf die Lesefähigkeit
als Variable in Abhängigkeit von der
Unterscheidung einer Stichprobe
nach Geschlecht

à neben der grafischen Abbildung kann der Gruppenmittelwertunterschied mithilfe eines


Kennwerts (Koeffizienten) zusammengefasst werden -> für diese Analyse eignet sich Eta-Quadrat
Bei Eta-Quadrat = Beziehung
zwischen einer nominalen und
einer mindestens
intervallskalierten
(metrischen) Variablen
beschrieben werden

Eta-Quadrat: Berechnung
Grundüberlegung: Die Gesamtvariation setzt sich zusammen aus der Variation innerhalb der
Gruppe (AV) und der Variation zwischen den Gruppen (UV)
à in dem Beispiel sind Gruppen durch das Geschlecht definiert
à mit Eta-Quadrat wird nun berechnet, wie groß der Anteil zwischen den Gruppen in Relation zur
Gesamtvariation ist
Ø Je größter der Anteil ausfällt, umso größer sind auch die Mittelwertunterschiede in der
AV; je kleiner dieser Anteil ausfällt, umso kleiner sind auch die Mittelwertunterschiede in
der AV, die durch die definierten Gruppen hervorgerufen werden

Formel zur Berechnung


von Eta-Quadrat
Der Einfluss des Geschlechts auf die Leseleistung (ohne die Frage besser/schlechter)

Was bedeutet nun der Wert 0,167?


Ø Der Anteil der aufgeklärten Varianz an der Gesamtvarianz eines Merkmals durch ein
anderes Merkmal
Ø Multipliziert man den Wert 0,167 mit 100, erhält man den prozentualen Anteil der
aufgeklärten Varianz an der Gesamtvarianz der AV, der durch die UV beschrieben wird

Also in dem gegebenen Beispiel:


Ø kann durch die Geschlechtszugehörigkeit 16,7% der Gesamtvarianz in der (in der
Stichprobe vorliegenden) Leseleistung erklärt werden

-> in dem Beispiel handelt es sich um einen Unterschied mit mittlerer praktischer Bedeutung
(0.167)
Erläuterung der Produkt-Moment-Korrelation („Pearson’s r“) anhand der
Zusammenhangshypothese
Ø mit der Produkt-Moment-Korrelation wird der Zusammenhang zweier mindestens
intervallskalierter Variablen analysiert
Ø dass am häufigsten verwendete Zusammenhangsmaß, daher gelegentlich auch einfach als
„Korrelation“ bezeichnet

Beispiel: Zusammenhangshypothese
-> Abi-Note und Intelligenz hängen miteinander zusammen (ungerichtet)
-> Je höher die Intelligenz, desto besser die Abi-Note (gerichtet)

Ø Gefragt ist die Korrelation von zwei intervallskalierten Variablen (in diesem Fall sei bei der Abi-
Note Intervallskalenniveau unterstellt)
Ø Die gerichtete Zusammenhangshypothese
-> ist genauer als eine mögliche Unterschiedshypothese wie z.B. „Personen mit
unterschiedlichen Abi-Noten schneiden unterschiedlich gut in einem Intelligenztest ab“
(à Eta2)
-> fasst zusammen, wenn viele unterschiedliche Messwerte vorhanden sind (im Gegensatz
z.B. zu Eta2)

Beispiel: Studie zu Eingangsvoraussetzungen von Studierenden


Berechnung der Produkt-Moment-
Variablen: Abiturnote, Ergebnis aus Intelligenztest Korrelation = Vorteile
-> der statistische Zusammenhang lässt
sich mit einem einzelnen Kennwert
zusammenfassen und daher leichter
kommunizieren
-> Kennwert liefert weitere
Informationen, die eine genauere und
umfangreichere Interpretation des
ermittelten Zusammenhangs
ermöglichen können
-> Kennwert bildet für weiteführende
statistische Analyseverfahren die
Grundlage, sodass aufbauend auf der
Berechnung der Produkt-Moment-
Korrelation erst diese Verfahren
eingesetzt werden können

à Grundlage für die Berechnung der Produkt-Moment-Korrelation = Kovarianz zweier mindestens


Intervallskalierten Variablen
à Kovarianz wird somit zur Herleitung der Korrelation benötigt (Kovarianz covxy wird ähnlich wie
die Varianz s2 berechnet)
Kovarianz und Korrelation – Gemeinsamkeiten:
Ø Kovarianz und Korrelation sind Maße für den (linearen) Zusammenhang zwischen zwei
Variablen
Ø Im Vergleich zu tabellarischen / grafischen Darstellungen einzelner Personenwerte zeigen
diese Maße zusammenfassende (und weitere) Informationen an
Ø Die Kovarianz (= „gemeinsame Varianz“) wird zur Herleitung der Korrelation benötigt

Kovarianz

Varianz eines Merkmals x


erfasst die
durchschnittliche,
quadrierte Abweichung aller
Werte vom Mittelwert

Kovarianz erfasst das


durchschnittliche Produkt
korrespondierter
Abweichungen der
Messwerte von den
Mittelwerten der Merkmale
x und y

Ø Je häufiger eine Person auf beiden Variablen über dem Durchschnitt oder auf beiden
Variablen unter dem Durchschnitt liegt, desto größer der Wert für die Kovarianz

Interpretation: Die Kovarianz ist ein unstandardisiertes Maß, d.h. sie hängt von der Skalierung der
beteiligten Variablen ab. Daher können Kovarianzen nicht direkt (hinsichtlich der Stärke ihres
Zusammenhangs) interpretiert oder zwischen Untersuchungen verglichen werden
Ø Aus diesem Grund wird die Kovarianz standardisiert
-> dies geschieht, indem die Kovarianz durch das Produkt der Standardabweichung beider
beteiligten Variablen x und y geteilt (dividiert) wird
-> anders formuliert: die Korrelation rxy ist die standardisierte Kovarianz covxy
-> die standardisierte Kovarianz ist der Korrelationskoeffizient
Berechnung der Kovarianz:
-> zunächst müssen die arithmetischen
Mittelwerte x und y für beide
beteiligten Variablen sowie ihre
Standardabweichungen sx und sy
berechnet werden
-> darauf aufbauend werden für jede
Variable die Abweichungen der
individuellen Messwerte vom
jeweiligen Mittelwert berechnet
-> die Abweichungen werden für jede
Person im Datensatz multipliziert
-> Zur Ermittlung der Kovarianz muss
die Summe anschließend durch die
Anzahl der Fälle geteilt werden,
sodass man zur Kovarianz kommt
-> die Produkt-Moment-Korrelation
berechnet such anschließend aus der
covxy und der Standardabweichungen
sx und sy

Kovarianz und Korrelation


Ø Kovarianz und Korrelation = Maße für den (linearen) Zusammenhang zwischen zwei
Variablen
Ø Eine positive Korrelation (bzw. Kovarianz) ist dann gegeben, wenn ein hoher Wert auf einer
Variablen häufig mit einem hohen Wert auf der anderen Variable einhergeht
Ø Eine negative Korrelation (bzw. Kovarianz) ist dann gegeben, wenn ein hoher Wert auf einer
Variable häufig mit einem niedrigen Wert auf der anderen Variable einhergeht

Korrelation – zur Interpretation von r


Produkt-Moment-Korrelation / Pearson-Korrelationskoeffizient (r)
Ø Wird mit am häufigsten verwendet für lineare Zusammenhänge
Ø Kann Werte zwischen 0 und +/-1 annehmen
Ø 1,0 (bzw. (-1,0) stellt einen perfekten Zusammenhang dar
Ø O verweist auf fehlenden (linearen) Zusammenhang
Berechnung der Kovarianz:
-> zunächst müssen die arithmetischen
Mittelwerte x und y für beide
beteiligten Variablen sowie ihre
Standardabweichungen sx und sy
berechnet werden
-> darauf aufbauend werden für jede
Variable die Abweichungen der
individuellen Messwerte vom jeweiligen
Mittelwert berechnet
-> die Summe im Beispiel = -60
-> die Abweichungen werden für jede
Person im Datensatz multipliziert
-> Zur Ermittlung der Kovarianz muss
diese Summe (-60) anschließend durch
die Anzahl der Fälle n=6 geteilt
werden, sodass man zur Kovarianz
kommt covxy= -10
-> die Produkt-Moment-Korrelation
berechnet such anschließend aus der
covxy=-10 und der
Standardabweichungen sx= 0,96 und
sy= 12,9 -> im Datenbeipsiel lautet rxy
= -0,81

Der Determinationskoeffizient
Ø Der Determinations-Koeffizient (r2) ist die quadrierte Korrelation (r)
Ø Er beschreibt den relativen Anteil der gemeinsamen Varianz von zwei Merkmalen
(d.h.) mit 100 multipliziert kann er als prozentuale Anteil gemeinsamer Varianz interpretiert
werden

Im Beispiel:
-> r2 = (-0,81) * (-0,81) =
0,66
-> 0,66 * 100 = 66%

Rund 66% der Varianz


der Variable Abiturnote
können durch die
Intelligenzleistung
vorhergesagt werden
2.3 Produkt-Moment-Korrelation Abi- IQ
Note xi x yi y ( xi x ) ( yi y)

Korrelation 1 1 140 -1,5 20 -30

Beispiel- 2 2 120 -0,5 0 0


3 2 130 -0,5 10 -5
interpretation
4 3 120 0,5 0 0
5 3 100 0,5 -20 -10
6 4 110 1,5 -10 -15
x 2 ,5 y 120 = -60
sx = 0,96 sy = 12,9

Abi-Note und IQ korrelieren mit r = -0,81. D.h.:

1. Es ist ein negativer Zusammenhang.


2. Der Zusammenhang ist von großer praktischer Bedeutsamkeit.
3. Gemeinsame Varianz beider Merkmale: ca. 66%
35

Interpretation von Korrelation


Ø Korrelationen zeigen nur einen statistischen Zusammenhang an
Ø Dürfen NICHT als Beweis für Kausalität verwendet werden
Ø Unklar bleibt was Ursache und was Wirkung ist (Kausalität)
-> Beispiel:
Abi-Note (Merkmal x)
IQ-Test (Merkmal y)

Ø Ein statistischer Zusammenhang zwischen einer Variablen y und einer Variablen x ist eine
notwendige, aber keine hinreichende Bedingung dafür, dass zwischen den beiden Variablen
auch eine kausale Abhängigkeit besteht
Zusammenfassung

3. Zusammenfassung
Forschungslogischer Ablauf empirischer Untersuchungen
soziales Problem Theorie Auftrag
Entdeckungs-
Problem zusammenhang
Was?
Theorie, bisherige Forschung

Sitzung 1
Fragestellungen,
Hypothesen
Definition von Begriffen Begründungs-
Operationalsierung
Sitzung Erhebungsinstrumente
zusammenhang
Variablen Sitzung 2 (Messen)
3 Wie?
Stichprobe Sitzung 2 (Stichprobe und Grundgesamtheit) Bei wem?

Datenerhebung
Häufigkeiten
Mittelwerte
Auswertung Sitzung 4 + 5 Verteilungen
(Deskriptive Streuungsmaße
Interpretation Statistik) Korrelationsmaße
Verwertungs-/
Hypothesen, Theorie
Wirkungs-
Darstellung Publikationen, Vorträge zusammenhang
nach Friedrichs, 1990, S. 51 Für wen? 40

Das könnte Ihnen auch gefallen