Beruflich Dokumente
Kultur Dokumente
Forschung (25.05.23)
Deskriptive Statistik
Bivariable oder multivariable Statistik
Quantifizierende Beschreibung
Voraussetzung für die Anwendbarkeit statistischer Verfahren: das Vorliegen von quantitativen
Informationen
Ø „Schüler X ist emotional auffällig in der Schule“ = ist eine qualitative Beschreibung
Ø Eine quantitative Beschreibung gibt an, wie sehr der Schüler X emotional auffällig in der
Schule ist, wie stark das Merkmal „emotionale Auffälligkeit“ ausgeprägt ist
Warum müssen Sie quantitative Methoden bzw. Statistik lernen?
Statistik im wissenschaftlichen Prozess
Ø Empirische Studien der Bildungswissenschaften – Lesen, Verstehe, Beurteilen
Ø Planung und Auswertung eigener Untersuchungen
Ziele
Ø Ausbildung kritischer Anwender*innen
Ø Keine mathematischen Grundlagen à Lehrbücher
Ø Erlernen der Rechenschritte dient dem Verständnis der Verfahren
Ø Nur grundlegende Formeln
Ø Lernziele: Prinzip und Logik der Verfahren; Anwendungsbereich; Grenzen; Problem;
Interpretieren
Ø Ggf. später in bzw. für Veranstaltungen des Praxissemesters. Berechnung mittels SPSS
oder anderer Computer-Statistikprogramme
2. Begründungszusammenhang (größter Teil) stellt die Fragen nach „Wie?“ Und „bei Wem?“
à Beginnt mit der Operationalisierung der Begriffe
• Viele theoretische Begriffe lassen sich nicht direkt beobachten (z.B. Soziale
Schicht), daher müssen die Begriffe beobachtbaren Sachverhalten zugeordnet
werden
à diese Zuordnung von einem oder mehreren beobachtbaren Indikatoren zu einem
theoretischen Begriff wird als Operationalisierung bezeichnet
• Theoretischen Konstrukte werden in einem empirischen Forschungsprozess durch
Indikatoren repräsentiert
à Indikator = beobachtbarer Sachverhalt
à Hypothesen
• Eine begründete und theoriegeleitete Vermutung zwischen mindestens zwei
Sachverhalten, die empirisch überprüft wird
à schauen welche Erhebungsinstrumente gewählt werden sollen
à Wer soll untersucht werden (Stichprobe – willkürlich, Zufall)
à Datenerhebung
à Auswertung
à Interpretation
à Hypothesen, Theorie
3. Verwertungszusammenhang à für wen sind die Ergebnisse?
à Darstellung à Publikation / Vortrag
Hypothese:
Ø Vermutung über einen bestimmten Sachverhalt, dessen Richtigkeit noch nicht bewiesen ist
Ø Besteht häufig aus der Verknüpfung von zwei Variablen (Merkmalen) sowie aus der
dazugehörigen Verknüpfungsregel
Ø Verknüpfungsregel bestimmt die kausale Ordnung und die Struktur des Zusammenhangs
Veränderungshypothese: die über die Zeit verteilten Ausprägungen einer (oder mehrerer)
unabhängiger Variablen verändert die Ausprägung einer (oder mehrerer) abhängiger Variablen
Ø Die Schulfreude verändert sich während der Schulzeit. (ungerichtet)
Ø Die Schulfreude nimmt während der Schulzeit ab. (gerichtet)
Gerichtete Hypothese = geben die Richtung des Unterschieds des Zusammenhangs an (theoretisch
begründet)
Ungerichtete Hypothese = postulieren nur einen Unterschied, einen Zusammenhang, eine
Veränderung, ohne diesen genauer zu benennen (freier formuliert)
Hypothesen – Kriterien (nicht jede Hypothese ist auch gleich eine Hypothese)
Ø Eine wissenschaftliche Hypothese ist eine allgemeingültige, über den Einzelfall oder ein
singuläres Ereignis hinausgehende Behauptung
Ø Einer wissenschaftlichen Hypothese muss zumindest implizit die Formalstruktur eines
sinnvollen Konditionalsatzes („wenn-dann-Satz“ bzw. „je-desto-Satz“) zugrunde liegen +
weisen über den Einzelfall hinaus
Ø Der Konditionalsatz muss potenziell falsifizierbar sein, d.h. es müssen Ereignisse denkbar
sein, die dem Konditionalsatz widersprechen (hypothesenkonträre Ergebnisse sind
möglich)
Exkurs Operationalisierung:
Ø Die meisten Hypothesen enthalten theoretische Konzepte wie „Vertrauen“ oder
„Legitimität“, die sich nicht direkt, sondern bestenfalls indirekt beobachten lassen
à es handelt sich um sogenannte latente Konstrukte, die sich der unmittelbaren
Beobachtung entziehen
Ø Hypothesen beziehen sich häufig auf einen vermuteten Zusammenhang zwischen zwei nicht
direkt beobachtbaren Konzepten
Beispiel: „Je höher der soziale Status, desto größer die Wahrscheinlichkeit der Wahlbeteiligung“
Ø Die beiden Konzepte: „sozialer Status“ und „Wahlbeteiligung“ sind in der Regel nicht direkt
beobachtbar
à für empirische Überprüfung müssen diese Konzepte mit beobachtbaren Indikatoren
verknüpft werden, die Rückschlüsse auf diese nicht direkt beobachtbaren Konzepte
erlauben à diese Phase wird Operationalisierung genannt
Erwartungshorizont:
1. Warum sind die Abbildungen Beispiele für quantitative Methoden?
à Merkmale die messbar sind
à unterschiedliche Merkmalsausprägungen
à standardisierter Fragebogen als Erhebungsmethode
à nummerische Werte
à Erhebung über einen längeren Zeitraum (Längswertstudie)
à verschiedene Messwerte zum Ausdruck bringen
à standardisiert
à zügige Verarbeitung der Daten + höhere Vergleichbarkeit
Zusatz:
Definition: Quantitative Forschung
Ø Bei quantitativer Forschung handelt es sich um ein Datenerhebungsverfahren der
empirischen Sozialforschung. Mit der Anwendung quantitativer Methoden werden
numerische Daten erhoben. Diese lassen sich im Anschluss statistisch verarbeiten, um
Hypothesen zu überprüfen oder neue Erkenntnisse zu gewinnen
1.06.23 – Forschungsmethoden „Innovation & Profession“: Qualitative
und quantitative Zugänge – Stichprobenwahl und Grundlagen der
Messung (Selbststudium)
Definition Stichprobe = „Auswahl von Personen aus einer bestimmten Gruppe (Grundgesamtheit
oder Population), die befragt oder untersucht wird, um Informationen über diese Grundgesamtheit
zu erhalten“
2. Beispiel:
Ø Forschungsanliegen: Wie beurteilen 15-Jährige in Deutschland die
Unterrichtspraktiken im Jahr 2009?
Ø Stichprobe: Eine Zufallsauswahl von 15-Jährigen in Deutschland, die ein
repräsentatives Abbild aller 15-Jährigen in Deutschland sind, da Vollerhebung zu teuer
und aufwändig ggf. sogar nicht realisierbar
à Stichprobe nicht = Grundgesamtheit
Inferenzstatistik
Ø Inferenzstatistische Aussagen gehen über das Beobachtbare hinaus und sind deshalb
mit Unsicherheit behaftet
à erfordert das Arbeiten mit Wahrscheinlichkeiten
Ø Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige
Population
à dieses Prinzip nennt man auch Induktionsschluss (der Schluss vom Speziellen, vom
Einzelfall auf das Allgemeine)
Ø Aussagen der Inferenzstatistik haben in der Regel einen größeren Geltungsbereich als
die der Deskriptivstatistik
2. Beispiel:
Ø Forschungsanliegen: Wie beurteilen 15-Jährige in Deutschland die
Unterrichtspraktiken im Jahr 2009?
Ø Stichprobe: Eine Zufallsauswahl von 15-Jährigen in
Deutschland, die ein repräsentatives Abbild aller 15-
Jährigen in Deutschland sind, da Vollerhebung zu teuer und
aufwändig ggf. sogar nicht realisierbar
à Stichprobe nicht = Grundgesamtheit
à Deskriptivstatistik erlaubt nur Aussagen über das Kollektiv (die konkrete Gruppe an Probanden)
/ Inferenzstatistik notwendig, um Aussagen über die Grundgesamtheit zu treffen
Deskriptive Statistik
Deskriptive (auch: beschreibende) Statistik
Ziel = Aussagen über eine bestimmte Gruppe
Ø Organisation, Zusammenfassung und Darstellung von Daten, um sie für einen
Adressaten leichter verständlich zu machen
Ø Deskriptive Statistik leitet zu einer übersichtlichen und anschaulichen
Informationsaufbereitung an
„Statistische Methoden zur Beschreibung der Daten in Form von Grafiken,
Tabellen oder einzelnen Kennwerten bezeichnen wir zusammenfassend als
deskriptive Statistik“
Kennzeichnung: Inferenzstatistik
Inferenzstatistik (auch: schließende Statistik)
Ziel: Ableitung von allgemeingültigen Aussagen
à Gegensatz zur Deskriptiven Statistik möchte die Inferenzstatistik eine Aussage über die
Grundgesamtheit treffen
Ø Verallgemeinerung über die beobachteten Personen hinaus
Ø Trennung von zufälligen und systematischen Einflüssen
Ø Absicherung von Erklärungen gegen den Zufall
Ø Dient der Überprüfung von wissenschaftlichen Hypothesen
Beispiele:
Ø 15-jährige in Deutschland
Ø Schüler*innen der 4. Jahrgangsstufe in Deutschland
Ø Erstsemesterstudierende der Uni Köln im Wintersemester 2011/12, die ein
Lehramtstudium aufgenommen haben
Ø Schüler*innen einer Klasse
Stichprobe
Ø Teilmenge einer Population (einer Grundgesamtheit), die nach bestimmten Regeln
gewonnen wird
Ø Mit der Stichprobe werden Untersuchungen durchgeführt, um die Ergebnisse dann auf
die Grundgesamtheit zu übertragen (Stichprobe steht also stellvertretend für die
Grundgesamtheit)
Ø Für die Elemente der Stichprobe liegen Beobachtungswerte vor (und diese sollen auf
die Population „verallgemeinert“ werden)
Ø Vollerhebung = Stichprobe und Grundgesamtheit sind identisch
Ø Zu unterscheiden = Stichprobenarten
1.2. Stichprobenarten
Es gibt unterschiedliche Verfahren, wie Personen für eine Stichprobe ausgewählt werden
Ø Grundsätzlich Unterscheidung zwischen zufallsgesteuerte und nicht-
zufallsgesteuerte Auswahlverfahren
Ø Aus einer Grundgesamtheit (Population) von N Objekten wird eine Stichprobe von n
Objekten gezogen
Beispiel 1: Würfen
Population von Objekten N = 6 (Werte 1, 2, 3, 4, 5, 6)
Ø Jeder Wert (1, 2, 3, 4, 5, 6) ist gleich wahrscheinlich (p=1/6)
Ø Eine Zufallsstichprobe von n = 2 ergibt z.B. Werte 2 und 5
Nichtzufallsgesteuerte Auswahlverfahren
Ø Bei Nicht-Zufallsgesteuerten Auswahlverfahren ist die Repräsentativität immer
fraglich
à zumindest bliebt die Frage offen, inwieweit von der Stichprobe auf die / eine
Grundgesamtheit geschlossen werden kann
Ø Besonders problematisch ist, wenn die Grundgesamtheit nicht (präzise) definiert
werden kann
Beispiel 1: Ein Dozent will ein kurzes Experiment machen, und beauftragt die Hilfskräfte der
Beteilung, daran teilzunehmen, da diese direkt im Nebenraum sitzen.
Beispiel 2: Für eine Umfrage wird eine Gruppe von Freunden befragt (z.B., weil der Interviewer
diese gleichzeitig antrifft).
Theoriegeleitete Auswahl
Ø Die Auswahl der Stichprobe erfolgt nach theoretischen Gesichtspunkten
Beispiel: Zur Evaluation einer neuen Therapieform werden Patienten mit einer besonders schweren
Zwangserkrankung ausgewählt
2. Grundlagen der Messung
2.1 Merkmale und Merkmalsträger
> bei einer Datenerhebung geht es darum, bestimmte Eigenschaften (d.h. Merkmale) der
untersuchten Personen oder Objekte (d.h.) Merkmalsträger zu erfassen
Quantifizierende Beschreibung
Ø Voraussetzung für die Anwendbarkeit statistischer Verfahren = das Vorliegen von
quantitativen Informationen
Ø „Im Studium geht es darum, etwas Interessantes zu Lernen“
à ist eine qualitative Beschreibung
Ø Eine quantitative Beschreibung gibt an, wie sehr ein Student/Studentin lernmotiviert
ist, wie stark das Merkmal „Lernmotivation“ ausgeprägt ist
Beispiele:
Klassifikation von Merkmalen: Qualitativ vs. Quantitativ
Zusammenfassung:
Operationalisierung = der Vorgang der Zuordnung beobachtbarer Größen zu
unbeobachtbaren Begriffen (von Eigenschaften oder
Merkmalen)
Ø Eine operationale Definition definiert einen Begriff durch die Angabe der Operationen,
die zur Erfassung des bezeichneten Sachverhalts notwendig sind
Genauer:
Messen besteht im Zuordnen von Zahlen zu Objekten, so dass bestimmte
Relationen zwischen den Zahlen
Messtheorie: Begriffe
Empirisches Relativ = Menge an Objekten, zwischen denen beobachtbare Relationen
bestehen
Numerisches Relativ = Menge von Zahlen, für die bestimmte Relationen definiert sind
à bezieht sich immer auf Daten (beschreibt eine
Zahlenmenge)
Eine Relation stellt eine Beziehung zwischen den Elementen einer Menge her, z.B. durch die
Beziehung „kleiner als“
Ø Eine homomorphe Abbildung stellt sicher, dass eine eindeutige Zuordnung von
Eigenschaften des Objekts zu Zahlenwerten vorgenommen wird
à dabei wird jedem Element des empirischen Relativs genau eine Zahl im
numerischen Relativ zugeordnet
Ø Bei der homomorphen Abbildung kann eindeutig vom empirischen Relativ auf das
numerische Relativ geschlossen werden, jedoch nicht umgekehrt
Definition „Messen“:
„Das Messen ist eine Zuordnung von Zahlen zu Objekten oder Ereignissen, sofern diese
Zuordnung eine homomorphe Abbildung eines empirischen Relativs in ein numerisches ist“
(homomorph = strukturerhaltend, analog)
Erhebungsinstrumente (Verfahren)
Häufig in quantitativen Untersuchen eingesetzt:
Ø Fragebogen (möglichst standardisiert)
Ø Papier-Bleistift-Tests (d.h. Tests mit schriftlichem Frage- und Antwortformat)
Erhebungsinstrumente: Hauptgütekriterien
Ø Objektivität
àFrage: ist das Ergebnis der Messung unabhängig vom Untersucher/ der
Untersucherin
Ø Reliabilität
à Ist die Messung zulässig? (Genauigkeit der Messung)
Ø Validität
à Wird das gemessen, was gemessen werden soll?
Prozess:
-> gehört die Vermittlung der in der
Modulbeschreibung ausgewiesenen Inhalte im
Rahmen der Vorlesung des Moduls
Output:
-> Lernertrag auf Seiten der SuS (bestandene
Klausur)
Kontext:
-> Lern- und Eingangsvoraussetzungen der
SuS
Modell der Unterrichtsqualität (Helmke)
Angebots-Nutzungs-Konzept:
-> Unterricht als Angebot von
Lerngelegenheiten für SuS, welches
maßgeblich von der Lehrkraft
bereitgestellt wird
-> wie Unterricht als Angebot auf
die SuS wirkt, ist nicht allein von
der Qualität des Angebots abhängig,
kommt auch darauf an, wie die SuS
den Unterricht nutzen
-> SuS bringen bestimmte
Lernvoraussetzungen mit, z.B.
Motivation für das Unterrichtsfach
oder bereichsspezifisches
Vorwissen
-> Helmke bezeichnet sein Modell als
Wirkungsmodell, da Ergebnisse von
Unterricht als Auswirkung von
Angebot und Nutzung des
Unterrichts verstanden werden
z.B. Zustimmung zu der Aussage „In der Schule geht es mir darum, neue Ideen zu
bekommen.“
> Alter, Gewicht etc.
z.B. Lernziele
> Persönlichkeitseigenschaften
> Lernerfolg
Fragen Übung:
1. Warum werden mehrere, teils ähnliche Items verwendet?
2. Wie können die gewonnenen Informationen zusammenfassend berichtet werden?
o Für jedes „Item“ ein Wert pro Schüler*in zwischen 1-5
o Aufsummiert zu einer Skala (Werte zwischen 8 und 40) bzw. Werte auf
der Erhebungsskala (zwischen 1 und 5), wenn durch die Anzahl der Items
wieder geteilt wurde
o Zwei Vorteile einer Skalenbildung auf Basis von Items:
à das latente Konstrukt wird über mehrere Indikatoren erfasst
à Qualität der Messung à Testgütekriterium „Reliabilität“
Empirische Unterrichtsforschung
„in der empirischen Unterrichtsforschung charakterisiert man Unterricht im Hinblick auf
bestimmte Qualitätsdimensionen (z.B. Strukturiertheit, Verständlichkeit, Motivierung),
die nachweislich (belegt durch vorangegangene Untersuchungen) eine Rolle für den
Lernerfolg spielen.
Es handelt sich um eine „variablenorientierte“ Betrachtungsweise, die davon ausgeht, dass
sich der Unterricht verschiedener Lehrpersonen hinsichtlich bestimmter Merkmale
(Variablen), die von der Lehrkraft in verschiedenen Situationen (Fächer, Klassen,
Zeitpunkte) variieren können (z.B. höhe Ausprägung der Variable ‚Verständlichkeit‘ bei
Lehrperson A, niedrige Ausprägung der Variable bei Lehrperson B).
Die empirische Unterrichtsforschung untersucht, ob unterschiedliche Ausprägungen
solcher Variablen mit Unterschieden im Lernerfolg (z.B. Leistungszuwachs, Verbesserung
der Lernfreude) einhergehen (…)“
Messung in BIJU
5.2 Beurteilung videografierten Unterrichts
Analyse videografierten Unterrichts
Beispiel für fächerübergreifend einsetzbare (ereignisbezogene) Items zu Störungen im
Unterricht
Beurteilungsverfahren (z.B. Video) – Unterscheidung zwischen hoch und niedrig inferent
Hoch inferente Verfahren
Ø Relativ großer Interpretationsspielraum
Ø Anwendung dann sinnvoll, wenn es um übergreifende Aspekte von Unterricht geht
Ø Kontrolle sinnvoll (Prüfung der Intersubjektivität, Interrater-Reliabilität)
z.B. Zustimmung zu der Aussage: „Im Unterricht wird fortwährend laut gequatscht“
Zusammenfassung:
Ø Mit einem Erhebungsinstrument verbindet sich die Entscheidung, welche
Informationen wie erfasst werden
Ø Fragebögen und Tests = häufige Verfahren in der quantitativen Forschung
Ø Konstrukte werden über manifeste Variablen erhoben, Fragebogen-Items werden
durch Skalenbildung in Fragebogen-Skalen zusammengefasst à Informationen
werden in Dokumentationen zu Fragebögen festgehalten
Forschungsmethoden. Innovation & Profession: Deskriptive Statistik I –
Datenauswertung mithilfe der univariaten Statistik – 29.06.23
Ø Erster Schritt bei der Durchführung einer empirischen Untersuchung = die Daten
einzelner Variablen aufzubereiten und darzustellen
Ø Möglichkeiten zur Darstellung = Erstellung von Tabellen, Grafiken oder die Berechnung
einzelner statistischer Kennwerte
„Wie kommt man von den Rohdaten (Urliste) zu einer ersten zusammenfassenden Darstellung?“
Ø Elementare erste Schritt= Darstellung von Häufigkeiten; diese liefern ein Bild der
Verteilung der Werte
-> Rohdaten/Urliste
werden in eine
Datenmatrix überführt
-> zur Erstellung der
Matrix wird nun für jeden
SuS eine Zeile und für
jede Variable eine Spalte
angelegt
Beispiel für die Erstellung einer Häufigkeitstabelle (-verteilung): das Merkmal „Schulnote“
Beispiel für grafische Darstellung einer Häufigkeitsverteilung (absolute Häufigkeit): Das Merkmal
„Schulnote“
Relative/prozentuale Häufigkeit
Neben den absoluten Häufigkeiten werden in empirischen Untersuchungen vielfach die
prozentualen Häufigkeiten (f%) berichtet
Ø Hierfür werden zuerst die relativen Häufigkeiten (frel) berechnet, indem die absoluten
Häufigkeiten durch die Anzahl der Personen bzw. Objekte der Stichprobe (n) geteilt
werden
Ø Daraufhin werden die relativen Häufigkeiten mit 100 multipliziert (um die prozentualen
Häufigkeiten zu erhalten)
Beispiel: Schulnoten:
Ø Summiert werden alle Noten der Rohdaten der variable Schulnote (Summenwert ist dann
78), dieser wird anschließend durch die Anzahl der Schüler (26) geteilt -> man erhält den
Mittelwert
Weiteres Beispiel:
2. Modalwert (Modus)
Ø Ist definiert als die Kategorie (Wert) mit der größten Häufigkeit
Ø Er wird aus der Häufigkeitsverteilung einer Variablen ermittelt
Ø Ist für alle Skalenniveaus einsetzbar
Beispiel:
Note 3 ist am häufigsten vertreten, sie
wurde von 34,6% der SuS erreicht
Ø Im Schulnotenbeispiel hat der
Modalwert also den Wert Mo=3
3. Median
Ø Definiert als der Wert, der die in eine Rangfolge gebrachten Messwerte in zwei gleich
große Hälften teilt
Ø Anwendbar ab Ordinalskalenniveau
Ø Ermittlung: alle Werte in aufsteigende Rangfolge bringen und Wert bestimmen, unterhalb
dessen 50% aller Werte liegen (50. Prozentrang, 50. Perzentil)
Ø Zwei Fälle
a) Ungruppierte Häufigkeit, falls n ungerade
Beispiel (n=5): Werte 1,2,3,4,5, à Md = 3
b) Ungruppierte Häufigkeiten, falls n gerade
Beispiel (n=4): Werte 1,2,3,4 à Md = (2+3) / 2 = 2,5
Unterstellt man der vierstufen Skala Intervallskalenniveau, so lassen sich für beide Studien die
arithmetischen Mittelwerte berechnen
Ø Studie 1: M = 2,39
Ø Studie 2: M = 2,33
Dispersion:
Ø Relevanz für die empirische Forschung:
-> viele Forschungsfragen zielen darauf ab, Unterschiedlichkeiten einer
Merkmalsausprägung zu beschreiben und auch zu erklären
-> um diese Frage beantworten zu können, muss die in einer Untersuchung vorliegende
Unterschiedlichkeit erst einmal beschrieben und quantifiziert werden
Histogramm
Ø Zur grafischen Veranschaulichung einer Häufigkeitsverteilung einer diskreten
(diskontinuierlichen) Variablen
Weiterführend kann aus einem Histogramm das sog. Polygon entwickelt werden
Polygon
Ø Eignet sich zur grafischen Veranschaulichung einer stetigen (kontinuierlichen) Häufigkeit
Ø Sofern die Stichprobe sehr groß und die Kategorien eng sind, kann auch eine Rundung des
Kurvenverlaufs erzeugt werden, sodass keine Knicke mehr im Kurvenverlauf auftreten
Verteilungen – wichtige Bezeichnungen (Begriffspaare)
4. Dispersionsmaße - Streuungsmaße
Dispersionsmaße sind zusammenfassende Maße für die Unterschiedlichkeit der Messwerte einer
Verteilung
-> zwei Studien mit je 9 Teilnehmer*innen
-> jede*r Teilnehmer*in erhält eine Punktzahl
gemäß erreichter Leistung
Varianz
Ø Im Allgemeinen ist es sinnvoll, größere Abweichungen vom Mittelwert stärker zu gewichten
als kleinere, daher sieht die Varianz im Vergleich zur AD vor, die gebildeten Abweichungen
vom Mittelwert zu quadrieren
-> damit schlagen sich größere Abweichungen vom Mittelwert deutlicher im Kennwert
nieder als dies bei der AD der Fall ist
-> dies wird erreicht, indem man die Abweichungen jeweils quadriert
Standardabweichung („Streuung“, standard deviation, SD)
Varianz = Quadrierung der einzelnen Abweichungen à Maß der Dispersion in quadrierten Einheiten
der zugrundliegenden Skala
à Wenig anschaulich
à daher: Quadratwurzel aus der Varianz ziehen, damit entspricht die Einheit des
Dispersionsmaßes der Einheit der ursprünglichen Skala
Ø Man erhält die Standardabweichung (Streuung)
Bedeutung der Standardabweichung
Ø Die Standardabweichung beschreibt die Breite der Normalverteilung einer Variable (auch
„Gauß-Verteilung“)
Forschungsmethoden. Innovation & Profession: Deskriptive Statistik II –
06.07.23
Zu 1: Fragestellung: „Wie entwickelt sich die fachspezifische Lernfreude über die Schulzeit?
Beispiel:
-> mehrere Messzeitpunkte
vorgesehen, die danach
fragen, wie sich die
Lernfreude der SuS
verändert
-> Zusammenhang zwischen
dem variierenden
Messzeitpunkt und der
variierenden Lernfreude
Fragestellungen – Hypothesen
Ø Das Ziel einer empirischen Untersuchung: formuliert als Fragestellung, konkretisiert als
Hypothese
Hypothese:
Ø Vermutung über einen bestimmten Sachverhalt, dessen Richtigkeit noch nicht bewiesen ist
Ø Besteht häufig aus der Verknüpfung zwei Variablen (Merkmalen) sowie aus der
dazugehörigen Verknüpfungsregel
Ø Verknüpfungsregel bestimmt die kausale Ordnung und die Struktur des Zusammenhangs
Kategorisierung wissenschaftlicher Hypothesen – und Beispiele
à Lesefähigkeit = eine Variable in Abgängigkeit von der Unterscheidung einer Stichprobe nach
Geschlecht
è Lesefähigkeit stellt die AV (Abhängige Variable) dar
è Geschlecht der SuS ist die UV (unabhängige Variable)
Eta-Quadrat: Berechnung
Grundüberlegung: Die Gesamtvariation setzt sich zusammen aus der Variation innerhalb der
Gruppe (AV) und der Variation zwischen den Gruppen (UV)
à in dem Beispiel sind Gruppen durch das Geschlecht definiert
à mit Eta-Quadrat wird nun berechnet, wie groß der Anteil zwischen den Gruppen in Relation zur
Gesamtvariation ist
Ø Je größter der Anteil ausfällt, umso größer sind auch die Mittelwertunterschiede in der
AV; je kleiner dieser Anteil ausfällt, umso kleiner sind auch die Mittelwertunterschiede in
der AV, die durch die definierten Gruppen hervorgerufen werden
-> in dem Beispiel handelt es sich um einen Unterschied mit mittlerer praktischer Bedeutung
(0.167)
Erläuterung der Produkt-Moment-Korrelation („Pearson’s r“) anhand der
Zusammenhangshypothese
Ø mit der Produkt-Moment-Korrelation wird der Zusammenhang zweier mindestens
intervallskalierter Variablen analysiert
Ø dass am häufigsten verwendete Zusammenhangsmaß, daher gelegentlich auch einfach als
„Korrelation“ bezeichnet
Beispiel: Zusammenhangshypothese
-> Abi-Note und Intelligenz hängen miteinander zusammen (ungerichtet)
-> Je höher die Intelligenz, desto besser die Abi-Note (gerichtet)
Ø Gefragt ist die Korrelation von zwei intervallskalierten Variablen (in diesem Fall sei bei der Abi-
Note Intervallskalenniveau unterstellt)
Ø Die gerichtete Zusammenhangshypothese
-> ist genauer als eine mögliche Unterschiedshypothese wie z.B. „Personen mit
unterschiedlichen Abi-Noten schneiden unterschiedlich gut in einem Intelligenztest ab“
(à Eta2)
-> fasst zusammen, wenn viele unterschiedliche Messwerte vorhanden sind (im Gegensatz
z.B. zu Eta2)
Kovarianz
Ø Je häufiger eine Person auf beiden Variablen über dem Durchschnitt oder auf beiden
Variablen unter dem Durchschnitt liegt, desto größer der Wert für die Kovarianz
Interpretation: Die Kovarianz ist ein unstandardisiertes Maß, d.h. sie hängt von der Skalierung der
beteiligten Variablen ab. Daher können Kovarianzen nicht direkt (hinsichtlich der Stärke ihres
Zusammenhangs) interpretiert oder zwischen Untersuchungen verglichen werden
Ø Aus diesem Grund wird die Kovarianz standardisiert
-> dies geschieht, indem die Kovarianz durch das Produkt der Standardabweichung beider
beteiligten Variablen x und y geteilt (dividiert) wird
-> anders formuliert: die Korrelation rxy ist die standardisierte Kovarianz covxy
-> die standardisierte Kovarianz ist der Korrelationskoeffizient
Berechnung der Kovarianz:
-> zunächst müssen die arithmetischen
Mittelwerte x und y für beide
beteiligten Variablen sowie ihre
Standardabweichungen sx und sy
berechnet werden
-> darauf aufbauend werden für jede
Variable die Abweichungen der
individuellen Messwerte vom
jeweiligen Mittelwert berechnet
-> die Abweichungen werden für jede
Person im Datensatz multipliziert
-> Zur Ermittlung der Kovarianz muss
die Summe anschließend durch die
Anzahl der Fälle geteilt werden,
sodass man zur Kovarianz kommt
-> die Produkt-Moment-Korrelation
berechnet such anschließend aus der
covxy und der Standardabweichungen
sx und sy
Der Determinationskoeffizient
Ø Der Determinations-Koeffizient (r2) ist die quadrierte Korrelation (r)
Ø Er beschreibt den relativen Anteil der gemeinsamen Varianz von zwei Merkmalen
(d.h.) mit 100 multipliziert kann er als prozentuale Anteil gemeinsamer Varianz interpretiert
werden
Im Beispiel:
-> r2 = (-0,81) * (-0,81) =
0,66
-> 0,66 * 100 = 66%
Ø Ein statistischer Zusammenhang zwischen einer Variablen y und einer Variablen x ist eine
notwendige, aber keine hinreichende Bedingung dafür, dass zwischen den beiden Variablen
auch eine kausale Abhängigkeit besteht
Zusammenfassung
3. Zusammenfassung
Forschungslogischer Ablauf empirischer Untersuchungen
soziales Problem Theorie Auftrag
Entdeckungs-
Problem zusammenhang
Was?
Theorie, bisherige Forschung
Sitzung 1
Fragestellungen,
Hypothesen
Definition von Begriffen Begründungs-
Operationalsierung
Sitzung Erhebungsinstrumente
zusammenhang
Variablen Sitzung 2 (Messen)
3 Wie?
Stichprobe Sitzung 2 (Stichprobe und Grundgesamtheit) Bei wem?
Datenerhebung
Häufigkeiten
Mittelwerte
Auswertung Sitzung 4 + 5 Verteilungen
(Deskriptive Streuungsmaße
Interpretation Statistik) Korrelationsmaße
Verwertungs-/
Hypothesen, Theorie
Wirkungs-
Darstellung Publikationen, Vorträge zusammenhang
nach Friedrichs, 1990, S. 51 Für wen? 40