Sie sind auf Seite 1von 50

Empirische Sozialforschung

Andreas Diekmann

Einführung: Ziele und Anwendung

1.Methodenvielfalt

In den Sozialwissenschaften existiert eine große Zahl von Techniken zur Erhebung
und Auswertung von Daten.
Interviews, qualitative Befragung, Beobachtungsverfahren, Itemanalyse,
Stichprobenziehung, Einstellungsmessung und Skalierung, Randomized- Response
Technik, nicht reaktive Verfahren, experimentelle und quasiexperimentelle Längs-
und Querschnisststudien u.a.m.
Die Methoden kommen bei Befragung, Beobachtung und einem Feldversuch in
einem sozialen Feld zum Einsatz, die Sichtung von Texten für die Inhaltsanalyse in
einem Archiv, das Experiment in einem Labor und die statistische Analyse der Daten
am Computer.
Es ist notwendig die am besten geeignete Methode anzuwenden, um keinen
„Schaden“ anzurichten. Oft eignet sich auch eine Methodenkombination.
Die Marienthalstudie ist ein klassisches Beispiel für Methodenvielfalt.

1.4.Ziele sozialwissenschaftlicher Untersuchungen


Protests
Typologie von Untersuchungszielen:

-
'
-
o Explorative Untersuchungen
o Deskriptive Untersuchungen
Engineered
o Prüfung von Hypothesen und Theorien
o Evaluationsstudien
Explorative Studien werden durchgeführt, wenn der zu erforschende soziale Bereich
relativ unbekannt ist. Keine spezifischen Vermutungen über die soziale Struktur
vorhanden.
o Expl. Studien sind häufig Pretests und einer Hauptstudie vorgeschaltet.
o Expl. Phase dient der Gewinnung von Hypothesen.
o Aufmerksamkeit wird durch Vorwissen, Vermutungen und vage Hypothesen
gelenkt.
o Qualitative Methoden wie Experteninterviews und unstrukturierte
Beobachtungen.
o Beispiel: Sozial abweichendes und diskriminierendes Verhalten, informelle
Gruppen in sozialen Organisationen, unbekannte Regeln und Rituale.
o Expl. Studien gehen oft strukturierten Fragebögen oder anderen Methoden
voran.
Typologies van

Unwsudwngen
D Annie
houefigkeit
.
.
.

Audie
2) explorative
Prcksb
Ht Trend Fraga
( )
deskriphvchuffidietuaen
Profung an Hypomesen
3)
Theories

4) Galuationsswdien
Techniken air

and Auswertung
Ghetong
von Dalen
D flidrpofenziehung
a) qualitative Befrafvng
3) experimental +
quasiexp .

Mdhoden
4) nioht reactive Verfehen
Gnhalb analyse Feldleob
)
.

,
Heman
s ) alyse
Randomized
6) response
-

and
it Cinsteelanpmesung
Skalievng
Hand
8) Omer t Cengssdmitt
Deskriptive Untersuchungen: Dienen der Schätzung von Häufigkeiten, Anteilen,
Durchschnittswerten und anderen Merkmalen der Verteilung sozialer Aktivitäten,
Einstellungen und sonstiger Variablen in einer Bevölkerungsgruppe
o Soziale Zusammenhänge und Verhaltensursache stehen eher im Hintergrund.
o Beispiel: Einkommensverteilung, Anteil von Wählern, Einschaltquoten,
Marktanteile..
o Durchschnitts oder Anteilswerte in Bevölkerung oder Bevölkerungsgruppen.
repräsentative Stichproben.

=
o Des. Untersuchungen bilden Großteil der Sozialforschung. Beschreibung
des Ist-Zustandes der Gesellschaft(zb. Vermögensunterschiede,
Sozialstruktur)
o Ziel ist die Beschreibung und Diagnose, weniger die Ursachenforschung,
Evaluation und Theoriebildung. Die erhobenen Daten können jedoch in
Sekundäranalysen der Prüfung von Theorien und Hypothesen dienen.
Empirische Überprüfung von Theorien und Hypothesen: Reduktion von
Unsicherheiten und eventuellen Fehlerquellen.
Ziel einer Evaluationsstudie ist die Ermittlung der Wirksamkeit oder Unwirksamkeit
praktisch politischer oder sozialplanerischer Maßnahmen bezüglich einer oder
mehrerer Erfolgskriterien. Untersuchung von Nebenwirkungen der Maßnahme.
o Überprüft wird, ob Variable X der Hypothese die soz. Merkmale U,V,M
beeinflusst.
o Beispiel: Analyse der Auswirkungen sozialer Projekte oder neuer Gesetzte.
o Kann sich auch auf die Planung eines Projektes beziehen.
o Evaluationsforschung häufig im Spannungsfeld zwischen Politik und
Wissenschaft. Ist oft politischem Druck ausgesetzt. Gefahr der verzerrten
Evaluation durch Dokumentation der Teilschritte minimieren.
o Häufig quasiexperimentelle Untersuchungsdesigns. Häufig Verzerrung
durch Selbstselektion, da kein Zufallsprinzip möglich ist. Dh. statistische
Kontrolle von Selektionsverzerrungen notwendig.
o Social impact assassment: Untersuchung der gesamten Bandbreite relativer
Auswirkungen von Maßnahmen.

II. Probleme Empirischer Untersuchungen


Probleme selektiver Wahrnehmung

Weltanschauungen, Traditionen und Vorurteile beeinflussen unsere Bildung von


Alltagshypothesen und führen zur „sozialen Konstruktion der Wirklichkeit.“
Menschen neigen dazu, auch dort Regelmäßigkeiten zu erkennen, wo objektiv kein
Zusammenhang existiert.
Erwartungen verzerren die Wahrnehmungsinhalte. Hypothesengesteuerte
Beobachtung.
Akzentuierungseffekt: Durchmesser von Geldmünzen im Vergleich zu neutralen
Objekten wird überschätzt, wenn Wert höher und Versuchsperson wohlhabend ist.
Einfluss von Erwartungen, Werten und sozialer Konformität auf die Abschätzung
physikalischer, objektiv messbarer Größen ist oft nachweisbar Effekte
hypothesengesteuerter Wahrnehmung spielt bei der Wahrnehmung sozialer
Aktivitäten eine große Rolle.
Parapsychologische Phänomene basieren größtenteils auf selektiver Wahrnehmung.
Problem der „bestätigten Träume“.
Friedrichs – Untersuchung der Massenmedien Dreifacher Selektionsprozess
o Stichprobenselektion: Auswahl bestimmter Beobachtungsobjekte.
o Wahrnehmungsselektion: Nur bestimmte Aspekte werden wahrgenommen.
o Erinnerungsselektion: Man erinnert sich nur an bestimmte Teile.
Führte in der wissenschaftlichen Ethnologie zu erheblichen Irrtümern.
Wünsche filtern die Beobachtung „Fehler des Ersten Blicks“(König 1973b)
Intuitive Wahrnehmung von Wahrscheinlichkeiten: Kleine Risiken überschätzt und
hohe Wahrscheinlichkeiten unterschätzt(zb. Lotto).
Bestätigungsbias: Jene Wahrnehmung wird registriert, die liebgewonnene Vorurteile
und Hypothesen bestätigt.
Kognitive Dissonanz Dissonanzreduktion: Selektive Wahrnehmung bestätigender
und Ignorierung oder Uminterpretation falsifizierbarer Beobachtungen. Beispiel:
Auswahl der Zeitung am Kiosk.
Merton untersuchte selffulfilling prophecies: Falsche Hypothese wird durch falsche
Prognose bestätigt.
Einfaches Verfahren der Datenauswertung zur Überprüfung von Hypthesen:
Kreuztabelle Siehe KastenII.1 – S.56f
Deduktionsfehler: Intuitives Denken dessen Annahmen auf Wahrscheinlichkeiten
beruhen führen häufig zu irrtümlichen Schlussfolgerungen. Die
Wahrscheinlichkeitstheorie dient zur Reduktion der Fehler.
Der Hauptunterschied zur Alltagswahrnehmung besteht darin, dass die empirische
Sozialforschung Methoden zur Verfügung stellt, mit deren Hilfe Fehlerquellen
kontrollierbar sind. Verzerrungseffekte können identifiziert, ausgeblendet oder
vermindert werden. Das Ausmaß der Verzerrung ist berechenbar.

Variablen, Hypothesen, Theorien


1.Typen von Variablen

Eine Variable bezeichnet ein Merkmal oder eine Eigenschaft von Personen, Gruppen,
Organistionen oder anderen Merkmalsträgern, beispielsweise Geschlecht und
Bildungsgrad.
Man unterscheidet zwischen:
o Variablen(Merkmale, Merkmalsdimensionen)
o Ausprägungen von Variablen(Kategorien, Merkmalsausprägungen).
Werden die Ausprägungen von Variablen verkodet, so spricht man von
Variablenwerten. Sie müssen zumindest zwei Ausprägungen haben.
Bei der Konstruktion von Variablen muss beachtet werden, dass die Kategorien:
o Disjunkt und ( Kategonen aberlappen nidrt )
o Erschöpfend sind. ( Pro Merkmalstrago ane Kakgorief
Außerdem können Variablen:
.o Diskret oder

( : Qualitativ )
Quantitativ

. Dichotome ( variable Mit 2 Aspoajunfen)


Polytome Kategorien ( Variable unit mebrals 2 Avsprajvnfln)
o Kontinuierlich sein.
Merkmale können:
o Absolut: Person, Geschlecht, Bildung…
o Relational: Beziehung zu anderen wie Statusdifferenz. Ausgangspunkt zur
Analyse sozialer Netzwerke.
Kollektivmerkmale: Die Merkmalsträger sind eine Personenmehrheit.
Analytische Merkmale: Der Variablenwert wird durch eine
Rechenoperation aus den absoluten Individualmerkmalen
ermittelt.
Strukturelle Merkmale: Ergeben sich aus einer
Rechenoperation relationaler Individualmerkmale.
Werden beide als Aggregatmerkmale bezeichnet
Globale Merkmale sind eine genuine Eigenschaft eines
Kollektivs darstellen: Sind nicht durch Rechenoperationen,
Aggregationsregeln oder Transformationsregeln aus
Individualmerkmalen bzw. den Eigenschaften der Mitglieder
eines Kollektivs ableitbar: Beispiel – Siedlungsdichte einer
Gemeinde.
Individualmerkmale: Eh wissen! Alter Bildung
, ,
Einkommen

o Eine Hierarchie von Merkmalen ist ein Stufenmodell, das vor allem bei Mehr-
Ebenen-Analysen von Bedeutung ist.
Arten von Variablen in Diekmann auf – Seite 123.

Hypothesen

Sind Vermutungen über einen Sachverhalt. Nomologische Hypothesen machen


Aussagen über einen Merkmalszusammenhang.
o Deterministische Hypothesen beschreiben einen strikt deterministischen
Zusammenhang mit einer Auftretenswahrscheinlichkeit von eins.
o Probabilistische Hypothesen: Sagen voraus, dass ein Merkmalswert nur mit
einer gewissen Wahrscheinlichkeit auftreten wird Sozialwissenschaften.

Wenn-Dann Hypothesen können dann definiert werden, wenn die abhängige und
unabhängige Variable beide dichotom sind.
o Implikationsbeziehung: Wenn A auftritt, dann wird B erwartet. B kann aber
auch ohne A auftreten.
o Äquivalenzbeziehung: Die Bedingung ist hinreichend UND notwendig: „Wenn
und NUR wenn A auftritt, wird B erwartet.
Kombinationen können Konfirmatoren oder Falsifikatoren sein: Kreuztabelle in
Diekmann auf Seite – 126.
Häufig tritt in der Sozialforschung eine probabilistische Version der
Äquivalenzbeziehung auf: B tritt in Folge von A häufiger auf, als dann, wenn A nicht
auftritt.

Je-desto-Hypothesen: Sind die Kategorien der unabhängigen und der abhängigen


Variablen mindestens als Rangfolge interpretierbar(Skalenniveau ordinal), dann kann
der Zusammenhang zwischen den Variablen A und B als Je-desto-Hypothese Wenn
A ansteigt, steigt auch B an.
o Monoton steigend: Wachstum ist positiv: Wächst A, wächst B.
o Monoton fallend: Wächst A, schrumpft B.
o Nichtmonotone Zusammenhänge sind u-förmig oder nicht u-förmig.
Sind unabhängige und abhängige Variable quantitativ, kann der Zusammenhang
eventuell durch eine mathematische Funktion dargestellt werden.
Hypothesen über Merkmalszusammenhänge müssen nicht notwendigerweise
Ursache-Wirkungs-Beziehungen zum Ausdruck bringen. Merkmalsassoziationen:
Entwicklungshypothesen und Trendhypothesen.

Individual-Kollektiv- und Kontexthypothesen:


Handelt es sich bei der unabhängigen und abhängigen Variablen um
Individualmerkmale, so spricht man von Individualhypothesen
Kollektivhypothesen beziehen sich auf Zusammenhänge zwischen
Kollektivmerkmalen. Aus Kollektivhypothesen folgt nicht logisch zwingend die
korrespondierende Individualhypothese: Es kann ein positiver, negativer oder kein
Zusammenhang bestehen. Ein falscher Schluss von Kollektiv auf Individual kann als
ökologischer Fehlschluss bezeichnet werden.
Kontexthypothesen bilden das Bindeglied zwischen der gesellschaftlichen und
individuellen Ebene: unabhängig – Kollektiv abhängig Individual.
Mit empirischer Prüfung von Kontexthypothesen beschäftigt sich die
Mehrebenenanalyse: Um Kollektiv-oder Kontexthypothesen zu prüfen, reicht es
nicht aus, die Merkmale von Individuen aus einem Kollektiv zu erheben. Es müssen
zwei oder mehr Kollektive mit variierenden Ausprägungen des Kollektivmerkmals
beobachtet werden.
Ziel der Sozialwissenschaften ist die Erklärung kollektiver Tatbestände. Diese
ergeben sich im Aggregat aus den Handlungen von Menschen. Erklärbar sind die
individuellen Handlungen durch Individualhypothesen, welche Aussagen über die
Bedingungen menschlicher Entscheidungen machen Bedingungen hängen von der
sozialen Struktur und dem sozialen Kontext ab.
Beispiel und kurze Zusammenfassung auf 135f, 138f und 140.
desto
ye Hypolhesen ;
- -

-
• fkalenniveau mind .
ordinal ( Kakforien der

feiden Variable Pollen tomindest Als


Rangfdfe
flin
tukrpretierbar
.
'

u fe hiker der fchwlabdiluss ,


desto haifigr him tahuareth .

www.dauu -

Hypotheses ;
als audr die
→ sowobl die unabhieugige
Variable it didrotom
abhengige
.

→ 2 Arlen ;

D implications betiekunf 2) Aiawivalentfeziehuug


Ob die prognoses der
warn -
down -

Hypothec
Zotrifft at hand der Kreuztelelk
euipinisch an

Bother .

line Gesellschaft rcprenivist damn Galen Frauen


> wwu ,

home fhiumenc ( probacilishsde Equivalent Get )


.


wnabhoiugife +
alhehgife dlbkurele mind Individual -

merkwuele .

1 Kollektivwypothesen
Ckawtexthypotlvlsen
auf Rollebtivmerkurele

Alndividuaebypofhe.eu#TTMfh
beeiehen
a sick .

" die totiale Integration in eino


Jehohcr die
; fotialen Gropper ( Kdlektivm ) desk
dam
going
sick ein
Wargcheintidwkeit

kdllekhvmerwwelandividvuy
Biwdeglied Wisden Atb
,

→ .

news reigned ahveidfeyhdar "

Variable
wwafwehgige →

abhiujge ⇒ Individual wound .



Welde Arlen van Hypotheses
es ?
gibt

pettomainiYssIlfmaany.YaammjuyaanehnoEmm_fnadnArtdesZusammenhangsije-desto.HypothesenfiaaYYspYnIeYnmaftneiemmdanoaetaEnat@inichtmono1ane2vsammenhangelV-fominachKausalitat.MerKMalsas8oziationen4liF.renaeammriomTcfnadrMerk-malln.tndividualby.p

T.ie#mm.mkaI/

othese
Theorie und Modell

In den Sozialwissenschaften wird der Begriff Theorie uneinheitlich definiert.


Diekmann definiert Theorie als:
o Die Menge miteinander verknüpfter Aussagen, von denen sich
o Eine nichtleere Teilmenge auf empirisch prüfbare Zusammenhänge zwischen
Variablen bezieht.
Eine stärker ausgearbeitete Theorie wird folgende Bestandteile aufweisen:
Grundannahmen: nicht empirisch prüfbarer Kern.
o Zentrale Hypothesen über Zusammenhänge, die empirisch meist nur schwer
prüfbar sind.
o Definitionen der grundlegenden Begriffe
Aus den Grundannahmen abgeleitete Hypothesen sowie Regeln zur Messung der
Variablen(„Messhypothesen“). Prüfbare Peripherie.
Werden die Grundannahmen mathematisch formalisiert, so spricht man auch von
den Axiomen der Theorie. Aus den Axiomen sind sodann auf mathematisch-
deduktivem Weg Theoreme oder Hypothesen ableitbar, die einer empirischen
Prüfung unterzogen werden können. . Modell.
Aus formalisierten Fassungen von Theorien können auf mathematischem Weg
Hypothesen abgeleitet werden.
Eine Mindestanforderung von Theorien ist, dass sie Aussagen über empirisch
überprüfbare Zusammenhänge zwischen Variablen enthält.
Zur Prüfung von Hypothesen und Theorien sind Messhypothesen erforderlich.
Theorien sollten durch grundlegende Annahmen erklärbar sein.
Ein Pfaddiagramm schafft Klarheit darüber, welche genaue Form die zu prüfende
Theorie eigentlich hat. Beispiel Seite 148.

Arten von Sätzen und Informationsgehalt

Nach dem Kriterium der Prüfbarkeit werden die folgenden drei Typen von Sätzen
unterschieden:
o Empirische Sätze
o Logische Sätze
o Präskriptive Sätze
Empirische Sätze werden primär in den Natur- und Sozialwissenschaften formuliert
und einer Prüfung unterzogen. Logische Analyse(Widerspruchsfreiheit,
Untersuchung von Ableitbarkeitsbeziehungen von z.B. Hypothesen aus anderen,
allgemeineren Hypothesen sowie natürlich auf die Untersuchung der empirischen
Gültigkeit von Aussagen.
Empirische Sätze sind wahr, wenn das Objekt und das Prädikat mit dem
beobachteten Sachverhalt korrespondieren.
o Singuläre(deskriptive) Sätze machen Aussagen über einzelne Ereignisse und
sind raumzeitlich fixiert. „Am 20. Juli 1944 hat Graf Stauffenberg ein Attentat
auf Hitler verübt.“
o Hypothetische Sätze(Allsätze) sind raumzeitlich unbegrenzt:
Zusammenhangshypothesen und Gesetze. In den Sozialwissenschaften
kann man nur von Mustern oder Regelmäßigkeiten sprechen.
Der Informationsgehalt ist die Menge der von diesem Satz ausgeschlossenen
Gesetze(Sir Karl Popper). Je spezifischer eine Prognose oder Aussage, desto höher
ist der Informationsgehalt.
Der Gehalt einer Wenn-dann-Hypothese wächst gleichsinnig mit dem Gehalt der
Dann-Komponente und gegensinnig zum Gehalt der Wenn-Komponente.
Äquivalenzbeziehungen haben einen höheren Gehalt als Implikationsbeziehungen.
Für eine je-desto-Hypothese folgt, dass diese einen umso höheren
Informationsgehalt hat, je allgemeiner anwendbar die „Je-Komponente“ und je
spezifischer die „Desto-Komponente“ ist.
Je höher der Informationsgehalt einer Hypothese, desto größer ist die Zahl der
Testsituationen und damit die Menge potentieller Falsifikatoren.

Logische Sätze

Der Wahrheitsgehalt logischer Sätze ist unabhängig von der Beschaffenheit der
empirischen Welt und kann ausschließlich durch logisch-mathematische
Beweisverfahren ermittelt werden.
o Analytisch wahre Sätze sind immer wahr. Werden in der Logik als
Tautologien bezeichnet. Sämtliche Kombinationen der Wahrheitswerte der
Elementarsätze sind immer wahr. Informationsgehalt = 0! Verschleierte
Tautologien werden als Immunisierungsstrategien bezeichnet.
o Kontradiktionen sind immer falsch. Es gilt A und gleichzeitig nicht A.
Zu den tautologischen Aussagen zählen auch Definitionen. Diese besitzt keinen
empirischen Gehalt, sondern ist eine Vereinbarung über den Gebrauch von
Begriffen. Sie sind nicht falsifizierbar. Im Hinblick auf das angestrebte
Untersuchungsziel sollten sie zweckmäßig und hinreichend präzise sein.
o Intensionale Definitionen: Bei einer unendlichen Menge von Objekten
erfordert die Definition notwendigerweise die Angabe von Eigenschaften der
unter den zu definierenden Begriff fallenden Objekte.
o Extensionale Definition: Bei einer endlichen Menge von Objekten kann die
Definition durch Aufzählung erfolgen.

Präskriptive Sätze(Werturteile, soziale Normen, Soll-Sätze) schreiben spezifische


Verhaltensweisen vor. Sie haben keinen empirischen Gehalt und können durch
empirische Forschung allein nicht begründet werden „Aus einem Sein folgt kein
Sollen.“
Die Begründung präskriptiver Sätze erfordert die Annahme mindestens eines
weiteren, allgemeinen präskriptiven Satzes, aus dem der zu begründende
präskriptive Satz logisch deduzierbar ist.
Präskriptive Sätze werden durch den Nachweis logischer Ableitbarkeit aus anderen
Sätzen, den Prämissen begründet.
In der Wissenschaftstheorie unterscheidet man zwischen Entdeckungs- und
Begründungszusammenhang.
Zusammenfassung auf Seite 168.

Planung und Ablauf Empirischer Untersuchungen

Der Ablauf empirischer Studien unterteilt sich in vier Hauptphasen:


1. Formulierung und Präzisierung des Forschungsproblems
2. Planung und Vorbereitung der Erhebung
3. Datenerhebung
4. Datenauswertung
5. Berichterstattung
Formulierung und Präzisierung

Bei einer hypothesenüberprüfenden Untersuchung bedeutet das, dass die


Forschungshypothese (abhängige und unabhängige Variablen) präzise angegeben
werden kann.
Bei einer deskriptiven Studie sollte klar sein, bei welcher Population welche
Merkmale geschätzt werden sollen.
Bei explorativen Studien ist das Forschungsziel nicht das Prüfen von Hypothesen,
sondern deren Entwicklung.
Es ist auch möglich, Hypothesen aus Theorien zu deduzieren und diese dann einer
empirischen Überprüfung zu stellen.
Die Wahl der Methode nach der Formulierung des Forschungsproblems hängt
o Vom Forschungsziel ab
o Von den Forschungsressourcen(Zeit, Personal, Sachmittel)
o Von der eigenen Einschätzung der am besten geeigneten Methode.
Planung und Vorbereitung der Erhebung Konstruktion des Erhebungsinstruments

Die in den Forschungshypothesen auftretenden Begriffe müssen zunächst definiert


und operationalisiert werden der Messung zugänglich machen.
Bei komplexen, mehrdimensionalen Begriffen wie dem „Umweltbewusstsein“ wird
zunächst eine Konzeptspezifikation erforderlich sein, bei der die einzelnen
Dimensionen des Begriffs herausgearbeitet werden.
Das Erhebungsinstrument setzt sich aus der geeigneten Zusammenstellung der
Messoperationen für sämtliche Variablen, die in die Datenerhebung einbezogen
werden, zusammen. (zb. Der Fragebogen bei der Befragung)
Bei der Wahl des Forschungsdesigns ist zu berücksichtigen:
o Die Untersuchungsebene, abhängig von der Art der Hypothese(Kollektiv,
Kontext, Individual H.) und dem Typ der Variable. Individualebene,
Kollektivebene.
o Der zeitliche Aspekt: Längsschnitterhebung(Trend, Panelstudie) und
_ Kohortenstudie).
Querschnittserhebung(zb.
o Die Wahl einer Vergleichs- oder Kontrollgruppe
Die Haupttypen der Stichprobe sind Zufallsstichprobe, Quotensample und
willkürliche Stichprobe. Welche zu wählen ist, hängt vom Forschungsziel und dem
Forschungsetat ab.
Der Pretest dient der Identifikation von Problemen(zb. Mehrdeutige oder
schlechtverständliche Fragen) und gegebenfalls der Überarbeitung des
Erhebungsinstruments.
Es werden vier Erhebungsmethoden unterschieden, die sich in mehrere Varianten
einteilen lassen.
o Befragung Persönlich, telefonisch, schriftlich.
o Beobachtung
o Inhaltsanalyse

:
o Verhaltensspuren/Nichtreaktive Verfahren

Datenerhebung Anwendung des erprobten Erhebungsinstruments

Die Daten werden mit der gewählten Methode erhoben, in ein maschinenlesbares
Datenfile übertragen und auf Fehler kontrolliert.
Es kommt zur statistischen Datenanalyse

Berichterstattung

Der Bericht oder Teile der Arbeit sind zur Publikation in Fachzeitschriften
vorgesehen.
Die methodischen Schritte werden in nachvollziehbarer Weise dokumentiert.
Dadurch können Daten repliziert oder für Sekundäranalysen verwendet werden.

Messung, Skalen, Indizes


Einstellungsmessung mit der Likert-Technik

Das von Likert vorgeschlagene Verfahren kann als Technik der summierten
Einschätzungen definiert werden. Der Zweck ist die Einstellungsmessung.
Ziel der Technik ist, geeignete von weniger geeigneten Items zu trennen und auf der
Basis der für gut befundenen Items jeder Person einen Skalenwert zuzuweisen.
Um den Ja-Sager-Effekt zu vermeiden, empfiehlt es sich, einzelne Items umzupolen.
Werden bestimmte Antworten verweigert oder ausgelassen, spricht man vom „Item-
non-response“ Diese „missing values“ können auf unterschiedliche Weise
behandelt werden. Beispielsweise könnten derartige Personen unberücksichtigt
bleiben.
Der Grund für mögliche Inkonsistenzen in der Antwortreaktion sind entweder
Messfehler oder systematische Verzerrung durch einzelne Items.
Mehrdimensionale Items bringen meist höhere Inkonsistenzen hervor.
Der Summenscore berechnet sich durch Addition der Itemwerte jeder Person und
bildet ein vorläufiges Maß, das die gesamten Informationen der einzelnen
Indikatoren ausschöpft.
Der sogenannte Trennschärfekoeffizient ist die Korrelation zwischen Item und
Summenscore Bei niedriger Korrelation ist das bestimmte Item eher ungeeignet.
Jedoch besagt ein konsistentes Ergebnis noch nichts über die Validität aus.

3. Gütekriterien der Messung – Objektivität:

Messungen sollten möglichst objektiv, zuverlässig und gültig sein.


Der Grad der Objektivität eines Messinstruments bringt zum Ausdruck, in welchem
Ausmaß die Ergebnisse unabhängig sind von der jeweiligen Person, die das
Messinstrument anwendet.
Bei hoher Objektivität sollte die Korrelation nahe 1 sein.
o Durchführungsobjektivität: Das Antwortverhalten der Befragten von
Interviewer A ist anders als das von Interviewer B.
o Auswertungsobjektivität: Wenn die Messergebnisse der Interviewer trotz
gleichem Antwortverhalten voneinander abweichen.
Reliabilität:

Die Reliabilität eines Messinstruments ist ein Maß für die Reproduzierbarkeit von
Messergebnissen. Dieses kann durch einen Korrelationskoeffizienten ausgedrückt
werden.
o Paralleltest-Methode: Die Messung erfolgt mit zwei Vergleichbaren
Messinstrumenten Korrelation der Messwerte.
o Test-Retest-Reliabilität: Das Messinstrument wird nach einem Zeitintervall
wiederholt angewendet.
o Methode der Testhalbierung(Split-half): Ein Messinstrument mit multiplen
Indikatoren wird in zwei Hälften aufgeteilt und die Korrelation zwischen den
Testhälften errechnet. Eine Erweiterung dieses Verfahrens ist die
Itemkonsistenzanalyse.
o Probleme der Reliabilitätsmessung:
Geringe Stabilität des Gemessenen.
Die Anwendung des Messinstruments kann die Retest-Messung
beeinflussen Zb. Durch Übungseffekte.
Eine wichtige Maßzahl zur Berechnung der internen Konsistenz ist Cronbachs α,
welche die gebräuchlichste Methode der Reliabilitätsschätzung darstellt. Die
interne Konsistenz der Testitems wird bestimmt.
Die Trennschärfekorrelationen weisen höhere Werte bei Items mit großer Streuung
auf Daher sollte man möglichst Items mit mittlerer Intensität auswählen(von
gleich viel Befragten einer Stichprobe befürwortet oder abgelehnt).

Validität

Objektive und zuverlässige Messinstrumente müssen nicht notwendigerweise valide


sein. Die Validität stellt das Hauptziel in der Konstruktion von Messinstrumenten
dar.
Die Voraussetzungen von Validität sind Reliabilität und Objektivität Hierarchisches
Verhältnis.
Die Validität eines Tests gibt den Grad der Genauigkeit an, mit dem dieser Test
dasjenige Persönlichkeitsmerkmal oder diejenige Verhaltensweise, das/die er messen
soll oder zu messen vorgibt, tatsächlich misst.
o Inhaltsvalidität: Wenn eine Auswahl von Items die zu messende Eigenschaft
in hohem Grad repräsentiert. möglichst repräsentative Itemstichprobe.
Zum Beispiel durch übereinstimmende Expertenurteile bestimmbar.
o Kriteriumsvalidität: Gibt an, in welchem Grad die Resultate mit anderen
relevanten Merkmalen empirisch korreliert sind Diese Außenkriterien
müssen unabhängig mit anderen Messinstrumenten erhoben werden.
Übereinstimmungsvalidität: Mit einem gleichzeitig erhobenen
Außenkriterium.
Vorhersagevalidität: Bezüglich eines prognostizierten Kriteriums.
o Konstruktvalidität: Das von einem Messinstrument erfasste Konstrukt soll mit
vielen anderen Variablen in theoretisch begründbaren Zusammenhängen
stehen – Daraus sollten Hypothesen ableitbar sein, die einer empirischen
Überprüfung standhalten

6.Messtheorie

Laut Stevens ist die Messung die Zuordnung von Zahlen zu Objekten nach
bestimmten Regeln. Welche Konsequenzen sich aus der Anwendung
unterschiedlicher Regeln für die Messung ergeben, ist das Gebiet der axiomatischen
Messtheorie.
Der Output in der Messtheorie sind Zahlen und der Input Objekte und die zwischen
den Objekten bestehenden Beziehungen.
Die Messung ist die strukturkonforme Abbildung der Objekte auf eine Menge von
Zahlen Strukturkonform heißt, dass die zwischen den Objekten bestehenden
Relationen in der Menge der Zahlen widergespiegelt werden.
Die Methode der Paarvergleiche, eine genaue Definition von Messen, sowie Repräsentation,
Eindeutigkeit und Bedeutsamkeit sind schwierig zusammenzufassen und sollten als Ganzes
gelesen werden Seiten 279 – 284
Skalenniveaus

statishkl
Allgemein lässt sich einteilen in:
o Nominal-
o Ordinal-
.

o Intervall-
o Und Verhältnisskalen
Das Repräsentationstheorem gibt für jeden Skalentyp Axiome an, die empirisch
prüfbar sind. Es informiert uns über die Bedingungen der Zuweisung von
Skalenwerten.
Mit dem Eindeutigkeitstheorem wird die Klasse der zulässigen Transformationen der
Skalenwerte eingeschränkt. Die Klasse der zulässigen Transformationen wird als
Skalenniveau bezeichnet.
Zu jeder Messstruktur gibt es ein Repräsentations- und ein Eindeutigkeitstheorem,
sodass damit das Skalenniveau(Messniveau, Skalenqualität) festgelegt wird.
Die Nominalskala ist eine Klassifikation von Objekten nach der Relation der
Gleichheit oder Verschiedenheit(„Äquivalenzklassen“).
o Der einzig bedeutsame Mittelwert ist der Modalwert.
Mit der Ordinalskala wird eine Rangordnung der Objekte bezüglich einer Eigenschaft
vorausgesetzt(Rangskala).
o Als Mittelwert dient hierbei der Median.
o Eine Ordinalskala wird durch die Technik der Guttman-Skalierung erzeugt.
Intervallskalen erlauben Aussagen über die Rangordnung und Abstände(Intervalle)
zwischen den Messwerten.
o Die Berechnung arithmetischer Mittelwerte ist hier erlaubt.
Bei Ratioskalen oder Verhältnisskalen lässt sich ein natürlicher Nullpunkt festlegen.
o Nur bei Verhältnisskalen ist es sinnvoll, harmonische oder geometrische
Mittelwerte festzulegen.
Absolutskalen sind eindeutig festgelegt und Skalentransformationen nicht erlaubt
Wahrscheinlichkeitswerte und Häufigkeiten.
Das Skalenniveau ist hierarchisch angeordnet. Der Informationsgehalt der
Messhypothesen wächst gleichsinnig mit dem Skalenniveau
Zusammenfassung über die Arten von Skalen auf Seite 291.

Querschnitt-und Längsschnitterhebungen
Querschnitt-, Trend – und Paneldesign
Mit einem Erhebungsdesign wird der zeitliche Modus der Datenerhebung festgelegt.
Man unterscheidet:
1. Querschnittsdesign
2. Trenddesign
3. Paneldesign
Kann für alle Erhebungsmethoden gelten.
Bei Querschnittsdesigns bezieht sich die Datenerhebung auf einen Zeitpunkt oder
eine Zeitspanne, in der eine einmalige Erhebung der Eigenschaft(Variablenwerte) bei
N Untersuchungseinheiten vorgenommen wird.
Bei einem Trenddesign werden die Werte der gleichen Variablen zu mehreren
Zeitpunkten mit jeweils unterschiedlichen Stichproben erhoben. Veränderungen
können dadurch nur auf der Aggregatebene der Stichprobe gemessen werden.
Es besteht das Problem, dass ursächliche Veränderungen(Trends) nicht so leicht von
Stichprobenfehlern separiert werden können.
Das Paneldesign unterscheidet sich durch die Verwendung derselben Stichproben.
Veränderungen können auf der individuellen Ebene nachvollzogen werden. Ein
Problem stellt die „Panelmortalität“ dar. Aufgrund dieser ist eine gute
Adressenpflege notwendig.
Mit dem sozioökonomischen Panel werden seit 1984 jährlich ca. 12000 Personen
zu zahlreichen Merkmalen der ökonomischen und sozialen Lage befragt.
Ein Beispiel für Trendstudien ist das „International und Social Survey Programm“
mit dem Ziel der Registrierung und Analyse sozialen Wandels.
Es besteht eine Informationshierarchie:
o Panelerhebungen
o Trenderhebungen
o Querschnittserhebungen.

Experimentelle und Quasiexperimentelle Designs


Bei der Varianzkontrolle werden Vergleichsgruppen und der Modus der Aufteilung von
Untersuchungspersonen auf die Vergleichsgruppen bestimmt. Unter dem Gesichtspunkt der
Varianzkontrolle sind drei Klassen von Designs unterscheidbar:
1. Experimentelle Designs

1 2. Quasiexperimentelle Designs
3. Ex-post-facto-Designs

Experimentelle Designs
Es müssen drei Bedingungen vorliegen:
1. Es werden mindestens zwei Versuchsgruppen gebildet. Versuchsgruppe(mit
Stimulus) und Vergleichsgruppe/Kontrollgruppe.
2. Die Versuchspersonen werden den experimentellen Gruppen nach einem
Zufallsprinzip zugewiesen = Randomisierung.

3. Die unabhängige Variable wird vom Forscher manipuliert. •

Es besteht die Möglichkeit von:

Blindversuchen: Den Probanden ist die Hypothese nicht bekannt.


Doppelblind-Versuchen: Dasselbe gilt für den Versuchsleiter. Möglicherweise subtile
und unbewusste Beeinflussungsmechanismen können weitgehend ausgeblendet
werden.
• Mit der Randomisierung können mögliche Drittvariablen neutralisiert werden.
also mit dem experimentellen Faktor unkorreliert.
Sie bleiben

. Ein weiteres Problem stellt die Selbstselektion dar(Häufig bei sozialen und
therapeutischen Programmen). Zur Korrektur gibt es statistische Methoden oder
die Randomisierung.
Folgende Fehlerquellen können zu falschen Schlüssen führen:
o Eine konfundierte Variable könnte durch die Randomisierung nicht
neutralisiert werden, wenn z.B. eine beeinflussende Bedingung auf alle
Versuchspersonen gleichermaßen zutrifft.
o Das Bewusstsein, in wissenschaftliche Forschung eingebunden zu sein, kann
zu Verhaltensänderungen führen. man spricht vom Hawthorne Effekt oder
generell von der Reaktivität. Gegenmaßnahmen sind Blind- und
Doppelblind-Versuche.
o Die Randomisierung könnte einen verzerrenden Einfluss ausüben. So können
sich die Mitglieder der Kontrollgruppe beispielsweise benachteiligt fühlen.
o Bei geringen Fallzahlen könnte die Zufallsaufteilung missglücken. Eine
Kombination von Randomisierung und Matching ist hier sinnvoll.
Macht man die Verteilung bekannter Drittvariablen in den
Versuchsgruppen gleich, spricht man vom Gruppenmatching. Z.B
gleicher Anteil an Frauen und Männern in den Gruppen
Beim paarweisen Matching werden die Kombinationen von
Merkmalen(Altersklasse, Geschlecht, Bildung) berücksichtigt.
Neben dem Standarddesign werden eine Reihe weiterer experimenteller Designs
vorgeschlagen, mit denen zusätzliche Fehlerquellen kontrollierbar sind.
o Vorher-Nachher-Messung bei Versuchs und Kontrollgruppen.
o Vier Gruppen-Versuchsplan von Solomon(Diekmann S. 343). Die
Lerneffekte des Vorher-Nachher Versuchs können eliminiert werden
Vor- und Nachteile der experimentellen und quasiexperimentellen Designs finden
sich in den Arbeiten von Campbell und Stanley wieder:
o Interne Validität: Bezieht sich auf die Ausblendung von Störvariablen.
o Externe Validität: Generalisierbarkeit experimenteller Effekte.
Lösungsansätze sind die Auswahl unterschiedlicher sozialer Gruppen oder
die Durchführung von Feldexperimenten. Man kann auch versuchen, die
experimentellen Befunde mit anderen Designs und Methoden zu
reproduzieren. Triangulation.
Eine Alternative, die die experimentelle Untersuchung eines komplexen
Zusammenspiels mehrerer Faktoren erlaubt, ist die Vignettenanalyse.
Siehe Kasten auf Seite 346ff.
In vielen Bereichen der Sozialwissenschaft, wie in der Ökonomie oder Soziologie ist
eine Randomisierung nicht möglich.
Vorteile experimenteller Designs:
o Der experimentelle Stimulus wird im Experiment produziert und geht der
vermuteten Wirkung zeitlich voraus.
o Durch die Randomisierung werden verzerrende Effekte durch Drittvariablen
neutralisiert.
o Experimentelle Designs sind daher ideal für die Überprüfung von
Kausalhypothesen.
Nachteile:
o Das Problem der externen Validität der geprüften Zusammenhänge.
o Der hohe Aufwand bei der simultanen Prüfung komplexer Zusammenhänge.
o Bei der Untersuchung vieler sozialer Zusammenhänge ist die Randomisierung
aus praktischen oder ethischen Gründen nicht möglich.
Ein Beispiel: Von der Verantwortungsdiffusion zur experimentellen Spieltheorie

•:
Auf Seite 350ff.

4.Quasi-Experimente und Evaluationsforschung


Sind Versuchsanordnungen, die dem Vorbild des Experiments nahekommen und der
experimentellen Logik folgen, jedoch nicht die strengen Anforderungen an experimentelle
Designs erfüllen. Experimente ohne Randomisierung. Es fehlt daher die Garantie, dass
Drittvariablen neutralisiert werden können.

Zwei Designs:

Versuchsanordnung mit nicht gleichartigen Kontrollgruppen: Entspricht dem


Experiment mit Vorher-Nachher-Messung, nur dass keine Zufallsaufteilung erfolgt.
Zwei bzw. drei Probleme kommen vor:
o Nichtvergleichbarkeit der Gruppen in Folge von Selbstselektion.
o Systematischer Ausfall von Probanden.
o Regressionseffekt(Die Tendenz zweier Extreme zur Mitte): Wenn sich Werte
der Vorher-Messung in der Versuchs-und Kontrollgruppe aufgrund dieser
Tendenz stark unterscheiden.
Als Lösung bietet sich ein Matching oder
Nachträgliche Kontrolle von Drittvariablen mit multivariaten
statistischen Verfahren an.
.
Zeitreihen-Experimente kontrollieren Regressionseffekte. Der Trend vor einer
Maßnahme wird mit dem Trend nach der Maßnahme verglichen.
o Der Effekt zwischenzeitlichen Geschehens wird aber nicht unbedingt
ausgeschlossen. Dem kann man mit multiplen Zeitreihen entgegenwirken.
o Zur Messung des Effekts und zur Schätzung der Stärke des Effekts verwendet
man statistische Methoden.
o Sind Werte der Vorher-Messung in der Versuchs- und Kontrollgruppe stark
unterschiedlich, dann besteht ohne Randomisierung immer die Gefahr von
Fehlschlüssen aufgrund eines eventuellen Regressionseffekts. Erst mit
längerfristig angelegten Zeitreihenbeobachtungen kann diesem Risiko
entgegengewirkt werden.
Bei der Evaluation von Maßnahmen können im Prinzip experimentelle,
quasiexperimentelle und nichtexperimentelle(Ex-Post-Facto-Designs) zugrunde
gelegt werden.
o Das typische Design einer Evaluationsstudie ist die quasiexperimentelle
Versuchsanordnung Ziel der sozialwissenschaftlichen Forschung ist die
Erfolgskontrolle und Identifikation von Nebenwirkungen.
o Besondere Aufmerksam ist der Gefährdung der internen und externen
Validität durch Fehlerquellen wie Drittvariableneffekte und
Regressionseffekten, Reifung zu widmen.
o Weitere Probleme sind:
Die Festlegung von Erfolgskriterien und deren Messung.
Die Berücksichtigung eventueller Nebenwirkungen.
Die Bewertung der Wirkungen und Nebenwirkungen einer
Maßnahme(Kosten-Nutzen-Analyse).

Stichproben
1.Gallup gegen „Literary Digest“
Seiten 373 – 376 für Genaueres

Das Gallup-Institut verwendet die Quotenwahl. Größere Stichproben sind unter


gleichen Bedingungen genauer als kleinere Stichproben.
Sind größere Stichproben selektiv, dann werden kleinere, unverzerrte Stichproben in
der Regel genauere Schätzungen liefern.
Mit sorgfältig gewählten Stichprobenplänen wird versucht, das Ausmaß
systematischer Verzerrungen nach Möglichkeit in Grenzen zu halten.
2.Grundbegriffe

Die Grundgesamtheit(Population) ist z.B. bei Wählern die Gesamtheit aller


Wahlberechtigten Personen.
Eine Stichprobe ist eine Auswahl von Elementen der Grundgesamtheit.
Elemente der Population, auf die sich die Auswahl bezieht und die Chance haben in
die Stichprobe aufgenommen zu werden, bezeichnet man als Erhebungseinheiten.
o Die Zielpopulation ist die angestrebte Grundgesamtheit.
o Die Auswahlgesamtheit enthält alle Elemente, die eine Chance aufweisen,
um die Stichprobe aufgenommen zu werden.
o Die Survey-Population entspricht der Auswahlgesamtheit abzüglich der
Menge der Elemente, die nicht zur Zielpopulation gehören.
Erhält jemand, der zur Zielpopulation gehört nicht die Chance, in die Stichprobe
aufgenommen, besteht Undercoverage.
Overcoverage ist die Menge an Personen, die zwar in die Stichprobe gelangen
können, dort aber nicht hineingehören.
Die Anzahl der ausgewählten Elemente ist der Stichprobenumfang(N) Es lassen
sich drei Hauptgruppen von Stichprobenverfahren unterscheiden:
o Wahrscheinlichkeitsauswahl(Zufallsauswahl)
o Bewusste Auswahl Ein Beispiel ist das Quotenverfahren.
o Willkürliche Auswahl
Quotenverfahren und Zufallsstichproben werden häufig als repräsentative
Stichproben bezeichnet.
Ziel ist die Schätzung von Parametern der Population mittels der
Stichprobeninformation.
3.Verschiedene Arten der Wahrscheinlichkeitsauswahl

Einfache Zufallsstichproben: Die Auswahlwahrscheinlichkeit für alle Elemente der


Grundgesamtheit ist identisch größer als null und die Auswahl erfolgt direkt in einem
einstufigen Auswahlvorgang.
o Die Listenauswahl eignet sich, wenn ein Verzeichnis sämtlicher Elemente der
Grundgesamtheit existiert. Wenn in einem Telefonverzeichnis Nummern
zufällig ausgewählt werden, spricht man vom Random Digit Dialing.
o Um eine Lotterieauswahl handelt es sich, wenn sämtliche Elemente der
Population, d.h. alle Positionen der Liste, analog zum Urnenmodell in der
Statistik ausgewählt werden. Existieren in einer Liste Zyklen, können
systematische Verfahren der beschriebenen Art zu Verzerrungen führen.
o Interviews beruhen meist auf einer Gebietsauswahl.
o Um eine einfache Zufallsstichprobe aus einem Gebiet zu erhalten, arbeitet
man mit Begehungsanweisungen. Bei einem Random-Route-Verfahren
werden zunächst Adressen vorgegeben. Die weiteren Adressen der
Flächenstichprobe werden nach vorgegebenen Regeln ermittelt. „Gehen Sie
von der Startadresse nach links bis zur nächsten Kreuzung, biegen links ab und
nehmen die erste Adresse auf der rechten Seite.“
o Werden Adressenermittlung und Interviews von verschiedenen Personen
durchgeführt, spricht man von Adressrandom.
o Zur Zufallsauswahl innerhab eines Haushaltes kann man sich dem
Schwedenschlüssel bedienen: Seite 348. .
S 384
Mehrstufige Zufallsauswahl

Die Zufallsauswahl erstreckt sich über mehrere Ebenen. Z.B. die


Gemeindestichprobe: Gemeinden zufällig aus dem Bundesgebiet gezogen Eine
bestimmte Anzahl von Adressen in Gemeinden(Zweistufig).
PPS-Samples

Ein Spezialfall zweistufiger Zufallsstichproben. Die Auswahlwahrscheinlichkeit auf der


ersten Stufe ist proportional zur Größe der Auswahleinheiten. z.B. werden große
Gemeinden mit höherer und kleinerer Gemeinden mit geringerer Wahrscheinlichkeit
ausgewählt.
Auf der zweiten Stufe wird die gleiche Anzahl von Personen zufällig ausgewählt.
Klumpenstichproben

Bei der Klumpenauswahl oder dem Cluster-Sample werden die auf der ersten Stufe
ausgewählten Einheiten als Klumpen bzw. Cluster bezeichnet.
Auf der zweiten Stufe werden sämtliche Klumpenelemente berücksichtigt.
Das Fehlerintervall von Parameterschätzungen ist größer als bei einfachen
Zufallsstichproben.
Schichtung

Bei der geschichteten Zufallsstichprobe wird die Grundgesamtheit in mehrere


kleinere Gruppierungen(Schichten) unterteilt.
Aus jeder Schicht wird eine Zufallsstichprobe gezogen. Beim Schluss auf die
Grundgesamtheit werden die Stichproben entsprechend den Umfängen der
einzelnen Schichten gewichtet.
Je homogener die Elemente innerhalb der Schichten und je größer die Heterogenität
zwischen den Schichten ist, desto größer ist der Schichtungseffekt.

4.Quotenauswahl

Die Methode ist eine bewusste Auswahl, da die Stichprobe nach vorgegebenen
Regeln gezogen wird. Beziehen sich auf Quoten, die vom Interviewer erfüllt
werden müssen. Eine Merkmalsverteilung wie z.B. 54% Frauen und 46% Männer.
Die ausgewählten Merkmale sollen den Merkmalen in der Grundgesamtheit
entsprechen.
Quoten können einfach und kombiniert sein
o aber auch mehr Merkmalen vorgegeben: 30% Angestellte, 70% Beamte
Von Beamten 60 – 40 Männer und Frauen.
o Wie viele Personen mit welchen Merkmalen von den einzelnen Interviewern
befragt werden, wird in einer persönlichen Quotenanweisung definiert.
Die Quotenauswahl wird mit folgenden Argumenten gerechtfertigt:
o Die Quotenmerkmale sind mit anderen, eigentlich interessierenden
Merkmalen(Wahlverhalten, Kaufentscheidungen, Einstellungen) korreliert.
o Wird der Entscheidungsspielraum der Interviewer durch präzise Quoten
begrenzt, dann wird der Interviewer innerhalb der Quoten näherungsweise
eine Zufallszahl treffen.
o Ein Quotenplan entspricht dem Design einer geschichteten Stichprobe mit
proportionaler Schichtung.
Mit der Quotenauswahl soll der subjektive Entscheidungsspielraum des Interviewers
begrenzt werden. Es besteht jedoch die Gefahr, dass zu strenge Vorschriften den
Interviewer zum Fälschen verleiten.

5.Stichproben aus speziellen Populationen

Mit allgemeinen Bevölkerungsumfragen sind spezielle Populationen nicht zu


erreichen.
Capture-Recapture-Methode

Ein Stichprobenverfahren zur Größenschätzung von Populationen. Kann unter


Population en
gewissen Voraussetzungen zur Ermittlung des Umfanges verborgener Stichproben
angewandt werden.
Es werden nacheinander zwei Stichproben gezogen. Bei der zweiten wird ermittelt,
wie viele Personen bereits in der ersten waren.
Voraussetzung ist, dass es sich bei den Stichproben um voneinander unabhängige
Zufallsstichproben handelt und die Population zwischenzeitlich konstant bleibt.
Schneeballtechnik

Kann Anonym durchgeführt werden. Z.B. ein Fragebogen wird an bestimmte


Merkmalsträger gereicht. Dieser wird von diesen an weitere Personen gereicht, die
dasselbe Merkmal tragen.
Der Nachteil ist, dass es sich um keine Methode der Wahrscheinlichkeitsauswahl
handelt.
Ähnlich ist die Nominationstechnik: Von den befragten Personen werden weitere
Personen angegeben, die eine in der Untersuchung interessierende Aktivität
tragen(Meist eine illegale Aktivität wie Drogenkonsum). Wieder keine
Zufallsauswahl!
6.Theorie der Zufallsstichprobe → wiederhden !
Sehr viel Statistik! Sollte am besten als Ganzes gelesen werden – Seiten 401-410.

7.Zufallsstichproben in der Praxis


ADM-Design

Wird von größeren Instituten des „Arbeitskreises deutscher Markt- und


Sozialforschungsinstitue“ verwendet.
Eine dreistufige Zufallsstichprobe mit Gebietsauswahl, also eine Flächenprobe. Die
Grundgesamtheit wird von allen Privathaushalten in Deutschland gebildet.
o Auf der ersten Stufe werden Stammbezirke mit einer Wahrscheinlichkeit
proportional zur Größe ausgewählt.
o Auf der zweiten Stufe wird mit der Random-Route-Methode eine
Zufallsstichprobe von Adressen ermittelt.
o Auf der dritten Stufe wird die vom Interviewer zu befragende Person per
Schwedenschlüssel ausgewählt.
Durch die Gewichtung mit der Haushaltsgröße erhält man theoretisch ein
personenrepräsentatives Zufallssample.
Erlaubt eine viel einfachere Konstruktion von Zufallsstichproben, als dies über die
Melderegister der Gemeinde möglich wäre.
Amtliche Statistik

Die Daten der amtlichen Statistik resultieren aus Verwaltungshandeln oder werden
durch Befragung von Privatpersonen und Unternehmen gewonnen. Bei der
Befragung werden Zufallsstichproben aus Adressenregistern gezogen.
Ein Beispiel ist der Mikrozensus – Seite 413. Daten des Mikrozensus bilden eine
wichtige Grundlage für wissenschaftliche Analysen der Sozialforschung!
Gutfurlandervergleiohe,
Die Sekundäranalyse amtlicher Erhebungen bieten wichtige Vorteile:
;
got fir o Ein großer Stichprobenumfang.
Weniger
Nationale studier o Die Möglichkeit der Untersuchung spezieller Gruppen und Regionen.
o Auskunftspflicht von Personen in der Stichprobe bei Erhebungen mit dem
Mikrozensus.
.

o Periodizität
o Möglichkeit des Einbezugs vom sozialen Kontext.
o Möglichkeit der Aufgliederung der Stichprobe in Teilgruppen mit spezifischen
Merkmalen.
Bezüglich der Daten herrscht seit 1987 faktische Anonymität Der Zugang zu Daten
für wissenschaftliche Auswertungen ist möglich, wenn die Anonymität nur durch
unverhältnismäßig hohe Kosten aufgehoben werden kann.
Fehlerquellen

In der Surveyforschung unterscheidet man drei Kategorien von Fehlerquellen:


\ o Zufallsfehler der Stichprobe. sampling variability
< >

Gesamtfehler
{ o Systematische Fehler aufgrund des Verfahrens der Stichprobenauswahl.
(total survey
error ) o Verzerrungen, die nicht direkt durch das Auswahlverfahren produziert.
wurden. < non sampling bias >

Eine andere Systematik ist differenzierter und beeinhaltet:


Grippe)
Under coverage ) ( Mittelwertdiffrcnt
'

Survey Population and Undercover


Fewer
=( zwischen
-

Anteil
-

age
o Coverage-Effekte Coverage
-

o Stichprobenfehler
Zufallsfehler der Stichprobe.
Systematische Fehler aufgrund des Verfahrens der
Stichprobenauswahl.
o Fehler durch Non-Response
o Messfehler
o Fehler bei der Datenedition und Gewichtung
Mit dem Konzept des total survey error wird versucht, die einzelnen Fehlerquellen
stärker zu systematisieren und einen Surveyplan so zu entwickeln, dass am Ende der
Gesamtfehler möglichst gering ausfällt.
Non-Response

Ein Problem stellen Verweigerung, Nicht-Erreichbarkeit und Ausfall dar.


Ausfallquoten stellen vor allem bei replikativen Umfragen ein Problem dar: Nicht nur
Ausschöpfungsquoten selbst, sondern auch Veränderungen in der Ausschöpfung
machen die Interpretation der Ergebnisse schwierig.
Die beste Möglichkeit, Non-Response zu minimieren, ist die Ausfallquote zu senken.
Mehr Kontaktversuche und der ergänzende Einsatz der telefonischen und
schriftlichen Befragung könnten diese reduzieren. Auch die Bezahlung des
Interviewpartners kann hilfreich sein.
Non Response verzerrt die Schätzung von Korrelationen nur schwach, Mittelwerte
und Anteile jedoch stärker.
Neben dem beschriebenen Unit-Non-Response gibt es auch Item-Non-Response: Die
Verweigerung von nur einzelnen Antworten: „Nein, ich verrate Ihnen die Farbe
meiner Unterhose nicht!“ ;-) ( )
i

Einhorn -

enstrese

Gewichtung

Zur Schätzung von Populationsparametern(Prozentanteile, Mittelwerte usw.) werden


die Rohdaten der Stichprobe häufig gewichtet. Drei Arten der Gewichtung:
o Theoretisch-statistische Gewichtung aufgrund der bekannten
Auswahlwahrscheinlichkeiten gemäß Stichprobenplan(Designgewicht).
o Nachgewichtung(Redressment)
o Gewichtung aufgrund einer empirischen Hypothese.
Haben die einzelnen Elemente in der Population nicht die gleiche Chance in der
Stichprobe berücksichtigt zu werden und sind die Wahrscheinlichkeiten zur Auswahl
.
bekannt, so kann die Ungleichwahrscheinlichkeit der Auswahl durch eine Gewichtung
korrigiert werden.
Bei der Nachgewichtung, auch Redressment genannt, werden die Verteilungen der
Stichprobe nachträglich an bekannte Verteilungen der
Grundgesamtheit(Altersklassen, Geschlecht, Bildung) angepasst. Die Verteilung
der Stichprobe soll mit den Angaben z.B. der amtlichen Statistik übereinstimmen. • °
( umstritten
!

)
Repräsentative Stichproben?

Eine Stichprobe
. „repräsentiert“ aber niemals sämtliche Merkmalsverteilungen der
Population. In der Statistik spricht man statt von der Repräsentativen Stichprobe
daher von Zufallsstichproben oder einer Wahrscheinlichkeitsauswahl.
In Einer Untersuchung sollte bei der Rede von der „Repräsentativstichprobe“ die
genaue Art der Stichprobentechnik und weitere Charakteristika der Methode
angeben:
o Zufalls oder Quotenauswahl.
Quotensample Quotenmerkmale.
Zufallsstichprobe Aussschöpfungsquote.
o Bei Surveystudien sollte die Erhebungsmethode(telefonische oder persönliche
Befragung) angegeben werden.
o Eventuelle Gewichungsverfahren sind mitzuteilen.
o Der genaue Fragekontext mit den Antwortkategorien sollte angegeben
werden.
Befragung
1.Stellenwert in der Sozialforschung

Unsere Kenntnis der Sozialstruktur und sozialen Schichtung, der Mobilität und
Bildungschancen und anderer sozialstruktureller Merkmale und Zusammenhänge
sind hauptsächlich das Ergebnis quantitativer Bevölkerungsbefragungen.
Einen großen Nachteil vor allem beim Interview stellt die Reaktivität dar Selbst die
Art und Weise der Konstruktion des Messinstruments hat einen Einfluss auf die
Antwortreaktionen.
2.Formen der Befragung
1. Das persönliche „Face-to-Face“-Interview
2. Das telefonische Interview

:
3. Die Schriftliche Befragung(„questionnaire“)

Das persönliche Interview war lange Zeit die am meisten verbreitete


Befragungsmethode. Neuerdings hat sich das Gewicht zugunsten des
Telefoninterviews verschoben.
Befragungen können nach dem Grad der Strukturierung oder Standardisierung
unterschieden werden. Ein Kontinuum mit den Polen strukturiert auf der einen
und unstrukturiert, offen auf der anderen Seite.
Bei einem vollständig strukturierten Interview werden alle Fragen mit vorgegebenen
Antwortkategorien in festgelegter Reihenfolge gestellt. Offene Interviews
erfordern nur minimale Vorgaben.
Objektivität, Validität und Reliabilität Battey
werden durch den Fragebogen im höchsten
Maße gewährleistet. warden .

Die Standardisierung erhöht zwar die Wahrscheinlichkeit, dass die Daten unabhängig
vom Interviewer ausfallen, birgt jedoch das Problem dass wenige Informationen
jenseits des Spektrums der vorgelegten Antwortkategorien ermittelt werden
können. Standardisierte Interviews zahlen sich nur bei genügend Vorwissen aus.
Stark strukturierte Interviews sind quantitative Befragungen, während
Leitfadeninterviews, fokussierte und narrative Interviews qualitative Methoden
darstellen.
Neben Interviews mit zwei Personen existieren auch Tandeminterviews und
Gruppendiskussionen(Interviewer greift meist nur steuernd ein Erforschung von
Meinungsbildungsprozessen).

3.Theorie des Interviews

Ein Interview ist ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung. Die
Versuchsperson wird dabei mithilfe gezielter Fragen oder mitgeteilter Stimuli zu
verbalen Informationen veranlasst.
Bei der neutralen Interviewtechnik ist der Interviewer angehalten, die
Antwortreaktionen auf eine Frage weder positiv noch negativ zu sanktionieren.
Dadurch sollen unverfälschte Informationen gewonnen werden.
Unbewusste Signale der Zustimmung und Missbilligung machen das Interview zu
einer reaktiven Methode.
1. In weichen, nichtdirekten Interviews soll der Interviewer durch zustimmende
Reaktionen Hemmungen abbauen, das Gespräch unterstützen und weitere
Antworten ermuntern.
2. Die harte Interviewtechnik macht auf Widersprüche aufmerksam und
versucht wie bei einem Verhör, dem Befragten das Gefühl der Zwecklosigkeit
unvollkommener Angaben zu vermitteln.
Bei standardisierten Umfragen ist die neutrale Interviewtechnik der Normalfall,
gepaart mit einigen weichen Elementen.
Die Methode des Interviews ist nur unter bestimmten Bedingungen anwendbar:
1. Kooperation der Befragten als Regelfall
2. Die Existenz einer Norm der Aufrichtigkeit in Gesprächen mit Fremden.
3. Eine gemeinsame Sprache zwischen Interviewer und befragter Person.
Interesse am Thema, die Bereitschaft zur Unterstützung z.B. einer wissenschaftlichen
Befragung und die Anerkennung dadurch dass die eigene Meinung von anderen als
wichtig erachtet wird, sind Motive des Befragten, unentgeltlich an einer Befragung
teilzunehmen. n deshhlb ; Pretest !
Die Voraussetzung der gemeinsamen Sprache meint, dass Interviewer und befragte
Person die Bedeutung von Frage und Antwort in gleicher Weise interpretieren.

:
Mit Theorien des Interviews wird beabsichtigt, die Antwortreaktionen von Befragten
systematisch zu erklären. Drei Perspektiven
1. Die faktorenanalytische Theorie der Frage
2. Die Anwendung der rationalen Entscheidungstheorie auf das
Befragtenverhalten.
3. Die Anwendung von Hypothesen zur Informationsverarbeitung aus der
kognitiven Psychologie.
Die Theorie der Frage geht auf das Modell der Faktorenanalyse zurück. Es wird
vorausgesetzt, dass eine Variable im Fragebogen mit einer Fragebatterie, mit
mehreren Items operationalisiert wurde Neben der interessierenden
Zeitdimension können Antwortreaktionen durch Fremddimensionen und soziale
Erwünschtheit verzerrt werden. Diese Methode kann mit statistischen Verfahren
umgesetzt werden.
Mit der Anwendung von Entscheidungstheorien wird das Verhaltend es Befragten
aus einer Kosten-Nutzen-Perspektive analysiert. Das Handeln der befragten wird
vom Wunsch sozialer Anerkennung und der Vermeidung von Missbilligung geleitet.
1. Problematisch ist die Identfizierung und Operationalisierung von Nutzen-und
Kostenkomponenten.
2. Ziel ist, die Kosten unverfälschter Angaben und den Nutzen alternativer,
verzerrter Antwortreaktionen zu reduzieren.
Den theoretischen Hintergrund der Hypothesen zur Informationsverarbeitung bildet
die kognitive Psychologie mit den Zweigen der Denk-und Gedächtnispsychologie.
1. Von Befragten werden Urteile und Erinnerungen erwartet.
2. Der Abruf aus dem Gedächtnis unterliegt psychologischen
Gesetzmäßigkeiten.
3. Hinweise(clues) und parallele Ereignisse(Anker) unterstützen die zeitliche
Lokalisierung vergangener Ereignisse.
4. Bei Einstellungs-Meinungs- und Gedächtnisfragen kann der Prozess der
Informationsverarbeitung in eine bestimmte Richtung gelenkt werden.

4.Fehlerquellen im Interview: Grafik Diekmann – S.471

Zur Untersuchung systematischer Antwortverzerrungen im Interview bedient man


sich experimenteller Methoden, insbesondere der Technik des Fragensplits oder
generell des Methodensplits.
Werden die Fragen in verschiedene Versionen gesplittet(Fragensplit), dann weisen
signifikante Unterschiede in den Antwortreaktionen auf einen Effekt der
Frageversion hin.
Einzelne Methodenfaktoren, wie Interviewsituation und die Reihenfolge von Fragen
können experimentell variiert werden, um die Einflussrichtung und Stärke auf das
Antwortverhalten herauszufinden.
Man unterscheidet drei Kategorien von Fehlerquellen:
o Befragtenmerkmale(soziale Erwünschtheit, Response-Set, „Meinungslose“).
o Fragemerkmale(Fragenformulierung, Frageposition, Effekt von
Antwortkategorien)
o Merkmale des Interviewers und der
Interviewsituation(Interviewermerkmale, Anwesenheit Dritter,
Interviewsituation).

Befragtenmerkmale: Soziale Erwünschtheit

Die Lage des subjektiv wahrgenommenen Maximums einer positiven Bewertung von
Handlungen, Meinungen oder anderen Eigenschaften wird als Ort sozialer
Erwünschtheit bezeichnet. Sind die Kosten der Angabe des wahren Wertes aus
Sicht der rationalen Entscheidungstheorie hoch, ist mit einer systematischen
Verzerrung durch den Effekt sozialer Erwünschtheit(social desirability effect) zu
rechnen.
Allgemein gilt, dass je heikler eine Frage aus der Sicht einer Person ist und je größer
der Unsicherheitsbereich bezüglich des wahren Variablenwertes, desto stärker wird
sich der Effekt sozialer Erwünschtheit bemerkbar machen.
Gegenmaßnahmen um den Effekt sozialer Erwünschtheit zu reduzieren:
o Fragen sollten möglichst neutral formuliert werden.
o Die gegenteilige Strategie suggestiver Fragen, die einleitend im Fragetext
abweichendes Verhalten als normal darstellen, wird in Ausnahmefällen
angewendet, ist aber nicht empfehlenswert.
o In persönlichen Interviews ist es möglich, die Antwort in einem Kuvert zu
verschließen und dieses dem Interviewer überreichen.
o Vollständige Anonymisierbarkeit wird durch die Randomized-Response-
Technik garantiert.
o Wurden Einstellung mit einer Fragebatterie erhoben, dann können Items, die
die Dimension sozialer Erwünschtheit in hohem Maß ansprechen,
nachträglich bei der Datenanalyse identifiziert werden
Itemkonsistenzanalyse, Faktorenanalyse.
o Es wurden Skalen entwickelt, um soziale Erwünschtheit zu messen: Social
desirability-Skalen. Befragte mit hohen SD-Werten können ausselektiert
werden. Wie groß der Anteil von Personen mit dieser Tendenz in einer
Stichprobe ist, kann mit Kontrollfragen ermittelt werden.

Response-Set

Als Response-Set werden systematische Antwortmuster von Befragten bezeichnet,


die unabhängig vom Inhalt der Fragen zustande kommen.
Bei einem speziellen Fall des Response-Sets wird unabhängig vom Frageinhalt die
Mittelkategorie gewählt.
Ein anderer Fall ist die Jasage-Tendenz(Akquiszenz).
Als Gegenmaßnahme empfiehlt es sich, Items sowohl positiv als auch negativ in
Richtung auf die Zieldimension zu polen In der Itemkonsistenzanalyse wird sich
die Akquiszenz mit relativ niedrigen Werten des Reliabilitätskoeffizienten zeigen.
Weiterhin kann man die Antwortprofile kontrollieren und auf diese Weise Befragte
identifizieren, die inhaltsunabhängige Antwortstile aufweisen Personen mit hoher
Akquiszenz kann man bei der Datenanalyse ausschließen.
Allerdings besteht bei der Ausschlussstrategie die Gefahr der Selektionsverzerrung.

Meinungslosigkeit/Pseude-Opinions/Non-Attitude-Problem

Befragte können ihre Meinungen und Bewertungen auch dann äußern, wenn die zu
bewertenden Sachverhalte unbekannt sind oder so gar nicht existieren.
Eine übliche Praxis besteht darin, meinungslose Personen durch Filterfragen
auszuschließen.
Die Separierung der Meinungslosen kann auch durch die Quasi-Filterfrage - „keine
Meinung“ erfolgen.
Der Anteil Meinungsloser wird bei separaten Meinungsfragen höher ausfallen als bei
Quasi-Filterfragen. Das liegt an der Signalfunktion der Filterfrage: Manche
Befragte werden die anschließenden Fragen für höchst komplex halten Durch
diese Weise werden auch Personen ausgeschlossen, die durchaus etwas zum Thema
zu sagen hätten.
Da die Gefahr selektiver samples besteht, wird häufig auf Filterfragen verzichtet.
Stattdessen empfiehlt es sich, Personen nach ihrer Meinung und einem eventuellen
Meinungsbildungsprozess oder der Kenntnis des Themas zu befragen
Meinungslose können dann immer noch bei der Datenauswertung separiert werden.
Ist die Wahrscheinlichkeit systematischer Verzerrung besonders hoch, empfehlen
sich alternative Erhebungsmethoden anstatt der Befragung.

Frageeffekte

Die Art der Frageformulierung kann die Antwortreaktionen erheblich beeinflussen.


Die Variation logisch äquivalenter Begriffe kann größere Unterschiede
hervorrufen(„verbieten“ – „nicht erlauben“).
Ähnliche Effekte sind durch Variationen des Fragetypus zu erwarten: Beispiel
Rating(„sehr wichtig“ – „überhaupt nicht wichtig“) und Ranking(Antworten werden
vom Befragten nach Wichtigkeit gereiht). Rating-Skalen erzielen eher die absoulte
Wichtigkeit oder Bewertung von Problemen und Sachverhalten, Ranking-Verfahren
auf die relative Wichtigkeit. Welches Verfahren gewählt wird, hängt von der
Zielsetzung ab.
Schätzfragen vergrößern den Effekt der Antwortvorgaben auf die Reaktion der
Befragten, da alltägliche Routinehandlungen nur unscharf vom episodischen
Gedächtnis gespeichert werden.
Bei Retrospektivfragen, die sich auf Dauer und Häufigkeit beziehen, empfehlen sich
Alternativen: Antwortkategorien werden weggelassen und es wird eine offene Frage
nach der Dauer oder Häufigkeit des Verhaltens gestellt. Werden dennoch
Kategorien gebildet, so sollte eine Referenzperiode/Verankerung angegeben werden.
Allerdings besteht der Teleskopeffekt: Das berichtete Ereignis wird in die
Referenzperiode hineingeschoben.
Die Positionierung der Frage ist von großer Bedeutung. Fragen können auf andere
Fragen ausstrahlen(=Halo-Effekt) oder Fragereiheneffekt. Zb. Frage nach
Roundevouzhäufigkeit vor Frage nach Lebenszufriedenheit.
In sorgfältigen Untersuchungen können gegen diese Effekte Vorkehrungen getroffen
werden Fragen im Zuge eines Pretest variieren: Möglichkeit einer frühzeitigen
Erhebung und Diagnose.
Weiterhin besteht die Möglichkeit nach Umformulierung und Präzisierung der
Fragen, wenn diese Positionseffekte aufweisen.

Interviewer und Interviewsituation

Interviewer-Merkmale wie Geschlecht, Kleidung, Alter und des Verhaltens haben


einen Einfluss auf die Antwortreaktionen des Befragten. Die Stärke der Einflüsse
hängt von den speziellen Fragen ab.
Wahlliorscn ; experimental Markle

lignen si drum Aspekk mensdrl .

Verhaekns W unkrsvchen
Ergebnisse sind bei sensiblen Fragen umso weniger verzerrt, desto größer die soziale
Distanz zwischen Interviewern und Befragten ist.
Auch in Telefoninterviews können Sprache, Geschlecht und die vermittelte
Erwartungshaltung auf die Antworten verzerrend wirken.
Bei schriftlichen Befragungen besteht die Gefahr der Verzerrung durch
Verständnisprobleme bezüglich der Fragen.
Bewusste Fälschungen durch den Interviewer sind oft schwierig aufzuklären.
o Dem kann entgegengewirkt werden, indem die Höhe und Art der Bezahlung
des Interviewers und die Dauer des Interviews verändert werden.
o Der Auftraggeber sollte sich mit den Regeln der Feldkontrolle, der
Feldorganisation, der Zusammensetzung des Interviewstabs, sowie der
Bezahlung der Interviewer vertraut machen.
o Oft ist es vorteilhaft, wenn ein Forschungsteam die Interviews selbst
durchführt oder die Organisation der Feldarbeit selbst übernimmt.
o Telefoninterviews können unter Supervision zentral vom Institut durchgeführt
werden.
Maßgeblich ist die Interviewsituation Zum Beispiel wenn in Interviews
Vergleichsstandards entwickelt werden(Interview über Wohnsituation wird in einem
luxuriösen Versuchsraum durchgeführt.)
Die Verzerrung durch Anwesenheit Dritter wird beispielsweise deutlich, wenn bei
Fragen zur Partnerschaft der Partner/die Partnerin dabei ist.
Der Sponsorship-Effekt meint Verzerrungen durch die Kenntnis des Auftraggebers.

Fragetypen

Unterteilung:
o Einstellungen
o Überzeugungen
o Verhalten
o Sozialstatistische Merkmale.
Die Einstellung oder Bewertung wird häufig in Form von Aussagen(Statements,Items)
erhoben, die vom Befragten auf einer Ratingskala oder Likert-Skala eingestuft
werden sollen.
Von Rating-Skalen gibt es zahlreiche Varianten, wie 4-Punkte, 7-Punkte,
Thermometerskalen oder Schulnoten.
Bei Alternativfragen muss sich der Befragte zwischen einer von zwei Aussagen
entscheiden.
Itemkonsistenzanalyse und mathematisch-statistische Skalierungsverfahren sind
nur möglich, wenn Einstellungsdimensionen mit multiplen Items(Fragebatterie)
gemessen wird.
Überzeugungen sind subjektive Aussagen über Fakten. Dabei handelt es sich
formal um eine offene Frage. Bedenklich ist bei der Bildung von Kategorien, dass
diese ungewollt Informationen vermitteln können. Auch können multiple-choice-
Fragen, dichotome Ja-Nein-Fragen oder Alternativfragen gestellt werden.
Now Befragung

Merkmals der
Frageformulierung
befragten

Person

.Antwortreaktionhyh
ftp.T#tFamamw8Ywsfp.n&rsemtrwTwahrerWertdesAYFaFergtoIien
Response
.

set .
p
foziale
£ ufallsfehler
Crwuinschtheit

Anwesenheit
Drifter

lnterviewermerkmakf
. Fragekontext
Meinungswsigkeit

Anhvortvertorungim
Interview
Verhaltensfragen sind in der Regel Retrospektivfragen: Die Häufigkeit, Dauer und Art
von Handlungen in der Vergangenheit wird erfragt. Fragen nach in die Zukunft
gerichteten Verhaltensabsichten(Handlungsintentionen) sind dagegen eher
Meinungsäußerungen als Verhaltensfragen.
Mit sozialstatistischen oder sozialdemographischen Merkmalen sind statistische
Angaben im weitesten Sinne gemeint.
o Selbstauskünfte: Fragen beziehen sich auf den Befragten
o Fremdauskünfte: Fragen beziehen sich auf andere Personen.
Fragen können auch einen direkten oder indirekten Bezug zur Zieldimension
aufweisen.
o Indirekt: Verzerrungen durch soziale Erwünschtheit fallen weniger ins
reakhvitat Gewicht und können zudem auch verborgene Motive enthüllen. Die
Reaktivität wird reduziert. Ein Spezialfall der indirekten Frage ist die
reduiert
Projektivfrage.
Form der Frage:
o Geschlossene, offene und halboffene Fragen.
o Bei geschlossenen Fragen kann weiterhin in dichotome Ja-Nein-Fragen,
Alternativfragen und Auswahlfragen wie Rating oder Ranking, Fragen mit
Mehrfachantworten differenziert werden.
o Filterfragen, Gabel, Filtertrichter.
Geschlossene Fragen mit vorgegebenen Antwortkategorien bieten die Vorteile der
Vergleichbarkeit der Antworten, höhere Durchführungs-und Auswertungsvalidität,
geringerer Zeitaufwand für den Befragten, leichtere Beantwortbarkeit für Befragte
mit Verbalisierungsproblemen und geringer Aufwand bei der Auswertung.
Der Nachteil geschlossener Fragen ist die möglicherweise Ausblendung bedeutsamer
Aspekte des Kategoriesystems. Zur Entwicklung eines Kategoriesystems eignen sich
explorative Untersuchungen mit offenen Fragen gut.
Halboffene Fragen sind ein Kompromiss zwischen geschlossenen und offenen Fragen
geschlossene Antwortkategorien + einer offenen Frage.
Antwortkategoriesysteme sollten erschöpfend, disjunkt und präzise sein.
o Filterfragen: Werden Fragebögen vorgeschaltet, die sinnvollerweise nur von
einer Teilmenge der interviewten Personen beantwortet werden sollen.
o Eine Gabel ist eine Erweiterung davon. Hier werden Personen je nach
Kategorie mit unterschiedlichen Frageblöcken konfrontiert.
o Trichterfragen dienen dem Herantasten vom Allgemeinen zum Besonderen
Die Antwortbereitschaft ist hierbei größer, da mit harmlosen Fragen
begonnen werden kann. Fragetrichter können jedoch auch unerwünschte
Fragekontexteffekte produzieren. Die Beantwortung der allgemeinen Fragen
kann auf die Antworten der speziellen Fragen ausstrahlen.
o Eisbrecherfragen: Haben keinen besonderen Informationswert, könnten
jedoch für Befragte von Interesse sein und dabei helfen, eine kooperative
Interviewatmosphäre aufzubauen.
Einige der Grundregeln der Formulierung und Fragebogengestaltung
1. Die sprachliche Form von Fragen sollte kurz, verständlich, mit einfachen Worten und
hinreichend präzise formuliert sein!

2. Fragen sollten möglichst in einfachem Hochdeutsch gestellt werden, ohne


kumpelhaften Slang oder Dialekt.

3. Doppelte Verneinungen sollten vermieden werden, um die Frage nicht unnötig zu


komplizieren und Missverständnisse zu vermeiden.

4. Antwortkategorien von geschlossenen Fragen sollten disjunkt, erschöpfend und


präzise sein. Sie sollten hinreichend genau zwischen verschiedenen Sachverhalten
diskriminieren Bei Fragen nach Häufigkeit, Dauer und anderen Zahlenwerten kann
jedoch eine offene Frage zweckmäßiger sein.

5. Wertbesetzte Begriffe sollten nach Möglichkeit vermieden werden, da diese die


Antwortkategorien in eine bestimmte Richtung lenken können.

6. Fragen sollten nicht mehrdimensional sein, da diese keiner eindeutigen


Zieldimension zurechenbar sind.

7. Indirekte Fragen sind problematisch: Zum Beispiel Einstellungen, die mit Faktfragen
gemessen werden, da es hier auch zu mehrdimensionalen Fragen kommt.

8. Suggestivfragen sollten vermieden werden, da diese die Antwort in eine bestimmte


Richtung lenken könnten.

9. In Fragebatterien mit verschiedenen Items sollten die Aussagen in unterschiedliche


Richtungen gepolt werden.

10. Der Befragte sollte nicht durch Fragen überfordert werden, die von ihm zum Beispiel
eine bestimmte Rechenleistung verlangen würden.

11. Ausnahmen dürfen in den Regeln immer wieder vorkommen!

Fragebogenkonstruktion

Vor der Konstruktion des Fragebogens sollten die Hypothesen oder deskriptiven
Ziele klar formuliert sein.
Am Beginn der Konstruktion werden zumeist thematische Blöcke(Module) erstellt.
Für jedes Modul werden in weiterer Folge Fragen formuliert.
Unter Beachtung einiger Regeln werden die Fragen in einer zweckmäßigen
Reihenfolge sortiert.

1. „Eisbrecherfragen“ sind allgemein, sollten auf das Thema hinführen und sollten von
den Befragten mit Interesse aufgenommen werden.

2. Wichtige Fragen werden häufig im zweiten Drittel des Fragebogens platziert, da die
Aufmerksamkeit zunächst steigt, aber mit zunehmender Befragungsdauer abnimmt.

3. Wenn sich Fragen in einem Themenblock nach dem Grad der Allgemeinheit oder
„Angenehmheit“ differenzieren, kann mit Fragetrichtern gearbeitet werden.

4. Filterfragen und Gabeln helfen, überflüssige Fragen zu vermeiden und die


Befragungsdauer zu reduzieren.

5. Bei Mehr-Themen-Fragen sind zwischen einzelnen Frageblöcken Überleitsätze


sinnvoll.

6. Sozialstatistische Fragen sind weniger interessant und werden daher am Ende


angeführt.

7. Persönliche Interviews sollten nicht zu lange dauern, da sich die Antwortqualität bei
einer längeren Befragung vermindern kann.

8. Auf den Fragebogen wird ein Kontaktprotokoll geheftet, das vom Interviewer
ausgefüllt wird. Nach der Datenübertragung wird es aus Datenschutzgründen vom
Interview gelöst und separat aufbewahrt Eine Zuordnung der Daten zu den
Adressaten ist dann nicht mehr möglich Am Ende des Fragebogens befindet sich
meist ein Interviewerfragebogen, der Fragen zur Qualität des Interviews und weitere
Beobachtungen enthält.

9. Ein Fragebogen sollte unbedingt einem oder mehreren Pretests unterzogen werden:
a. Ermittlung der durchschnittlichen Befragungszeit.
b. Prüfung der Verständlichkeit der Fragen.
c. Prüfung der Itembatterien mit der Konsistenzanalyse oder Faktorenanalyse.
d. Prüfung von Fragenkontexteffekten und alternativen Frageformulierungen
mit Fragensplits.
e. Eventuell kann dieser auch der Interviewer-Schulung dienen.

Durchführung der Befragung

Vor der Hauptuntersuchung wird zunächst eine Interviewschulung durchgeführt


1- 2 Probeinterviews.
Bei landesweiten Befragungen mit n >= 3000 Personen erfolgt die Instruktion zumeist
postalisch.
Vor der Kontaktaufnahme
. empfiehlt es sich, den zur Befragung ausgewählten
Haushalt oder die Zielperson anzuschreiben. Es wird auf die Bedeutung und
Wichtigkeit der Befragung hingewiesen. Das Befragungsthema wird häufig genannt,
um die Teilnahmebereitschaft zu erhöhen. Es sollte unbedingt erwähnt werden, dass
die Daten vertraulich behandelt werden. Eventuell kann auch ein Kurzbericht der
Ergebnisse zugesandt werden.
Wer die Durchführung einer Studie zu beurteilen hat, sollte bedenken:
o Wie werden die Interviewer geschult?
o Wie viele Interviews führt ein Interviewer durch?
o Wie ist die Höhe der Honorierung?
o Wie werden die Interviews kontrolliert?
o Wie viele Kontaktversuche sind vorgeschrieben, um eine Zielperson zu
erreichen?
o Wird die Befragung exklusiv für einen Aufraggeber durchgeführt oder eine
Omnibus-Befragung eingeschoben?
Die Randomized-Response-Technik bei heiklen Fragen

Ist ein Verfahren zur Garantie vollständiger Anonymität, dass bei Fragen angewandt
wird, bei denen Mitteilungen der wahren Antwortreaktion dem Befragten eventuell
äußerst unangenehm sind. Dem Interviewer bleibt die persönliche
Antwortreaktion unbekannt.
Eingesetzt werden kann die Technik bei Fragen nach der Sexualität, dem Konsum von
Drogen oder anderen Formen selbstberichteten abweichenden Verhaltens in
sogenannten Dunkelzifferuntersuchungen.
Zur Anwendung der RRT benötigt man zwei Zufallsmechanismen mit bekannter
Wahrscheinlichkeit der Ergebnisse. Die erfragte Eigenschaft muss dem
Interviewer dabei unbekannt sein, die befragte Person die Antwort kennen.
Vorteil: Lohnt sich, wenn bei der Befragung mit größerer, systematischer Verzerrung
zu rechnen ist, falls die Fragen nichtanonym gestellt werden.
Nachteil: Erfordert einen erhöhten Aufwand und eine sehr sorgfältige Planung und
Durchführung des Interviews.
Genauerer Ablauf in Diekmann – S. 490ff
Online-Befragung

Bei Online-Surveys muss bei der Einstellungsmessung bedacht werden, dass sich die
Population der Internetnutzer in wesentlichen Merkmalen von der allgemeinen
Bevölkerung unterscheidet.
Die Vergrößerung des Stichprobenumfangs führt unter dieser Voraussetzung nur
dazu, dass der falsche Wert sozusagen mit größerer Genauigkeit getroffen wird.
Werden Aussagen über die allgemeine Bevölkerung angestrebt, kann es bei WWW-
Umfragen zu zwei Fehlerquellen kommen:
o Coverage Error: Die Grundgesamtheit der Internetnutzer entspricht nicht der
Zielpopulation der allgemeinen Bevölkerung.
o Fehler der Selbstauswahl: Die Befragten stellen keine Zufallsstichprobe aus
der Population der Internetnutzer dar.
Schriftliche und Online-Befragungen sind selbstadmistrierend: Fragen kommen via
Internet auf den Bildschirm, werden am Computer ausgefüllt und die Antworten
werden per Knopfdruck durch das Netz zurückgeschickt. Per Mail oder als Web-
Befragung

Vorteile der Online Befragung


1. Sind schnell durchführbar und die Daten werden wie beim
computergestützten Telefoninterview sofort abgespeichert. Auswertungen
oder Zwischenauswertungen sind wenige Tage nach Studienbeginn möglich.

2. Sind kostengünstig, da Ausgaben für den Druck und Versand von Fragebogen
entfallen.

3. Farben, Töne, Filme und Multimedia erweitern das Spektrum von


Präsentations- und Bewertungsmöglichkeiten.

4. Programmierte Befragung. Reihenfolgen von Fragen können variieren, um


Fragereiheneffekte zu kontrollieren oder auszuschalten.

5. Aufzeichnungen von Befragtenverhalten. Reaktionen der befragten Personen


beim Ausfüllen des Online-Fragebogens können registriert werden.

6. Experimentelle Studien. Es ist auf einfache Weise möglich, Varianten von


Fragetexten vorzulegen, wobei den befragten Personen die Varianten per
Zufall zugewiesen werden.

7. Durch die Programmierbarkeit der Interaktionen zwischen Versuchspersonen


kann beispielsweise kooperatives Verhalten untersucht werden.
Typen der Online-Befragung
1. Verfahren ohne Zufallswahl
a. Web-Befragungen zu Unterhaltungszwecken
.
b. Befragungen mit uneingeschränkt selbstrekrutierter Teilnehmerschaft.
c. Befragungen mit selbstrekrutierten Freiwilligen-Panels
2. Verfahren mit Zufallswahl
a. Intercept Befragungen Jeder n-te wird Befragt.
b. Listenbasierte Stichproben aus Populationen mit hohem Abdeckungsgrad.
.
c. Mixed Mode Befragung: Erfolgt meist offline Den Befragten wird
freigestellt, per online-Befragung oder per schriftliche, „Face to Face“ oder
telefonische Befragung zu antworten.
d. Befragungen eines vorrekrutierten Panels von Internetnutzern.
e. Befragungen eines vorrekrutierten Panels aus der Bevölkerung.
Probleme der Stichprobenziehung: Undercoverage und Non-Response

Offene WWW-Umfragen sind nicht geeignet, um Mittelwerte oder Anteile in der


Population zu schätzen.
Online-Umfragen liefern kein zutreffendes Bild der Zusammenhänge zwischen
Variablen im Vergleich zur Bevölkerungsstichprobe
Zufallsbasierte Methoden haben mit Undercoverage und Non-Response zu kämpfen.
Hinzu kommen durch das Instrument hervorgerufene Messfehler.
Die Nutzer unterscheiden sich erheblich von der allgemeinen Bevölkerung, da vor
allem Einkommen und Bildung hoch mit der Internetnutzung korreliert sind.
In Access-Panels sind bestimmte Gruppen von Internetnutzern überrepräsentiert.
Neue und unerfahrene Nutzer gelangen seltener in das Panel hinein.
Um sinnvoll auf die allgemeine Bevölkerung schließen zu können, sind Methoden der
Mixed Mode Befragung des des vorrekrutierten Panels aus der Bevölkerung nötig.
Nachteile der letzteren Methoden sind hohe Kosten und die Rekrutierung der
Panel-Mitglieder. Auch bei einer Zufallsstichprobe kommt es durch Nicht-freiwillige
zur Verzerrung.
Geeignet sind Online-Umfragen besonders für spezielle Populationen mit
Internetzugang, für die eine Liste der Email Adressen exisitiert und die für den
Versand der Fragebogen verwendet werden darf.
Non-Response kann zum einen durch technische Probleme bedingt sein, zb.
Mangelnde Internetkenntnisse, die den Zugang einschränken oder durch zu geringe
Bereitschaft Diese kann durch Geschenke, zb. Gutscheine in Emails erhöht
werden.
Befragungsinstrumente

Für die Formulierung der Fragen gelten die üblichen Regeln der Frageformulierung
Allerdings ist die Lesegeschwindigkeit am Bildschirm anders als beim Lesen von
Texten auf Papier, deshalb sollten eher kürzere Fragetexte verwendet und
übersichtlich präsentiert werden.
Der Fragebogen sollte aufgrund möglicher Abbruchquoten nicht zu lang sein.
Hardware-und Softwareausstattung sollte sich am unteren Standard orientieren,
um einer größeren Anzahl Zugang zu gewähren.
Farben könnten kulturell unterschiedliche Bedeutungen haben.
Für allgemeine Bevölkerungsumfragen mit vertretbarem Aufwand sind Online
Erhebungen nicht geeignet, da undercoverage besteht.
Durch Mixed-Mode-Erhebungen kann ein zusätzlicher Informationskanal angeboten
werden, um Non-Response zu minimieren.
Online-Befragungen eignen sich gut, wenn eine Liste von E-Mail-Adressen vorliegt.
Bei experimentellen Online-Erhebungen zur Prüfung von Kausalhypothesen sind
Stichprobenprobleme von geringer Bedeutung. Randomisierung der Befragten auf
die Fragevarianten ist jedoch wichtig. Es muss gewährleistet werden, dass dieselben
Personen nicht mehrmals teilnehmen.
Beobachtung
1.Beobachtung als Methode der Sozialforschung

Man spricht in der Sozialforschung von der direkten Beobachtung menschlicher


Handlungen, sprachlicher Äußerungen, nonverbaler Reaktionen(Mimik, Gestik,
Körpersprache) und anderer sozialer Merkmale(Kleidungen, Symbole, Gebräuche,
Wohnformen usw.)
In Frühformen ethnologischer Studien wurde schon immer mit der Beobachtung
gearbeitet: Beispiel: Arbeiten von Egon Erwin – Diekmann S.548f
Im wissenschaftlichen Kontext ist die Methode der teilnehmenden Beobachtung
gebräuchlich: Leplay, Feldforschungen von Bronislaw Malinowski und der Chicagoer
Schule. Siehe Trashers: The Gang – Diekmann S.550
Zwei Kriterien zur Abgrenzung von Beobachtungsmethoden in der Sozialforschung:
o Der Bezug auf die Forschungshypothesen
o Die stärkere Kontrolle und Systematik der Beobachtung
In explorativen Studien ist das Ziel die Generierung von Forschungshypothesen
In hypothesenüberprüfenden Untersuchungen die Methode der Beobachtung zum
Test vorab formulierter Hypothesen.
Zwei Probleme, denen die systematische Beobachtungstechnik Rechnung tragen
muss:
o Das Problem der Verzerrung durch selektive Wahrnehmung
o Das Problem der Fehlinterpretation des beobachteten sozialen Geschehens.
Methoden, die diesen Problemen entgegenwirken können:
o Schulung der Beobachter
o Verwendung von Leitfäden oder eines strukturierten Beobachtungsschemas
o Tests der Reliabilität und Validität der Beobachtungen.
Beobachtungen unterscheiden sich nach dem Grad der strukturierten
Vorgehensweise.
In der qualitativen Forschung wird eine teilnehmende Beobachtung in natürlichen
sozialen Situationen unter Verwendung allenfalls eines Beobachtungsleitfadens
favorisiert.
Ideal ist die Kombination unstrukturierter und stärker strukturierter
Techniken(Phase der Hypothesengewinnung – Phase der Hypothesenüberprüfung).
Die Methodenvielfalt bietet den Vorteil einer „Kreuzvalidisierung“ der Ergebnisse.
4.Verschiedene Arten der Beobachtungstechnik und ihre Probleme

Systematik der Beobachtungsverfahren:


o Teilnehmende versus nicht teilnehmende Beobachtung
o Offene versus verdeckte Beobachtung
o Feldbeobachtung versus Beobachtung im Labor
o Unstrukturierte versus strukturierte Beobachtung Introspective
-
o Fremdbeobachtung versus Selbstbeobachtung
Die teilnehmende Beobachtung eignet sich nur dann, wenn der Beobachter eine klar
definierte Rolle im sozialen Feld einnehmen kann.
o Passive teilnehmende Beobachtung: Zum Beispiel die eines Besuchers.
o Aktive teilnehmende Beobachtung: Übernahme einer Alltagsrolle wie die des
Erziehers in einem Jugendheim.
o Institutionalisierte Rolle: Ein Lehramtskandidat in einer Schulklasse.
Problem des going native: Der Beobachter ist nicht Länger fremd. Das Geschehen
wird nicht mehr aus der Distanz heraus beobachtet, Einzigartigkeiten der
untersuchten Kultur fallen weniger auf.
Problem der Beeinflussung in Richtung der Bestätigung von Hypothesen.
Bei der nichtteilnehmenden Beobachtung können die Beobachtungen direkt
protokolliert werden.
o Verdeckte teilnehmende Beobachtung: Der Beobachter gibt sich gegenüber
seinem Interaktionspartner nicht zu erkennen. Diese Form der Beobachtung
gilt allgemein als nichtreaktiv, dennoch kann es zu unkontrollierten
Einflüssen kommen.
o Verdeckte nicht teilnehmende Beobachtung: Die Beobachtung bleibt in dem
Sinne neutral, dass das soziale Geschehen durch den Beobachtungsvorgang
unbeeinflusst bleibt.
Manche Forscher verurteilen die verdeckte Beobachtung als unethisch Daher
muss im Einzelfall eine Abwägung zwischen dem Schutz der Intimsphäre und dem
öffentlichen Interesse vorgenommen werden.
Die Beobachtung der Reaktion von Versuchspersonen und sozialer Interaktion in der
Laborsituation erlaubt die gezielte Vorgabe experimenteller Stimuli und der
Kontrolle von Störfaktoren
o Die Erhebungsmethode der Beobachtung wird häufig mit einem
experimentellen Design kombiniert. Trennung in Experimentalgruppe und
Kontrollgruppe.
o Diese Form der Beobachtung zeichnet sich durch einen hohen Grad interner
Validität aus.
o Feldbeobachtung in natürlichen sozialen Situationen zeichnet sich durch
externe Validität aus.
o Nicht alle Hypothesen sind im Labor überprüfbar Langfristige Folgen eines
experimentellen Stimulus können nicht untersucht werden. Die
interessierenden Hypothesen können im Labor nicht immer erzeugt werden.
Die Feldbeobachtung ermöglicht dagegen die langfristige Untersuchung der
Auswirkung von nicht durch Forscher manipulierte Variablen im Rahmen eines
komplexen sozialen Geschehens.
Das Feldexperiment ermöglicht eine Kombination von experimentellem Design mit
Beobachtung im natürlichen Umfeld. Die Datenerhebung im Feldexperiment ist
meist nichtreaktiv.
In .strukturierten Beobachtungen wird versucht, die Objektivität und Zuverlässigkeit
zu erhöhen. Die Gefahr durch selektive Wahrnehmung soll vermindert werden.
Selektionsverzerrung: Wird eine Hypothese überprüft, richtet sich die
Aufmerksamkeit selektiv auf die Beobachtung der Ausprägung der abhängigen
Variablen. Eine Verzerrung liegt vor, wenn die Werte der zu beobachtenden Variable
mit unterschiedlichen Wahrscheinlichkeiten registriert werden.
Die Verzerrung der Beobachtungsdaten kann durch Verwendung strukturierter
Beobachtungsprotokolle, der Schulung von Beobachtern, dem Einsatz mehrerer
Beobachter und eventuell der Verwendung technischer Hilfsmittel verringert werden.
Introspektion(=Selbstbeobachtung) kann nützlich sein, um Hypothesen zu gewinnen.

5.Strukturierte Beobachtung

Der Grad zwischen hochstrukturiert und unstrukturiert kann als Kontinuum


aufgefasst werden. In der Mitte befindet sich der Beobachtungsleitfaden.
Der Beobachtungsleitfaden ist eine Liste von Gesichtspunkten, auf die die
Aufmerksamkeit des Beobachters gelenkt werden soll.
Es ist möglich, Skalen einzusetzen, auf denen Einschätzungen quantitativ
vorgenommen werden können.
Ziel der Strukturierung ist die möglichst weitgehende Ausblendung subjektiver
Einflüsse des Beobachters auf das Beobachtungsergebnis.
Die unstrukturierte Beobachtung bietet den Vorteil der Spontanität und Möglichkeit,
unvorhergesehene Ereignisse zu registrieren. Allerdings besteht die Gefahr der
selektiven Beobachtungsverzerrung.
Strukturierte Beobachtungen sind mit unstrukturierten kombinierbar. Die
unstrukturierte dient dabei dem Zweck, Vorwissen über ein fremdes soziales Milieu
zu erlangen, das in die Konstruktion eines strukturierten Beobachtungsinstruments
einfließt.
Die teilnehmende Beobachtung kann sich beim strukturierten Vorgehen als
schwierig erweisen, da zumeist keine simultanen Aufzeichnungen der Beobachtung
möglich sind, sodass sich Verzerrungen durch Gedächtnisfehler einschleichen
können.
Die Verhaltensbeobachtung bietet gegenüber der Befragungstechnik den Vorteil der
Validität, da Falschaussagen hier kein Problem darstellen. Es ist daher zu
empfehlen, beim Erheben des Verhaltens zumindest ergänzend
Beobachtungsverfahren anzuwenden.
Inhaltsanalyse

XII. Inhaltsanalyse
1.Gegenstand und Ziele

Die Inhaltsanalyse befasst sich mit der systematischen Erhebung und Auswertung von
Texten, Bildern und Filmen.
Das Ziel bildet die Auswertung und die Analyse der Daten Zu diesem Zweck stehen
spezielle Techniken wie die Kontingenz- oder Bewertungsanalyse zur Verfügung.
Neben dem Inhalt von Texten können auch formale Gesichtspunkte untersucht
werden. Dies kann mithilfe quantitativer Indizes erfolgen: Beispiel
Aktionsquotient: Verhältnis von Verben und Adjektiven oder Type-Token-Ratio: Maß
für die Reichhaltigkeit des Vokabulars(Lesbarkeitsforschung).
Bei einer systematischen Vorgehensweise bei Inhaltsanalysen werden Stichproben
nach vorgegebenen Regeln gezogen, Inhalte kontrolliert und nach überprüfbaren
Kriterien analysiert.
Die Inhaltsanalyse soll in Sozialwissenschaften möglichst systematisch und objektiv
sein. Wenn die gleichen Regeln bezüglich der Stichprobe und Materialauswertung
angewandt werden, sollten im Idealfall gleiche Resultate erfolgen Reliabilität.
Ein wichtiges Beispiel bildet die Untersuchung von Desinformation durch
Kriegspropaganda in der Friedens- und Konfliktforschung.
Beispiele zur Bandbreite der Inhaltsanalysen in der Sozialforschung: Leserbriefe,
Stellenanzeigen, Wohnungsannoncen, Werbung, Schulbücher, etc. – für weitere
siehe Diekmann – S.579f
Das Ziel der Inhaltsanalyse ist, anhand der Textmerkmale und eventueller
Zusatzinformationen Schlussfolgerungen(Inferenzen) über den Text, seinen
Produzenten oder Empfänger einer Mitteilung zu formulieren Oft sollte man
schon mit einer Hypothese einsteigen.
Der Kommunikationsprozess ist durch die Grafik auf S.581 dargestellt.
Bei Material aus fremden sozialen Milieus oder Kulturkreisen müssen vor der Analyse
die Bedeutungsregeln der Zeichen expliziert und erlernt werden.
Die Probleme und Ziele der Inhaltsanalyse lassen sich im Rahmen der Semiotik
beschreiben:
o Syntax: Formale Regeln der Verknüpfung der Zeichen. Formale
Textanalysen.
o Semantik: Bedeutung der Zeichen. Inhaltliche Analysen(zb. Über den
Sender und dessen Eigenschaften).
o Pragmatik: Herkunft, Art der Verwendung und Wirkung der Zeichen in einer
spezifischen Situation auf die Empfänger. Wirkung von Texten, Bildern,
Filmen auf den Empfänger(zb. Aggressionspotential).
Anhand des Sender-Empfänger-Modells sind drei Inferenzen inhaltsanalytischer
Forschung bestimmbar:
o Formal deskriptive Analysen: Formale Aspekte des Textes, zum Beispiel die
relativen Häufigkeiten bestimmter Zeichen oder Zeichenkombinationen.
o Diagnostische Analysen: Beziehung zwischen Sender und Mitteilung. Was
möchte der Sender mitteilen?
o Prognostische Inhaltsanalysen: Erforschung der Wirkung der Mitteilung auf
den Rezipienten.
Das Sender-Empfänger-Modell spielt vor allem in der Kommunikationsforschung
eine Rolle, in anderen Sozialwissenschaften geht es vorwiegend um diagnostische
Analysen und deren Erweiterung.
Man erkennt die Zielsetzungen am besten anhand der Fragestellungen und
Hypothesen, die einer Untersuchung zugrunde liegen:
o Trendhypothese: Aussage über die zeitliche Entwicklung einer Eigenschaft.
o Kausale oder korrelative Zusammenhänge, die Merkmale des Textes
verknüpft oder ein Textmerkmal mit einer Variablen außerhalb des Textes in
Beziehung setzt.
Einen Vorteil der Inhaltsanalyse stellt die Möglichkeit dar, soziale kulturelle Werte
und deren Wandel im Zeitverlauf zu erforschen.
Hauptvorteile der Inhaltsanalyse:
o Vergangenheitsbezug: Die Inhaltsanalyse ermöglicht auch die Untersuchung
in der Vergangenheit produzierten Materials.
o Sozialer Wandel: Mit der Inhaltsanalyse sind soziale Veränderungen,
insbesondere der Wandel sozialer Werte erforschbar.
o Nichtreaktivität: Von Ausnahmen abgesehen, bezieht sich die Inhaltsanalyse
auf
. nichtreaktives Datenmaterial.

2. Inhaltsanalyse in der Praxis

Erster Schritt ist die Formulierung von Hypothesen. Bei diesen kann es sich um
offene Hypothesen handeln, speziell wenn nach dem Wandel von Werten gefragt
wird.
Die Grundgesamtheit können beispielsweise Editorials(Leitartikel) von Zeitungen
bilden. Bei der Stichprobe kann es sich beispielsweise um eine Klumpenstichprobe
handeln, wobei die per Liste gezogenen Zeitungsausgaben sind.
Analyseeinheiten Auf welche Einheiten soll sich die Inhaltsanalyse beziehen?
Beispielsweise können das Sätze, Absätze, Artikel, oder zeitlich abgegrenzte
Einheiten wie Sendeminuten bei Radiosendungen sein.
Die Kategorien sind die Ausprägungen der interessierenden Variablen. Diese müssen
sich auf die Forschungshypothese beziehen und werden mit einem Kategoriesystem
und den Kodieranweisungen einer oder mehrerer Hypothesen operationalisiert.
theoriegeleitete Konstruktion eines Theoriesystem. Anforderungen an dieses:
o Disjunkt
o Erschöpfend
o Präzise
Es stellt sich die Frage nach der Reliabilität und Validität der erhobenen Variablen
Pretest zur Überprüfung der Reliabilität möglich. Die Validität kann beispielsweise
durch Korrelation mit Außenkriterien überprüft werden. Die verwendete Kategorie
kann einer empirischen Analyse der Bedeutungsassoziation unterzogen werden
semantisches Differential oder Polaritätsprofil.
Jede Analyseeinheit muss von Kodierern einer Kategorie zugewiesen werden.
o Extensionale Definition der Kategorie: Vollständige Liste der Begriffe, die
unter diese Kategorie fallen.
o Intensionale Definition: Anweisungen beziehen sich auf die Eigenschaft der
Kategorien. Eine Reihe typischer Beispiele werden aufgelistet.
In einer Kodierschulung werden die Regeln eingeübt. Mit einem Kodierbogen kann
jedes Element der Stichprobe separat erfasst werden.
Das Kategoriesystem und die Kodierregeln werden in einem Pretest von zumeist zwei
Kodierern überprüft. Eventuelle Revision und Verbesserung.
Überprüfung der Kodier-Reliabilität:
o Interkodier-Reliabilität: Grad der Übereinstimmung der Zuordnung von zwei
Kodierern.
o Intrakodier-Reliabilität: Vom gleichen Kodierer zu einem anderen Zeitpunkt
wiederholt.
o Der Produkt-Moment-Korrelationskoeffizient wird bei metrischen Variablen
herangezogen.
o Bei nominalem Skalenniveau verwendet man 2Ü/K1+K2
Erst nach mehreren Pretests erfolgt die Phase der Haupterhebung Die Daten
werden von einem Kodierbogen in ein Computerfile übertragen und statistisch
analysiert.
Phasen der Inhaltsanalyse in Abbildung XII.3 auf – S.595

Nichtreaktive Erhebungsmethoden

1.Der kluge Hans, Pygmalion und die Erforschung methodischer Artefakte


Reaktiv heißt, dass nichtkontrollierte Merkmale des Messinstruments, des
Anwenders des Messinstruments(Verhalten des Versuchsleiters, des Interviewers)
oder der Untersuchungssituation das Ergebnis der Messung systematisch
beeinflussen können.
Die Ergebnisse zu methodischen Artefakten sind deshalb von wissenschaftlicher
Relevanz, da sie das Problembewusstsein schärfen und die Entwicklung von
Gegenmaßnahmen und alternativen Erhebungsmethoden stimulieren.
Eine Möglichkeit, zur Vermeidung des Pygmalion-Effekts ist, den Versuchsleiter nicht
über die zu prüfende Hypothese zu informieren. Doppelblindverfahren.
Jene Verfahren sind jedoch nicht immer durchführbar. Außerdem bilden
Versuchspersonen und ihre Versuchsleiter auch dann Erwartungen und Hypothesen,
wenn sie über die eigentlichen Untersuchungsziele nicht informiert werden.
Generalizing

(
yY.atDth.maimae@qAuswahluaenmJFORSCHUNGSDE8lGNffrrt.ag

.mg#e@kYaMethod@
ask.a.am
.tn
( :n
phaumaugewandtmehrreCrhelvnptlitpunblefangssohnittstudiefVWgCeichsshedieMehrereFieHebinsichll.eiuigerAspekleverqlBasisdesigns7r@Igkwretguspae.k

faeesmdie
¥n
Fall
Konkrekr
\
Moment

.
fiegrafischefasdumf

forscbunf
versa
des
in
.

Avsprajrnp
Experknwisns
evolves
interred
.
Andre

tielsetzung ever

1
esdnreibung ,

tlypothesenpnfunf ,

Theoriebildunf
.

Diploma rlciten ( person e.)


( Erkennmis )
Forschunpziele

formulienng
der Fraglskllung

Generalist enngsziele
( Darstellunfsaelef
-
dehailliene Analyse
Vergleich
-

Typologies
,

numerische
} theoretisda
Generalising
-
) Max .
Variation
btw Hreoretische Reichwcitc
.

spielt lnwbei love .

• Grad an standartisievng
^

strafe Designs ;
lnf fgrentk Fram
.

locker Designer
: wait pfenk Bgriff
o Auswahl der Methodism en Mitta

famplinfi
Vergleidnsgruppenbildunf ;