Beruflich Dokumente
Kultur Dokumente
Andreas Diekmann
1.Methodenvielfalt
In den Sozialwissenschaften existiert eine große Zahl von Techniken zur Erhebung
und Auswertung von Daten.
Interviews, qualitative Befragung, Beobachtungsverfahren, Itemanalyse,
Stichprobenziehung, Einstellungsmessung und Skalierung, Randomized- Response
Technik, nicht reaktive Verfahren, experimentelle und quasiexperimentelle Längs-
und Querschnisststudien u.a.m.
Die Methoden kommen bei Befragung, Beobachtung und einem Feldversuch in
einem sozialen Feld zum Einsatz, die Sichtung von Texten für die Inhaltsanalyse in
einem Archiv, das Experiment in einem Labor und die statistische Analyse der Daten
am Computer.
Es ist notwendig die am besten geeignete Methode anzuwenden, um keinen
„Schaden“ anzurichten. Oft eignet sich auch eine Methodenkombination.
Die Marienthalstudie ist ein klassisches Beispiel für Methodenvielfalt.
-
'
-
o Explorative Untersuchungen
o Deskriptive Untersuchungen
Engineered
o Prüfung von Hypothesen und Theorien
o Evaluationsstudien
Explorative Studien werden durchgeführt, wenn der zu erforschende soziale Bereich
relativ unbekannt ist. Keine spezifischen Vermutungen über die soziale Struktur
vorhanden.
o Expl. Studien sind häufig Pretests und einer Hauptstudie vorgeschaltet.
o Expl. Phase dient der Gewinnung von Hypothesen.
o Aufmerksamkeit wird durch Vorwissen, Vermutungen und vage Hypothesen
gelenkt.
o Qualitative Methoden wie Experteninterviews und unstrukturierte
Beobachtungen.
o Beispiel: Sozial abweichendes und diskriminierendes Verhalten, informelle
Gruppen in sozialen Organisationen, unbekannte Regeln und Rituale.
o Expl. Studien gehen oft strukturierten Fragebögen oder anderen Methoden
voran.
Typologies van
Unwsudwngen
D Annie
houefigkeit
.
.
.
Audie
2) explorative
Prcksb
Ht Trend Fraga
( )
deskriphvchuffidietuaen
Profung an Hypomesen
3)
Theories
4) Galuationsswdien
Techniken air
and Auswertung
Ghetong
von Dalen
D flidrpofenziehung
a) qualitative Befrafvng
3) experimental +
quasiexp .
Mdhoden
4) nioht reactive Verfehen
Gnhalb analyse Feldleob
)
.
,
Heman
s ) alyse
Randomized
6) response
-
and
it Cinsteelanpmesung
Skalievng
Hand
8) Omer t Cengssdmitt
Deskriptive Untersuchungen: Dienen der Schätzung von Häufigkeiten, Anteilen,
Durchschnittswerten und anderen Merkmalen der Verteilung sozialer Aktivitäten,
Einstellungen und sonstiger Variablen in einer Bevölkerungsgruppe
o Soziale Zusammenhänge und Verhaltensursache stehen eher im Hintergrund.
o Beispiel: Einkommensverteilung, Anteil von Wählern, Einschaltquoten,
Marktanteile..
o Durchschnitts oder Anteilswerte in Bevölkerung oder Bevölkerungsgruppen.
repräsentative Stichproben.
=
o Des. Untersuchungen bilden Großteil der Sozialforschung. Beschreibung
des Ist-Zustandes der Gesellschaft(zb. Vermögensunterschiede,
Sozialstruktur)
o Ziel ist die Beschreibung und Diagnose, weniger die Ursachenforschung,
Evaluation und Theoriebildung. Die erhobenen Daten können jedoch in
Sekundäranalysen der Prüfung von Theorien und Hypothesen dienen.
Empirische Überprüfung von Theorien und Hypothesen: Reduktion von
Unsicherheiten und eventuellen Fehlerquellen.
Ziel einer Evaluationsstudie ist die Ermittlung der Wirksamkeit oder Unwirksamkeit
praktisch politischer oder sozialplanerischer Maßnahmen bezüglich einer oder
mehrerer Erfolgskriterien. Untersuchung von Nebenwirkungen der Maßnahme.
o Überprüft wird, ob Variable X der Hypothese die soz. Merkmale U,V,M
beeinflusst.
o Beispiel: Analyse der Auswirkungen sozialer Projekte oder neuer Gesetzte.
o Kann sich auch auf die Planung eines Projektes beziehen.
o Evaluationsforschung häufig im Spannungsfeld zwischen Politik und
Wissenschaft. Ist oft politischem Druck ausgesetzt. Gefahr der verzerrten
Evaluation durch Dokumentation der Teilschritte minimieren.
o Häufig quasiexperimentelle Untersuchungsdesigns. Häufig Verzerrung
durch Selbstselektion, da kein Zufallsprinzip möglich ist. Dh. statistische
Kontrolle von Selektionsverzerrungen notwendig.
o Social impact assassment: Untersuchung der gesamten Bandbreite relativer
Auswirkungen von Maßnahmen.
Eine Variable bezeichnet ein Merkmal oder eine Eigenschaft von Personen, Gruppen,
Organistionen oder anderen Merkmalsträgern, beispielsweise Geschlecht und
Bildungsgrad.
Man unterscheidet zwischen:
o Variablen(Merkmale, Merkmalsdimensionen)
o Ausprägungen von Variablen(Kategorien, Merkmalsausprägungen).
Werden die Ausprägungen von Variablen verkodet, so spricht man von
Variablenwerten. Sie müssen zumindest zwei Ausprägungen haben.
Bei der Konstruktion von Variablen muss beachtet werden, dass die Kategorien:
o Disjunkt und ( Kategonen aberlappen nidrt )
o Erschöpfend sind. ( Pro Merkmalstrago ane Kakgorief
Außerdem können Variablen:
.o Diskret oder
( : Qualitativ )
Quantitativ
o Eine Hierarchie von Merkmalen ist ein Stufenmodell, das vor allem bei Mehr-
Ebenen-Analysen von Bedeutung ist.
Arten von Variablen in Diekmann auf – Seite 123.
Hypothesen
Wenn-Dann Hypothesen können dann definiert werden, wenn die abhängige und
unabhängige Variable beide dichotom sind.
o Implikationsbeziehung: Wenn A auftritt, dann wird B erwartet. B kann aber
auch ohne A auftreten.
o Äquivalenzbeziehung: Die Bedingung ist hinreichend UND notwendig: „Wenn
und NUR wenn A auftritt, wird B erwartet.
Kombinationen können Konfirmatoren oder Falsifikatoren sein: Kreuztabelle in
Diekmann auf Seite – 126.
Häufig tritt in der Sozialforschung eine probabilistische Version der
Äquivalenzbeziehung auf: B tritt in Folge von A häufiger auf, als dann, wenn A nicht
auftritt.
-
• fkalenniveau mind .
ordinal ( Kakforien der
www.dauu -
Hypotheses ;
als audr die
→ sowobl die unabhieugige
Variable it didrotom
abhengige
.
→ 2 Arlen ;
Hypothec
Zotrifft at hand der Kreuztelelk
euipinisch an
Bother .
→
wnabhoiugife +
alhehgife dlbkurele mind Individual -
merkwuele .
1 Kollektivwypothesen
Ckawtexthypotlvlsen
auf Rollebtivmerkurele
Alndividuaebypofhe.eu#TTMfh
beeiehen
a sick .
kdllekhvmerwwelandividvuy
Biwdeglied Wisden Atb
,
→ .
Variable
wwafwehgige →
pettomainiYssIlfmaany.YaammjuyaanehnoEmm_fnadnArtdesZusammenhangsije-desto.HypothesenfiaaYYspYnIeYnmaftneiemmdanoaetaEnat@inichtmono1ane2vsammenhangelV-fominachKausalitat.MerKMalsas8oziationen4liF.renaeammriomTcfnadrMerk-malln.tndividualby.p
T.ie#mm.mkaI/
othese
Theorie und Modell
Nach dem Kriterium der Prüfbarkeit werden die folgenden drei Typen von Sätzen
unterschieden:
o Empirische Sätze
o Logische Sätze
o Präskriptive Sätze
Empirische Sätze werden primär in den Natur- und Sozialwissenschaften formuliert
und einer Prüfung unterzogen. Logische Analyse(Widerspruchsfreiheit,
Untersuchung von Ableitbarkeitsbeziehungen von z.B. Hypothesen aus anderen,
allgemeineren Hypothesen sowie natürlich auf die Untersuchung der empirischen
Gültigkeit von Aussagen.
Empirische Sätze sind wahr, wenn das Objekt und das Prädikat mit dem
beobachteten Sachverhalt korrespondieren.
o Singuläre(deskriptive) Sätze machen Aussagen über einzelne Ereignisse und
sind raumzeitlich fixiert. „Am 20. Juli 1944 hat Graf Stauffenberg ein Attentat
auf Hitler verübt.“
o Hypothetische Sätze(Allsätze) sind raumzeitlich unbegrenzt:
Zusammenhangshypothesen und Gesetze. In den Sozialwissenschaften
kann man nur von Mustern oder Regelmäßigkeiten sprechen.
Der Informationsgehalt ist die Menge der von diesem Satz ausgeschlossenen
Gesetze(Sir Karl Popper). Je spezifischer eine Prognose oder Aussage, desto höher
ist der Informationsgehalt.
Der Gehalt einer Wenn-dann-Hypothese wächst gleichsinnig mit dem Gehalt der
Dann-Komponente und gegensinnig zum Gehalt der Wenn-Komponente.
Äquivalenzbeziehungen haben einen höheren Gehalt als Implikationsbeziehungen.
Für eine je-desto-Hypothese folgt, dass diese einen umso höheren
Informationsgehalt hat, je allgemeiner anwendbar die „Je-Komponente“ und je
spezifischer die „Desto-Komponente“ ist.
Je höher der Informationsgehalt einer Hypothese, desto größer ist die Zahl der
Testsituationen und damit die Menge potentieller Falsifikatoren.
Logische Sätze
Der Wahrheitsgehalt logischer Sätze ist unabhängig von der Beschaffenheit der
empirischen Welt und kann ausschließlich durch logisch-mathematische
Beweisverfahren ermittelt werden.
o Analytisch wahre Sätze sind immer wahr. Werden in der Logik als
Tautologien bezeichnet. Sämtliche Kombinationen der Wahrheitswerte der
Elementarsätze sind immer wahr. Informationsgehalt = 0! Verschleierte
Tautologien werden als Immunisierungsstrategien bezeichnet.
o Kontradiktionen sind immer falsch. Es gilt A und gleichzeitig nicht A.
Zu den tautologischen Aussagen zählen auch Definitionen. Diese besitzt keinen
empirischen Gehalt, sondern ist eine Vereinbarung über den Gebrauch von
Begriffen. Sie sind nicht falsifizierbar. Im Hinblick auf das angestrebte
Untersuchungsziel sollten sie zweckmäßig und hinreichend präzise sein.
o Intensionale Definitionen: Bei einer unendlichen Menge von Objekten
erfordert die Definition notwendigerweise die Angabe von Eigenschaften der
unter den zu definierenden Begriff fallenden Objekte.
o Extensionale Definition: Bei einer endlichen Menge von Objekten kann die
Definition durch Aufzählung erfolgen.
:
o Verhaltensspuren/Nichtreaktive Verfahren
Die Daten werden mit der gewählten Methode erhoben, in ein maschinenlesbares
Datenfile übertragen und auf Fehler kontrolliert.
Es kommt zur statistischen Datenanalyse
Berichterstattung
Der Bericht oder Teile der Arbeit sind zur Publikation in Fachzeitschriften
vorgesehen.
Die methodischen Schritte werden in nachvollziehbarer Weise dokumentiert.
Dadurch können Daten repliziert oder für Sekundäranalysen verwendet werden.
Das von Likert vorgeschlagene Verfahren kann als Technik der summierten
Einschätzungen definiert werden. Der Zweck ist die Einstellungsmessung.
Ziel der Technik ist, geeignete von weniger geeigneten Items zu trennen und auf der
Basis der für gut befundenen Items jeder Person einen Skalenwert zuzuweisen.
Um den Ja-Sager-Effekt zu vermeiden, empfiehlt es sich, einzelne Items umzupolen.
Werden bestimmte Antworten verweigert oder ausgelassen, spricht man vom „Item-
non-response“ Diese „missing values“ können auf unterschiedliche Weise
behandelt werden. Beispielsweise könnten derartige Personen unberücksichtigt
bleiben.
Der Grund für mögliche Inkonsistenzen in der Antwortreaktion sind entweder
Messfehler oder systematische Verzerrung durch einzelne Items.
Mehrdimensionale Items bringen meist höhere Inkonsistenzen hervor.
Der Summenscore berechnet sich durch Addition der Itemwerte jeder Person und
bildet ein vorläufiges Maß, das die gesamten Informationen der einzelnen
Indikatoren ausschöpft.
Der sogenannte Trennschärfekoeffizient ist die Korrelation zwischen Item und
Summenscore Bei niedriger Korrelation ist das bestimmte Item eher ungeeignet.
Jedoch besagt ein konsistentes Ergebnis noch nichts über die Validität aus.
Die Reliabilität eines Messinstruments ist ein Maß für die Reproduzierbarkeit von
Messergebnissen. Dieses kann durch einen Korrelationskoeffizienten ausgedrückt
werden.
o Paralleltest-Methode: Die Messung erfolgt mit zwei Vergleichbaren
Messinstrumenten Korrelation der Messwerte.
o Test-Retest-Reliabilität: Das Messinstrument wird nach einem Zeitintervall
wiederholt angewendet.
o Methode der Testhalbierung(Split-half): Ein Messinstrument mit multiplen
Indikatoren wird in zwei Hälften aufgeteilt und die Korrelation zwischen den
Testhälften errechnet. Eine Erweiterung dieses Verfahrens ist die
Itemkonsistenzanalyse.
o Probleme der Reliabilitätsmessung:
Geringe Stabilität des Gemessenen.
Die Anwendung des Messinstruments kann die Retest-Messung
beeinflussen Zb. Durch Übungseffekte.
Eine wichtige Maßzahl zur Berechnung der internen Konsistenz ist Cronbachs α,
welche die gebräuchlichste Methode der Reliabilitätsschätzung darstellt. Die
interne Konsistenz der Testitems wird bestimmt.
Die Trennschärfekorrelationen weisen höhere Werte bei Items mit großer Streuung
auf Daher sollte man möglichst Items mit mittlerer Intensität auswählen(von
gleich viel Befragten einer Stichprobe befürwortet oder abgelehnt).
Validität
6.Messtheorie
Laut Stevens ist die Messung die Zuordnung von Zahlen zu Objekten nach
bestimmten Regeln. Welche Konsequenzen sich aus der Anwendung
unterschiedlicher Regeln für die Messung ergeben, ist das Gebiet der axiomatischen
Messtheorie.
Der Output in der Messtheorie sind Zahlen und der Input Objekte und die zwischen
den Objekten bestehenden Beziehungen.
Die Messung ist die strukturkonforme Abbildung der Objekte auf eine Menge von
Zahlen Strukturkonform heißt, dass die zwischen den Objekten bestehenden
Relationen in der Menge der Zahlen widergespiegelt werden.
Die Methode der Paarvergleiche, eine genaue Definition von Messen, sowie Repräsentation,
Eindeutigkeit und Bedeutsamkeit sind schwierig zusammenzufassen und sollten als Ganzes
gelesen werden Seiten 279 – 284
Skalenniveaus
statishkl
Allgemein lässt sich einteilen in:
o Nominal-
o Ordinal-
.
o Intervall-
o Und Verhältnisskalen
Das Repräsentationstheorem gibt für jeden Skalentyp Axiome an, die empirisch
prüfbar sind. Es informiert uns über die Bedingungen der Zuweisung von
Skalenwerten.
Mit dem Eindeutigkeitstheorem wird die Klasse der zulässigen Transformationen der
Skalenwerte eingeschränkt. Die Klasse der zulässigen Transformationen wird als
Skalenniveau bezeichnet.
Zu jeder Messstruktur gibt es ein Repräsentations- und ein Eindeutigkeitstheorem,
sodass damit das Skalenniveau(Messniveau, Skalenqualität) festgelegt wird.
Die Nominalskala ist eine Klassifikation von Objekten nach der Relation der
Gleichheit oder Verschiedenheit(„Äquivalenzklassen“).
o Der einzig bedeutsame Mittelwert ist der Modalwert.
Mit der Ordinalskala wird eine Rangordnung der Objekte bezüglich einer Eigenschaft
vorausgesetzt(Rangskala).
o Als Mittelwert dient hierbei der Median.
o Eine Ordinalskala wird durch die Technik der Guttman-Skalierung erzeugt.
Intervallskalen erlauben Aussagen über die Rangordnung und Abstände(Intervalle)
zwischen den Messwerten.
o Die Berechnung arithmetischer Mittelwerte ist hier erlaubt.
Bei Ratioskalen oder Verhältnisskalen lässt sich ein natürlicher Nullpunkt festlegen.
o Nur bei Verhältnisskalen ist es sinnvoll, harmonische oder geometrische
Mittelwerte festzulegen.
Absolutskalen sind eindeutig festgelegt und Skalentransformationen nicht erlaubt
Wahrscheinlichkeitswerte und Häufigkeiten.
Das Skalenniveau ist hierarchisch angeordnet. Der Informationsgehalt der
Messhypothesen wächst gleichsinnig mit dem Skalenniveau
Zusammenfassung über die Arten von Skalen auf Seite 291.
Querschnitt-und Längsschnitterhebungen
Querschnitt-, Trend – und Paneldesign
Mit einem Erhebungsdesign wird der zeitliche Modus der Datenerhebung festgelegt.
Man unterscheidet:
1. Querschnittsdesign
2. Trenddesign
3. Paneldesign
Kann für alle Erhebungsmethoden gelten.
Bei Querschnittsdesigns bezieht sich die Datenerhebung auf einen Zeitpunkt oder
eine Zeitspanne, in der eine einmalige Erhebung der Eigenschaft(Variablenwerte) bei
N Untersuchungseinheiten vorgenommen wird.
Bei einem Trenddesign werden die Werte der gleichen Variablen zu mehreren
Zeitpunkten mit jeweils unterschiedlichen Stichproben erhoben. Veränderungen
können dadurch nur auf der Aggregatebene der Stichprobe gemessen werden.
Es besteht das Problem, dass ursächliche Veränderungen(Trends) nicht so leicht von
Stichprobenfehlern separiert werden können.
Das Paneldesign unterscheidet sich durch die Verwendung derselben Stichproben.
Veränderungen können auf der individuellen Ebene nachvollzogen werden. Ein
Problem stellt die „Panelmortalität“ dar. Aufgrund dieser ist eine gute
Adressenpflege notwendig.
Mit dem sozioökonomischen Panel werden seit 1984 jährlich ca. 12000 Personen
zu zahlreichen Merkmalen der ökonomischen und sozialen Lage befragt.
Ein Beispiel für Trendstudien ist das „International und Social Survey Programm“
mit dem Ziel der Registrierung und Analyse sozialen Wandels.
Es besteht eine Informationshierarchie:
o Panelerhebungen
o Trenderhebungen
o Querschnittserhebungen.
1 2. Quasiexperimentelle Designs
3. Ex-post-facto-Designs
•
Experimentelle Designs
Es müssen drei Bedingungen vorliegen:
1. Es werden mindestens zwei Versuchsgruppen gebildet. Versuchsgruppe(mit
Stimulus) und Vergleichsgruppe/Kontrollgruppe.
2. Die Versuchspersonen werden den experimentellen Gruppen nach einem
Zufallsprinzip zugewiesen = Randomisierung.
•
3. Die unabhängige Variable wird vom Forscher manipuliert. •
. Ein weiteres Problem stellt die Selbstselektion dar(Häufig bei sozialen und
therapeutischen Programmen). Zur Korrektur gibt es statistische Methoden oder
die Randomisierung.
Folgende Fehlerquellen können zu falschen Schlüssen führen:
o Eine konfundierte Variable könnte durch die Randomisierung nicht
neutralisiert werden, wenn z.B. eine beeinflussende Bedingung auf alle
Versuchspersonen gleichermaßen zutrifft.
o Das Bewusstsein, in wissenschaftliche Forschung eingebunden zu sein, kann
zu Verhaltensänderungen führen. man spricht vom Hawthorne Effekt oder
generell von der Reaktivität. Gegenmaßnahmen sind Blind- und
Doppelblind-Versuche.
o Die Randomisierung könnte einen verzerrenden Einfluss ausüben. So können
sich die Mitglieder der Kontrollgruppe beispielsweise benachteiligt fühlen.
o Bei geringen Fallzahlen könnte die Zufallsaufteilung missglücken. Eine
Kombination von Randomisierung und Matching ist hier sinnvoll.
Macht man die Verteilung bekannter Drittvariablen in den
Versuchsgruppen gleich, spricht man vom Gruppenmatching. Z.B
gleicher Anteil an Frauen und Männern in den Gruppen
Beim paarweisen Matching werden die Kombinationen von
Merkmalen(Altersklasse, Geschlecht, Bildung) berücksichtigt.
Neben dem Standarddesign werden eine Reihe weiterer experimenteller Designs
vorgeschlagen, mit denen zusätzliche Fehlerquellen kontrollierbar sind.
o Vorher-Nachher-Messung bei Versuchs und Kontrollgruppen.
o Vier Gruppen-Versuchsplan von Solomon(Diekmann S. 343). Die
Lerneffekte des Vorher-Nachher Versuchs können eliminiert werden
Vor- und Nachteile der experimentellen und quasiexperimentellen Designs finden
sich in den Arbeiten von Campbell und Stanley wieder:
o Interne Validität: Bezieht sich auf die Ausblendung von Störvariablen.
o Externe Validität: Generalisierbarkeit experimenteller Effekte.
Lösungsansätze sind die Auswahl unterschiedlicher sozialer Gruppen oder
die Durchführung von Feldexperimenten. Man kann auch versuchen, die
experimentellen Befunde mit anderen Designs und Methoden zu
reproduzieren. Triangulation.
Eine Alternative, die die experimentelle Untersuchung eines komplexen
Zusammenspiels mehrerer Faktoren erlaubt, ist die Vignettenanalyse.
Siehe Kasten auf Seite 346ff.
In vielen Bereichen der Sozialwissenschaft, wie in der Ökonomie oder Soziologie ist
eine Randomisierung nicht möglich.
Vorteile experimenteller Designs:
o Der experimentelle Stimulus wird im Experiment produziert und geht der
vermuteten Wirkung zeitlich voraus.
o Durch die Randomisierung werden verzerrende Effekte durch Drittvariablen
neutralisiert.
o Experimentelle Designs sind daher ideal für die Überprüfung von
Kausalhypothesen.
Nachteile:
o Das Problem der externen Validität der geprüften Zusammenhänge.
o Der hohe Aufwand bei der simultanen Prüfung komplexer Zusammenhänge.
o Bei der Untersuchung vieler sozialer Zusammenhänge ist die Randomisierung
aus praktischen oder ethischen Gründen nicht möglich.
Ein Beispiel: Von der Verantwortungsdiffusion zur experimentellen Spieltheorie
•:
Auf Seite 350ff.
Zwei Designs:
Stichproben
1.Gallup gegen „Literary Digest“
Seiten 373 – 376 für Genaueres
Bei der Klumpenauswahl oder dem Cluster-Sample werden die auf der ersten Stufe
ausgewählten Einheiten als Klumpen bzw. Cluster bezeichnet.
Auf der zweiten Stufe werden sämtliche Klumpenelemente berücksichtigt.
Das Fehlerintervall von Parameterschätzungen ist größer als bei einfachen
Zufallsstichproben.
Schichtung
4.Quotenauswahl
Die Methode ist eine bewusste Auswahl, da die Stichprobe nach vorgegebenen
Regeln gezogen wird. Beziehen sich auf Quoten, die vom Interviewer erfüllt
werden müssen. Eine Merkmalsverteilung wie z.B. 54% Frauen und 46% Männer.
Die ausgewählten Merkmale sollen den Merkmalen in der Grundgesamtheit
entsprechen.
Quoten können einfach und kombiniert sein
o aber auch mehr Merkmalen vorgegeben: 30% Angestellte, 70% Beamte
Von Beamten 60 – 40 Männer und Frauen.
o Wie viele Personen mit welchen Merkmalen von den einzelnen Interviewern
befragt werden, wird in einer persönlichen Quotenanweisung definiert.
Die Quotenauswahl wird mit folgenden Argumenten gerechtfertigt:
o Die Quotenmerkmale sind mit anderen, eigentlich interessierenden
Merkmalen(Wahlverhalten, Kaufentscheidungen, Einstellungen) korreliert.
o Wird der Entscheidungsspielraum der Interviewer durch präzise Quoten
begrenzt, dann wird der Interviewer innerhalb der Quoten näherungsweise
eine Zufallszahl treffen.
o Ein Quotenplan entspricht dem Design einer geschichteten Stichprobe mit
proportionaler Schichtung.
Mit der Quotenauswahl soll der subjektive Entscheidungsspielraum des Interviewers
begrenzt werden. Es besteht jedoch die Gefahr, dass zu strenge Vorschriften den
Interviewer zum Fälschen verleiten.
Die Daten der amtlichen Statistik resultieren aus Verwaltungshandeln oder werden
durch Befragung von Privatpersonen und Unternehmen gewonnen. Bei der
Befragung werden Zufallsstichproben aus Adressenregistern gezogen.
Ein Beispiel ist der Mikrozensus – Seite 413. Daten des Mikrozensus bilden eine
wichtige Grundlage für wissenschaftliche Analysen der Sozialforschung!
Gutfurlandervergleiohe,
Die Sekundäranalyse amtlicher Erhebungen bieten wichtige Vorteile:
;
got fir o Ein großer Stichprobenumfang.
Weniger
Nationale studier o Die Möglichkeit der Untersuchung spezieller Gruppen und Regionen.
o Auskunftspflicht von Personen in der Stichprobe bei Erhebungen mit dem
Mikrozensus.
.
o Periodizität
o Möglichkeit des Einbezugs vom sozialen Kontext.
o Möglichkeit der Aufgliederung der Stichprobe in Teilgruppen mit spezifischen
Merkmalen.
Bezüglich der Daten herrscht seit 1987 faktische Anonymität Der Zugang zu Daten
für wissenschaftliche Auswertungen ist möglich, wenn die Anonymität nur durch
unverhältnismäßig hohe Kosten aufgehoben werden kann.
Fehlerquellen
Gesamtfehler
{ o Systematische Fehler aufgrund des Verfahrens der Stichprobenauswahl.
(total survey
error ) o Verzerrungen, die nicht direkt durch das Auswahlverfahren produziert.
wurden. < non sampling bias >
Anteil
-
age
o Coverage-Effekte Coverage
-
o Stichprobenfehler
Zufallsfehler der Stichprobe.
Systematische Fehler aufgrund des Verfahrens der
Stichprobenauswahl.
o Fehler durch Non-Response
o Messfehler
o Fehler bei der Datenedition und Gewichtung
Mit dem Konzept des total survey error wird versucht, die einzelnen Fehlerquellen
stärker zu systematisieren und einen Surveyplan so zu entwickeln, dass am Ende der
Gesamtfehler möglichst gering ausfällt.
Non-Response
Einhorn -
enstrese
Gewichtung
)
Repräsentative Stichproben?
Eine Stichprobe
. „repräsentiert“ aber niemals sämtliche Merkmalsverteilungen der
Population. In der Statistik spricht man statt von der Repräsentativen Stichprobe
daher von Zufallsstichproben oder einer Wahrscheinlichkeitsauswahl.
In Einer Untersuchung sollte bei der Rede von der „Repräsentativstichprobe“ die
genaue Art der Stichprobentechnik und weitere Charakteristika der Methode
angeben:
o Zufalls oder Quotenauswahl.
Quotensample Quotenmerkmale.
Zufallsstichprobe Aussschöpfungsquote.
o Bei Surveystudien sollte die Erhebungsmethode(telefonische oder persönliche
Befragung) angegeben werden.
o Eventuelle Gewichungsverfahren sind mitzuteilen.
o Der genaue Fragekontext mit den Antwortkategorien sollte angegeben
werden.
Befragung
1.Stellenwert in der Sozialforschung
Unsere Kenntnis der Sozialstruktur und sozialen Schichtung, der Mobilität und
Bildungschancen und anderer sozialstruktureller Merkmale und Zusammenhänge
sind hauptsächlich das Ergebnis quantitativer Bevölkerungsbefragungen.
Einen großen Nachteil vor allem beim Interview stellt die Reaktivität dar Selbst die
Art und Weise der Konstruktion des Messinstruments hat einen Einfluss auf die
Antwortreaktionen.
2.Formen der Befragung
1. Das persönliche „Face-to-Face“-Interview
2. Das telefonische Interview
:
3. Die Schriftliche Befragung(„questionnaire“)
Die Standardisierung erhöht zwar die Wahrscheinlichkeit, dass die Daten unabhängig
vom Interviewer ausfallen, birgt jedoch das Problem dass wenige Informationen
jenseits des Spektrums der vorgelegten Antwortkategorien ermittelt werden
können. Standardisierte Interviews zahlen sich nur bei genügend Vorwissen aus.
Stark strukturierte Interviews sind quantitative Befragungen, während
Leitfadeninterviews, fokussierte und narrative Interviews qualitative Methoden
darstellen.
Neben Interviews mit zwei Personen existieren auch Tandeminterviews und
Gruppendiskussionen(Interviewer greift meist nur steuernd ein Erforschung von
Meinungsbildungsprozessen).
Ein Interview ist ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung. Die
Versuchsperson wird dabei mithilfe gezielter Fragen oder mitgeteilter Stimuli zu
verbalen Informationen veranlasst.
Bei der neutralen Interviewtechnik ist der Interviewer angehalten, die
Antwortreaktionen auf eine Frage weder positiv noch negativ zu sanktionieren.
Dadurch sollen unverfälschte Informationen gewonnen werden.
Unbewusste Signale der Zustimmung und Missbilligung machen das Interview zu
einer reaktiven Methode.
1. In weichen, nichtdirekten Interviews soll der Interviewer durch zustimmende
Reaktionen Hemmungen abbauen, das Gespräch unterstützen und weitere
Antworten ermuntern.
2. Die harte Interviewtechnik macht auf Widersprüche aufmerksam und
versucht wie bei einem Verhör, dem Befragten das Gefühl der Zwecklosigkeit
unvollkommener Angaben zu vermitteln.
Bei standardisierten Umfragen ist die neutrale Interviewtechnik der Normalfall,
gepaart mit einigen weichen Elementen.
Die Methode des Interviews ist nur unter bestimmten Bedingungen anwendbar:
1. Kooperation der Befragten als Regelfall
2. Die Existenz einer Norm der Aufrichtigkeit in Gesprächen mit Fremden.
3. Eine gemeinsame Sprache zwischen Interviewer und befragter Person.
Interesse am Thema, die Bereitschaft zur Unterstützung z.B. einer wissenschaftlichen
Befragung und die Anerkennung dadurch dass die eigene Meinung von anderen als
wichtig erachtet wird, sind Motive des Befragten, unentgeltlich an einer Befragung
teilzunehmen. n deshhlb ; Pretest !
Die Voraussetzung der gemeinsamen Sprache meint, dass Interviewer und befragte
Person die Bedeutung von Frage und Antwort in gleicher Weise interpretieren.
:
Mit Theorien des Interviews wird beabsichtigt, die Antwortreaktionen von Befragten
systematisch zu erklären. Drei Perspektiven
1. Die faktorenanalytische Theorie der Frage
2. Die Anwendung der rationalen Entscheidungstheorie auf das
Befragtenverhalten.
3. Die Anwendung von Hypothesen zur Informationsverarbeitung aus der
kognitiven Psychologie.
Die Theorie der Frage geht auf das Modell der Faktorenanalyse zurück. Es wird
vorausgesetzt, dass eine Variable im Fragebogen mit einer Fragebatterie, mit
mehreren Items operationalisiert wurde Neben der interessierenden
Zeitdimension können Antwortreaktionen durch Fremddimensionen und soziale
Erwünschtheit verzerrt werden. Diese Methode kann mit statistischen Verfahren
umgesetzt werden.
Mit der Anwendung von Entscheidungstheorien wird das Verhaltend es Befragten
aus einer Kosten-Nutzen-Perspektive analysiert. Das Handeln der befragten wird
vom Wunsch sozialer Anerkennung und der Vermeidung von Missbilligung geleitet.
1. Problematisch ist die Identfizierung und Operationalisierung von Nutzen-und
Kostenkomponenten.
2. Ziel ist, die Kosten unverfälschter Angaben und den Nutzen alternativer,
verzerrter Antwortreaktionen zu reduzieren.
Den theoretischen Hintergrund der Hypothesen zur Informationsverarbeitung bildet
die kognitive Psychologie mit den Zweigen der Denk-und Gedächtnispsychologie.
1. Von Befragten werden Urteile und Erinnerungen erwartet.
2. Der Abruf aus dem Gedächtnis unterliegt psychologischen
Gesetzmäßigkeiten.
3. Hinweise(clues) und parallele Ereignisse(Anker) unterstützen die zeitliche
Lokalisierung vergangener Ereignisse.
4. Bei Einstellungs-Meinungs- und Gedächtnisfragen kann der Prozess der
Informationsverarbeitung in eine bestimmte Richtung gelenkt werden.
Die Lage des subjektiv wahrgenommenen Maximums einer positiven Bewertung von
Handlungen, Meinungen oder anderen Eigenschaften wird als Ort sozialer
Erwünschtheit bezeichnet. Sind die Kosten der Angabe des wahren Wertes aus
Sicht der rationalen Entscheidungstheorie hoch, ist mit einer systematischen
Verzerrung durch den Effekt sozialer Erwünschtheit(social desirability effect) zu
rechnen.
Allgemein gilt, dass je heikler eine Frage aus der Sicht einer Person ist und je größer
der Unsicherheitsbereich bezüglich des wahren Variablenwertes, desto stärker wird
sich der Effekt sozialer Erwünschtheit bemerkbar machen.
Gegenmaßnahmen um den Effekt sozialer Erwünschtheit zu reduzieren:
o Fragen sollten möglichst neutral formuliert werden.
o Die gegenteilige Strategie suggestiver Fragen, die einleitend im Fragetext
abweichendes Verhalten als normal darstellen, wird in Ausnahmefällen
angewendet, ist aber nicht empfehlenswert.
o In persönlichen Interviews ist es möglich, die Antwort in einem Kuvert zu
verschließen und dieses dem Interviewer überreichen.
o Vollständige Anonymisierbarkeit wird durch die Randomized-Response-
Technik garantiert.
o Wurden Einstellung mit einer Fragebatterie erhoben, dann können Items, die
die Dimension sozialer Erwünschtheit in hohem Maß ansprechen,
nachträglich bei der Datenanalyse identifiziert werden
Itemkonsistenzanalyse, Faktorenanalyse.
o Es wurden Skalen entwickelt, um soziale Erwünschtheit zu messen: Social
desirability-Skalen. Befragte mit hohen SD-Werten können ausselektiert
werden. Wie groß der Anteil von Personen mit dieser Tendenz in einer
Stichprobe ist, kann mit Kontrollfragen ermittelt werden.
Response-Set
Meinungslosigkeit/Pseude-Opinions/Non-Attitude-Problem
Befragte können ihre Meinungen und Bewertungen auch dann äußern, wenn die zu
bewertenden Sachverhalte unbekannt sind oder so gar nicht existieren.
Eine übliche Praxis besteht darin, meinungslose Personen durch Filterfragen
auszuschließen.
Die Separierung der Meinungslosen kann auch durch die Quasi-Filterfrage - „keine
Meinung“ erfolgen.
Der Anteil Meinungsloser wird bei separaten Meinungsfragen höher ausfallen als bei
Quasi-Filterfragen. Das liegt an der Signalfunktion der Filterfrage: Manche
Befragte werden die anschließenden Fragen für höchst komplex halten Durch
diese Weise werden auch Personen ausgeschlossen, die durchaus etwas zum Thema
zu sagen hätten.
Da die Gefahr selektiver samples besteht, wird häufig auf Filterfragen verzichtet.
Stattdessen empfiehlt es sich, Personen nach ihrer Meinung und einem eventuellen
Meinungsbildungsprozess oder der Kenntnis des Themas zu befragen
Meinungslose können dann immer noch bei der Datenauswertung separiert werden.
Ist die Wahrscheinlichkeit systematischer Verzerrung besonders hoch, empfehlen
sich alternative Erhebungsmethoden anstatt der Befragung.
Frageeffekte
Verhaekns W unkrsvchen
Ergebnisse sind bei sensiblen Fragen umso weniger verzerrt, desto größer die soziale
Distanz zwischen Interviewern und Befragten ist.
Auch in Telefoninterviews können Sprache, Geschlecht und die vermittelte
Erwartungshaltung auf die Antworten verzerrend wirken.
Bei schriftlichen Befragungen besteht die Gefahr der Verzerrung durch
Verständnisprobleme bezüglich der Fragen.
Bewusste Fälschungen durch den Interviewer sind oft schwierig aufzuklären.
o Dem kann entgegengewirkt werden, indem die Höhe und Art der Bezahlung
des Interviewers und die Dauer des Interviews verändert werden.
o Der Auftraggeber sollte sich mit den Regeln der Feldkontrolle, der
Feldorganisation, der Zusammensetzung des Interviewstabs, sowie der
Bezahlung der Interviewer vertraut machen.
o Oft ist es vorteilhaft, wenn ein Forschungsteam die Interviews selbst
durchführt oder die Organisation der Feldarbeit selbst übernimmt.
o Telefoninterviews können unter Supervision zentral vom Institut durchgeführt
werden.
Maßgeblich ist die Interviewsituation Zum Beispiel wenn in Interviews
Vergleichsstandards entwickelt werden(Interview über Wohnsituation wird in einem
luxuriösen Versuchsraum durchgeführt.)
Die Verzerrung durch Anwesenheit Dritter wird beispielsweise deutlich, wenn bei
Fragen zur Partnerschaft der Partner/die Partnerin dabei ist.
Der Sponsorship-Effekt meint Verzerrungen durch die Kenntnis des Auftraggebers.
Fragetypen
Unterteilung:
o Einstellungen
o Überzeugungen
o Verhalten
o Sozialstatistische Merkmale.
Die Einstellung oder Bewertung wird häufig in Form von Aussagen(Statements,Items)
erhoben, die vom Befragten auf einer Ratingskala oder Likert-Skala eingestuft
werden sollen.
Von Rating-Skalen gibt es zahlreiche Varianten, wie 4-Punkte, 7-Punkte,
Thermometerskalen oder Schulnoten.
Bei Alternativfragen muss sich der Befragte zwischen einer von zwei Aussagen
entscheiden.
Itemkonsistenzanalyse und mathematisch-statistische Skalierungsverfahren sind
nur möglich, wenn Einstellungsdimensionen mit multiplen Items(Fragebatterie)
gemessen wird.
Überzeugungen sind subjektive Aussagen über Fakten. Dabei handelt es sich
formal um eine offene Frage. Bedenklich ist bei der Bildung von Kategorien, dass
diese ungewollt Informationen vermitteln können. Auch können multiple-choice-
Fragen, dichotome Ja-Nein-Fragen oder Alternativfragen gestellt werden.
Now Befragung
Merkmals der
Frageformulierung
befragten
•
Person
.Antwortreaktionhyh
ftp.T#tFamamw8Ywsfp.n&rsemtrwTwahrerWertdesAYFaFergtoIien
Response
.
set .
p
foziale
£ ufallsfehler
Crwuinschtheit
Anwesenheit
Drifter
lnterviewermerkmakf
. Fragekontext
Meinungswsigkeit
Anhvortvertorungim
Interview
Verhaltensfragen sind in der Regel Retrospektivfragen: Die Häufigkeit, Dauer und Art
von Handlungen in der Vergangenheit wird erfragt. Fragen nach in die Zukunft
gerichteten Verhaltensabsichten(Handlungsintentionen) sind dagegen eher
Meinungsäußerungen als Verhaltensfragen.
Mit sozialstatistischen oder sozialdemographischen Merkmalen sind statistische
Angaben im weitesten Sinne gemeint.
o Selbstauskünfte: Fragen beziehen sich auf den Befragten
o Fremdauskünfte: Fragen beziehen sich auf andere Personen.
Fragen können auch einen direkten oder indirekten Bezug zur Zieldimension
aufweisen.
o Indirekt: Verzerrungen durch soziale Erwünschtheit fallen weniger ins
reakhvitat Gewicht und können zudem auch verborgene Motive enthüllen. Die
Reaktivität wird reduziert. Ein Spezialfall der indirekten Frage ist die
reduiert
Projektivfrage.
Form der Frage:
o Geschlossene, offene und halboffene Fragen.
o Bei geschlossenen Fragen kann weiterhin in dichotome Ja-Nein-Fragen,
Alternativfragen und Auswahlfragen wie Rating oder Ranking, Fragen mit
Mehrfachantworten differenziert werden.
o Filterfragen, Gabel, Filtertrichter.
Geschlossene Fragen mit vorgegebenen Antwortkategorien bieten die Vorteile der
Vergleichbarkeit der Antworten, höhere Durchführungs-und Auswertungsvalidität,
geringerer Zeitaufwand für den Befragten, leichtere Beantwortbarkeit für Befragte
mit Verbalisierungsproblemen und geringer Aufwand bei der Auswertung.
Der Nachteil geschlossener Fragen ist die möglicherweise Ausblendung bedeutsamer
Aspekte des Kategoriesystems. Zur Entwicklung eines Kategoriesystems eignen sich
explorative Untersuchungen mit offenen Fragen gut.
Halboffene Fragen sind ein Kompromiss zwischen geschlossenen und offenen Fragen
geschlossene Antwortkategorien + einer offenen Frage.
Antwortkategoriesysteme sollten erschöpfend, disjunkt und präzise sein.
o Filterfragen: Werden Fragebögen vorgeschaltet, die sinnvollerweise nur von
einer Teilmenge der interviewten Personen beantwortet werden sollen.
o Eine Gabel ist eine Erweiterung davon. Hier werden Personen je nach
Kategorie mit unterschiedlichen Frageblöcken konfrontiert.
o Trichterfragen dienen dem Herantasten vom Allgemeinen zum Besonderen
Die Antwortbereitschaft ist hierbei größer, da mit harmlosen Fragen
begonnen werden kann. Fragetrichter können jedoch auch unerwünschte
Fragekontexteffekte produzieren. Die Beantwortung der allgemeinen Fragen
kann auf die Antworten der speziellen Fragen ausstrahlen.
o Eisbrecherfragen: Haben keinen besonderen Informationswert, könnten
jedoch für Befragte von Interesse sein und dabei helfen, eine kooperative
Interviewatmosphäre aufzubauen.
Einige der Grundregeln der Formulierung und Fragebogengestaltung
1. Die sprachliche Form von Fragen sollte kurz, verständlich, mit einfachen Worten und
hinreichend präzise formuliert sein!
7. Indirekte Fragen sind problematisch: Zum Beispiel Einstellungen, die mit Faktfragen
gemessen werden, da es hier auch zu mehrdimensionalen Fragen kommt.
10. Der Befragte sollte nicht durch Fragen überfordert werden, die von ihm zum Beispiel
eine bestimmte Rechenleistung verlangen würden.
Fragebogenkonstruktion
Vor der Konstruktion des Fragebogens sollten die Hypothesen oder deskriptiven
Ziele klar formuliert sein.
Am Beginn der Konstruktion werden zumeist thematische Blöcke(Module) erstellt.
Für jedes Modul werden in weiterer Folge Fragen formuliert.
Unter Beachtung einiger Regeln werden die Fragen in einer zweckmäßigen
Reihenfolge sortiert.
1. „Eisbrecherfragen“ sind allgemein, sollten auf das Thema hinführen und sollten von
den Befragten mit Interesse aufgenommen werden.
2. Wichtige Fragen werden häufig im zweiten Drittel des Fragebogens platziert, da die
Aufmerksamkeit zunächst steigt, aber mit zunehmender Befragungsdauer abnimmt.
3. Wenn sich Fragen in einem Themenblock nach dem Grad der Allgemeinheit oder
„Angenehmheit“ differenzieren, kann mit Fragetrichtern gearbeitet werden.
7. Persönliche Interviews sollten nicht zu lange dauern, da sich die Antwortqualität bei
einer längeren Befragung vermindern kann.
8. Auf den Fragebogen wird ein Kontaktprotokoll geheftet, das vom Interviewer
ausgefüllt wird. Nach der Datenübertragung wird es aus Datenschutzgründen vom
Interview gelöst und separat aufbewahrt Eine Zuordnung der Daten zu den
Adressaten ist dann nicht mehr möglich Am Ende des Fragebogens befindet sich
meist ein Interviewerfragebogen, der Fragen zur Qualität des Interviews und weitere
Beobachtungen enthält.
9. Ein Fragebogen sollte unbedingt einem oder mehreren Pretests unterzogen werden:
a. Ermittlung der durchschnittlichen Befragungszeit.
b. Prüfung der Verständlichkeit der Fragen.
c. Prüfung der Itembatterien mit der Konsistenzanalyse oder Faktorenanalyse.
d. Prüfung von Fragenkontexteffekten und alternativen Frageformulierungen
mit Fragensplits.
e. Eventuell kann dieser auch der Interviewer-Schulung dienen.
Ist ein Verfahren zur Garantie vollständiger Anonymität, dass bei Fragen angewandt
wird, bei denen Mitteilungen der wahren Antwortreaktion dem Befragten eventuell
äußerst unangenehm sind. Dem Interviewer bleibt die persönliche
Antwortreaktion unbekannt.
Eingesetzt werden kann die Technik bei Fragen nach der Sexualität, dem Konsum von
Drogen oder anderen Formen selbstberichteten abweichenden Verhaltens in
sogenannten Dunkelzifferuntersuchungen.
Zur Anwendung der RRT benötigt man zwei Zufallsmechanismen mit bekannter
Wahrscheinlichkeit der Ergebnisse. Die erfragte Eigenschaft muss dem
Interviewer dabei unbekannt sein, die befragte Person die Antwort kennen.
Vorteil: Lohnt sich, wenn bei der Befragung mit größerer, systematischer Verzerrung
zu rechnen ist, falls die Fragen nichtanonym gestellt werden.
Nachteil: Erfordert einen erhöhten Aufwand und eine sehr sorgfältige Planung und
Durchführung des Interviews.
Genauerer Ablauf in Diekmann – S. 490ff
Online-Befragung
Bei Online-Surveys muss bei der Einstellungsmessung bedacht werden, dass sich die
Population der Internetnutzer in wesentlichen Merkmalen von der allgemeinen
Bevölkerung unterscheidet.
Die Vergrößerung des Stichprobenumfangs führt unter dieser Voraussetzung nur
dazu, dass der falsche Wert sozusagen mit größerer Genauigkeit getroffen wird.
Werden Aussagen über die allgemeine Bevölkerung angestrebt, kann es bei WWW-
Umfragen zu zwei Fehlerquellen kommen:
o Coverage Error: Die Grundgesamtheit der Internetnutzer entspricht nicht der
Zielpopulation der allgemeinen Bevölkerung.
o Fehler der Selbstauswahl: Die Befragten stellen keine Zufallsstichprobe aus
der Population der Internetnutzer dar.
Schriftliche und Online-Befragungen sind selbstadmistrierend: Fragen kommen via
Internet auf den Bildschirm, werden am Computer ausgefüllt und die Antworten
werden per Knopfdruck durch das Netz zurückgeschickt. Per Mail oder als Web-
Befragung
2. Sind kostengünstig, da Ausgaben für den Druck und Versand von Fragebogen
entfallen.
Für die Formulierung der Fragen gelten die üblichen Regeln der Frageformulierung
Allerdings ist die Lesegeschwindigkeit am Bildschirm anders als beim Lesen von
Texten auf Papier, deshalb sollten eher kürzere Fragetexte verwendet und
übersichtlich präsentiert werden.
Der Fragebogen sollte aufgrund möglicher Abbruchquoten nicht zu lang sein.
Hardware-und Softwareausstattung sollte sich am unteren Standard orientieren,
um einer größeren Anzahl Zugang zu gewähren.
Farben könnten kulturell unterschiedliche Bedeutungen haben.
Für allgemeine Bevölkerungsumfragen mit vertretbarem Aufwand sind Online
Erhebungen nicht geeignet, da undercoverage besteht.
Durch Mixed-Mode-Erhebungen kann ein zusätzlicher Informationskanal angeboten
werden, um Non-Response zu minimieren.
Online-Befragungen eignen sich gut, wenn eine Liste von E-Mail-Adressen vorliegt.
Bei experimentellen Online-Erhebungen zur Prüfung von Kausalhypothesen sind
Stichprobenprobleme von geringer Bedeutung. Randomisierung der Befragten auf
die Fragevarianten ist jedoch wichtig. Es muss gewährleistet werden, dass dieselben
Personen nicht mehrmals teilnehmen.
Beobachtung
1.Beobachtung als Methode der Sozialforschung
5.Strukturierte Beobachtung
XII. Inhaltsanalyse
1.Gegenstand und Ziele
Die Inhaltsanalyse befasst sich mit der systematischen Erhebung und Auswertung von
Texten, Bildern und Filmen.
Das Ziel bildet die Auswertung und die Analyse der Daten Zu diesem Zweck stehen
spezielle Techniken wie die Kontingenz- oder Bewertungsanalyse zur Verfügung.
Neben dem Inhalt von Texten können auch formale Gesichtspunkte untersucht
werden. Dies kann mithilfe quantitativer Indizes erfolgen: Beispiel
Aktionsquotient: Verhältnis von Verben und Adjektiven oder Type-Token-Ratio: Maß
für die Reichhaltigkeit des Vokabulars(Lesbarkeitsforschung).
Bei einer systematischen Vorgehensweise bei Inhaltsanalysen werden Stichproben
nach vorgegebenen Regeln gezogen, Inhalte kontrolliert und nach überprüfbaren
Kriterien analysiert.
Die Inhaltsanalyse soll in Sozialwissenschaften möglichst systematisch und objektiv
sein. Wenn die gleichen Regeln bezüglich der Stichprobe und Materialauswertung
angewandt werden, sollten im Idealfall gleiche Resultate erfolgen Reliabilität.
Ein wichtiges Beispiel bildet die Untersuchung von Desinformation durch
Kriegspropaganda in der Friedens- und Konfliktforschung.
Beispiele zur Bandbreite der Inhaltsanalysen in der Sozialforschung: Leserbriefe,
Stellenanzeigen, Wohnungsannoncen, Werbung, Schulbücher, etc. – für weitere
siehe Diekmann – S.579f
Das Ziel der Inhaltsanalyse ist, anhand der Textmerkmale und eventueller
Zusatzinformationen Schlussfolgerungen(Inferenzen) über den Text, seinen
Produzenten oder Empfänger einer Mitteilung zu formulieren Oft sollte man
schon mit einer Hypothese einsteigen.
Der Kommunikationsprozess ist durch die Grafik auf S.581 dargestellt.
Bei Material aus fremden sozialen Milieus oder Kulturkreisen müssen vor der Analyse
die Bedeutungsregeln der Zeichen expliziert und erlernt werden.
Die Probleme und Ziele der Inhaltsanalyse lassen sich im Rahmen der Semiotik
beschreiben:
o Syntax: Formale Regeln der Verknüpfung der Zeichen. Formale
Textanalysen.
o Semantik: Bedeutung der Zeichen. Inhaltliche Analysen(zb. Über den
Sender und dessen Eigenschaften).
o Pragmatik: Herkunft, Art der Verwendung und Wirkung der Zeichen in einer
spezifischen Situation auf die Empfänger. Wirkung von Texten, Bildern,
Filmen auf den Empfänger(zb. Aggressionspotential).
Anhand des Sender-Empfänger-Modells sind drei Inferenzen inhaltsanalytischer
Forschung bestimmbar:
o Formal deskriptive Analysen: Formale Aspekte des Textes, zum Beispiel die
relativen Häufigkeiten bestimmter Zeichen oder Zeichenkombinationen.
o Diagnostische Analysen: Beziehung zwischen Sender und Mitteilung. Was
möchte der Sender mitteilen?
o Prognostische Inhaltsanalysen: Erforschung der Wirkung der Mitteilung auf
den Rezipienten.
Das Sender-Empfänger-Modell spielt vor allem in der Kommunikationsforschung
eine Rolle, in anderen Sozialwissenschaften geht es vorwiegend um diagnostische
Analysen und deren Erweiterung.
Man erkennt die Zielsetzungen am besten anhand der Fragestellungen und
Hypothesen, die einer Untersuchung zugrunde liegen:
o Trendhypothese: Aussage über die zeitliche Entwicklung einer Eigenschaft.
o Kausale oder korrelative Zusammenhänge, die Merkmale des Textes
verknüpft oder ein Textmerkmal mit einer Variablen außerhalb des Textes in
Beziehung setzt.
Einen Vorteil der Inhaltsanalyse stellt die Möglichkeit dar, soziale kulturelle Werte
und deren Wandel im Zeitverlauf zu erforschen.
Hauptvorteile der Inhaltsanalyse:
o Vergangenheitsbezug: Die Inhaltsanalyse ermöglicht auch die Untersuchung
in der Vergangenheit produzierten Materials.
o Sozialer Wandel: Mit der Inhaltsanalyse sind soziale Veränderungen,
insbesondere der Wandel sozialer Werte erforschbar.
o Nichtreaktivität: Von Ausnahmen abgesehen, bezieht sich die Inhaltsanalyse
auf
. nichtreaktives Datenmaterial.
Erster Schritt ist die Formulierung von Hypothesen. Bei diesen kann es sich um
offene Hypothesen handeln, speziell wenn nach dem Wandel von Werten gefragt
wird.
Die Grundgesamtheit können beispielsweise Editorials(Leitartikel) von Zeitungen
bilden. Bei der Stichprobe kann es sich beispielsweise um eine Klumpenstichprobe
handeln, wobei die per Liste gezogenen Zeitungsausgaben sind.
Analyseeinheiten Auf welche Einheiten soll sich die Inhaltsanalyse beziehen?
Beispielsweise können das Sätze, Absätze, Artikel, oder zeitlich abgegrenzte
Einheiten wie Sendeminuten bei Radiosendungen sein.
Die Kategorien sind die Ausprägungen der interessierenden Variablen. Diese müssen
sich auf die Forschungshypothese beziehen und werden mit einem Kategoriesystem
und den Kodieranweisungen einer oder mehrerer Hypothesen operationalisiert.
theoriegeleitete Konstruktion eines Theoriesystem. Anforderungen an dieses:
o Disjunkt
o Erschöpfend
o Präzise
Es stellt sich die Frage nach der Reliabilität und Validität der erhobenen Variablen
Pretest zur Überprüfung der Reliabilität möglich. Die Validität kann beispielsweise
durch Korrelation mit Außenkriterien überprüft werden. Die verwendete Kategorie
kann einer empirischen Analyse der Bedeutungsassoziation unterzogen werden
semantisches Differential oder Polaritätsprofil.
Jede Analyseeinheit muss von Kodierern einer Kategorie zugewiesen werden.
o Extensionale Definition der Kategorie: Vollständige Liste der Begriffe, die
unter diese Kategorie fallen.
o Intensionale Definition: Anweisungen beziehen sich auf die Eigenschaft der
Kategorien. Eine Reihe typischer Beispiele werden aufgelistet.
In einer Kodierschulung werden die Regeln eingeübt. Mit einem Kodierbogen kann
jedes Element der Stichprobe separat erfasst werden.
Das Kategoriesystem und die Kodierregeln werden in einem Pretest von zumeist zwei
Kodierern überprüft. Eventuelle Revision und Verbesserung.
Überprüfung der Kodier-Reliabilität:
o Interkodier-Reliabilität: Grad der Übereinstimmung der Zuordnung von zwei
Kodierern.
o Intrakodier-Reliabilität: Vom gleichen Kodierer zu einem anderen Zeitpunkt
wiederholt.
o Der Produkt-Moment-Korrelationskoeffizient wird bei metrischen Variablen
herangezogen.
o Bei nominalem Skalenniveau verwendet man 2Ü/K1+K2
Erst nach mehreren Pretests erfolgt die Phase der Haupterhebung Die Daten
werden von einem Kodierbogen in ein Computerfile übertragen und statistisch
analysiert.
Phasen der Inhaltsanalyse in Abbildung XII.3 auf – S.595
Nichtreaktive Erhebungsmethoden
(
yY.atDth.maimae@qAuswahluaenmJFORSCHUNGSDE8lGNffrrt.ag
.mg#e@kYaMethod@
ask.a.am
.tn
( :n
phaumaugewandtmehrreCrhelvnptlitpunblefangssohnittstudiefVWgCeichsshedieMehrereFieHebinsichll.eiuigerAspekleverqlBasisdesigns7r@Igkwretguspae.k
faeesmdie
¥n
Fall
Konkrekr
\
Moment
.
fiegrafischefasdumf
forscbunf
versa
des
in
.
Avsprajrnp
Experknwisns
evolves
interred
.
Andre
•
tielsetzung ever
1
esdnreibung ,
tlypothesenpnfunf ,
Theoriebildunf
.
Typologies
,
numerische
} theoretisda
Generalising
-
) Max .
Variation
btw Hreoretische Reichwcitc
.
• Grad an standartisievng
^
strafe Designs ;
lnf fgrentk Fram
.
locker Designer
: wait pfenk Bgriff
o Auswahl der Methodism en Mitta
famplinfi
Vergleidnsgruppenbildunf ;