Sie sind auf Seite 1von 25

1.

0 Wissenschaftliche Grundlagen

1.1 Grundlegende Vorstellungen in der Wissenschaft

Wissenschaft = methodisch geregeltes Erkenntnissystem

Wissenschaftliche Erkenntnis ist unabhängig von der forschenden Person

Regeln der Wissenschaft setzen an der Unpersönlichkeit der Methode an

Unterschied zwischen Alltag und Wissenschaft:

1.2 Von der Idee zum Forschungsvorhaben

Forschungsplan gibt der wissenschaftlichen Arbeit Orientierung und einen Überblick in Form eines:

Exposé = Forschungsskizze oder modellhafter Entwurf der Problem- / Fragestellung mit Zielen der
Arbeit

Auch Reflexion über methodische/ theoretische Vorgehensweise und Festlegung der einzelnen
Arbeitsschritte

Forschungsvorhaben erfordert Balance zwischen subjektiven Forschungsinteressen und den objektiv


vorliegenden Möglichkeiten einer korrekten wissenschaftlichen Arbeit

Wissen entsteht im laufenden Forschungsprozesses


Wesentliche Bestandteile eines Exposés:

1. Problemstellung / Relevanz des gewählten Themas


a. Neuheit
b. Neugierde
c. Rätsel
d. Theorienkonkurrenz
e. Theoriedefekt
2. Stand der Forschung
3. Fragestellung
4. Methodisches Vorgehen und Materialzugang
a. Explorative Untersuchungen
i. Ziel: Neue Hypothesen im unerforschten Gebiet zu entwickeln
b. Quantitative Analysen / Befragungen
c. Szenarien Bildung und experimentelle Untersuchung
d. Inhalts- / Diskursanalysen
e. Beobachtung, Interaktionsprotokolle
i. Konstruktion möglicher Kontexte
5. Arbeits- und Zeitplan
6. Vorläufiges Literaturverzeichnis

1.3 Erklärungsansätze in der Wissenschaft

Deduktiv nomologische Erklärungsansatz: Rückführung eines Ereignisses auf zwei Prämissen


(Gesetzmässigkeiten und Randbedingungen)

Bestandteile:

 Deduktion: Ableitung
 (griech: nomos) Gesetze
 Randbedingungen auf das zu erklärende Ereignis

Eine deduktiv-nomologische Erklärung besteht aus mind. Einem Gesetz, mind. Einer Randbedingung
und einer Beobachtung, die erklärt werden soll.

Auch als H-O Schema bekannt (Hempel, Oppenheim)

Gesetze sind deterministisch, räumlich und zeitlich unbegrenzte Aussagen also von allgemeiner Natur

Deterministisch = allen Elementen der interessierenden Menge wird eine Eigenschaft zugeschrieben

Gesetze und Randbedingungen werden als Explanans oder Prämissen und der zu erklärende
Sachverhalt als Explanandum oder Konklusion bezeichnet

Aus wahren Prämissen lassen sich wahre Schlüsse ableiten, jedoch nicht umgekehrt

Probleme:

 Gesetze müssen aufgestellt und bestätigt werden, indem sie aus allgemeineren Gesetzen
abgeleitet werden
o Problem: Ob und bis zu welchem Grad gibt es allgemeinere Gesetze?
 Sind die Gesetze hierarchisch geordnet oder gibt es komplexere Beziehungen wie Ringe oder
Netze
 Allgemeinen Gesetze müssen auch erst aufgestellt werden
 Idee der ausschliessenden Anwendung (Schwierigkeiten bei Einflussfaktor: Zufall)
 Zur Erklärung hinreichenden Gesetze können nicht eindeutig identifiziert werden

Empirisch-induktiver Erklärungsansatz

Schliessen vom Besonderen auf das Allgemeine zum Zwecke des Erkenntnisgewinns

D.h. von besonderen Sätzen, Beobachtungen und Experimente wird auf allgemeine Sätze geschlossen

Lässt sich als Verallgemeinerung wiederholt beobachteter Erfahrungstatsachen zu einer


umfassenden Theorie beschreiben.

Empfiehlt von empirisch festgestellten Phänomenen auszugehen und auf induktive Weise die
dahinterliegenden Gesetzmässigkeiten zu schliessen

Vorgehen kann helfen, wenn allgemeingültige Gesetzte nicht bekannt sind.

Probleme:

1) Erklärungsansatz kann sich immer als falsch erweisen


 Wissenschaftliche Position des Falsifikationismus bezweifelt, dass per Induktion die
Erkenntnis wahrer Gesetze sichergestellt werden kann und somit kann die Wahrheit nicht
generiert werden
 Falsifikationismus: Theorie zur Erkenntnisgewinnung (Versuch und Irrtum). Eine Theorie gilt
so lange bis sie widerlegt wird.
 Was wahr „gewesen ist“, egal wann und wo, muss für alle Zeit wahr bleiben, sonst kann es
auch bisher nicht wahr gewesen sein.
2) Sprachliche Begriffe sind bei der Induktion nicht stabil.
 Worte und Begriffe sind keine neutralen Grössen
3) Induktion unterschiedlicher Theorien aus den gleichen Erfahrungen stellt ein Problem dar

2.0 Perspektiven in der Wissenschaftstheorie


2.1 Vom logischen Empirismus zum kritischen Rationalismus (Karl Popper)

Kontrollierbares und überprüfbares wissenschaftliches Weltbild begünstigt um erfahrbare Aussagen

Basis liegt im logischen Positivismus: Jede Erkenntnis beginnt mit dem Inhalt eines Erlebnisses

Anhand induktiver Logik werden einzelne Elemente der Erkenntnis auf das Gegebene zurückgeführt

Kriterium: Forderung nach Verifizierbarkeit von Sätzen (Gültigkeit muss logisch herleitbar sein)

Für einen Sachverhalt (Daten) werden zur Überprüfung von Annahmen über die Welt (Hypothesen)
um auf dieser Basis zur allgemeingültigen Aussagen (Theorie) zu kommen

Theoriebildung bezieht sich ausschliesslich auf die gemachten Beobachtungen, welche die Realität
nicht unbedingt vollständig abdecken.

Problematisch: Erweiterungsschluss wird vorgenommen, der zu übereilten Verallgemeinerungen


führen könnte

Induktionsprinzip ist weder mit Logik noch mittels Erfahrung begründbar

Bis 20 Jahrhundert glaubte man Naturgesetzte werden durch wissenschaftliche Forschung entdeckt
und sind unumstösslich (Endgültigkeitscharakter)

Kritischer Rationalismus beinhaltet die kritische-rationale Überprüfung wissenschaftlicher


Theorien/Hypothesen mit dem Ziel ihrer vorläufigen Bestätigung durch den permanenten
vergeblichen Versuch ihrer Falsifikation

Kritische Rationalismus (Sir Karl Raimund Popper) geht davon aus, dass eine wissenschaftliche
Aussage sich nicht hundertprozentig verifizieren lässt, jedoch ist eine Falsifikation (Widerlegung)
durchführbar

Laut Popper folgende Sprachkonvention: Eine wissenschaftliche Aussage ist nicht wahr, jedoch wird
durch jede misslungene Falsifikation die Aussage erhärtet

Eine gelungene Falsifikation führt jedoch da zu, dass eine wissenschaftliche Aussage verworfen wird

Es- gibt- Sätze eignen sich als Basissatz, da diese lediglich durch Beobachtungen und nicht durch
andere Basissätze falsifiziert werden können.

Grundprobleme:

 Definitionen und axiomatische Aussagen sind nicht falsifizierbar


o Axiom: Grundsatz euer Theorie, der innerhalb des Systems nicht begründet/
deduktiv abgeleitet werden kann.
 Basisansatzproblem: Der Basissatz selbst kann wahr oder falsch sein
 Probabilistische Aussagen: in Wirtschaftswissenschaft hauptsächlich Aussagen mit einer
Wahrscheinlichkeit

2.2 Konstruktivismus (Paul Lorenzen 1915-1994)

Annahme: Es gibt keine natürliche Wahrnehmung

Menschliche Wahrnehmungswerkzeuge sind aktiv

Konstruktivismus fragt, ob die Welt, wie wir sie sehen, Wirklichkeit ist oder ob sich jeder sein
Weltbild selbst konstruiert
Wir bauen unsere Umwelt nur aus Signalen auf, derer Ursprung wir uns nur in Berührung mit
Hindernissen der Umwelt vorstellen können.

Eine bestimmte Lösung kann daher nicht als die objektiv richtige oder wahre bezeichnet werden

Die Idee, dass eine Wahrnehmung einen Naturzustand besitzt, ist für Konstruktivisten eine Illusion

In der Verhaltensforschung geht es oftmals nicht primär um das Erklären von


Kausalzusammenhängen, sondern darum, den interpretativen Sinn von Zusammenhängen zu
verstehen

Der Konstruktivismus sieht seine Aufgabe in der Wissenschaft darin unterbewusste Wahrnehmungs-
und Deutungsmechanismen aufzudecken und über deren Konsequenzen aufzuklären

Sinnesdaten, die über das Ding gesammelt werden, können nicht mit dem Ding gleichgesetzt werden

Für den Konstruktivismus gibt es keine objektiv wahren Falsifikationsbegründungen, da Idee der
Falsifizierbarkeit keine Illusion sein darf.

Laut radikalen Konstruktivisten geht es bei Wissenschaft darum brauchbares und nicht richtiges
Wissen zu finden, egal ob dieses Wahrheitsgehalt besitzt oder nicht

1. Als Folgerung stellt sich die Frage, ob Wissenschaft dann noch als methodisch geregeltes
Erkenntnissystem definieren lässt

2.3 Methodischer Anarchismus (nach Paul Karl Feyerabend)

Rationalismus als orthodoxen Dogmatismus

Praxis des Erkenntnisgewinns lässt sich nicht in ein schematisches wissenschaftstheoretisch-


methodologisches Korsett pressen

Historisch sind Erkenntnisvorgänge meistens irrational und in anarchischer Weise entstanden

Grund: Es können keine Regeln aufgestellt werden, welche die Geschichte, Gegenwart und Zukunft
adäquat beschreiben können

«anything goes» - Ansatz

Wissenschaft nach Feyerabend – das was die Gemeinschaft der Wissenschaftler selbstbestimmt
unternimmt

Jede Methode ist erlaubt, welche gerade üblich und akzeptiert ist. Neue Methoden werden
entweder akzeptiert oder nicht. Wissenschaftliche Disziplinen sollen die Methoden autonom regeln

Selbstbestimmung und nicht wissenschaftstheoretische Vorgabe ist die Zielrichtung

Der methodische Anarchismus lehrt, dass Wissenschaft ein anarchisches Unterfangen ist. Daher
braucht keine anerkannte wissenschaftliche Praxis sich mehr gegenüberabstrakten
wissenschaftstheoretischen Vorgaben zu rechtfertigen.

3.0 Quantitatives Messen mit der klassischen und der probabilistischen Testtheorie
3.1 Skalenniveau und die Unterscheidung manifester und latenter Merkmale

Metrische Merkmale = Merkmale, deren Ausprägung sich mittels Zahlen darstellen lassen

Messzahl = Quotienten, bei dem Zähler und Nennergrösse gleichartig und gleichgeordnet sind

Kategorisierung = Einteilung von Objekten in Klassen von Begriffen

Konstrukt = theoretischer Sachverhalt, der in einer wissenschaftlichen Theorie nicht empirisch


erkannt werden kann

Latentes Merkmal = Ein empirisch nicht unmittelbar erkennbarer Sachverhalt – indirekt


beobachtbar /Konstrukte

Manifeste Merkmale = direkt beobachtbare Merkmale / Verhaltensmerkmale

(Grösse, Körpertemperatur oder Gewicht)

Bei latenten Merkmalen müssen geeignete manifeste Merkmae kontruirt werden um Sachverhalte
messbar zu machen (Operationalisierung)

Durch Operationalisierung mittels Items (Fragebatterie) nähert man sich dem wahren Wert an

Psychometrischer Test = Testfragen, um einen Menschen in seiner Persönlichkeit und seinen


Fähigkeiten beurteilen zu können

Quotient aus dem Intelligenzalter und dem realen Alter wird Intelligenzquotient genannt

Merkmalausprägungen können anhand unterschiedlicher Skalen gemessen werden

1. Nominalskale: Merkmale entsprechen begrifflichen Kategorien


 Nicht Möglich Ausprägungen zu ordnen, Bsp: Geschlechter oder Familienstand
2. Ordinalskala: Merkmale lassen eine Grösser/Kleiner Relation zu
 Keine inhaltliche Bedeutung; Bsp Gemeindegrössen oder Handelsklassen
3. Intervallskala (Einheitsskala): Neben Rangordnung auch Abstände messbar
 Willkürlich gesetzter Nullpunkt
 Keine sinnvollen Verhältniszahlen (Temperatur in GradC)
4. Verhältnisskala (Ratio-Quotienten oder Proportionenskala)
 Haben natürlichen Nullpunkt sowie Eigenschaften der Intervallskala

NOIR (Nominal, Ordinal, Intervall, Ratio)

Tendenzermittlung innerhalb einer Skala mittels Lagemasse (Modus, arithmetische Mittel, Median)

3.2 Klassische Testtheorie

Mit Test werden Merkmale wissenschaftlich analysiert, um (quantitative) Aussagen über den Grad
ihrer jeweiligen Ausprägungen ableiten zu können

Test = Messinstrument mit dem Ziele, vergleichende Aussagen über Personen zu erhalten

Verhaltenswissenschaftliche Messinstrumente sind alle Erhebungsverfahren, mit denen soziale


Realitäten individuenweise erfasst werden sollen
Beim Testen geht es um das indirekte Messen eines latenten Merkmals durch:

 Messung von Indikatoren = Sacheverhalte die wissenschaftlich überprüft werden können und
einen Rückschluss auf ein bestimmtes Merkmal zulassen
 Entscheidung über Skalenniveau
 Einer Idee wie Indikatoren methodisch erhoben werden können

Nun Verhaltensreaktion des Probanden können auf die einzelnen Items gemessen werden (Item
Response)

Messfehlgrösse steht im Mittelpunkt der klassischen Testtheorie

 Ziel: Schliessung auf den wahren Parameter einer Person


 Rauschen verfälscht die Wirkung des wahren Parameters zufällig

Y = Testscore/ Summenscore (Summe der erreichten Punkte eines Tests)


Θ(Theta) = wahrere Wert/Parameter/Persönlichkeitsmerkmal, Fähigkeitsparameter oder latentes Merkmal

Ε(Epsilon) = Messfehler (ebenfalls latent, da die Ausprägung ohne genaue Kenntnis von Theta unbekannt

Existenzaxiom besagt, dass die individuelle Ausprägung eines Persönlichkeitsmerkmals in Form einer
Zahl Theta adäquat dargestellt werden kann

 Annahme: Wahre Parameter existiert wirklich

Durch Umstellung der Gleichung ergibt sich, dass der wahre Parameter aus dem Testergebnis
abzüglich des Fehlerterms ergibt

 Falls Fehlerterm ausgelöscht wird, dann liefert das Testergebnis den wahren Parameter
 In der klassischen Theorie sind fehlerfreie Vorhersagen aufgrund des zufälligen
Fehleraustausches jedoch nicht denkbar
 Um die klassische Testtheorie werden weitere Axiome aufgestellt (als absolut richtig
erkannter Grundsatz)

Fehlerterm Epsilon ist eine Zufallsvariable mit Erwartungswert 0

 Wenn unendlich viele Untersuchungseinheiten betrachtet werden würde, würde der


Schwerpunkt im Mittel gegen Null tendieren
 Axiom vom unparteiischen Fehler besagt, dass der Fehlerterm Epsilon stets eine Verzerrung
von Theta herbeiführt, aber dass diese Verzerrung die Testergebnisse präferenzlos verfälscht,
d.h. einen Testscore weder systematisch in die eine noch andere Richtung zieht
Axiom von der Unkorreliertheit der

1. Messfehler ist mit dem wahren Parameter unkorreliert. Korrelationskoeffizient Rho (p) gleich
Null. Zwischen den wahren Parameter und dem Fehlerterm gibt es keine systematischen
(linearen) Zusammenhang. Ausprägung des latenten Merkmals hat keinen Einfluss auf den
auftretenden Fehlerterm
2. Fehlerwerte von zwei verschiedenen Tests sind unkorreliert. Punktewert eines Tests B darf
also nicht vom Punktwert eines Tests A abhängig sein

3.3 Probabilistische Testtheorie / Item-Response-Theorie

Störeinflüsse müssen nicht zwingende mit der zu messenden Eigenschaften zusammenhängen


(Zufall)

Item-Response-Theorie: wahre Parameter eines Persönlichkeitsmerkmals (latente Eigenschaft) legt


mit einem anderen wahren Merkmal eine Lösungswahrscheinlichkeit fest mit der ein Proband ein
Item erfolgreich löst

 Itemschwierigkeit:

Abhängigkeit von der ein bestimmtes Item gelöst werden kann sind Itemschwierigkeit (Sigma) und
Persönlichkeitsmerkmal (Theta)

Persönlichkeitsmerkmal und Wahrscheinlichkeit zur Lösung haben eine probabilistische Beziehung,


wodurch ein Mensch mit höherer Fähigkeit im Vergleich zur Schwierigkeit das Item lösen kann.

Differenzierung in Latent-Trait und Latent-Class Modellen

 Latent-Trait: latente Merkmale sind beständig und können durch reale Zahlenwerte
ausgedrückt werden
 Latent-Class Modelle untersuchen unterschiedliche diskret latente Merkmalausprägungen

Zusammenhang zwischen Theta und Sigma wird grafisch mittels Itemkurve dargestellt

X-Achse(Abszisse): wahrer Wert Theta

Y-Achse (Ordinate): Wahrscheinlichkeit, mit der ein Proband mit wahrem Parameter Theta das Item
erfolgreich lösen wird

Latent Class Modelle:

 Nominalskaliertes Merkmal mit sehr wenigen Kategorien


 Ziel: Zuordnung von Personen zu Gruppen mit jeweils spezifischen Antwortmuster
 Zuordnung von Klassenzugehörigkeiten und Antwortwahrscheinlichkeiten durch diskrete
Itemfunktionen bzw. Itemprofile
 Systematische Beschreibungsmöglichkeiten finden
 Wenn Item A grundsätzlich schwieriger ist als Item B spricht man von der
Überschneidungsfreiheit der Itemprofile

Unterschied zu klassischer Testtheorie:

 Zufallsschwankungen sind bei der probabilistischen Testtheorie ein konzeptioneller


Bestandteil des Fähigkeitsbegriffs
 Schwankungen entstehen aus den stochastischen Beziehungen von Probandenmerkmalen
und den Antwortverhalten
 Fehler als Natur der Sache

Probabilistische Testtheorie und klassische Testtheorie verschmelzen zum gleichen Modell, wenn alle
Fragen des Tests für jede Person gleichermassen schwierig sind

Problem der probabilistischen Testtheorie:

 Bestimmung der Itemschwierigkeiten sind äusserst kompliziert


 Um die Itemschwierigkeiten Sigma gut schätzen zu können, müsste man die individuellen
Theta der Probanden der Eichstichprobe können
 Eichstichprobe = wird verwendet, um den Test zu normieren
 Dafür müssen die Sigmawerte der getesteten Items bekannt sein
 Versucht man beide Parameter gleichzeitig zu schätzen, sind die Schätzungen für kleine
Stichprobenumfänge ungenau

4.0 Grundlegende Konzepte der Itembildung

4.1 Skalierungsverfahren
Items = Fragen, Aufforderung zu einer Handlung oder Tintenkleckse, die einer Person zwecks
assoziativer Reaktion vorgelegt werden / einzelne Elemente einer Skala

Fragebogen

 Untersuchungsmerkmal wird definiert


 Personenkreis/Geltungsbereich der Untersuchung durch operationale Definition entwickelt
 Ziel: Latente Merkmal durch manifeste Indikatoren erklärbar zu machen
 Indikatoren sollen durch einen Satz von geeigneten Items (Item Batterie) gemessen werden

Mehrere Indikatoren steigern eine zuverlässige Messung machen jedoch den Einsatz von
Messinstrumenten erforderlich, die durch Verfahren hergestellt werden

Skalierungsverfahren = Verfahren, das mit mehreren Items eine Skala generiert

Index = Zusammenfassung von einer Anzahl Indikatoren

Zusammengesetzte Messungen = Reihe von Indizes und Skalen

Indizes und Skalen unterscheiden sich in der Dimensionalität der Skalierungsverfahren in Bezug auf
die Prüfung der verwendeten Indikatoren

Unterschiedliche Formate für jedes Item

 Offene Antwortmuster, halboffene Antwortmuster und geschlossene Antwortmuster

Psychologische Testverfahren

 Leistungstest (Problem: MC falsche Antworten sollen nicht offensichtlich sein)


 Persönlichkeitstest ( Problem: sozial erwünschte Antworten sind problematisch)
 Intelligenztest

Dichotom = binär: Merkmal hat nur 2 Ausprägungen (Dafür/ Dagegen)

Testskala: wenn ein Format die Zahlenwerte der Items mit den Eigenschaften / Itemformat das
erklärt, welche Messzahlen durch Reaktionen erzeugt werden und welche Bedeutung und
Eigenschaften diese Messzahlen haben

Die Thurstone-Skala, Likert-Skala und Guttman-Skala

 Streng standardisiert
 Skalen werden verwendet, um Einstellungen zu messen, indem affektive /gefühlte), kognitive
(gedachte) oder konative(handelnde) Komponente zu messen
 Die Verfahren werden eindimensionale Skalierungsverfahren genannt, weil si jeweils nur eine
der drei Komponenten überprüfen

Thurstone Skala

 Eindimensionale Skala
 Aufwendig
 Verhalten , Gefühle oder Einstellung der Befragten zu einem bestimmten Thema zu erfassen
 11 Punkte Skala (-5 bis 5)
 Enthält Aussagen zu bestimmten Fragen und Themen, die mit einem numerischen Wert
verbunden sind
 Wert gibt an, ob die Einstellung des Befragten zu dem Thema positiv oder negativ ist
 Items bei denen die Bewertung eine hohe Varianz oder einen zu hohen Interquartilsabstand
aufweisen (Streuung von Daten, breite der zentralen 50% der Daten) werden nicht
verwendet

Likert Skala

 5-7 Punkt umfassende Skala


 Vereinfacht (weniger Entwicklungszeit als Thurstone Skala)
 Erhebungsverfahren, mit dem in Fragebögen die persönliche Meinung von Testanden in
Erfahrung zu bringen.
 Fragen von einer Itembatterie werden von Probanden beantwortet, im Anschluss bewertet
und von Forscher zu einem Gesamtergebnis zusammengefasst
 Itembatterien enthalten positive und negative Haltungen zu einer Fragestellung
 Likert Skala ist nur anwendbar, wenn unterstellt wird, dass die Ordnungsnummern
äquidistant sind (Punkte oder Objekte haben gleichen Abstand)

Guttman-Skala

 Annahme: Items stehen zueinander in einem hierarchischen Verhältnis


 Bejahung eines Items impliziert stets die Bejahung aller hierarchisch nachgeordneten Items
 Wenn Probanden vorkommen, die mit der Hierarchisierung nicht konform gehen muss die
Anwendung der Guttman-Skala überdacht werden

4.2 Indexbildung

Wird benötigt, wenn das latente Merkmal ein höherdimensionales Konstrukt ist

Aus einem Test mehrere Itembatterien entstehen, jedoch nur ein einziger Messwert geliefert werden
soll, der die Ausprägung des Merkmals adäquat abbilden soll

Additive Multiplikative Indexbildungen sind zwei wichtige jedoch zueinander konträre Verfahren

Additiver Index

Additive Indizes fassen die Summenscores der Einzelindikatoren durch Aufsummieren zusammen

Alpha = Gewichung des i-ten

V = Wert der für den Indikator i gemessen wurde


Ungewichteter Summenindex liegt vor, wenn alle alphas gleich sind

Merkmal: Willkürlichkeit in Bezug auf Itemauswahl, Interpretation der Reaktion sowie die
Gewichtung der jeweiligen Fragen im Gesamtwert, die ausschliesslich der subjektiven Einschätzung
des Forschers unterliegen

Bedeutung: Test lässt Kompensationen zu (Es ist möglich, einen geringen Wert in einem
Einzelindikator durch einen hohen Wert in einem anderen Einzelindikator auszugleichen)

Multiplikativer Index

Beim Multiplikativen Index werden Summenscores der Einzelindikatoren miteinander multipliziert

Idee der wechselseitigen Voraussetzung

Wenn ein Indikator den Wert 0 hat, kann er damit den gesamten Index auf 0 setzen

Gewichtung bei Indizes ist durch normative Indexbildung bestimmbar

 Durch Expertengespräche, Expertenratings oder durch Überlagerungen können die


angemessenen Gewichtungen der Indikatoren postuliert werden

Um Objektivität sicherzustellen, können mehrere Experten nach der Delphi-Methode befragt werden

1. Stellungnahme der Experten


2. Erneute Stellungnahme, allerdings werden die Ergebnisse der ersten Runde anonymisiert
mitgeteilt.
3. Dadurch erhofft man eine Potenzielle Korrektur der ersten Stellungnahme
5. Konzeption der Forschung

Experimente = bestimmte Versuchsordnung in der Forschung

 z.B. Befragungsstudien, Panelstudien sowie hybride Forschungsdesigns


 Ursache-Wirkungszusammenhänge können eindeutig beobachtet werden
 Stimulus wird variiert und Effekt auf die Probanden beobachtet

Milgram Experiment (1963)

 Im Milgram Experiment stellten die Probanden in der Rolle eines Lehrers einem Schüler
Fragen. Wenn dieser falsch antwortete, sollten die Probanden ihn mit einem Elektroschock
bestrafen. Bei jeder falschen Antwort sollten sie die Stromstärke erhöhen.

5.1 Wissenschaftstheorie und Forschungsprozess

Wissenschaftstheorie als philosophische Teildisziplin zur Beantwortung von Fragen in Bezug auf
Prozesse und Ergebnisse

 Fragen logischer/methodologischer Natur


 Fragen zur Handlungstheorie und Ethik
 Ontologische Fragen, die alles, was in der Welt vorkommt behandeln

Erkenntnistheoretische Fragen in der Epistemologie fokussieren auf menschliches Wissen, wie es


gewonnen wird und worauf es sich begründet

Wissenschaftstheorie stellt Erkenntnisse der Wissenschaft in den Mittelpunkt, insbesondere wie


diese gewonnen und gesichtet werden können

Kognitive Ziele in Verbindung mit den Sozialwissenschaften:

1. Verstehen
2. Beschreiben
3. Erklären
4. Prognostizieren
5. Gestalten

Regeln

1. Methodologische Regeln: Beurteilung von Methoden hinsichtlich ihrer Qualität zur


Aufgabenerfüllung
2. Methodische Regeln: Vorgehensweise
3. Ethische Regeln und Werte

Basisannahmen in Bezug auf Erkenntnis- und Erfahrungsobjekte

 Ontologische Grundannahme: allumfassende Wahrheit ist schwierig in der Forschung zu


finden
 Epistemologische Grundannahmen: Wissensgenerierung geschieht entweder durch
systematische Beobachtung oder analytische/theoretische Konstruktion
 Normative Grundannahme: stillschweigende Annahmen, die wissenschaftlichen
Untersuchungen als Basis dienen
5.2 Ethische Aspekte der Forschung - Forschungsethik

Forschungsethische Grundsätze des Ethik-Kodex der Soziologen sind: Objektivität und Integrität der
Forschenden, Risikoabwägung und Schadensvermeidung, Freiwilligkeit der Teilnahme, informiertes
Einverständnis sowie Vertraulichkeit und Anonymisierung.

Ethik = Teilgebiet der Philosophie, der die Grundsätze der Moral und Werte erforscht, definiert und
belegt

Es existiert keine grundsätzliche ethische Regeln mit Allgemeingültigkeit

Forschungsethik

Bei empirischer Forschungsarbeit muss wiederholt entschieden werden, welche Verfahren und
welche Prozessschritte zu wählen sind

1. Z.B. Wahl von Thema, Forschungsziele, Untersuchungskonzept, Methodenwahl, Stichprobe,


Datenerhebung etc.

Forschungsethik bewegt sich insofern in dem Spannungsfeld zwischen Forschungsfreiheit nach Art. 5
Abs. 3 Grundgesetz und der Einhaltung gewisser Werte und Normen.

«Prima-facie-Pflichten» bezeichnet Vorgaben mittlerer Ordnung, die solange verpflichtend


einzuhalten sind, wie sie nicht im Widerspruch zu weiteren Regeln stehen

Ethische Prinzipe (medizinische Forschung)

1. Autonomie
2. Schadensvermeidung
3. Fürsorge
4. Gerechtigkeit

Grundsätze und prinzipielle Regeln der Ethik erhalten nur dann Relevanz, wenn sie Orientierungshilfe
bei anfallenden Entscheidungen bieten, bei Fragen zur Auswahl währende des Forschungsprozesses
unterstützen und einen konkreten praktischen Handlungsbezug aufweisen.

Verschiedene Fächer beziehen sich auf unterschiedliche Ethik Kodizes

 Psychologie: American Psychological Association (APA)


 Ethik-Kodex der deutschen Soziologen
 Amerikanische Forschungseinrichtungen: Institutional Review Board

Bewusstes oder grob fahrlässiges Fehlverhalten von Wissenschaftlern, unsauberer Umgang mit
Angaben, manipulierende Eingriffe, Plagiate bzw. unrechtes Benutzen von immateriellem Eigentum
Anderer bis hin zur Unterbindung der Forschungstätigkeit weiterer Wissenschaftler wird im Begriff
des „wissenschaftlichen Fehlverhaltens“ (engl.: Scientific Misconduct) zusammengefasst.
Schwerwiegende Verstösse:

 Daten ausdenken
 Detenverfälschung bzw. -manipulation
 Diebstahl bzw. Plagiarismus von fremdem geistigen Eigentum
 Zerstören von Daten anderer Forscher
 Falsches Verhalten von Wissenschaftlern unterstützen /nicht offenlegen

Regeln, um Anforderungen der Ethik bei wissenschaftlicher Arbeit gerecht zu werden

 Ehrliches Verhalten
 Austausch und gemeinsame Nutzung von wissenschaftlichen Ressourcen
 Durchführung unabhängiger Forschung
 Kenntlichmachung wissenschaftlicher Leistung anderer Personen
 Respektvoller Umgang
 Respekt der jeweiligen Rechten von Einzelpersonen
 Einhaltung wissenschaftlicher Regelwerke
 Bewusste und schonender Umgang mit jeglichen Formen von Ressourcen
 Übernahme sozialer Verantwortung durch die Wissenschaftler

6.0 Untersuchungsdesign

6.1 Der qualitative und der quantitative Ansatz

Quantitative Forschung

 Beschreibung, Prüfung und Beurteilung von Messungen


 Das Zahlenmässige Erfassen der Realität
 Vorteil: statistische Werkzeuge müssen nur einmal entwickelt werden
 Ist in deduktiv-nomologischen Paradigma verwurzelt
 Objektbezogen und bemüht Ursache-Wirkung Zusammenhänge zu identifizieren
 Verhalten soll in Form von Modellen, Zusammenhängen und nummerischen Daten möglichst
genau beschrieben und vorhersagbar gemacht werden
 Objektivität ist nicht zwingend
 Zahlenwerte können die Vielfalt der Blickwinkel und das in der Vielfalt schlummernde
Erkenntnispotenzial niemals vollständig einfangen

Qualitative Forschung

 Anrücken an Beobachtungsrealität, indem mit Beobachtungsrealität selbst gearbeitet wird


 Ziel: Wirklichkeit anhand der subjektiven Sicht der relevanten Akteure abzubilden und so
mögliche Ursachen für deren Verhalten nachzuvollziehen und das Verhalten zu verstehen
 Direkter Zugang zu betreffenden Subjekten
 Interpretation von verbalem Material oder nichtnumerische Symbolisierungen
 Auswertung der Erfahrungswirklichkeit erlaubt es, flexibel auf den Forschungsgegenstand
einzugehen
 Aber: Notwendigkeit für jede Untersuchung einen eigenen methodischen Werkzeugkasten zu
erstellen
 Qualitative Methoden schwerer erlernbar
 Zuverlässigkeit qualitativer Verfahren oftmals niedriger als die der quantitativen Verfahren

Triangulation

 Studienobjekt wird von mind. Zwei unterschiedlichen Blickwinkeln untersucht bzw.


ergründet
 Anwendung von verschiedenen Blickwinkeln auf einen konkreten Studienfall
6.2 Die Dichotomie von «quantitv vs. Qualitativ» eine Begriffsbestimmung

Beim Vergleich liegt unterschiedliches Datenmaterial vor

Nomothetisch vs. Ideografisch

 Nomothetisch: Durch aufdecken von Regelhaftigkeiten in quantitativen Daten soll regelhaftes


Wissen über die zugrunde liegende Realität geschaffen werden
 Idiografisch: Ist eine Forschungseinrichtung, die Kenntnis über einzelne Fakten ohne
Anspruch auf räumliche oder zeitliche Übertragbarkeit sammelt (Archäologie)

Labor vs. Feld

 Feldforschung ist stark vom Kontext einer Beobachtungssituation gefärbt


 Labor ist für Quantifizierungen attraktiv, da Situation gleich nachgestellt werden kann, bei
nur einem abgeänderten Parameter
 Wahre Leben weist keine experimentell wiederholbaren Ereignisse auf

Erklären versus Verstehen

 Erklärende Wissenschaft: Ereignis kann als Reaktion auf eine Aktion gedeutet werden
 Verstehende Ansatz: den Sinn verstehen Verhaltenswissenschaften mit Ziel Handlung
nachvollziehbar zu machen

7.0 Prüfung der Gütekriterien in der qualitativen und quantitativen Forschung

7.1 Gütekriterium Objektivität

Objektivität = Ausmass der Unabhängigkeit eines Test- oder Messverfahren vom Versuchsleiter

Auch als direkte Umsetzung der Charakterisierung von Wissenschaft als unpersönliches
Erkenntnissystem

Objektivität bei quantitativen Verfahren

 Durchführungsobjektivität: möglichst geringe Einflussnahme des Versuchsleiters auf die


Testpersonen
o man verhindert «Interviewer Bias»
 Auswertungsobjektivität: möglichst objektive Auswertung der Daten
o Extremwerte sollen genaustens geprüft werden
 Interpretationsobjektivität: Daten sollen möglichst objektiv ausgewertet werden und ohne
vorgefasste Meinung interpretiert

Objektivität bei qualitativen Verfahren

 Objektivität ist gegeben, wenn eine Aussage, Interpretation oder Deutung intersubjektiv
nachvollziehbar ist (nachvollziehbar durch andere Forscher/Publikum)
 Nur im Dialog mit anderen Forscher/Menschen herstellen
 Auseinandersetzung in der Scientific Community ist wichtig und notwendig

7.2 Das Gütekriterium Reliabilität

Ein Mesinstrument ist reliabel, wenn eine Messwiederholung unter gleichbleibenden Bedingungen
dieselbe Masszahl ermittelt

Reliabilität bei quantitativen Verfahren

 Reliabilität bildet der Quotient aus natürlicher Varianz und beobachteter Varianz
 0 < Reliabilität <= 1
o Nahe 1 steht für hohe Güte und nahe 0 für schlechte Reliabilität

Reliabilität bei qualitativen Verfahren

 Kritisch zu sehen
 Interviewsituationen sind oftmals einmalige Vorgänge
 Gespräche folgen häufig stark dem Zufall
 Ebenso für Analyse, denn das Auffinden von latenten Kategorien oder Diskursen ist ein
kreativer Akt

7.3 Das Gütekriterium Validität

Ausmass de Übereinstimmung zwischen dem, was Test messen soll und dem was ein Test tatsächlich
misst

Drückt aus, inwieweit eine Messung gültig ist, und ist deshalb aussagekräftig in Bezug auf das
Resultat einer Messung

Validität bei quantitativen Verfahren

Inhaltsvalidität

 Repräsentativität eines Tests hinsichtlich eines zu messenden Merkmals


 Ermittlung mittels logisch/ fachlichen Parametern anstelle von Kennzahlen

Augenscheinvalidität

 Sagt aus, in welchem Ausmass ein Test von einem Laien bereits augenscheinlich als gültig
erklärt wird

Konstruktvalidität

 Behandelt das theoretische Fundament des zu messenden Merkmals eines Tests


 Konvergente und diskriminante (divergente) Validität sind empirische Indikatoren der
Konstruktvalidität

Kriteriumsvalidität

 Setzt voraus, das ein zugängliches Kriterium gibt, das den interessierenden Sachverhalt
beschreibt und dabei unabhängig vom Messinstrument ist, das überprüft wird
 Vier Differenzierungen
o Prognostische Validität: erhebt erst die Testleistung und erfasst anschliessend das
Kriterium
o Übereinstimmungsvalidität: gleichzeitige Erhebung von Testleistung und Kriterium
o Retrospektive Validität: erfasst erst das Kriterium und erhebt dann die Testleistung
o Inkrementelle Validität: Vorhersage über den Beitrag eines Kriteriums zu
vorliegenden Leistungen

Zusätzlich Unterscheidung zwischen interner und externer Validiät

Intern: Ist eine kausal eindeutige Interpretation von Ergebnissen möglich

Extern: wenn eine Generalisierung der Ergebnisse im Bereich der vorgegebenen Situation und der
Personen einer Untersuchung durchführbar ist

Validität bei qualitativen Verfahren

Analyse betrifft die Frage, ob eine Interpretation als gültig eingestuft werden kann

Bezug wird auf die Objektivität genommen

Interpersonaler Konsens ist als hoch einzustufen, beifolgenden Kriterien:

 Externe Experten können den Konsens mittragen


 Alternative Erklärungen werden in Forschungsergebnissen mitgeteilt und diskutiert

Interpretative Ergebnisse können nur dann in einem grösseren Gültigkeitsbereich verallgemeinert


werden, wenn sie aus einer repräsentativen Analyse in Bezug auf den gewählten Gültigkeitsbereich
stammen

Neben Objektivität, Validität und Reliabilität auch Nebengütekriterien vorhanden:

 Testfairness: Konstanz eines Tests in Bezug auf verschiedene Personengruppen. Personen mit
bestimmten kulturellen Hintergrund oder Vorwissen sollen keinen Vorteil ggü anderen
besitzen.
 Ökonomie: Tests sollen ein Minimum an Zeit beanspruchen
 Nützlichkeit: Praktische Relevanz einer Erhebung
 Zumutbarkeit: Dauer und Schwere eines Tests sowie die ethisch moralische Zumutbarkeit
einer Datenerhebung
 Unverfälschbarkeit: Testpersonen sollen möglichst nicht imstande sein das Testergebnis
bewusst zu manipulieren
8.0 Durchführung qualitativer Forschung

Interview als spezifische Variante der qualitativen Datenerhebung

Im Verlauf einer verbalen Kommunikation werden Daten für die Forschung gewonnen

Rollen:

 Forscher als Fragesteller und Zuhörer


 Befrage als Erzähler und Antwortender

8.1 Methoden der Datengenerierung

Datensammlung vor der qualitativen Analyse

Kennzeichnendes Merkmal aller Befragungstechniken ist die Fragestellung in Fragen übersetzt wird

 Ziel: Ermittlung der Sichtweise des Probanden


 Gestaltung: Individuell durch BEfragteb

Interview: Forschungsabsichten werden klar angekündigt und zu einer künstlichen Gesprächsituation


eingeladen

Voll standardisierte Interviews


 Fragebogen mit festen Antwortformaten (geschlossen)
 Kein Gestaltungsspielraum in den Antworten
 Keine Technik der qualitativen Forschung
 Vorteil: Phänomene oder soziale Gruppen können mittels Zahlen beschrieben werden
 Erklärung einer objektiven Wirklichkeit

Nicht standardisierte Interviews

 Formfreie Befragungstechnik
 Instrument für Einzelfallstudien
o Einzelfallstudien dienen der Untersuchung der Tiefenstruktur von
Problemwahrnehmungen
 Nachteil: Gütekriterium der Reliabilität ist schwer zu erfüllen
o Grund: Gespräche mit Hohem Zufallsanteil und daher schwer mit anderen
Gesprächen vergleichbar

Halb standardisiertes Interview

 Fester Fragebogen
o Reihenfolge und Formulierung der Fragen müssen aber nicht zwangsläufig fixiert
werden
 Ziel: natürlicher Gesprächsverlauf
 Häufige Art: Leitfadeninterview

Arten von Fragen beim Leitfadeninterview

1. Einleitungsfragen (Gesprächspartner sollen aufeinander eingestellt werden)


2. Leifadenfragen (geben dem Gespräch strukturellen Rahmen)
3. Ad-hoc Fragen (ungeplant und spontan)

Grundsätze bei Erstellung der Fragen

 Vermeidung von Fachbegriffen/ komplexen Angelegenheiten


 Anpassung an die sprachlichen Gewohnheiten der Zielgruppe
 Vermeidung von Verneinungen
 Kurze und nachvollziehbare Fragestellungen
 Keine Fragen, die von Befragten ähnlich beantwortet werden können
 Bezug zum Thema
 Aufeinander aufbauende Fragen

Nonreaktive Verfahren

 Forscher und Untersuchungsobjekt treffen nicht in Kontakt


o Keine Verhaltensreaktion durch Versuchsleiter oder Beeinflussung des Objekts
 Bsp: Untersuchung physischer Begebenheiten, Ungeleitete Gruppendiskussionen,
Tagebuchverfahren, IoT, elektronische Krankenakte
 Gesichtserkennung in Smartphones können zB qualitative Daten gesammelt weden

8.2 Besondere Interviewformen

Arbeitsschritte ähneln in den meisten Interviewformen

 Vorbereitung (Themawahl und Entwicklung des theoretischen Rasters)


 Gesprächsbeginn (Smalltalk und Schaffung einer vertrauensvollen Atmosphäre)
 Gesprächsdurchführung (Gesprächsrahmen soll eingehalten werden)
 Gesprächsende (Danksagung und ggf. Ergebnismitteilung)
 Nachbereitung (Notizen gleich nach Gespräch)

Transkript enthält das gesprochene Wort und informiert über prägnante Ergebnisse im
Gesprächsverlauf

Fokussiertes Interview

 Entspringt der Medienforschung


 Interviewten Personen dürfen nicht beeinflusst werden
 Spezifische Sichtweise und Beschreibung der Situation aus der Perspektive der interviewten
Personen
 Breites Spektrum soll erfasst werden
 Personaler Bezugsrahmen sowie Tiefgründigkeit muss berücksichtigt werden

Problemzentriertes Interview

 1982 von Andreas Witzel und zielt auf Leitfadeninterviews ab


 Forscher muss sich mit der Theorie zum Forschungsgebiet beschäftigen
 Beinhaltet offene Fragestellungen, die Impulse für Erzählungen liefern
Narratives Interview

 Entwickelt von Fritz Schütze im Jahr 1976


 Offenste der vorgestellten Interviewarten
 Eignen sich für Lebensgeschichte oder Erlebnisse aus dem Alltag
 Erlebnisse werden als zusammengefasste Geschichte erzählt
 Verwendung bei Biografien, Lebensläufen aber auch wenn Handeln von Sozialpädagogen
erforscht werden soll
 Vertrauen ist erforderlich

Oral History-Ansatz

 Zeitzeugen sollen berichten, um Ergänzungen einer Geschichte zu ermöglichen


 Entspringt der Geschichtswissenschaft
 Gelingt bei sämtlichen Gesprächsarten

9.0 Methoden der qualitativen Analyse

Gegenstände werden in ihrer Komplexität und ihrer subjektiven Wirklichkeit im alltäglichen Kontext
untersucht

Erfassung von subjektiven Lebenswesen und deren Sinnkonstruktionen

Erfordert hohes Mass an Reflexivität des Forschers

9.1 Inhaltsanalyse

Texte werden einer quantifizierten Analyse unterzogen

Zählt zu den Nonreaktiven Verfahren

Formen:

 Frequenzanalyse: Textelemente werden klassifiziert und deren Vorkommen ausgezählt


 Valenzanalyse: Begriffe/Phrasen werden mit Bewertungen (positiv, negativ, neutral)
verbunden und analysiert
 Intensitätsanalysen: erfasst zusätzlich die Intensität der Bewertungen
 Kontingenzanalysen: Überprüfen wie häufig Begriffe im Zusammenhang mit anderen
Kategorien auftreten

Phasen einer Inhaltsanalyse:

1. Auswahl der Art oder Klassen von Texten


2. Festlegung einer Stichprobe
3. Zähleinhalten müssen festgelegt werden
4. Entwicklung eines Kategorie Schemas: Kategorien müssen auf Basis einer gründlichen
theoretischen Aufarbeitung des Forschungsproblems entwickelt weden

Phase 4 ist wichtigste

Ziel: Text soll mittels eines Kategorie Schemas ausgewertet werden


9.2 Grounded Theory

Das könnte Ihnen auch gefallen