Beruflich Dokumente
Kultur Dokumente
0 Wissenschaftliche Grundlagen
Forschungsplan gibt der wissenschaftlichen Arbeit Orientierung und einen Überblick in Form eines:
Exposé = Forschungsskizze oder modellhafter Entwurf der Problem- / Fragestellung mit Zielen der
Arbeit
Auch Reflexion über methodische/ theoretische Vorgehensweise und Festlegung der einzelnen
Arbeitsschritte
Bestandteile:
Deduktion: Ableitung
(griech: nomos) Gesetze
Randbedingungen auf das zu erklärende Ereignis
Eine deduktiv-nomologische Erklärung besteht aus mind. Einem Gesetz, mind. Einer Randbedingung
und einer Beobachtung, die erklärt werden soll.
Gesetze sind deterministisch, räumlich und zeitlich unbegrenzte Aussagen also von allgemeiner Natur
Deterministisch = allen Elementen der interessierenden Menge wird eine Eigenschaft zugeschrieben
Gesetze und Randbedingungen werden als Explanans oder Prämissen und der zu erklärende
Sachverhalt als Explanandum oder Konklusion bezeichnet
Aus wahren Prämissen lassen sich wahre Schlüsse ableiten, jedoch nicht umgekehrt
Probleme:
Gesetze müssen aufgestellt und bestätigt werden, indem sie aus allgemeineren Gesetzen
abgeleitet werden
o Problem: Ob und bis zu welchem Grad gibt es allgemeinere Gesetze?
Sind die Gesetze hierarchisch geordnet oder gibt es komplexere Beziehungen wie Ringe oder
Netze
Allgemeinen Gesetze müssen auch erst aufgestellt werden
Idee der ausschliessenden Anwendung (Schwierigkeiten bei Einflussfaktor: Zufall)
Zur Erklärung hinreichenden Gesetze können nicht eindeutig identifiziert werden
Empirisch-induktiver Erklärungsansatz
Schliessen vom Besonderen auf das Allgemeine zum Zwecke des Erkenntnisgewinns
D.h. von besonderen Sätzen, Beobachtungen und Experimente wird auf allgemeine Sätze geschlossen
Empfiehlt von empirisch festgestellten Phänomenen auszugehen und auf induktive Weise die
dahinterliegenden Gesetzmässigkeiten zu schliessen
Probleme:
Basis liegt im logischen Positivismus: Jede Erkenntnis beginnt mit dem Inhalt eines Erlebnisses
Anhand induktiver Logik werden einzelne Elemente der Erkenntnis auf das Gegebene zurückgeführt
Kriterium: Forderung nach Verifizierbarkeit von Sätzen (Gültigkeit muss logisch herleitbar sein)
Für einen Sachverhalt (Daten) werden zur Überprüfung von Annahmen über die Welt (Hypothesen)
um auf dieser Basis zur allgemeingültigen Aussagen (Theorie) zu kommen
Theoriebildung bezieht sich ausschliesslich auf die gemachten Beobachtungen, welche die Realität
nicht unbedingt vollständig abdecken.
Bis 20 Jahrhundert glaubte man Naturgesetzte werden durch wissenschaftliche Forschung entdeckt
und sind unumstösslich (Endgültigkeitscharakter)
Kritische Rationalismus (Sir Karl Raimund Popper) geht davon aus, dass eine wissenschaftliche
Aussage sich nicht hundertprozentig verifizieren lässt, jedoch ist eine Falsifikation (Widerlegung)
durchführbar
Laut Popper folgende Sprachkonvention: Eine wissenschaftliche Aussage ist nicht wahr, jedoch wird
durch jede misslungene Falsifikation die Aussage erhärtet
Eine gelungene Falsifikation führt jedoch da zu, dass eine wissenschaftliche Aussage verworfen wird
Es- gibt- Sätze eignen sich als Basissatz, da diese lediglich durch Beobachtungen und nicht durch
andere Basissätze falsifiziert werden können.
Grundprobleme:
Konstruktivismus fragt, ob die Welt, wie wir sie sehen, Wirklichkeit ist oder ob sich jeder sein
Weltbild selbst konstruiert
Wir bauen unsere Umwelt nur aus Signalen auf, derer Ursprung wir uns nur in Berührung mit
Hindernissen der Umwelt vorstellen können.
Eine bestimmte Lösung kann daher nicht als die objektiv richtige oder wahre bezeichnet werden
Die Idee, dass eine Wahrnehmung einen Naturzustand besitzt, ist für Konstruktivisten eine Illusion
Der Konstruktivismus sieht seine Aufgabe in der Wissenschaft darin unterbewusste Wahrnehmungs-
und Deutungsmechanismen aufzudecken und über deren Konsequenzen aufzuklären
Sinnesdaten, die über das Ding gesammelt werden, können nicht mit dem Ding gleichgesetzt werden
Für den Konstruktivismus gibt es keine objektiv wahren Falsifikationsbegründungen, da Idee der
Falsifizierbarkeit keine Illusion sein darf.
Laut radikalen Konstruktivisten geht es bei Wissenschaft darum brauchbares und nicht richtiges
Wissen zu finden, egal ob dieses Wahrheitsgehalt besitzt oder nicht
1. Als Folgerung stellt sich die Frage, ob Wissenschaft dann noch als methodisch geregeltes
Erkenntnissystem definieren lässt
Grund: Es können keine Regeln aufgestellt werden, welche die Geschichte, Gegenwart und Zukunft
adäquat beschreiben können
Wissenschaft nach Feyerabend – das was die Gemeinschaft der Wissenschaftler selbstbestimmt
unternimmt
Jede Methode ist erlaubt, welche gerade üblich und akzeptiert ist. Neue Methoden werden
entweder akzeptiert oder nicht. Wissenschaftliche Disziplinen sollen die Methoden autonom regeln
Der methodische Anarchismus lehrt, dass Wissenschaft ein anarchisches Unterfangen ist. Daher
braucht keine anerkannte wissenschaftliche Praxis sich mehr gegenüberabstrakten
wissenschaftstheoretischen Vorgaben zu rechtfertigen.
3.0 Quantitatives Messen mit der klassischen und der probabilistischen Testtheorie
3.1 Skalenniveau und die Unterscheidung manifester und latenter Merkmale
Metrische Merkmale = Merkmale, deren Ausprägung sich mittels Zahlen darstellen lassen
Messzahl = Quotienten, bei dem Zähler und Nennergrösse gleichartig und gleichgeordnet sind
Bei latenten Merkmalen müssen geeignete manifeste Merkmae kontruirt werden um Sachverhalte
messbar zu machen (Operationalisierung)
Durch Operationalisierung mittels Items (Fragebatterie) nähert man sich dem wahren Wert an
Quotient aus dem Intelligenzalter und dem realen Alter wird Intelligenzquotient genannt
Tendenzermittlung innerhalb einer Skala mittels Lagemasse (Modus, arithmetische Mittel, Median)
Mit Test werden Merkmale wissenschaftlich analysiert, um (quantitative) Aussagen über den Grad
ihrer jeweiligen Ausprägungen ableiten zu können
Test = Messinstrument mit dem Ziele, vergleichende Aussagen über Personen zu erhalten
Messung von Indikatoren = Sacheverhalte die wissenschaftlich überprüft werden können und
einen Rückschluss auf ein bestimmtes Merkmal zulassen
Entscheidung über Skalenniveau
Einer Idee wie Indikatoren methodisch erhoben werden können
Nun Verhaltensreaktion des Probanden können auf die einzelnen Items gemessen werden (Item
Response)
Ε(Epsilon) = Messfehler (ebenfalls latent, da die Ausprägung ohne genaue Kenntnis von Theta unbekannt
Existenzaxiom besagt, dass die individuelle Ausprägung eines Persönlichkeitsmerkmals in Form einer
Zahl Theta adäquat dargestellt werden kann
Durch Umstellung der Gleichung ergibt sich, dass der wahre Parameter aus dem Testergebnis
abzüglich des Fehlerterms ergibt
Falls Fehlerterm ausgelöscht wird, dann liefert das Testergebnis den wahren Parameter
In der klassischen Theorie sind fehlerfreie Vorhersagen aufgrund des zufälligen
Fehleraustausches jedoch nicht denkbar
Um die klassische Testtheorie werden weitere Axiome aufgestellt (als absolut richtig
erkannter Grundsatz)
1. Messfehler ist mit dem wahren Parameter unkorreliert. Korrelationskoeffizient Rho (p) gleich
Null. Zwischen den wahren Parameter und dem Fehlerterm gibt es keine systematischen
(linearen) Zusammenhang. Ausprägung des latenten Merkmals hat keinen Einfluss auf den
auftretenden Fehlerterm
2. Fehlerwerte von zwei verschiedenen Tests sind unkorreliert. Punktewert eines Tests B darf
also nicht vom Punktwert eines Tests A abhängig sein
Itemschwierigkeit:
Abhängigkeit von der ein bestimmtes Item gelöst werden kann sind Itemschwierigkeit (Sigma) und
Persönlichkeitsmerkmal (Theta)
Latent-Trait: latente Merkmale sind beständig und können durch reale Zahlenwerte
ausgedrückt werden
Latent-Class Modelle untersuchen unterschiedliche diskret latente Merkmalausprägungen
Zusammenhang zwischen Theta und Sigma wird grafisch mittels Itemkurve dargestellt
Y-Achse (Ordinate): Wahrscheinlichkeit, mit der ein Proband mit wahrem Parameter Theta das Item
erfolgreich lösen wird
Probabilistische Testtheorie und klassische Testtheorie verschmelzen zum gleichen Modell, wenn alle
Fragen des Tests für jede Person gleichermassen schwierig sind
4.1 Skalierungsverfahren
Items = Fragen, Aufforderung zu einer Handlung oder Tintenkleckse, die einer Person zwecks
assoziativer Reaktion vorgelegt werden / einzelne Elemente einer Skala
Fragebogen
Mehrere Indikatoren steigern eine zuverlässige Messung machen jedoch den Einsatz von
Messinstrumenten erforderlich, die durch Verfahren hergestellt werden
Indizes und Skalen unterscheiden sich in der Dimensionalität der Skalierungsverfahren in Bezug auf
die Prüfung der verwendeten Indikatoren
Psychologische Testverfahren
Testskala: wenn ein Format die Zahlenwerte der Items mit den Eigenschaften / Itemformat das
erklärt, welche Messzahlen durch Reaktionen erzeugt werden und welche Bedeutung und
Eigenschaften diese Messzahlen haben
Streng standardisiert
Skalen werden verwendet, um Einstellungen zu messen, indem affektive /gefühlte), kognitive
(gedachte) oder konative(handelnde) Komponente zu messen
Die Verfahren werden eindimensionale Skalierungsverfahren genannt, weil si jeweils nur eine
der drei Komponenten überprüfen
Thurstone Skala
Eindimensionale Skala
Aufwendig
Verhalten , Gefühle oder Einstellung der Befragten zu einem bestimmten Thema zu erfassen
11 Punkte Skala (-5 bis 5)
Enthält Aussagen zu bestimmten Fragen und Themen, die mit einem numerischen Wert
verbunden sind
Wert gibt an, ob die Einstellung des Befragten zu dem Thema positiv oder negativ ist
Items bei denen die Bewertung eine hohe Varianz oder einen zu hohen Interquartilsabstand
aufweisen (Streuung von Daten, breite der zentralen 50% der Daten) werden nicht
verwendet
Likert Skala
Guttman-Skala
4.2 Indexbildung
Wird benötigt, wenn das latente Merkmal ein höherdimensionales Konstrukt ist
Aus einem Test mehrere Itembatterien entstehen, jedoch nur ein einziger Messwert geliefert werden
soll, der die Ausprägung des Merkmals adäquat abbilden soll
Additive Multiplikative Indexbildungen sind zwei wichtige jedoch zueinander konträre Verfahren
Additiver Index
Additive Indizes fassen die Summenscores der Einzelindikatoren durch Aufsummieren zusammen
Merkmal: Willkürlichkeit in Bezug auf Itemauswahl, Interpretation der Reaktion sowie die
Gewichtung der jeweiligen Fragen im Gesamtwert, die ausschliesslich der subjektiven Einschätzung
des Forschers unterliegen
Bedeutung: Test lässt Kompensationen zu (Es ist möglich, einen geringen Wert in einem
Einzelindikator durch einen hohen Wert in einem anderen Einzelindikator auszugleichen)
Multiplikativer Index
Wenn ein Indikator den Wert 0 hat, kann er damit den gesamten Index auf 0 setzen
Um Objektivität sicherzustellen, können mehrere Experten nach der Delphi-Methode befragt werden
Im Milgram Experiment stellten die Probanden in der Rolle eines Lehrers einem Schüler
Fragen. Wenn dieser falsch antwortete, sollten die Probanden ihn mit einem Elektroschock
bestrafen. Bei jeder falschen Antwort sollten sie die Stromstärke erhöhen.
Wissenschaftstheorie als philosophische Teildisziplin zur Beantwortung von Fragen in Bezug auf
Prozesse und Ergebnisse
1. Verstehen
2. Beschreiben
3. Erklären
4. Prognostizieren
5. Gestalten
Regeln
Forschungsethische Grundsätze des Ethik-Kodex der Soziologen sind: Objektivität und Integrität der
Forschenden, Risikoabwägung und Schadensvermeidung, Freiwilligkeit der Teilnahme, informiertes
Einverständnis sowie Vertraulichkeit und Anonymisierung.
Ethik = Teilgebiet der Philosophie, der die Grundsätze der Moral und Werte erforscht, definiert und
belegt
Forschungsethik
Bei empirischer Forschungsarbeit muss wiederholt entschieden werden, welche Verfahren und
welche Prozessschritte zu wählen sind
Forschungsethik bewegt sich insofern in dem Spannungsfeld zwischen Forschungsfreiheit nach Art. 5
Abs. 3 Grundgesetz und der Einhaltung gewisser Werte und Normen.
1. Autonomie
2. Schadensvermeidung
3. Fürsorge
4. Gerechtigkeit
Grundsätze und prinzipielle Regeln der Ethik erhalten nur dann Relevanz, wenn sie Orientierungshilfe
bei anfallenden Entscheidungen bieten, bei Fragen zur Auswahl währende des Forschungsprozesses
unterstützen und einen konkreten praktischen Handlungsbezug aufweisen.
Bewusstes oder grob fahrlässiges Fehlverhalten von Wissenschaftlern, unsauberer Umgang mit
Angaben, manipulierende Eingriffe, Plagiate bzw. unrechtes Benutzen von immateriellem Eigentum
Anderer bis hin zur Unterbindung der Forschungstätigkeit weiterer Wissenschaftler wird im Begriff
des „wissenschaftlichen Fehlverhaltens“ (engl.: Scientific Misconduct) zusammengefasst.
Schwerwiegende Verstösse:
Daten ausdenken
Detenverfälschung bzw. -manipulation
Diebstahl bzw. Plagiarismus von fremdem geistigen Eigentum
Zerstören von Daten anderer Forscher
Falsches Verhalten von Wissenschaftlern unterstützen /nicht offenlegen
Ehrliches Verhalten
Austausch und gemeinsame Nutzung von wissenschaftlichen Ressourcen
Durchführung unabhängiger Forschung
Kenntlichmachung wissenschaftlicher Leistung anderer Personen
Respektvoller Umgang
Respekt der jeweiligen Rechten von Einzelpersonen
Einhaltung wissenschaftlicher Regelwerke
Bewusste und schonender Umgang mit jeglichen Formen von Ressourcen
Übernahme sozialer Verantwortung durch die Wissenschaftler
6.0 Untersuchungsdesign
Quantitative Forschung
Qualitative Forschung
Triangulation
Erklärende Wissenschaft: Ereignis kann als Reaktion auf eine Aktion gedeutet werden
Verstehende Ansatz: den Sinn verstehen Verhaltenswissenschaften mit Ziel Handlung
nachvollziehbar zu machen
Objektivität = Ausmass der Unabhängigkeit eines Test- oder Messverfahren vom Versuchsleiter
Auch als direkte Umsetzung der Charakterisierung von Wissenschaft als unpersönliches
Erkenntnissystem
Objektivität ist gegeben, wenn eine Aussage, Interpretation oder Deutung intersubjektiv
nachvollziehbar ist (nachvollziehbar durch andere Forscher/Publikum)
Nur im Dialog mit anderen Forscher/Menschen herstellen
Auseinandersetzung in der Scientific Community ist wichtig und notwendig
Ein Mesinstrument ist reliabel, wenn eine Messwiederholung unter gleichbleibenden Bedingungen
dieselbe Masszahl ermittelt
Reliabilität bildet der Quotient aus natürlicher Varianz und beobachteter Varianz
0 < Reliabilität <= 1
o Nahe 1 steht für hohe Güte und nahe 0 für schlechte Reliabilität
Kritisch zu sehen
Interviewsituationen sind oftmals einmalige Vorgänge
Gespräche folgen häufig stark dem Zufall
Ebenso für Analyse, denn das Auffinden von latenten Kategorien oder Diskursen ist ein
kreativer Akt
Ausmass de Übereinstimmung zwischen dem, was Test messen soll und dem was ein Test tatsächlich
misst
Drückt aus, inwieweit eine Messung gültig ist, und ist deshalb aussagekräftig in Bezug auf das
Resultat einer Messung
Inhaltsvalidität
Augenscheinvalidität
Sagt aus, in welchem Ausmass ein Test von einem Laien bereits augenscheinlich als gültig
erklärt wird
Konstruktvalidität
Kriteriumsvalidität
Setzt voraus, das ein zugängliches Kriterium gibt, das den interessierenden Sachverhalt
beschreibt und dabei unabhängig vom Messinstrument ist, das überprüft wird
Vier Differenzierungen
o Prognostische Validität: erhebt erst die Testleistung und erfasst anschliessend das
Kriterium
o Übereinstimmungsvalidität: gleichzeitige Erhebung von Testleistung und Kriterium
o Retrospektive Validität: erfasst erst das Kriterium und erhebt dann die Testleistung
o Inkrementelle Validität: Vorhersage über den Beitrag eines Kriteriums zu
vorliegenden Leistungen
Extern: wenn eine Generalisierung der Ergebnisse im Bereich der vorgegebenen Situation und der
Personen einer Untersuchung durchführbar ist
Analyse betrifft die Frage, ob eine Interpretation als gültig eingestuft werden kann
Testfairness: Konstanz eines Tests in Bezug auf verschiedene Personengruppen. Personen mit
bestimmten kulturellen Hintergrund oder Vorwissen sollen keinen Vorteil ggü anderen
besitzen.
Ökonomie: Tests sollen ein Minimum an Zeit beanspruchen
Nützlichkeit: Praktische Relevanz einer Erhebung
Zumutbarkeit: Dauer und Schwere eines Tests sowie die ethisch moralische Zumutbarkeit
einer Datenerhebung
Unverfälschbarkeit: Testpersonen sollen möglichst nicht imstande sein das Testergebnis
bewusst zu manipulieren
8.0 Durchführung qualitativer Forschung
Im Verlauf einer verbalen Kommunikation werden Daten für die Forschung gewonnen
Rollen:
Kennzeichnendes Merkmal aller Befragungstechniken ist die Fragestellung in Fragen übersetzt wird
Formfreie Befragungstechnik
Instrument für Einzelfallstudien
o Einzelfallstudien dienen der Untersuchung der Tiefenstruktur von
Problemwahrnehmungen
Nachteil: Gütekriterium der Reliabilität ist schwer zu erfüllen
o Grund: Gespräche mit Hohem Zufallsanteil und daher schwer mit anderen
Gesprächen vergleichbar
Fester Fragebogen
o Reihenfolge und Formulierung der Fragen müssen aber nicht zwangsläufig fixiert
werden
Ziel: natürlicher Gesprächsverlauf
Häufige Art: Leitfadeninterview
Nonreaktive Verfahren
Transkript enthält das gesprochene Wort und informiert über prägnante Ergebnisse im
Gesprächsverlauf
Fokussiertes Interview
Problemzentriertes Interview
Oral History-Ansatz
Gegenstände werden in ihrer Komplexität und ihrer subjektiven Wirklichkeit im alltäglichen Kontext
untersucht
9.1 Inhaltsanalyse
Formen: