Beruflich Dokumente
Kultur Dokumente
Qualitative
Datenanalyse:
computergestützt
Methodische Hintergründe und
Beispiele aus der Forschungspraxis
Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media.
www.vs-verlag.de
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist
ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere
für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspei-
cherung und Verarbeitung in elektronischen Systemen.
ISBN 978-3-531-34248-1
Inhalt
Vorwort ............................................................................................................................... 7
I Methodische Hintergründe
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte ................... 15
Udo Kuckartz
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“....... 32
Udo Kelle
Integration qualitativer und quantitativer Methoden .................................................. 50
Udo Kelle
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten .............. 143
Thorsten Dresing und Udo Kuckartz
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums unter
Einsatz der quantitativen Software MAXDictio ........................................................ 163
Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein
tematisch, sie lässt sich in jedem Schritt nachvollziehen, ist gut dokumentierbar und
lässt sich somit auch hervorragend für Sekundäranalysen nutzen. Die benutzten
Kategorien und Schlüsselkategorien und ihre Bedeutung sind klar nachvollziehbar
– insofern sind die Analysevorgänge insgesamt transparenter. Im Sinne des Analy-
seprozesses als Entdeckungsprozess bleiben natürlich immer noch Fragen des
„Wie“ offen, denn schließlich ließe sich nur unter großen Schwierigkeiten eine An-
leitung verfassen, die zuverlässig vermitteln würde, wie man Neues findet, wie man
gute Ideen produziert oder wie man Schlüsselkategorien entdeckt. Dass ein solcher
Rest an nicht Codifizierbarem, an „kreativer Entdeckungsleistung“, bleibt, stellt
aber keine ausschließliche Besonderheit qualitativer Forschung dar, sondern gilt
ebenfalls für das klassische, dem Kritischen Rationalismus folgende Forschungs-
paradigma.
Die computergestützte Analyse qualitativer Daten ist kein homogenes, in sich
geschlossenes Verfahren, das sich trennscharf von anderen (nicht computergestütz-
ten) Methoden unterscheiden ließe, sondern sie ist gewissermaßen die „zeitgemäße
Form“ qualitativer Auswertungsmethodiken, die einerseits als Hilfsmittel bewährter
Methoden (etwa der Qualitativen Inhaltsanalyse oder der Grounded Theory) fun-
gieren kann, andererseits aber auch neue, technikinduzierte Möglichkeiten eröffnet.
Die Analyse mittels QDA-Software hat also potenziell einen Doppelcharakter: Sie
ist einerseits ein innovatives neues Instrumentarium, andererseits methodisch
durchaus traditionell in dem Sinne, dass sich hier ähnliche Methodenfragen stellen
wie bei der nicht computergestützten Form der Analyse. Wer sich beispielsweise an
der Grounded Theory orientieren möchte und sich fragt, welcher der verschiede-
nen Varianten der Grounded Theory der Vorzug gegeben werden sollte, dem stark
auf Emergenz setzenden Ansatz von Barney Glaser oder dem stärker am Pragma-
tismus orientierte Ansatz von Anselm Strauss und Juliet Corbin (vgl. Kelle 2005,
Kelle in diesem Band, Strübing 2004, Cisneros-Puebla 2004), wird feststellen, dass
die Frage des Computereinsatzes bei der Entscheidung für bestimmte methodische
Schritte und Strategien von eher untergeordneter Bedeutung ist. Anders gesagt: Die
computergestützte Analyse ist mit vielen methodischen Entscheidungen und Pro-
blemen konfrontiert, mit denen auch die nicht-computergestützte Methodik befasst
ist. Diese Feststellung ist nicht ohne Konsequenzen für dieses Buch: Nicht jeder
Beitrag steht von vornherein in direktem Zusammenhang zum Thema Computer-
unterstützung und zu QDA-Software. Ein Rezensent der ersten Auflage dieses
Buchs, das hier stark überarbeitet und aktualisiert vorgelegt wird, vermisste in der
ersten Auflage den die verschiedenen Beiträge verbindenden roten Faden. Nun ist
die Metapher des „roten Fadens“ für die Inhalte dieses Buches und die Auswahl
Vorwort 9
der Beiträge allerdings nicht treffend, denn den Herausgebern ging es nicht, wie in
der ursprünglichen Bedeutung der auf Goethe zurückgehenden Metapher um einen
alles durchziehenden Leitgedanken der computergestützten Analyse, sondern um
die Facetten der qualitativen Datenanalyse in den verschiedenen Phasen des For-
schungsprozesses, wobei wir allerdings voraussetzen, dass QDA-Software bei der
Analyse benutzt wird bzw. der Einsatz geplant ist und das Buch also nicht die Auf-
gabe hat, jemanden argumentativ von der Sinnhaftigkeit des Computereinsatzes zu
überzeugen oder gar das Für und Wider von QDA-Software abzuwägen. Die Her-
ausgeber haben sich die Leserinnen und Leser als Methodeninteressierte vorge-
stellt, die sich die Frage stellen: Was spielt für mich alles eine Rolle, wenn ich eine
computergestützte Analyse meiner qualitativen Daten vornehmen will. Mit diesen
Fragen werden sehr viele Aspekte und Facetten der Auswertung angesprochen und
diese finden sich zumindest teilweise in den Beiträgen des vorliegenden Buches
wieder: Methodische Hintergründe werden ebenso beleuchtet wie Fragen der Qua-
lität und Gütekriterien und schließlich wird die konkrete Forschungspraxis in Form
von Anwenderberichten dargestellt. Was die Beiträge zudem miteinander verbin-
det, ist, dass sie alle ursprünglich als Vorträge auf den seit Mitte der 1990er Jahre
regelmäßig veranstalteten Marburger CAQD-Konferenzen gehalten worden sind.
Diese Konferenzen fanden ursprünglich als Anwendertagungen der NutzerInnen
von MAXQDA (früher winMAX) statt, haben aber auch immer schon Methoden-
fragen mit allgemeiner Bedeutung in den Mittelpunkt gestellt. Mittlerweile nehmen
regelmäßig mehr als 100 meist jüngere WissenschaftlerInnen an den jährlich statt-
findenden Tagungen teil, deren pragmatische Ausrichtung führt – so der Titel der
Tagung 2007 – „Rund um den qualitativen Analyseprozess“.
Die Beiträge, die in diesem Band versammelt sind, erörtern ein breites Spek-
trum von Fragen, die in der Auswertungspraxis eine Rolle spielen. Dem Tatbe-
stand, dass alle Beiträge im Kontext der CAQD-Konferenzen entstammen, ist zu
verdanken, dass die Praxisbeiträge sich allesamt auf die Software MAXQDA bezie-
hen. Viele der geschilderten Vorgehensweisen (und Probleme) sind auch auf andere
QDA-Software übertragbar, allerdings sind detaillierte „How to do“ Anweisungen
naturgemäß programmspezifisch.
Nach wie vor gibt es einen Mangel an Methodenliteratur, in der die praktische
Vorgehensweise im qualitativen Forschungsprozess detailliert und nachvollziehbar
beschrieben wird, dies gilt auch für die computergestützte Analyse. Obwohl mitt-
lerweile von sehr vielen Forschern eingesetzt, ist nur wenig praxisnahe Literatur
verfügbar, aus der man lernen kann, wie man Schritt für Schritt vorgehen kann.
Die CAQD-Konferenzen stellen ein in Deutschland einmaliges Forum für Metho-
10 Vorwort
schung. Neu aufgenommen in den Band haben wir die Beiträge von Stefan Rädiker
und Claus Stefer „Qualitative Evaluation – Versuch einer Ankürzungsstrategie“,
Hildegard Wenzler-Cremer „Der Forschungsprozess am Beispiel einer qualitativen
Studie zur bikulturellen Sozialisation“ und Miguel Tamayo Korte et al. „1000 Fra-
gen zur Bioethik“. Rädiker und Stefer stellen den Ablauf eines qualitativen Evalua-
tionsprojektes zur universitären Lehre in sieben Schritten nachvollziehbar dar.
Wenzler-Cremer schildert den komplexen Auswertungsprozess und beschreibt die
verschiedenen Schritte der Typenbildung. Tamayo Korte et al. zeigen auf, wie sich
auch sehr große Datenmengen eines frequentierten Internetforums auswerten las-
sen
Aktualisiert und teilweise umfangreich überarbeitet wurden die Beiträge von
Peter Herrgesell, Torsten Koch, Olaf Jensen und Thorsten Dresing und Udo Ku-
ckartz. Herrgesell zeigt an einer beispielhaften Auswahl von Dokumenten auf, wie
durch den Einsatz von MAXQDA eine Evaluation objektiver und gleichzeitig zeit-
sparender erfolgen kann und stellt die Frage, wie Ergebnisse systematischen Vor-
gehens für schulbezogene Beratungen und für resultierende Planungen durch
Schulaufsicht und Fortbildungsinstitute eingesetzt werden können. Koch ist der
Frage nachgegangen, wie Ungenauigkeiten bei der seriellen Reproduktion von
sinnvollem Material auftreten können. Jensen stellt in seinem Beitrag „Der National-
sozialismus im familialen Dialog. Qualitative Inhaltsanalyse von Drei-Generatio-
nen-Interviews mit MAXQDA“ eine Verfahrensweise vor, wie die Vorteile einer
hermeneutischen Feinanalyse mit den Vorzügen der computergestützten Qualitati-
ven Inhaltsanalyse verbunden werden können. Dresing und Kuckartz beschäftigen
sich in ihrem Beitrag mit neuen Datenquellen für die Sozialforschung und stellen
vor, wie die Datengewinnung und –analyse eines Internetforums erfolgen kann.
Beispiele aus der Forschungspraxis haben es an sich, dass die Autorinnen und
Autoren naturgemäß vor allem an den Inhalten ihrer Projekte interessiert sind und
diese dem Leser nahe bringen wollen, bevor sie sich methodischen Fragen zuwen-
den. Unvermeidliches Resultat ist, dass der Leser mit einer bunten Vielfalt von
Fragestellungen und Herangehensweisen konfrontiert ist, über Themen liest, mit
denen er sich in seinem Forschungsalltag vielleicht noch nie befasst hat. Das damit
einhergehende Problem, dass der Eindruck eines bunten Panoptikums erzeugt
wird, war den Herausgebern bewusst, scheint aber bei Publikationen dieser Art fast
unvermeidlich (vgl. Bos/Tarnai 1989 und 1996, Mayring/Gläser-Zikuda 2005,
Züll/Mohler 1992). Als Herausgeber haben wir versucht, die Autorinnen möglichst
in Richtung methodischer Beschreibungen und Reflektionen zu bewegen. Wir hof-
fen, dass dies insgesamt gelungen ist. Allesamt haben die AutorInnen inhaltlich
12 Vorwort
Die Beiträge dieses Buches, das bewusst kein Lehrbuch1, sondern ein Diskus-
sionsband sein will, zeigen die vielfältigen Facetten auf, mit denen man als For-
scherin oder Forscher in der Praxis qualitativer Datenanalyse konfrontiert ist, so-
wohl grundsätzlich methodologische und methodische wie auch forschungsprakti-
sche.
Neben den Autorinnen und Autoren, bei denen wir uns sehr für die kollegiale
und unkomplizierte Zusammenarbeit bedanken, sollen schließlich an dieser Stelle
diejenigen nicht unerwähnt bleiben, die auf verschiedenen Wegen zum Entstehen
dieses Buches beigetragen haben, insbesondere Stefan Rädiker, Lena Lehmann und
Thomas Ebert. Wir danken allen herzlich für die bestens geleistete Mithilfe!
1 Dieses liegt mit dem Band Udo Kuckartz, Einführung in die computergestützte Analyse qualitativer
Daten, Wiesbaden 2007 vor.
I
Methodische Hintergründe
QDA-Software im Methodendiskurs:
Geschichte, Potenziale, Effekte
Udo Kuckartz
Zusammenfassung
Seit den Anfängen in den 1980er Jahren hat sich die Leistungsfähigkeit von QDA-Software in einer
kaum für möglich gehaltenen Weise entwickelt. Der Beitrag stellt die Möglichkeiten heutiger QDA-
Software vor, betrachtet die Behandlung der neuen computergestützten Analyseverfahren in der sozial-
wissenschaftlichen Methodenliteratur, insbesondere den Diskurs um Effizienzsteigerung, Qualitätsge-
winn und das Testen formalisierter Hypothesen. Die bisherige Forschung über Benutzer von QDA-
Software zeigt, dass es sich bei den Nutzern häufig um Nachwuchswissenschaftler handelt sowie um
Personen, die eher Neulinge im Feld qualitativer Methoden sind. Abschließend diskutiert der Beitrag die
Effekte des Einsatzes von QDA-Software auf den qualitativen Forschungsprozess.
1 Der Begriff Code wird in diesem Beitrag synonym mit dem Begriff Kategorie verwendet.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 17
tem hat sich zudem eine visuell orientierte Arbeitsweise weithin durchgesetzt, die
der computerunterstützten qualitativen Datenanalyse sehr entgegenkommt, zu
nennen sind hier insbesondere die Visualisierung von Codierungen, Memos und
Hyperlinks zwischen Textstellen sowie die grafische Darstellung von Relationen
zwischen Codes.
Das Thema QDA-Software spielt zunehmend auch in der Literatur zur Methodik
qualitativer Forschung eine Rolle (z. B. Flick 2002, Mayring 2001, Weitzman 2000,
Creswell/Maietta 2002, Denzin/Lincoln 2000, Friebertshäuser/Prengel 1997).
Häufig konzentrieren sich die Forschungsarbeiten auf eher technische Fragen, ins-
besondere den Vergleich der verschiedenen Programme (bspw. Alexa/Züll 1999,
Creswell/Maietta 2002). Seit Beginn der 1990er Jahre sind vor allem im englisch-
sprachigen Bereich zahlreiche Überblicksarbeiten (z. B. Tesch 1990, Kelle 2000,
Fielding/Lee 1991, Prein/Kelle/Bird 1995, Weitzman/Miles 1995 und Richards/
Richards 1994) erschienen, unter denen der Band von Weitzman/Miles (1995) der
bei weitem umfänglichste ist. Durchaus typisch für solche Art von Programmver-
gleichen nach dem Muster technischer Reviews, wie sie auch in Computerzeit-
schriften (z. B. der „c’t“) zu finden sind, ist der Beitrag von Creswell/Maietta im
Handbook of Research Design (Creswell/Maietta 2002: 164 ff.). Die Autoren ver-
gleichen dort insgesamt sieben QDA-Programme („ATLASti“, „Ethnograph 5“,
„Hyper Research 2.5.“, „Classic N4“, „N5“, „NVivo“ und „winMAX“) hinsicht-
lich von acht Kriterien, welche primär softwaretechnische Gesichtspunkte fokus-
sieren, während forschungsmethodische Fragen nur eine untergeordnete Rolle
spielen. Bei den von Creswell/Maietta formulierten Kriterien handelt es sich um:
1. Benutzerfreundlichkeit („Ease of integration“): Logik und Layout der Soft-
ware, Integration in andere (Standard-) Software, leichte Erlernbarkeit, Qua-
lität des Dokumentationsmaterials
2. Art der analysierbaren Daten, z. B. Text, Graphiken, Audiomaterial
3. Zugänglichkeit des Textes, Nähe zu den Daten („Read and Review data“):
Möglichkeiten zum Markieren und Hervorheben von Text, gezielte Suche
in den Texten
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 21
4. Memos schreiben und mit Memos arbeiten („Memo Writing“): Art der
Memos, die erstellt werden können, Möglichkeit Memos zu ordnen und
wiederzufinden, Integrationsmöglichkeit von Memos
5. Kategorien und Codieren von Text („Categorization“): Art des Kategorien-
systems, Prozedere beim Codieren von Textpassagen, Anzeige und Visuali-
sierung von Codes
6. Analytische Prozeduren („Analysis inventory and assessment“): Sortier- und
Filteroptionen, Suche nach gleichzeitigem Vorkommen von Kategorien,
nach Überlappungen und Nähe von Kategorien, Selektionen aufgrund von
Textmerkmalen und Rahmendaten
7. Integrationsmöglichkeit quantitativer Analyse („Quantitative data“): Mög-
lichkeit zur Auswertung von Kategorienhäufigkeiten, Schnittstellen zu Sta-
tistikprogrammen
8. Projektmanagement („Merging projects“): Integration mehrerer Projekte,
Support von Teamarbeit
Arbeiten wie die von Creswell/Maietta, in denen die Leistungsfähigkeit von QDA-
Software thematisiert und in Form von Leistungsvergleichen dargestellt wird,
unterscheiden sich hinsichtlich des aufgestellten Kriterienkatalogs und der jeweili-
gen Gewichtung der Kriterien sowie hinsichtlich der Gründlichkeit und Ausführ-
lichkeit, mit der Leistungsvergleiche und Tests durchgeführt werden. Auch variie-
ren die Bedingungen der praktischen Tests, z. B. Art und Umfang des bei den Tests
verwendeten Datenmaterials und die Zahl der in den Vergleich einbezogenen Pro-
gramme – das Spektrum reicht hier vom Vergleich von lediglich zwei Programmen
(z. B. Barry 1998) bis hin zu 25 Programmen, wobei die Auswahl nicht nur auf Pro-
gramme zur qualitativen Textanalyse beschränkt ist. (Alexa/Züll 1999)
Primäres Ziel dieser durchaus arbeitsaufwändigen Beiträge ist es, einen Über-
blick über das Angebot von QDA-Software zu geben und dem interessierten Leser
Entscheidungskriterien für die Auswahl einer Software für seine Zwecke an die
Hand zu geben. Dabei stimmen die Arbeiten in dem Urteil überein, dass es derzeit
noch nicht das beste Programm gibt (Weitzman 2000: 803). Die meisten dieser
Forschungsarbeiten sind englischsprachig, nur einige wenige deutschsprachige sind
zu verzeichnen (z. B. Lissmann 2001, Kelle 1990, Dotzler 1999). Einfachere Arbei-
ten, die mit weniger umfangreichen Kriterienkatalogen und weniger aufwändigen
Tests arbeiten, wurden häufig im Rahmen von Konferenzen und Kongressen, wie
etwa den SoftStat-Tagungen, vorgetragen (u. a. Kelle 1994, Klein 1997, Hesse-
Biber/Dupuis 1996, Kuckartz 1992, 1994). Umfangreichere Arbeiten wie Weitz-
man/Miles oder Alexa/Züll entstehen fast immer in institutionellen Kontexten, sie
22 Udo Kuckartz
Inzwischen findet man auch mehr und mehr Beiträge, in denen die methodischen
Aspekte und Hintergründe von QDA-Software im Mittelpunkt stehen (vgl. z. B.
Coffey et al. 1996, Kelle 1997a und b, Lee/Fielding 1996, Gibbs/Friese/Manga-
beira 2002, Glaser 2002, Mruck 2000, Fielding/Lee 2002). Schwerpunkte sind da-
bei häufig die Themen: Methodischer Fortschritt, Forschungsseffizienz, Qualitäts-
zuwachs und Reputationsgewinn. Gibbs hat den methodischen Gewinn von QDA-
Software in vier kurzen Schlagworten zusammengefasst: „more accurate, reliable,
more transparent, easier“ (Gibbs 2002: 10). Hier geht es also um einen effektive-
ren, reliableren und transparenteren Auswertungsprozess, um eine Verbesserung
der Qualität ganz im Sinne von Seales „Ensuring rigour in qualitative research“.
Viele Beiträge legen dar, dass das qualitative Forschen durch Computereinsatz er-
leichtert wird: Die Textdaten lassen sich besser organisieren, sind schneller zugäng-
lich und prinzipiell lassen sich mehr Daten verarbeiten (Flick 2002: 365, Kelle
2000, Gibbs/Friese/Mangabeira 2002). Es erheben sich auch einige kritische
Stimmen (z. B. Mruck 2000, Laucken 2002), die demgegenüber eher den kreativen,
einer Kunstlehre ähnlichen Charakter qualitativer Forschung betonen und zu be-
denken geben, dass es beispielsweise nicht auf Zahl und Umfang der analysierten
Texte, sondern auf die Tiefe der Analyse ankomme. Weitgehend unstrittig ist, dass
sich durch computergestützte Verfahren eine weit größere Transparenz als bei ma-
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 23
nuellen Vorgehensweisen erzielen lässt, die interne Validität lässt sich verbessern
(Kelle/Laurie 1995) und die Zusammenarbeit im Team wird einfacher, denn das
Zustandekommen von Kategorien und Codierungen kann leicht nachvollzogen
werden (Gibbs/Friese/Mangabeira 2002, Ford et al. 2000) und der Codierungspro-
zess kann anders organisiert werden, z. B. als „disjunktive Gruppentechnik“
(Kühn/Witzel 2000). Mit der Transparenz und der besseren Dokumentation steigt
auch die Glaubwürdigkeit qualitativer Forschung, die bisher vor allem deshalb von
Anhängern einer strikt quantitativen Methodik bemängelt wird, weil die Vorge-
hensweise und die Selektionsmechanismen nicht nachvollziehbar seien und ein ge-
höriges Maß an subjektiver Willkür des Forschers implizierten. Der Gewinn an
Konsistenz und Konsequenz (vgl. Seale 1999) trägt zu einem Prestige- und Reputa-
tionsgewinn bei, „entgegen den Vorwürfen des bloß Subjektivistischen und Es-
sayistischen qualitativer Sozialforschung“ (Mruck 2000: 29).
Ein weiterer Strang der methodischen Diskussion betrifft Fragen der Archivie-
rung und Sekundäranalyse. Anders als in der quantitativen Forschung, wo seit der
Existenz von Statistiksoftware wie SPSS, SAS u. a. die Archivierung von Datensät-
zen kein Problem mehr darstellt und wo die in vielen Ländern existierenden Da-
tenarchive (in Deutschland das ZA – Zentralarchiv für empirische Sozialforschung
in Köln) die Forschungsdaten in komfortabler Form als SPSS-Dateien für Sekun-
däranalysen bereit halten, sind in der qualitativen Forschung Sekundäranalysen bis-
her wenig gebräuchlich. In den letzten Jahren ist eine rege Diskussion entstanden,
inwieweit hier durch QDA-Software Abhilfe geschaffen werden kann. In Deutsch-
land ist vor allem im Rahmen des Bremer Sonderforschungsbereiches 186 „Status-
passagen und Risikolagen im Lebenslauf“ die Frage der Archivierung digitalisierter
qualitativer Daten diskutiert worden und es sind praktische Vorschläge erarbeitet
worden (vgl. Kluge/Opitz 1999, Plass/Schetsche 2000). Auch international sind
gleichartige Aktivitäten zu verzeichnen, z. B. wurde in Essex das Qualidata-Archiv
eingerichtet, das qualitative Daten archiviert und für weitere Lehre und Forschung
zur Verfügung stellt (Corti 2002). Die Standards zur Archivierung digitalisierter
qualitativer Daten sind allerdings noch Gegenstand der Diskussion (Carmichael
2002, Kuckartz 1997, Muhr 2000), auch forschungsethische Fragen nehmen einen
erheblichen Raum ein. Naturgemäß stellen sich im Rahmen qualitativer Forschung
Fragen der Anonymität und des Vertrauens Forscher-Beforschte mit besonderer
Intensität. Es sind wohl diese nach wie vor ungelösten ethischen Fragen, die dazu
geführt haben, dass die Aktivitäten zur Einrichtung entsprechender Datenarchive
in Deutschland bisher nicht recht vorangekommen sind (vgl. Muhr 2000).
24 Udo Kuckartz
2 Ausgehend von Äußerungen einer offenen Befragung oder von anderen normalsprachlichen Texten
strebt das GABEK-Verfahren an, Erfahrungen über Ursachen und Wirkungen, Meinungen, Bewer-
tungen und emotionale Einstellungen vieler Personen in Form von sprachlichen Gestalten, Wir-
kungsnetzen, Bewertungsprofilen und Relevanzlisten miteinander zu verknüpfen. Wie Landkarten
ermöglichen diese, so die Autoren, eine sinnvolle Orientierung über die gesamte Meinungsland-
schaft, in der die betroffenen Personen ihre persönlichen Perspektiven wiederfinden können. Die
Tiefenstruktur soll dadurch transparent werden, so dass Zusammenhänge verstanden, Optionen
bewertet, Ziele und mögliche Maßnahmen bestimmt und trendhafte Entwicklungen, Folgen oder
Nebenwirkungen frühzeitig erkannt werden können. Dabei ist jeder Schritt der Auswertung inter-
subjektiv rekonstruierbar und überprüfbar.
3 Im Programm „Hyper Research“ wird die Überprüfung solcher Hypothesen in folgender Form
standardisiert: „SEARCH FOR incidents of critical life event (CLE) AND emotional disturbances
(EMO) within a MAXIMUM DISTANCE of 20 lines“.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 25
ist ein Baustein der Theorie gefunden. Diese Form der Prüfung von Hypothesen
deterministischer Art ist vielfach kritisiert worden. Kelle (1997a) kritisiert etwa,
dass der Hypothesenbegriff hier sehr eigenwillig verwendet wird und ein solches
Verfahren selbstverständlich auch an bestimmte Voraussetzungen der Codes ge-
knüpft ist. Diese müssten distinkt sein, d. h. sich wechselseitig ausschließen, und die
Reliabilität des Codiervorgangs müsse sicher gestellt sein (Kelle 1997a: 4). Diese
Anforderungen korrespondieren aber, so Kelle, nicht mit dem Konzept der
Grounded Theory, derzufolge es sich bei theoretischen Codes um abstrakte Kon-
zepte handelt. Zudem bleibe es beim Hypothesentesten sensu Hesse-Biber unklar,
wie man sich gegen die Zufälligkeit von Ergebnissen absichere. Kelle gesteht die-
sem Verfahren nur einen explorativen Nutzen zu, es könne als „heuristic device“
genutzt werden (Kelle 1997a: 5), allenfalls bei Codes, die Fakten in den Texten be-
zeichnen, sei ein solches „Testen“ begründbar. Strikte Regeln des Theorietestens
auf „fuzzy codes“ anzuwenden, müsse notwendigerweise zu Artefakten als Resulta-
te führen.
Viele methodische Beiträge befassen sich mit Fragen der Integration von quan-
titativen und qualitativen Methoden und der Typenbildung (Kuckartz 1999, May-
ring 2001, Kluge 1999, Kelle/Kluge 1999). Dabei werden Vorschläge für die
Kombination von qualitativen und quantitativen Methoden mit teilweise sehr de-
taillierten Ablaufschemata entwickelt (Kühn/Witzel 2000, Mayring 2001, Kluge
1999, Kuckartz 1999, de Haan/Kuckartz/Rheingans 2000), die auch bereits prak-
tisch in Projekten erprobt wurden. Mayring stellt heraus, dass die Hinzuziehung
quantitativer Analyseschritte nicht nur zu einer gesteigerten Systematisierung, son-
dern auch zu einer größeren Verallgemeinerbarkeit der Ergebnisse führe (Mayring
2001). Eine besondere Bedeutung haben im Rahmen der Integration von quantita-
tiver und qualitativer Methodik Ansätze zur Typenbildung (Kelle/Kluge 1999,
Kluge 1999, Kuckartz 1999). Eine beachtliche Zahl von praktischen Arbeiten, in
denen mit teilweise sehr unterschiedlichen Kombinationen von qualitativen und
quantitativen Verfahren gearbeitet wurde, liegt vor, nicht nur aus dem Bereich der
Sozialwissenschaften, sondern beispielsweise auch aus der Publizistik.
haupt? Wer sind die Anwender? Sind es Personen, die langjährige Erfahrungen mit
handwerklich betriebener qualitativer Sozialforschung haben, oder sind es eher
Novizen? In Bezug auf die Anwenderseite ist die Forschung bislang recht dürftig
(z. B. Fielding/Lee 1998 und Kuckartz 1999).
In den USA, wo schon in den frühen 1980er Jahren eine Diskussion über den
Computereinsatz in der qualitativen Sozialforschung begonnen hatte, führten Brent
et al. bereits 1987 eine Erhebung durch, die den Grad und die Art der Computer-
nutzung durch qualitative Forscher klären sollte. Es zeigte sich, dass es vor allem
die jüngere Wissenschaftlergeneration war, die den Computer rege nutzte. Ähnliche
Ergebnisse zeigte eine in Deutschland durchgeführte Umfrage (Kuckartz 1999).
Meist sind es personell eher kleine Forschungsprojekte, in denen QDA-Software
zum Einsatz kommt, häufig handelt es sich um Ein-Personen-Projekte, oft auch
um Qualifikationsarbeiten und nur selten hat ein Projekt mehr als drei Mitarbeiter.
In der überwiegenden Zahl der Fälle richten sich die Forscher nach ihren eigenen
Angaben nicht nach einem bestimmten methodischen Paradigma, sondern prakti-
zieren eine pragmatische, prozedural wenig fixierte Art der Textauswertung. In den
Fällen, wo man sich explizit auf eine bestimmte Methode bezieht, ist dies entweder
die Grounded Theory oder die Qualitative Inhaltsanalyse, andere Verfahren wur-
den von den befragten Forschern nur vereinzelt genannt. Die Ergebnisse von
Brent et al. und Kuckartz ergänzen sich gut mit neueren Resultaten von Carvajal
(2002) und Fielding/Lee (2002). Carvajal weist auf das Missverständnis von Novi-
zen hin, die gegenüber QDA-Software drei unrealistische Erwartungen hegen: Ers-
tens, dass die Software die Daten mehr oder weniger automatisch auswerten wür-
de. Zweitens, dass sich die Analysezeit erheblich reduzieren würde und drittens,
dass QDA-Programme einen Output ähnlich wie Statistik-Programme erzeugen
würden. Fielding und Lee, Initiatoren des an der University of Surrey angesiedelten
CAQDAS-Projektes4, haben Gruppendiskussionen mit Anwendern in England
durchgeführt. Ein bemerkenswertes Resultat der Studie ist die Entdeckung, dass es
sich bei den Nutzern von QDA-Software in den meisten Fällen um Neulinge in-
nerhalb der qualitativen Forschung handelt, d. h. um Personen, die zuvor nicht mit
herkömmlichen, nicht-elektronischen Mitteln qualitative Sozialforschung betrieben
haben. Sie sind Novizen in diesem Feld und haben sich nicht zuletzt durch die
Möglichkeit computergestützter Analyse für diese Methodik interessiert bzw. ent-
4 CAQDAS („Computer Assisted Qualitative Data Analysis Software“) ist ein Projekt, das vor allem
durch Workshops und Lehrveranstaltungen die praktischen Fähigkeiten im Umgang mit QDA-
Software englandweit fördert. Das Projekt stellt verschiedene Plattformen zum Dialog über die
Software zur Verfügung. Hierzu gehört unter anderem die Mailingliste „Qual-Software“.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 27
schieden. Dies lenkt den Blick darauf, dass die Frage, wie der qualitative For-
schungsprozess durch Computereinsatz verändert wird, nicht darauf verengt wer-
den kann, welchen Veränderungen der Forschungsalltag vormals handwerklich ar-
beitender Wissenschaftler ausgesetzt ist. QDA-Software interessiert offenbar neue
Personenkreise für die qualitative Forschung und trägt damit zur ihrer wachsenden
Popularität bei.
Die Resultate der bisherigen Anwenderforschung lassen sich zur folgenden
Charakterisierung der Nutzerinnen und Nutzer zusammenfassen: Sie ...
x entstammen häufig dem wissenschaftlichen Nachwuchs,
x arbeiten oft in Drittmittelprojekten,
x setzen die Software häufig bei der Erstellung von Qualifikationsarbeiten
(Dissertation bzw. Habilitation) ein,
x sind meist nicht auf einen bestimmten Auswertungsstil festgelegt, sondern
bevorzugen eher eine pragmatische, an den Inhalten orientierte Auswer-
tungsweise,
x besitzen in den meisten Fällen keine oder wenig Vorerfahrungen mit her-
kömmlichen, nicht-elektronischen Methoden,
x sind häufig weiblichen Geschlechts,
x sind nicht auf eine bestimmte Wissenschaftsdisziplin konzentriert, sondern
ihre Zusammensetzung ist stark interdisziplinär.
In der Tat spielt der Computer hier eine andere Rolle als bei der quantitativ-
statistischen Analyse, wo es der Computer ist, der die Analyse, z. B. in Form einer
Varianzanalyse, durchführt. Die eigentliche Analyse besteht in einem mathemati-
schen Kalkül und dem Forscher obliegt lediglich die Aufgabe, die Resultate, d. h.
die errechneten Parameter und Koeffizienten, zu interpretieren. Bei der computer-
gestützten qualitativen Datenanalyse ist es hingegen nicht der Computer, der die
Texte in irgendeiner Weise automatisch analysiert, sondern es ist weiterhin der For-
scher. Es wurde bislang allerdings nicht erforscht, in welcher Weise die Interaktion
zwischen Forscher und QDA-Software abläuft und welche Rolle die von der Soft-
ware offerierten Funktionen tatsächlich spielen. Ein Desiderat wäre, eine Art Kar-
tographierung der methodischen Gewinne und Unterstützungsleistungen vorzu-
nehmen.
Es hat relativ lange gedauert, bis sich die Computernutzung auch in der qualita-
tiven Forschung etabliert hat. Dies scheint nun aber mehr und mehr der Fall zu
sein und so rechnen auch jene Experten, die bisher keineswegs zu den Protagonis-
ten einer Digitalisierung qualitativer Forschung zählten, mit einem tief greifenden
Veränderungsprozess (Flick 2002: 362). Angesichts dessen überrascht es, dass bis-
lang kaum systematisch untersucht wurde, welche Effekte der Einsatz von QDA-
Software auf die Entwicklung der qualitativen Forschung besitzt.
Relativ häufig werden tatsächliche oder vermeintliche Gefahren des Arbeitens
mit QDA-Software diskutiert (Laucken 2002, Glaser 2002, Coffey et al. 1996, Kelle
1997, Lee/Fielding 1996). In besonderer Weise richtet sich dabei das Augenmerk
auf die analytische Technik des Codierens. Fielding/Lee (1998: 119) warnen davor,
dass die extensive Nutzung von QDA-Software dazu führen könne, dass das Co-
dieren nicht mehr die Analyse unterstütze, sondern diese gewissermaßen ersetze.
Auch drohe die Gefahr, dass sich durch die Zwischenschaltung des Computers die
Distanz zu den Daten vergrößere. Zudem befördere der Codierungsprozess die
Suggestion, dass die Bedeutung gewissermaßen außerhalb des Textes in den Codie-
rungen liege. So könne das Codieren tatsächlich dazu führen, dass man durch die
Dekontextualisierung, die mit dem „Cut-and-Paste“ einhergeht, das eigentliche
Phänomen aus den Augen verliere. Während solche „Warnungen“ noch auf dem
Hintergrund einer eigentlich technikfreundlichen Grundstimmung erfolgen, setzt
5 ILMES, Internet Lexikon der Methoden der Sozialforschung, Autor: Wolfgang Ludwig-Mayerhofer,
www.lrz-muenchen.de/~wlm/ilmes.htm, Stand 1.6.2004.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 29
die Kritik von Glaser (2002) und Roberts/Wilson (2002) fundamentaler an. Rob-
erts/Wilson sehen prinzipielle Gegensätze zwischen Computern und qualitativer
Forschung: „Computer techniques of logic and precise rules are not compatible
with the unstructured, ambiguos nature of qualitative data and so it may distort or
weaken data or stifle creativity“ (ebd.: 15). Für Kritik dieses Typs gilt der gesamte
Vorgang der computergestützten Analyse als „abwegig“, weil er unnötig viel Zeit
binden und damit von der eigentlichen qualitativen Analyse abzweigen würde. Sol-
che Positionen sind durchaus charakteristisch für qualitative Forscher die dem so-
genannten „emerging paradigm“ anhängen, d. h. sie sind der Überzeugung, dass die
Theorie aus den qualitativen Daten emergieren würde, wenn man sich denn nur
lange und intensiv genug und ohne vorgefasste Theorien mit ihnen beschäftige
(vgl. Glaser 1992). Dieser offene Forschungsstil wurde in den Anfängen der
Grounded Theory von ihren Protagonisten als Gegenpol zu einer am strikten
Hypothesentesten orientierten Methodologie des Kritischen Rationalismus formu-
liert. Strauss hat sich aber später sehr deutlich gegen das Missverständnis einer
solch völlig theorielosen Vorgehensweise gewehrt.
Gegenüber diesen eher negativ getönten Warnungen vor den Effekten von
QDA-Software sind es eher positive Wirkungen, die im Rahmen der Diskussion
um Qualität und Qualitätskriterien qualitativer Forschung thematisiert werden. In
den letzten Jahren ist eine generelle Qualitätsdiskussion in Gang gekommen (vgl.
Kelle 1995, Flick/von Kardorff/Steinke 2000 und Flick 2002). Seale und Silverman
hatten 1997 mit einem unter dem Titel „Ensuring rigour in qualitative research“
publizierten Artikel den Weg zu mehr Systematik und methodischer Strenge vorge-
zeichnet. Vor allem Seale hat durch seine weiteren Beiträge (insbes. Seale 1999) die
Diskussion voran getrieben und mit dem Konzept des „subtilen Realismus“ für ein
Qualitätskonzept plädiert, das einerseits vom klassischen Objektivitätsbegriff quan-
titativer Forschung kritisch-rationalistischer Prägung abrückt, andererseits aber
auch ein radikal-konstruktivistisches bzw. postmodernes Weltbild zurückweist. Sea-
le plädiert deshalb für eine systematische Suche nach Evidenz und Gegenevidenz
und für den Fallibilismus, d. h. die Suche nach Falsifizierendem statt nach Bestäti-
gendem. Im deutschsprachigen Raum haben u. a. Flick und Kelle wichtige Beiträge
zur Diskussion um Validität und Qualität geliefert. Kelle plädiert für das aus der
Grounded Theory stammende Konzept der „constant comparative method“, d. h.
für eine ständige (möglichst maximale oder minimale) Kontrastierung von Fällen.
Dies steht dem Sealeschen Fallibilismus recht nahe, wenngleich die häufig auf E-
mergenz setzende Grounded Theory (vgl. Strauss 1994, Strauss/Corbin 1996) dem
wissenschaftstheoretischen Standpunkt von Seale eher konträr erscheint. Flick ent-
30 Udo Kuckartz
faltet ein Konzept der Triangulation und empfiehlt ein am Total Quality Manage-
ment orientiertes prozessbegleitendes Qualitätsmanagement (Flick 2002). Diese
Diskussion um die Qualität qualitativer Forschung hat inzwischen nicht nur in
DFG-Fachtagungen ihren Ausdruck gefunden, ihr ist u. a. auch ein Themenheft
der Zeitschrift für Erziehungswissenschaft (2001: Heft 47) gewidmet. Im Rahmen
der Qualitätsdiskussion werden von vielen Autoren (so Kelle 1995, Ri-
chards/Richards 1994, Welsh 2002, Kuckartz 1999, Mruck 2000) auch die poten-
ziellen Qualitätszuwächse durch QDA-Software diskutiert. Mit Hilfe von Metho-
den computergestützter Analyse seien folgende Qualitätszuwächse zu erzielen:
x Das Management von größeren Stichproben und damit von größeren Text-
mengen (Kelle/Laurie 1995, Webb 1999).
x Schnelleres Erledigen von redundanten, nicht kreativen Aufgaben (Fiel-
ding/Lee 1991, Moseley/Mead/Murphy 1997).
x Mehr Transparenz und bessere Nachvollziehbarkeit der Analyse.
x Effizientere Gestaltung von Datenmanagement, Datenreduktion und Spei-
cherung (Kelle 1995 und 1997a).
x Größere Nähe zu den Daten durch die umfangreichen Funktionen des
Text-Retrievals und die jederzeitige Möglichkeit zur Re-Kontextualisierung
(vgl. Creswell/Maietta 2002, Weitzman/Miles 1995).
x Erweiterung des Spektrums möglicher qualitativer Analysen (Tesch 1990,
Fielding/Lee 1991).
x Bessere Bedingungen für Teamarbeit.
x Möglichkeit zur elektronischen Archivierung und damit zur Nutzung für
Sekundäranalysen durch andere Forscher oder für die sozialwissenschaftli-
che Methodenausbildung.
Bislang nur vereinzelt vorliegende Studien über die Forschungspraxis zeigen, dass
aus potenziellem Qualitätszuwachs nicht unbedingt auch tatsächlicher Qualitätszu-
wachs wird. Fielding und Lee (2002) stellten fest, dass die Möglichkeiten von
QDA-Software bei weitem nicht ausgenutzt werden, sondern meist nur die Basis-
funktionen genutzt werden und die komplexeren Programmfeatures überhaupt
nicht zum Einsatz kamen. Grunenberg (2001) kam in einer Metaanalyse deutsch-
sprachiger Forschungsarbeiten zu dem Ergebnis, dass der Anteil von Publikationen
aus dem Bereich qualitativer Forschung, in denen mit QDA-Software gearbeitet
wurde, unter 5% lag. Diese empirischen Arbeiten geben aber nur erste Hinweise
und können nicht ohne weiteres generalisiert werden. Es bedarf noch erheblicher
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 31
Udo Kelle
Zusammenfassung
In vielen sozialwissenschaftlichen Gegenstandsbereichen versagt ein hypothetiko-deduktiver Ansatz, bei
welchem der Forscher den empirischen Forschungsprozess mit vorab formulierten präzisen Hypothe-
sen beginnt. Der realen Notwendigkeit empirisch begründeter Theoriebildung (nicht nur) in der qualita-
tiven Sozialforschung versucht die frühe Grounded Theory der 1960er Jahre durch ein induktivistisches
Konzept Rechnung zu tragen, das allerdings erkenntnistheoretisch unhaltbar und forschungspraktisch
nicht umsetzbar ist. Nach einer kurzen Darstellung dieses Problems vergleicht dieser Beitrag die späte-
ren Versuche von Glaser und Strauss, das induktivistische Selbstmissverständnis der Grounded Theory zu
überwinden und geht dabei insbesondere auf die von Glaser begonnene Kontroverse über die Gefahren
des „Forcing“ von Konzepten ein. Abschließend wird aufgezeigt, wie sich wesentliche Probleme dieser
Diskussion durch die Einbeziehung klassischer wissenschaftstheoretischer Konzepte, insbesondere des
Konzepts „empirischer Gehalt“ überwinden lassen.
qualitativer als auch quantitativer Methoden bedienen. Und sie betonen, dass (obwohl
der Schwerpunkt der Monographie eindeutig auf qualitative Daten gesetzt sei), sich
die meisten Kapitel auch von denjenigen Forschern nutzen lassen würden, die Theo-
rien auf der Grundlage quantitativer Daten entwickeln wollen (ebd.: 18). Der statisti-
schen Analyse quantitativer Daten mit dem Zweck der Generierung von Theo-
rien wird sogar ein eigenes, mehr als 30 Seiten umfassendes (aber in der Se-
kundärliteratur so gut wie nie rezipiertes) Kapitel gewidmet.
Ihre scharfe Polemik gegen den mainstream der amerikanischen Sozialfor-
schung, mit der sie in der Einleitung die Notwendigkeit des Buches begründen,
richten Glaser und Strauss dementsprechend nicht gegen quantitative Methoden,
sondern vielmehr gegen das Primat des hypothetiko-deduktiven Ansatzes,
oder, in ihren eigenen Worten, gegen die Überbetonung der „Verifikation
von Theorien“ in der Soziologie (S. 1). Dabei legen die Autoren den Finger
auf einen wunden Punkt des hypothetiko-deduktiven Modells der Sozialfor-
schung, dem zufolge der Sozialforscher seine Arbeit wie ein naturwissen-
schaftlicher Experimentator mit der Aufstellung von Hypothesen beginnt, an-
schließend Variablen definiert, mit deren Hilfe der Datenerhebung und
Datenauswertung anschließt, die dazu dient, die Hypothesen strengen Tests
zu unterziehen. Tatsächlich werden in der quantitativen Sozialforschung näm-
lich in vielen Fällen Kategorien und Aussagen erst aufgrund vorliegender Daten
entwickelt. Ein solches exploratorisches Vorgehen, bei dem statistische Zu-
sammenhänge aus dem Material herausgesucht und dann ex post interpre-
tiert werden, ist aus methodologischen Gründen kritisch zu sehen und wird
in der statistischen Literatur seit langer Zeit kritisiert, weil es hierbei leicht gesche-
hen kann, dass zufällige Zusammenhänge und Artefakte in den Rang veritabler
Forschungsergebnisse erhoben werden. So wird insbesondere die Anwendung gän-
giger Konzepte statistischen Testens bei einer solchen, manchmal data dredging
oder data fishing genannten Strategie nahezu zwangsläufig dazu führen, dass
auch zufällige Zusammenhänge als signifikant ausgewiesen werden.
Es gibt nun zwei Möglichkeiten, mit solchen Abweichungen von allgemein ge-
lehrten methodologischen Regeln umzugehen: man kann sie entweder als bad practi-
ces betrachten, die durch kollegiale Kritik, durch die Anhebung professioneller
Standards und durch eine gute Methodenausbildung zum Verschwinden gebracht
werden müssen. Möglich wäre es aber auch, dass wir es hier zu tun haben mit
einem strukturellen Problem der Theoriebildung, welches direkt mit der Natur des
Objektbereichs der Sozialwissenschaften zu tun hat, in dem Strukturen begrenzter
Reichweite, die Existenz soziohistorisch kontingenter Regelmäßigkeiten und die Be-
34 Udo Kelle
deutung sozialen Wandels die Formulierung von universellen Theorien, aus denen
für alle möglichen Fragestellungen brauchbare Hypothesen vor jedem Kontakt mit
dem empirischen Feld abgeleitet werden können, oft unmöglich machen (vgl. Kelle
2007).
Glaser und Strauss gehören zu den wenigen Autoren, die bislang versucht ha-
ben, auf dieses zentrale methodologische Problem der Sozialwissenschaften eine
Antwort zu geben. Der von ihnen vorgeschlagene Ansatz zeigt jedoch eine zentrale
erkenntnistheoretische und methodologische Schwäche, die schwerwiegende Aus-
wirkungen auf die Forschungspraxis hat. Diese Schwäche lässt sich auch als das
„induktivistische Selbstmissverständnis“ der Grounded Theory bezeichnen, das seinen
deutlichsten Ausdruck findet in der im „Discovery-Buch“ genährten und nie expli-
zit revidierten Vorstellung, wonach Theorien durch Induktion aus empirischem
Datenmaterial emergieren können. Der Forscher müsse sich vor allem hüten, so
Glaser und Strauss 1967, diesen Vorgang durch eigenes theoretisches Vorwissen zu
behindern und damit die entstehende Theorie zu verfälschen. „An effective strat-
egy is, at first, literally to ignore the literature of theory and fact on the area under
study, in order to assure that the emergence of categories will not be contaminated
by concepts more suited to different areas. Similarities and convergences with the
literature can be established after the analytic core of categories has emerged.“
(ebd.: 37) Die Validität und Erklärungskraft von Theorien sei vor allem davon ab-
hängig, dass diese systematisch in den Daten entdeckt werden (Glaser/Strauss
1967: 3). Wir haben es hier mit einem radikal induktivistischen Modell des For-
schungsprozesses zu tun, wie es ursprünglich im 17. und beginnenden 18. Jahr-
hundert von Vertretern des frühen englischen Empirismus (wie Francis Bacon,
David Hume oder John Locke) entwickelt wurde. Seit der philosophiegeschichtlich
äußerst bedeutsamen Kritik Immanuel Kants am Empirismus wird eine solche
Konzeption allerdings nur selten (in dieser Form übrigens nicht einmal von den
Vertretern des in der qualitativen Sozialforschung so stark abgelehnten logischen
Positivismus) ernsthaft vertreten. In der modernen Erkenntnistheorie gilt jene Posi-
tion, die manchmal als naiver Empirismus oder naiver Induktivismus bezeichnet wird
(vgl. Chalmers 1989), der zufolge ein Forscher unvoreingenommen von theoreti-
schen Vorüberlegungen an die Untersuchung empirischer Phänomene herangehen
soll, um sicherzustellen, dass er die Realität wahrnimmt, so wie sie tatsächlich ist,
als völlig überholt. Schließlich stimmen fast alle modernen wissenschaftsphiloso-
phischen Schulen darin überein, dass jede Wahrnehmung grundsätzlich abhängig
ist von theoretischen Konzepten, über die ein Forscher bereits verfügt. Die Forde-
rung an den Forscher, möglichst unvoreingenommen an die Daten heranzugehen,
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 35
Die Fähigkeit, die dem Forscher hilft, relevante Daten und bedeutsame Theorien
zu sehen, das heißt, über empirisch gegebenes Material in theoretischen Begriffen zu re-
flektieren, bezeichnen die Autoren auch als theoretische Sensibilität. Diese „build up in
the sociologist an armamentarium of categories and hypotheses on substantive and
formal levels. This theory that exists within a sociologist can be used in generating
his specific theory. (...)“ (ebd.: 46). Doch wie gelangt der Forscher zu einer solchen
Ausrüstung an Kategorien und Hypothesen? Hierzu enthält das Buch nur einen
sehr kurzen – und angesichts nur wenige Seiten vorher vorgebrachten vehementen
Kritik an soziologischen Theoriekapitalisten (große Theoretiker des Faches, die ihre
Doktoranden in die Position von „proletarischen Theorietestern“ drängen würden)
doch überraschenden – Hinweis auf die great man theorists, welche „(...) have indeed
given us models and guidelines for generating theory, so that with recent advances
in data collection, concep-tual systematization and analyticprocedures, many of us
canfollow in theirpaths.“ (ebd.: 11). Weiterhin betonen Glaser und Strauss, dass
eine empirisch begründete Theorie jene Konzepte und Hypothesen, die aus den
36 Udo Kelle
Daten emergiert sind, mit anderen deutlich nützlichen und bereits existierenden Kon-
zepten verbindet (vgl. ebd.: 46) – sie geben allerdings keine Hinweise darauf, wie
diese Verbindung hergestellt werden soll.
In „The Discovery of Grounded Theory“ stehen dementsprechend zwei unter-
schiedliche Vorstellungen von Theoriebildung unverbunden nebeneinander. Der
einen Vorstellung gemäß „emergieren“ theoretische Konzepte aus dem Datenma-
terial, wenn es dem Untersucher gelingt, sich vor seinem Kontakt mit dem empiri-
schen Feld von theoretischen Vorurteilen zu lösen. Der anderen Vorstellung ent-
sprechend entdeckt ein theoretisch sensibilisierter Forscher solche Phänomene im em-
pirischen Feld, welche ihn Theorien großer Reichweite zu sehen gelernt haben. Das
Konzept der theoretischen Sensibilität wird von den Autoren dabei aber nicht in
methodologische Regeln umgesetzt. So entsteht eine Lücke in dem 1967 vorgestell-
ten, frühesten Konzept der Grounded Theory – wie ein theoretisch sensibilisierter
Forscher sein empirisches Material auf der Grundlage theoretischen Vorwissens
strukturieren kann, bleibt unklar. Berücksichtigt man jedoch die häufigen Warnun-
gen der beiden Autoren davor, den empirischen Daten irgendwelche theoretischen
Konzepte aufzuzwingen, so liegt nach der Lektüre des Discovery-Buches die Vor-
stellung nahe, ein Untersucher, der nach der Methodologie der Grounded Theory
vorgeht, führe bei der Analyse der qualitativen Daten ad hoc passende theoretische
Konzepte aus seinen soziologischen Wissensvorräten ein, anstatt ex ante entwickel-
te theoretische Überlegungen an das empirische Material heranzutragen.
Tatsächlich aber haben Glaser und Strauss gerade in der Studie über die Inter-
aktion mit Sterbenden, die ihrer eigenen Aussage zufolge eine wesentliche Grund-
lage für das Discovery-Buch darstellt, selbst zuerst theoretische Konzepte entwi-
ckelt und erst anschließend hierzu empirische Daten gesammelt. In ihrer Darstellung
dieser Untersuchung schreiben sie nämlich:
„Zunächst möchten wir erklären, dass unser Konzept des ‚Bewusstseinskontextes’ durch per-
sönliche Erfahrungen beider Autoren vorgezeichnet war. (...) Kurz nachdem sich Strauss und
Glaser zusammengetan hatten, arbeiteten sie systematisch die Konzepte (und Typen) von To-
deserwartungen und Bewusstseins-Kontexten sowie das Paradigma für die Untersuchung der
Bewusstseinskontexte aus. So wurde die Erhebung der präliminaren Daten bereits von den Vorstellungen
der Todeserwartungen und Bewusstheit beeinflusst (Hervorhebung U.K.).“ (Glaser/Strauss 1974: 264)
Zentrale theoretische Kategorien dieser Studie sind also weder aus dem Datenma-
terial emergiert, noch bei der Analyse bereits gesammelten Datenmaterials erst ad hoc
eingeführt worden. Vielmehr wurden sie vor der empirischen Untersuchung abge-
leitet aus Konzepten der interaktionistischen Theorietradition, der vor allem
Strauss eng verbunden war. Die Erhebung der präliminaren Daten der Studie wurde
dann strukturiert durch die zuvor entwickelte Kategorie des Bewusstseinskontextes,
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 37
der die Kombination all dessen darstellt, was jeder Handelnde in einer Interak-
tionssituation über die Identität seiner Interaktionspartner weiß und über das Bild,
welches sich seine Interaktionspartner über seine eigene Identität machen. Die
theoretische Herkunft dieses Konzepts, dass, wie die Autoren wiederholt betonten,
auch auf zahlreiche andere Untersuchungsfelder ausgedehnt werden kann, kann
ohne große Mühe in Theoremen zur Beschreibung und Erklärung sozialer Interak-
tion gefunden werden, die von Interaktionisten wie Thomas, Mead oder Blumer
entwickelt wurden und mit Begriffen wie „Situationsdefinition“ oder „gegenseitige
Rollenübernahme“ bezeichnet werden. Strauss, als ein Schüler Herbert Blumers
wesentlich vom symbolischen Interaktionismus geprägt (vgl. Hildenbrand 1991: 15;
Corbin 1991, Strauss 1970: 46), hatte sich bereits lange vor dieser Studie mit der
Frage auseinandergesetzt, welche Rolle die gegenseitige Einschätzung der Identität
und die hierbei bestehende Möglichkeit, sich gegenseitig hierüber zu täuschen, in
Prozessen sozialer Interaktion besitzt: „Jeder präsentiert sich anderen und sich
selbst und sieht sich in den Spiegeln ihrer Urteile. Die Masken, die er der Welt und
ihren Bürgern zeigt, sind nach seinen Antizipationen ihrer Urteile geformt. Auch
die anderen präsentieren sich; sie tragen ihre eigenen Masken und werden ihrerseits
eingeschätzt.“ (Strauss 1968: 7)
Die Typologie von Bewusstheitskontexten, die in der Studie verwendet und mit
reichem empirischem Material illustriert wird, lässt sich problemlos anhand einer
begrifflichen Analyse einerseits und dem common sense Wissen über den untersuchten
Gegenstandsbereich andererseits entwickeln, ohne zuvor eine empirische Beobach-
tung in einer Krankenhausstation zu machen. Ausgehend von der Annahme, dass
die beteiligten Interaktionspartner (Patienten und Krankenhauspersonal) über den
möglicherweise bevorstehenden Tod des Patienten entweder Bescheid wissen oder
nicht Bescheid wissen und dieses Wissen entweder verschweigen können oder dar-
über kommunizieren, kann jeder mögliche Bewusstseinskontext durch eine Kom-
bination dreier Sachverhalte beschrieben werden:
1. die Information, die der Patient über die Möglichkeit seines bevorstehenden
Todes vom Personal erhält,
2. das Bewusstsein des Patienten darüber, dass er möglicherweise bald sterben
wird,
3. die Tatsache, dass der Patient sein Wissen dem Personal gegenüber offenbart.
Da jeder dieser Sachverhalte jeweils zwei Möglichkeiten zulässt (das Personal kann
die Information geben oder nicht geben, der Patient kann ein Bewusstsein darüber
besitzen oder nicht besitzen, und er kann sein Wissen offenbaren oder darauf ver-
38 Udo Kelle
zichten), ergeben sich acht mögliche Bewusstseinskontexte, von denen einige als
offensichtlich unsinnig ausgeschlossen werden können – etwa der Fall, dass der Pa-
tient vom Personal über seinen bevorstehenden Tod informiert wurde und dem
Personal dieses Wissen dann vorenthält. Übrig bleiben vier logisch mögliche und
inhaltlich sinnvolle Bewusstseinskontexte:
x der Patient weiß über die Möglichkeit seines bevorstehenden Todes, weil er
darüber vom Krankenhauspersonal in Kenntnis gesetzt wurde – der offene
Bewusstseinskontext –,
x der Patient wurde vom Personal nicht über die Möglichkeit seines bevor-
stehenden Todes informiert, ihm ist diese Möglichkeit (auch aus anderen
Quellen) nicht bewusst – dies ist der geschlossene Bewusstseinskontext –
x der Patient wurde nicht vom Personal über die Möglichkeit seines bevor-
stehenden Todes in Kenntnis gesetzt, er weiß jedoch um diese Möglichkeit
und macht dies dem Personal gegenüber deutlich – der argwöhnische Bewusst-
seinskontext –,
x der Patient wurde nicht über die Möglichkeit seines bevorstehenden Todes
informiert, er ist sich dessen jedoch bewusst und verbirgt dieses Wissen
gegenüber dem Personal – der Bewusstseinskontext der wechselseitigen Täuschung.
Diese vier Typen bildeten den theoretischen Rahmen für die weitere empirische
Forschungsarbeit und die Grundlage für eine systematische Auswahl („theoretical
sampling“) von Krankenhausstationen, in denen verschiedene Bewusstseinskontex-
te eine Rolle spielten.
Anhand dieses Beispiels aus der Forschungspraxis von Glaser und Strauss lässt
sich der Begriff der theoretischen Sensibilität also genauer explizieren: Theoretische
Sensibilität bedeutet die Verfügbarkeit brauchbarer heuristischer Konzepte, die die Identifizierung
theoretisch relevanter Phänomene im Datenmaterial ermöglichen. Eine wesentliche Grundlage
für diese heuristischen Konzepte bilden leitende Annahmen und zentrale Konzepte
großer Theorien. Dabei zeigt sich, dass eine begriffliche Analyse solcher Annahmen
und Konzepte für die empirisch begründete Theoriebildung von ebenso großer
Bedeutung ist wie eine empirische Untersuchung der damit bezeichneten Phänomene.
Glaser und Strauss gehen im Discovery-Buch auf diese Aspekte jedoch nicht ein,
sondern erwecken eher den Eindruck, als könnten Merkmale1 der Kategorien (in
1 Der Begriff „Merkmal“ einer Kategorie wird von Glaser und Strauss nirgendwo präzise definiert
und in vielerlei Bedeutung verwendet. Manchmal sind hiermit Unterkategorien gemeint, manchmal
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 39
unserem Beispiel wären etwa die vier Bewusstheitskontexte die Merkmale der Kate-
gorie Bewusstheitskontext) allein durch empirische Analysen gewonnen werden.
Die 1978 von Glaser veröffentlichte Arbeit „Theoretical Sensitivity“ sollte vor al-
lem der Erläuterung des Begriffs der theoretischen Sensibilität dienen. Zentral für
die Entwicklung einer empirisch begründeten Theorie, so Glaser, sei die durch
theoretische Sensibilität angeleitete Entdeckung der Zusammenhänge zwischen
einzelnen Kategorien, ein Vorgang, für den Glaser den Begriff des theoretischen Ko-
dierens einführt, den er von der gegenstandsbezogenen Kodierung abgrenzt. Diesen beiden
weitere Eigenschaften, die die unter eine Kategorie fallenden Objekte prinzipiell gemeinsam haben
können (vgl. Kelle 1994: 291 f.).
40 Udo Kelle
äußeren intervenierenden Bedingungen (der ökonomische und soziale Status der Akteure, ihre
individuelle Biografie und andere Einflüsse). Hierbei gilt ein besonderes Augenmerk der
Intentionalität von Handlungen, d. h. der Bedeutung von Zielen, Zwecken und Absich-
ten, sowie ihrer Prozessualität, d. h. den Konsequenzen dieser Handlungen für die Ak-
teure.
Dieser theoretische Ansatz bildet die Grundlage für das sog. Kodierparadigma, das,
wenn man so will, eine Spezifikation von Glasers theoretischen Codes darstellt: die in
der Phase des offenen Kodierens entwickelten Kategorien sollen daraufhin untersucht
werden, ob es sich dabei handelt (1.) um Phänomene, auf die das Handeln gerichtet ist,
(2.) um kausale Bedingungen für diese Phänomene, (3.) um Eigenschaften des Handlungskontex-
tes, (4.) um intervenierende Bedingungen, (5.) um Handlungs- und Interaktionsstrategien oder (6.) um
deren Konsequenzen.
Anschließend werden die Kategorien dimensionalisiert, d. h. es wird untersucht,
welche Arten von Phänomenen, Handlungskontexten, kausalen und intervenieren-
den Bedingungen, Handlungs- und Interaktionsstrategien und von deren Konse-
quenzen im Untersuchungsfeld eine Rolle spielen. Bei der Untersuchung der sozialen
Aspekte chronischen Schmerzes werden bspw. Typen von Handlungskontexten be-
stimmt, die für Schmerzpatienten eine Rolle spielen und ebenso Muster von deren
Schmerzbewältigungsstrategien. Anschließend kann dann untersucht werden, mit wel-
chen jeweils unterschiedlichen Schmerzbewältigungsstrategien Schmerzpatienten auf
verschiedene Handlungskontexte reagieren. Dies führt zur Formulierung idealtypischer
Handlungsmodelle, die die Grundlage bilden können für eine gegenstandsbezogene Theo-
rie über die in bestimmten Situationen allgemein verfolgten Handlungs- und Interak-
tionsstrategien und deren typische Konsequenzen.
Da Glaser und Strauss seit den 1970er Jahren nicht mehr zusammengearbeitet ha-
ben, weisen die in den folgenden Jahrzehnten ausgearbeiteten Neukonzeptionen der
Grounded Theory erhebliche Unterschiede auf. 1992 wendete sich Glaser in einer im
Eigenverlag herausgegebenen ungewöhnlich aggressiven Streitschrift gegen Strauss und
Corbin und warf ihnen vor, mit den Konzepten der Dimensionalisierung und des
Kodierparadigmas die Methodologie der Grounded Theory grundlegend zu pervertie-
ren. Durch diese Kritik zieht sich wie ein roter Faden ein bestimmter Vorwurf:
Durch die von Strauss vorgeschlagenen Methoden würden den Daten Kategorien
„aufgezwungen“, anstatt dass ihnen die Gelegenheit gegeben würde, selber aus den
Daten zu emergieren. Dabei legt Glaser im Gegensatz zu Strauss und Corbin besonderen
44 Udo Kelle
Wert darauf, dass ein Forscher sich seinem Feld ohne Forschungsproblem oder Fragestellung nä-
hern soll („He moves in with the abstract wonderment of what is going on that is an is-
sue and how it is handled“, ebd.: 22) und beharrt darauf, dass „there is a need not to re-
view any of the literature in the substantive area under study“ (ebd.: 31). Hinter-
grundwissen ist, so Glaser, schädlich für die Anwendung der Grounded Theory: „This
dictum is brought about by the concern to not contaminate, be constrained by, inhibit,
stifle or otherwise impede the researcher’s effort to generate categories, their properties,
and theoretical codes“. (ebd.)
Die Verfahren der begrifflichen Analyse bzw. Dimensionalisierung hält Glaser
für überflüssig, wenn nicht sogar für schädlich, denn Ähnlichkeiten und Unterschiede
zwischen Ereignissen würden einfach aus dem Datenmaterial emergieren – jeder
Versuch, durch die begriffliche Analyse von Kategorien Dimensionen zu finden,
hinsichtlich derer die untersuchten Ereignisse sinnvollerweise überhaupt verglichen
werden können, führe bereits dazu, dass den Daten Konzepte „aufgezwungen“ wer-
den. Glaser bekräftigt damit die bereits im Discovery-Buch vertretene induktivistische
Rhetorik, wonach theoretische Konzepte direkt aus dem Datenmaterial auftauchen,
solange es dem Forscher gelingt, sich von theoretischen Vorannahmen zu befreien.
Der grundlegenden Problematik einer induktivistischen Forschungsmethodologie ist
sich Glaser aber trotzdem (zumindest undeutlich) bewusst – eine Untersuchungsstra-
tegie, bei der man sich einem empirischen Gegenstand ohne jegliche theoretische
Konzepte nähert, ist praktisch nicht umsetzbar, weil ein solches Vorgehen eher
eine Flut von unzusammenhängenden Beschreibungen und Einzelbeobachtungen
erbringen würde als empirisch begründete Kategorien und Hypothesen. Glaser ver-
sucht diese Problematik mit den Konzepten der theoretischen Sensibilität und der
theoretischen Kodierung zu bewältigen. Theoretische Sensibilität, d. h. die Kompe-
tenz über empirische Phänomene in theoretischen Begriffen zu sprechen, kann sich
allerdings nur auf der Grundlage einer Ausbildung in soziologischen Theorien entwi-
ckeln (vgl. Glaser 1992: 28). Die von Glaser 1978 vorgestellten Kodierfamilien sind al-
lerdings für Nichtsoziologen oder auch für Novizen in der empirischen Sozialfor-
schung wenig hilfreich, die mit der dort vorgelegten eher unsystematischen Aufzäh-
lung von formalen und substanzwissenschaftlichen Begriffen wahrscheinlich kaum et-
was anfangen können. Ein Forscher mit dem notwendigen Hintergrundwissen und
langjähriger Praxis in der Anwendung theoretischer Konzepte auf empirische Phäno-
mene wird jedoch eine solche Liste kaum benötigen.
Demgegenüber wird bei dem von Strauss und Corbin vorgeschlagenen Kodier-
paradigma die Konstruktion eines theoretischen Rahmens expliziert. Damit können
auch Forscher, die wenig erfahren sind in der Anwendung von Theoriewissen auf
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 45
empirische Daten die Methodologie der Grounded Theory nutzen, ohne in Gefahr
zu geraten, in den Daten zu ertrinken. Glasers Methode des theoretischen Kodierens,
bei der Untersucher ad hoc irgendein brauchbar erscheinendes Konzept benutzen,
um Kategorien und ihre Merkmale aus dem Datenmaterial zu entwickeln und bei der
sie darauf angewiesen sind, ad hoc zu dimensionalisieren, ist dahingegen nur für erfah-
rene Forscher überhaupt nutzbar.
Dennoch muss Glasers Vorwurf gegen Strauss und Corbin, durch die Anwen-
dung eines Kodierparadigmas würden den Daten Konzepte aufgezwungen, ernst
genommen werden. Denn ein wesentliches Ziel qualitativer Forschung besteht ja darin,
dass die Deutungsmuster und Handlungsorientierungen der Befragten im For-
schungsprozess zur Geltung kommen, ohne von den theoretischen Konzepten
des Forschers quasi überblendet zu werden. Allerdings handelt es sich bei dem
von Strauss und Corbin vorgeschlagenen allgemeinen handlungstheoretischen
Rahmen keineswegs um ein präzises Hypothesenbündel, sondern um ein
hochgradig allgemeines Konzept, mit dessen Hilfe sich alle möglichen Hand-
lungen theoretisch beschreiben lassen. Letztendlich repräsentiert es zum gro-
ßen Teil nichts anderes als eine Explikation dessen, was sowohl in weiten Tei-
len der Sozialwissenschaften als auch im Alltagssprachgebrauch unter einer in-
tentionalen Handlung verstanden wird. Obwohl Glasers Kritik an Strauss’
und Corbins Kodierparadigma also überzogen scheint, mag sie aber dennoch
unter bestimmten Bedingungen ihre Berechtigung haben. Möglicherweise wür-
den qualitative Sozialforscher, die ihr Datenmaterial nicht mit einer handlungs-
theoretischen und mikrosoziologischen Orientierung, sondern unter einer ma-
krosoziologischen (bspw. systemtheoretischen) Orientierung untersuchen wol-
len, das Kodierparadigma als zu starke theoretische Festlegung und damit als
Konzept empfinden, dass den Daten aufgezwungen wird. Allerdings vertritt auch
Glaser selber eine explizit handlungstheoretische und mikrosoziologische Orientie-
rung: in seiner 1978 erschienenen Monographie „Theoretical Sensitivity“ hat er
etwa besonderen Wert darauf gelegt, dass bei der qualitativen Datenauswer-
tung die kodierten Ereignisse stets in Zusammenhang mit Handlungen der Ak-
teure im Feld stehen sollten. Eine systemtheoretische Perspektive müsste also
im Kontext von Grounded Theory erst noch entwickelt werden (und würde
dann wahrscheinlich zur Formulierung von so etwas wie einem systemtheoretischem
Kodierparadigma führen).
Ein wesentlicher Unterschied zwischen Glasers Konzepten und der von Strauss
und Corbin vorgeschlagenen Vorgehensweise besteht darin, dass Strauss und
Corbin die Verwendung eines bestimmten (handlungs)theoretischen Rahmens und
46 Udo Kelle
sozialen Sachverhalten, die so genannten Grand theories (vgl. Merton 1968), enthalten in
der Regel eine große Anzahl von Kategorien und Annahmen, die nur sehr bedingt
oder überhaupt nicht empirisch überprüfbar sind. Oft handelt es sich hierbei um de-
finitorische („tautologische“) Sätze ohne empirischen Gehalt in der folgenden Art:
Soziale Rollen sind Bündel von Erwartungen, die sich in einer gegebenen Gesellschaft an das
Verhalten der Träger von Positionen knüpfen (Dahrendorff 1964: 25 f.)
Aus dieser Aussage lassen sich nicht ohne weitere Zusatzinformationen empirisch
überprüfbare Hypothesen über konkretes soziales Verhalten ableiten. Hierzu müss-
ten Annahmen darüber getroffen werden, welche Erwartungen in welcher Gesellschaft an
welche Position geknüpft wird. Aber auch Aussagen aus verschiedenen anderen Groß-
theorien, die nicht ohne weiteres als Begriffsdefinitionen erkennbar sind, sind oft weit-
gehend empirisch gehaltlos, d. h. empirisch nicht oder nur eingeschränkt überprüfbar
bzw. falsifizierbar (zu einer Diskussion dieses Problems im Kontext des symbolischen Inter-
aktionismus vgl. Kelle/Kluge 1999: 33, und im Kontext von Rational Choice Ansätzen vgl.
Kelle/Lüdemann 1995). Das bedeutet aber keinesfalls, dass solche Theorien für die
Zwecke empirischer Forschung überflüssig oder unbrauchbar sind; obwohl sich aus
ihnen nicht direkt empirisch prüfbare Hypothesen deduzieren lassen, liefern sie zentra-
le Konzepte und Relevanzgesichtspunkte, ohne deren Hilfe empirisches Material gar
nicht zu ordnen und zu systematisieren wäre.
Jene allgemeinen, abstrakten und empirisch gehaltlosen theoretischen Aussagen, die
oftmals das Grundgerüst von Grand theories in der Soziologie bilden, lassen sich
zwar nur schwer im Rahmen einer quantitativen, hypothetiko-deduktiven For-
schungsstrategie direkt operationalisieren; im Kontext einer theoriegenerierenden,
qualitativen Methodologie lassen sie sich jedoch als Heuristiken zur Konstruktion
von gehaltvollen Konzepten auf der Basis empirischer Daten verwenden, denn erstens
stellen sie dem Forscher oder der Forscherin jene Perspektiven zur Verfügung, durch
die sich soziologisch relevante Phänomene überhaupt erst wahrnehmen und beschrei-
ben lassen, und zweitens sind diese Konzepte gleichzeitig hinreichend „offen“, so dass
die Gefahr verringert wird, dass die Relevanzsetzungen der Befragten durch vorgängige
Forscherhypothesen überblendet werden. Mangel an empirischem Gehalt ist im
Rahmen einer theoriegenerierenden Forschungsstrategie gerade ein Vorzug solcher
heuristisch-analytischer Konzepte, die somit als theoretische Gerüste für die Formu-
lierung von Theorien mittlerer Reichweite dienen können. Aus Großtheorien abgeleite-
te Konzepte fungieren dann zu Beginn der Untersuchung als ein theoretisches Ras-
ter, welches durch empirische Beobachtungen zunehmend aufgefüllt werden kann.
Berücksichtigt man diese Differenzierung zwischen theoretischen Aussagen mit
unterschiedlichem empirischem Gehalt, so reduziert sich die von Barney Glaser be-
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 49
gonnene Kontroverse über die Grundlagen der Grounded Theory letztendlich auf
drei Fragen:
1. Sind die verwendeten theoretischen Kategorien und Hypothesen zur Kon-
struktion heuristisch-analytischer Rahmenkonzepte geeignet, oder ist ihr
empirischer Gehalt so groß, dass sie nur für eine hypothetiko-deduktive For-
schungsstrategie geeignet sind? In den Worten von Glaser: Besteht die Ge-
fahr, dass die Konzepte den Daten aufgezwungen werden und die Entwicklung
neuer Kategorien eher behindern als fördern?
2. Soll der heuristisch-analytische Theorierahmen zu Beginn des Forschungs-
prozesses in der Form eines expliziten Kodierparadigmas formuliert wer-
den, oder soll der heuristische Rahmen erst im Prozess der Kodierung suk-
zessive entwickelt werden?
3. Soll der Forscher bei der Konstruktion des heuristisch-analytischen Rah-
mens auf einen einzelnen handlungstheoretischen Ansatz (etwa Strauss’ und
Corbins Kodierparadigma (1990: 99) zurückgreifen oder auf einen großen Fun-
dus von Kodierfamilien (Glaser 1978: 72-80)?
Die Beantwortung dieser Fragen sollte nun abhängig gemacht werden von der kon-
kreten Forschungsfragestellung, dem untersuchten Gegenstandsbereich und den
Fähigkeiten und theoretischen Orientierungen des Forschers. Novizen in der empiri-
schen Sozialforschung etwa sind mit der Aufforderung, einen heuristischen Rahmen ad
hoc während der Datenauswertung zu konstruieren, und dabei zwischen allen möglichen
soziologischen Großtheorien und Kodierfamilien zu wählen, in der Regel überfordert,
während erfahrene und theoretisch belesene Sozialwissenschaftler hier geringere
Schwierigkeiten haben. Andererseits ist Glasers Kritik an der Beschränkung auf ein ein-
zelnes Kodierparadigma, wie es in den Arbeiten von Strauss und Corbin nahe gelegt wird,
sicher nicht völlig unberechtigt. Angesichts der Vielzahl soziologischer Theorien und
Perspektiven wäre die Verfügbarkeit mehrerer unterschiedlicher Kodierparadigmen si-
cher anzustreben – hier eröffnen sich eine ganze Reihe von Möglichkeiten für eine
Weiterentwicklung der Methodologie der Grounded Theory.
Integration qualitativer und quantitativer Methoden
Udo Kelle
Zusammenfassung
Der Beitrag referiert verschiedene in der Literatur vertretene Konzepte der Verknüpfung qualitativer
und quantitativer Verfahren, nämlich einerseits das bereits von Barton und Lazarsfeld vertretene Pha-
senmodell (wobei eine qualitative Studie der Hypothesengenerierung und eine anschließende quantitati-
ve Studie der Hypothesenprüfung dienen soll) und andererseits verschiedene Konzepte der Triangula-
tion (wonach qualitative und quantitative Methoden entweder zur wechselseitigen Validierung oder aber
zur gegenseitigen Ergänzung ihrer Ergebnisse genutzt werden können). Diese Modelle werden oft in
Konkurrenz zueinander gesehen und diskutiert.
Anhand mehrerer empirischer Beispiele soll gezeigt werden, dass jedes dieser bislang formulierten Mo-
delle der Methodenintegration eine (wenn auch beschränkte) Geltung aufweist. Weil qualitative und
quantitative Studien nämlich, wie sich in der Forschungspraxis zeigt, sowohl konvergierende als auch
divergente oder auch komplementäre Ergebnisse zeitigen können, kann ihr Einsatz sowohl zur gegen-
seitigen Überprüfung und Validierung als auch zur Ergänzung von Perspektiven sinnvoll sein. Welche
Funktion der Methodenintegration in einem konkreten Forschungsprojekt zum Tragen kommen muss,
lässt sich keineswegs allein anhand methodologischer Überlegungen bestimmen, sondern erfordert the-
oretische und gegenstandsbezogene Reflektionen.
1 Einleitung
Im Folgenden werde ich einige methodologischen Debatten, welche sich an der
Frage nach der Integration qualitativer und quantitativer Verfahren entzündet ha-
ben, umreißen und dabei auf typische methodologische Probleme der Methodenin-
tegration eingehen.
Hierzu sollen zuerst verschiedene Modelle der Methodenintegration, die in der
Literatur diskutiert werden, dargestellt werden. Ich möchte die Probleme und
Grenzen solcher Konzepte anhand von Beispielen aus der empirischen For-
schungspraxis darstellen und dabei versuchen, deutlich zu machen, warum es einer-
seits schwierig ist, ein allgemeines methodologisches Modell der Methodenintegra-
Integration qualitativer und quantitativer Methoden 51
tion zu formulieren, die Integration qualitativer und quantitativer Verfahren für die
empirische Sozialforschung aber dennoch in vielerlei Hinsicht von zentraler Bedeu-
tung ist.
nur relativ unsystematisch und unpräzise, sie verleiteten den Forscher auch dazu,
bei der Analyse komplexer sozialer Situationen „Quasi-Statistiken“ und „Quasi-
Korrelationen“ (Barton/Lazarsfeld 1955, 1984: 70 ff.) zu verwenden, d. h. auf der
Grundlage nur weniger Fälle mit unscharfen Begriffen wie „die meisten ...“ oder
„ein kleiner Teil der ...“ Häufigkeitsaussagen zu formulieren. Nur die klassischen
experimentellen Verfahren, die eine präzise Messung von vorher definierten Va-
riablen zulassen, seien deshalb zur Prüfung von Hypothesen und Theorien geeig-
net. Hypothetiko-deduktive, quantitative Forschung kommt damit dem Verständ-
nis beider Autoren zufolge eine methodologische Dominanz zu, zumindest was
den „context of justification“ (Reichenbach 1983) angeht. Dennoch erlangen in die-
sem Konzept qualitative Methoden eine mehr als marginale Bedeutung im For-
schungsprozess – ihre Bedeutung wird darin gesehen, dem Forscher Hypothesen
zu liefern, zu denen er auf andere Weise nicht gelangen kann. In diesem Punkt
unterscheidet sich der Ansatz von Barton und Lazarsfeld deutlich von jenen hypo-
thetiko-deduktiven Konzepten des Forschungsprozesses, die den „standard view“
in quantitativen Methodenlehrbüchern repräsentieren. Soweit solche Ansätze auf
der Grundlage des Kritischen Rationalismus entstanden sind, ist ihnen die Vorstel-
lung, dass der Vorgang der Hypothesengenerierung in irgendeiner Weise metho-
disch kontrolliert und auf der Grundlage empirischer Daten erfolgen kann oder
soll, prima facie fremd. Zum festen Grundbestand der Popper´schen Wissen-
schaftsauffassung gehört nämlich, folgt man den üblichen Rezeptionslinien, die
Überzeugung, dass es „eine logische, rational nachkonstruierbare Methode, etwas
neues zu entdecken, nicht gibt“, weil „jede Entdeckung (...) eine ’schöpferische In-
tuition’“ (Popper 1989a: 11) darstellt. Der Vorgang der Hypothesenfindung hat
dementsprechend mit „Logik wenig zu tun“ (ebd.). Die Aufstellung von Hypothe-
sen gehorcht keinen methodischen Regeln, es sind „phantastisch kühne“ und „un-
begründete und unbegründbare Antizipationen“. Diese Antizipationen werden „er-
raten“ und erst danach „klar und nüchtern kontrolliert durch methodische Nach-
prüfungen.“ (Popper 1989b: 223).1
1 Eine genauere Analyse von Poppers „Logik der Forschung“ macht allerdings deutlich, dass Poppers
Hinweise zur Hypothesengenerierung und Theoriekonstruktion sich zwei verschiedenen Konzep-
tionen zuordnen, die sich auf den ersten Blick zu widersprechen scheinen. Einerseits stellt er den
Prozess der Theorienentstehung als intuitiven und imaginativen Akt dar, andererseits entwickelt er
ein Konzept „quasi-induktiven Erkenntnisfortschritts“, wonach die Entwicklung neuer Hypothesen,
die Konstruktion neuer und die Veränderung alter Theorien dabei die Beachtung generativer Regeln
erfordert. Diese Regeln beinhalten die Anknüpfung an den Problemen, die bisherige Theorien er-
zeugen, die Beibehaltung des erreichten Standes der theoretischen Aufklärung eines Gegenstandsbe-
reiches, die Bemühung um empirische Gehaltsvermehrung sowie die Vermeidung von Immunisie-
Integration qualitativer und quantitativer Methoden 53
rungsstrategien und ad-hoc-Anpassungen. Popper formuliert also methodologische Regeln für den
Übergang von einer gescheiterten Theorie zu einer Nachfolgerin und zeigt damit auf, dass die Hypo-
thesengenerierung und Theoriekonstruktion zumindest partiell einen rationalen und regelgeleiteten
Prozess darstellt (vgl. Kelle 1994: 144 f.).
54 Udo Kelle
Die Triangulationsmetapher
ren Instrumenten ergänzt bzw. überprüft werden durch die Erstellung von Korre-
lationsmatrizen, die über den Grad der Messübereinstimmung und der Diskrimi-
nanz zwischen den verschiedenen Methoden Auskunft geben. Zentrales Ziel dabei
ist die Evaluation der Gültigkeit von Testergebnissen, zentrales Kriterium die
Konvergenz der Ergebnisse bzw. der Grad ihrer Übereinstimmung (Camp-
bell/Fiske 1959: 81). In ihren Arbeiten über non-reaktive Messverfahren greifen
Webb und Kollegen (vgl. Webb et al. 1966) diesen Gedanken auf und betonen,
dass Datenerhebung und -auswertung mit unterschiedlichen Methoden die Validi-
tät der Ergebnisse erhöhen können und postulieren: „Ideally, we should like to
converge data from several different data classes, as well as converge with multiple
variants from within a single class“. (Webb et al. 1966: 35). An diese Überlegungen
knüpft 1977 Denzin an, um zugunsten der Integration qualitativer und quantitati-
ver Verfahren zu argumentieren. Methoden besäßen nämlich, so Denzin, jeweils
spezifische Schwächen und Stärken, weshalb eine Hypothese, die eine Serie von
Tests mit unterschiedlichen Testmethoden überlebt habe, valider sei als eine nur
mit einer Methode getestete Hypothese (vgl. Denzin 1977: 308). Methodologische
Triangulation besteht demnach in einem „complex process of playing each method
off against the other so as to maximize the validity of field efforts“ (ebd. 310).
Denzins Konzept ist von verschiedenen Seiten (vgl. v.a. Fielding/Fielding 1986,
Lamnek 1988, Flick 1991) heftig angegriffen worden, weil es das Problem der Reak-
tivität von Forschungsmethoden, welches den Ausgangspunkt der Triangulations-
konzepte von Campbell und Fiske und von Webb und Kollegen bildete, weitge-
hend unberücksichtigt lässt: Unterschiedliche Methoden erfassen nämlich nicht nur
verschiedene Aspekte desselben sozialen Phänomens, sondern jede Methode kons-
tituiert ihren spezifischen Erkenntnisgegenstand. Triangulation durch den Einsatz
unterschiedlicher Erhebungsverfahren sollte deswegen Messartefakte verhindern
und aufdecken. Vor allem Fielding und Fielding weisen darauf hin, dass Methoden
aus unterschiedlichen Theorietraditionen heraus entstanden sind und Prämissen
der jeweiligen Gesellschafts- oder Handlungstheorien in den Forschungsprozess
hineinbringen. Durch ihre Kombination könne man deshalb zwar die „Tiefe“ und
„Weite“ von Ergebnissen, nicht aber deren Validität erhöhen (vgl. Fielding/Fielding
1986: 33).
Diese Kritiken zeigen die Grenzen des Triangulationsbegriffes ebenso wie seine
systematische Ambiguität auf. Denn der Begriff „Position eines Ortes“, klar ver-
ständlich im Kontext von Navigation und Landvermessung, ist in der empirischen
Sozialforschung nicht genau definiert, sondern allenfalls eine vieldeutige Metapher.
56 Udo Kelle
Ist mit der Berechnung der Position eines Ortes durch die Messung von unter-
schiedlichen Punkten aus gemeint, dass
1. mit verschiedenen Methoden dasselbe soziale Phänomen erfasst wird, oder
2. dass hiermit unterschiedliche Aspekte desselben Phänomens oder gar un-
terschiedliche Phänomene erfasst werden, deren Abbildungen sich allenfalls
zu einem einheitlichen (oder zumindest „kaleidoskopartigen“, wie Köckeis-
Stangl 1982 schreibt) Bild ergänzen?
Hinter dieser Unterscheidung steht mehr als ein sprachlicher Kunstgriff, denn nur
dann, wenn sich verschiedene Methoden auf denselben Gegenstand beziehen,
können sie zur wechselseitigen Validierung ihrer Ergebnisse eingesetzt werden,
weil nur in einem solchen Fall unterschiedliche Ergebnisse als Hinweis auf Validi-
tätsprobleme gewertet werden können. Wenn dahingegen verschiedene Methoden
verschiedene Aspekte desselben Gegenstandes oder auch unterschiedliche Gegen-
stände erfassen, so sind unterschiedliche Ergebnisse natürlich zu erwarten, ohne
dass dies den Schluss auf die fehlende Validität dieser Ergebnisse erlaubt.
Beide Verwendungsweisen des Triangulationsbegriffs verwendet Denzin ab-
wechselnd oder auch parallel, ohne zwischen ihnen analytisch zu trennen. Einer-
seits fordert er eine Kombination unterschiedlicher Methoden zum Zweck der ge-
genseitigen Validierung der Ergebnisse. Andererseits weist er darauf hin, dass be-
stimmte Methoden nur für bestimmte Fragestellungen angemessen sind. So er-
scheinen ihm Surveys zur Untersuchung stabiler Handlungsmuster besser als ande-
re Methoden geeignet, erlauben es Verfahren teilnehmender Beobachtung beson-
ders gut, komplexe Formen von Interaktionsprozessen zu erfassen usw. Forschern
empfiehlt er, die ihnen am angemessensten erscheinenden Methoden zuerst einzu-
setzen und sie dann durch kontrastierende Methoden zu ergänzen, um neue rele-
vante Aspekte zu entdecken, die die zuerst eingesetzte Forschungsmethode nicht
zu erfassen vermag.
In einem solchen Fall jedoch wären die verschiedenen eingesetzten For-
schungsmethoden zur wechselseitigen Validierung nur bedingt einsetzbar, weil sie
sich hinsichtlich ihres Gegenstandbereichs zueinander komplementär verhalten
würden. Der Gedanke, dass sich die Gegenstandsbereiche qualitativer und quanti-
tativer Verfahren eher ergänzen als überschneiden, ist seit Beginn des Methoden-
streits um die Bedeutung und Validität qualitativer Sozialforschung immer wieder
geäußert worden (vgl. Burgess 1927). Auch Fielding und Fielding propagieren eine
solche Sichtweise als Alternative zu dem von Denzin formulierten Modell, „bei
dem von einer Realität und einem Gegenstandsverständnis unabhängig von den
Integration qualitativer und quantitativer Methoden 57
Tab. 1: Tätigkeit fünf Jahre nach Abschluss der Berufsausbildung (Zur Erhöhung der Über-
sichtlichkeit wurde die Residualkategorie (Arbeitslosigkeit, Krankheit, Schwangerschaft, Er-
ziehungsurlaub, Haftstrafen, Auslandsaufenthalt, Wehr- oder Zivildienst, Umschulung, Weiter-
und Fortbildung umfassend) weggelassen. Die Zeilenprozente addieren sich deswegen nicht
auf 100%)
2 Die Untersuchung wurde durchgeführt von dem Forschungsprojekt A1 „Statuspassagen in die Er-
werbstätigkeit“ im Sonderforschungsbereich 186 „Statuspassagen und Risikolagen im Lebensver-
lauf“ (beteiligte Wissenschaftler: W.Heinz, A.Witzel, J.Zinn, J.Mierendorrf, H.Schaeper, T.Kühn).
Integration qualitativer und quantitativer Methoden 59
Ausbildungsbetrieb erhalten. Wie lässt sich nun die Tendenz der Maschinenschlos-
ser erklären, im Gegensatz zu anderen Berufsgruppen zeitaufwändige Umwege in
Kauf zu nehmen, um Bildungsabschlüsse nachzuholen?
Da die Erklärungskraft der mit den Variablen verbundenen Zusatzannahmen in
diesem Fall erschöpft war, konnte aber aufgrund des Forschungsdesigns jetzt mit
Hilfe der qualitativen Leitfadeninterviews zwei verschiedene Arten von Informa-
tionen gewonnen werden, um dieses auf den ersten Blick überraschende statistische
Faktum zu erklären.
Aufgrund von Informationen über charakteristische berufskulturelle Besonder-
heiten konnte gezeigt werden, dass einerseits Maschinenschlosser, die ihre Ausbil-
dung in speziellen Lehrwerkstätten von Maschinenbaufirmen erhalten hatten, im
Laufe ihrer Berufsausbildung in der Mehrzahl ein ausgeprägtes Facharbeiterbe-
wusstsein entwickelt hatten, andererseits aber deren Aspirationen auf eine qualifi-
zierte Facharbeitertätigkeit nach der Berufsausbildung in der Regel enttäuscht wur-
den, da die Firmen, bedingt durch beschränkte ökonomische Rahmenbedingungen
zu Beginn der 1990er Jahre, nur Arbeitsplatzangebote mit einem eingeschränkten
Qualifikationsprofil anbieten konnten. Dieses Zusammenspiel zwischen einer be-
stimmten Berufskultur auf der einen Seite und einer schwierigen ökonomischen Si-
tuation auf der anderen Seite konnte erklären, warum so viele Maschinenschlosser
ihr berufliches Feld verließen: Bei der Wahl zwischen einer wenig qualifizierten Be-
schäftigung oder der Annahme eines Weiterbildungsangebotes entschieden sich
Mitglieder dieser Berufsgruppe für die Bildungsmaßnahme. Allerdings bleibt hier
die Frage offen, wie die Varianz innerhalb der Gruppe der Maschinenschlosser er-
klärt werden konnte: Aus welchen Gründen hat ein nennenswerter Anteil dieser
Berufsgruppe seine beruflichen Aspirationen den Gegebenheiten angepasst und die
niedrig qualifizierten Tätigkeiten akzeptiert?
Für die Erklärung dieser Varianz diente die zweite Art von Informationen, die
aus dem qualitativen Interviewmaterial gewonnen werden konnte. Durch einen sy-
noptischen Vergleich von Textsegmenten aus den qualitativen Interviews, die sich
u. a. auf berufliche Aspirationen und berufliche Bewertungen bezogen (zur dieser
Methode qualitativer Interviewauswertung vgl. Kelle 1995, Kelle/Kluge 1999),
konnten berufsbiographische Handlungsmuster identifiziert werden, die als „be-
rufsbiographische Gestaltungsmodi“ bezeichnet wurden (Heinz et al. 1998). Die
berufsbiographischen Gestaltungsmodi der Maschinenschlosser teilen sich dabei
auf in Chancenoptimierung und Lohnarbeiterhabitus. Beim Lohnarbeiterhabitus
stehen Verbesserungen von materiellen Bedingungen im gegenwärtigen Betrieb
und auf dem Arbeitsstellenmarkt im Mittelpunkt. Akteure mit diesem Gestal-
Integration qualitativer und quantitativer Methoden 61
5 Abschließende Bemerkungen
Das Verhältnis zwischen qualitativen und quantitativen Forschungsergebnissen
kann nicht aufgrund eines einzelnen methodologischen Modells festgelegt werden.
Weder kann davon ausgegangen werden, dass Ergebnisse qualitativer und quantita-
tiver Methoden grundsätzlich übereinstimmen und deswegen zur gegenseitigen Va-
lidierung verwendet werden können, noch davon, dass sich qualitative und quanti-
tative Ergebnisse unter jeweils verschiedenen Bedingungen stets zu einem stimmi-
gen (oder auch „kaleidoskopartigen“, s.o.) Gesamtbild verbinden lassen.
Werden in einem Untersuchungsdesign qualitative und quantitative Verfahren par-
allel eingesetzt, so sind vielmehr grundsätzlich drei Ausgänge möglich:
1. qualitative und quantitative Forschungsergebnisse können übereinstimmen,
2. qualitative und quantitative Forschungsergebnisse können sich komplemen-
tär zueinander verhalten, d. h. sich gegenseitig ergänzen,
64 Udo Kelle
Hildegard Wenzler-Cremer
Zusammenfassung
Wer Daten qualitativ erhebt, stellt in der Regel die Sichtweise und das Erleben der Untersuchungspart-
ner in den Mittelpunkt. Er und sie verzichtet auf eine Strukturierung des Untersuchungsgegenstandes in
Form von Hypothesen, die zu Beginn auf der Grundlage von Theorien formuliert werden. Die Folge ist
eine Fülle von Daten unterschiedlicher Qualität und Dichte, die dann verarbeitet werden müssen. In
diesem Artikel wird der Forschungsprozess einer Untersuchung zur bikulturellen Sozialisation und
Identitätskonstruktion von jungen Frauen aus deutsch-indonesischen Familien rekonstruiert und dabei
schwerpunktmäßig auf die Codierung eingegangen.
Menschen in Familien, in denen die Eltern aus zwei sehr unterschiedlichen Kultu-
ren kommen, ihre Sozialisation?
2 Datenerhebung
Ich habe 27 themenzentrierte Interviews mit zwei Gruppen von jungen Erwachse-
nen durchgeführt und im Verlauf des Forschungsprozesses eine Eingrenzung nach
Geschlecht und Alter vorgenommen (weiblich, 16-26 Jahre alt). Da anzunehmen
ist, dass die Variablen Alter und Geschlecht für das Erleben der Bikulturalität be-
deutsam sind und einer gesonderten Untersuchung bedürfen, habe ich diese Be-
grenzung vorgenommen. Zudem habe ich zwei Gruppen gebildet hinsichtlich des
Aufenthaltsortes der Familie und der Nationalität der Mutter, so dass die Bedin-
gung „die Mutter lebt in der Migrationssituation, also in der Fremde“ konstant war.
Mutter Indonesierin
die „deutsche“ Gruppe
Familie lebt in Deutschland
Mutter Deutsche
die „indonesische“ Gruppe
Familie lebt in Indonesien
Das selektive Sampling, d. h. die exakte Festlegung von zwei Gruppen nach dem
Kriterium „Mutter in der Fremde“, basierte auf der Annahme, dass die Mütter und
die Umgebungskultur unterschiedliche Einflüsse im Verlauf der Sozialisation dar-
stellen. Allerdings wurde die Erwartung, die beiden Gruppen unterschieden sich
hinsichtlich ihres Erlebens der bikulturellen Situation gravierend, nur teilweise be-
stätigt.
Neben den Interviews hatte ich als weiteres Datenmaterial Interviewprotokolle,
Feldbeobachtungen, Gespräche mit Müttern und Vätern aus bikulturellen Familien,
damit habe ich auch Elemente ethnografischer Feldforschung miteinbezogen.
Die Interviews wurden als Audiodateien in den Computer überspielt und konn-
ten so leichter transkribiert werden, da gleichzeitig die Transkriptions-Word-Datei
und die Audio-Winamp-Datei geöffnet und über die F-Tasten gesteuert werden
konnte (Cremer/Kruse/Wenzler-Cremer 2006). Zudem waren die Interviews wäh-
rend des gesamten Auswertungsprozesses zugänglich und konnten jederzeit abge-
68 Hildegard Wenzler-Cremer
hört werden, so dass Tonfall und andere parasprachliche Eigenheiten auch später
noch herangezogen werden konnten. Die Interviews wurden nach vereinfachten
GAT-Regeln (Selting 1998) transkribiert, da eine differenziertere Transkription für
diese Untersuchung nicht erkenntnissteigernd gewesen wäre.
selkategorien formuliert. In der Terminologie von Strauss und Corbin (1996) wird
dieser Vorgang als axiales Codieren bezeichnet und von Achsenkategorien gespro-
chen. Ich ziehe den Terminus Schlüsselkategorien vor und verstehe darunter die
Kategorien, die auf einem Abstraktionsniveau unterhalb der Suchheuristik (siehe
unten) angesiedelt sind und diese strukturieren. Die folgende Abbildung stellt die
verschiedenen Schritte des Forschungsprozesses in der Form einer Spirale dar.
Besonders eingehen möchte ich in diesem Beitrag auf folgende Auswertungs-
schritte: (a) das Codieren unterstützt durch das MAXQDA-Programm, (b) die Ent-
wicklung der Suchheuristik und (c) die Typenbildung.
1. Sichtung der Inter- 3. Verdichtung des Codebaums, 5. Typenbildung anhand von Ver-
views; Zusammenfas- der Memos sowie von sechs Ein- gleichsdimensionen, die in den vorigen
sung; Mottofindung; In- zelfallanalysen zu einer Suchheu- Schritten erarbeitet wurden. Reduktion
ventarisierung der Haupt- ristik mit drei Säulen auf zwei Hauptdimensionen:
themen, ersten Ideen und x Darstellung der Welten x Zugehörigkeitsgefühl zu einer Kultur
Fragen x Strategien x Nutzung der Ressource Bikulturalität
x Identitätskonstruktion
Das Codieren ist ein zentraler Schritt innerhalb der Datenanalyse. Phänomene, die
sich im Text zeigen, werden identifiziert, benannt und dimensionalisiert. Ziel dieses
Prozesses ist es, zu einer Abstraktion zu kommen, um dann Beziehungen zwischen
den Kategorien zu entdecken und herauszuarbeiten. Die Codes wurden entwickelt:
x Aus dem Datenmaterial heraus, indem Fragen an den Text gestellt und
Textstellen miteinander verglichen wurden. Codes2: Vermitteln zwischen den
Kulturen; Wissen über die andere Kultur; Botschafterin für die mütterliche Kultur. Diese
Codes wurden zusammengefasst unter der Schlüsselkategorie: Bikulturelle Kompetenz.
x Als In-Vivo-Codes, d. h. prägnante Begriffe, die die Interviewpartnerinnen
selbst für bestimmte Phänomene verwenden, werden zu Codes: z. B. ‚aus der
Reihe tanzen’, ein Code, der später subsumiert wurde unter die Schlüsselkate-
gorie Distinguierungsstrategie.
x Aufgrund von theoretischem Vorwissen, das bestimmte Konzepte, die für
diese Fragestellung relevant sind nahe legte. Beispiel: Das Konzept der Kon-
trollüberzeugung und Agency wurde aufgegriffen in der Kategorie Handlungsin-
itiative und Selbstständigkeit und schließlich unter die Säule Identitätskonstruktion
der Suchheuristik subsumiert.
Es gibt keine Verfahrensbeschreibung, viele Codes entstehen durch Intuition und
Abduktion. Anfangs war ich noch ängstlich und zögerlich, blieb nahe am Text und
vergab überwiegend beschreibende Codes, um Fakten zu codieren oder auch um
im Sinne eines Wegweisers bestimmte Textstellen leicht wieder aufzufinden. Erst
allmählich kamen inhaltlich stärker ausdifferenzierte und analysierende Codes hin-
1 Zum einen war ich Mitglied der Online-Offline-Gruppe „Qualitative Sozialforschung“, die im Jahr
2000 von Frau Katja Mruck vom Psychologischen Institut der FU Berlin initiiert wurde. In dieser
Gruppe haben wir in regelmäßigen Chats sowie jährlichen Offline-Treffen Interviewausschnitte co-
diert und zahlreiche methodologische und forschungspraktische Fragen diskutiert. Zum anderen be-
suchte ich regelmäßig das Textanalyseseminar von Frau Prof. Dr. Lucius-Hoene am Psychologi-
schen Institut der Universität Freiburg. Dort wurden Interviewausschnitte textanalytisch interpre-
tiert. Außerdem hatte ich regelmäßige Treffen mit drei anderen Doktorandinnen und einem Kolle-
gen, um das Datenmaterial auszuwerten.
2 Die im Folgenden kursiv gedruckten Begriffe beziehen sich auf Beispiele für Codes und Kategorien
aus der Untersuchung.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 71
In der Phase des Offenen Codierens entstand beginnend mit einer Codierung
nahe am Text und unter Verwendung beschreibender Kategorien ein weit verästel-
ter Codebaum. Auf der Basis des permanenten Vergleichs wurde der Codebaum
immer wieder überprüft und verändert. „Schubladeninhalte“ (Zuordnungen von
Textstellen zu einem Code) wurden zusammengelegt oder auseinandersortiert; an-
dere „Schubladen“ (Codes) wurden herausgenommen, neu hinzugefügt oder die
Etiketten verändert. Mehrfach wurde Zwischenbilanz gezogen und der vorhandene
Codebaum in den Auswertungsgruppen diskutiert, um so die Beziehungen zwi-
schen den Codes zu rekonstruieren. MAXQDA ermöglichte ein neues Gruppieren
der Codes und gewährleistete die ständige Überprüfung an Textstellen oder dem
ganzen Text. Die Kernkategorien, die aus der Vielzahl von Kategorien entwickelt
wurden, konnten so durch den Vergleich der Codings immer weiter differenziert
werden.
MAXQDA erwies sich als große Unterstützung beim gesamten Datenmanage-
ment, da auf diese Weise alle Interviewtexte, alle sonstigen Texte, die Codings und
die Memos sofort zugänglich sind und auch getrennt abgerufen werden können.
Durch das Text-Retrieval ist es einfach, alle Segmente einer Kategorie zusammen-
zustellen und auf Kontrast oder Ähnlichkeit hin zu vergleichen. Die Memo-
Funktion erlaubt es, auch erste Einfälle und scheinbar verrückte Ideen und Zu-
sammenhänge an bestimmte Textstellen anzuheften, so dass sie später leicht wieder
gefunden werden können. Auch die Ergebnisse und Diskussionen in den Klein-
gruppen habe ich direkt nach der Sitzung in Form von Memos formuliert, so dass
sie an Ort und Stelle zur Verfügung standen. Als besonders wichtig erwiesen sich
die Memos zu einzelnen Codes, da auch dann, wenn bestimmte Codes länger nicht
genutzt wurden, deren Bedeutung wieder erschlossen werden konnte. Bei der Aus-
differenzierung der Suchheuristik (siehe unten) war die Suchfunktion über alle
Textsorten und die Memos ein wesentliches Werkzeug, da auch verloren Geglaub-
tes wieder gefunden werden kann. Außerdem können eventuell nicht oder falsch
codierte Textstellen, die mir als Forscherin vage im Sinn sind, leichter gefunden
und ausgewertet werden. Insgesamt hatte ich bei Abschluss der Arbeit, die Zahlen
änderten sich während der Arbeit ständig, 217 Codes, 2.915 Codings und 1.116
Memos.
Sicherlich habe ich nicht alle Möglichkeiten des Programms ausgeschöpft, be-
sonders bei der Verknüpfung von Memos und Codes hätte ich, aus heutiger Sicht,
systematischer vorgehen können und hätte dadurch Beziehungen zwischen den
Codes schneller wahrnehmen können. Die Weiterentwicklung des Programms
(MAXMaps), die mir allerdings noch nicht zur Verfügung stand, hätte es mir er-
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 73
leichtert, Verknüpfungen zwischen den Kategorien und den drei großen Säulen der
Suchheuristik zu visualisieren.
Es gab auch Versuchungen beim Codieren: (a) Die Anfechtung, die im Thema
liegt: Die polare Anordnung des Themas findet sich auch in manchen Kategorien
wieder, wie z. B. den Strategien, aber auch in der Typenbildung. Dies kann zur Ver-
suchung führen, auf jeden Fall nach einem Gegensatz Ausschau zu halten, diesen
eventuell zu konstruieren, obwohl die Daten dies gar nicht hergeben. (b) Eine An-
fechtung, die in MAXQDA liegt: Die hierarchische Anordnung des Codebaums
verleitet zur theoretischen Generierung von Codes, die nicht aus dem Text entwi-
ckelt werden, sondern in diesen hineingelesen werden. Der Wunsch nach Systema-
tisierung kann zur Benennung von Codes verleiten, um auf diese Weise ein ge-
schlossenes logisches System zu erhalten. (c) Eine Anfechtung, die im Datenmate-
rial liegt: Einen großen Raum nehmen in den Interviews Klischees und Stereotype
über die beiden Kulturen ein, und zwar in den verschiedensten Spielarten: als
Selbstbild, als Fremdbild, als vermutetes Fremdbild, als vermutetes Selbstbild. Das
schlägt sich in den ursprünglichen Fassungen des Codebaums stark nieder. Das
liegt einmal an der Themenstellung, aber es könnte auch sein, dass die Interview-
partnerinnen nach Vertrautem und nach Gemeinsamkeiten mit der Interviewerin
gesucht haben, indem sie die Klischees als geteiltes Wissen unterstellen (Präsuppo-
sitionen). An dieser Stelle war es notwendig, die Fragestellung im Auge zu behalten
und diesen Themenkreis nur als eine Facette im Rahmen der Suchheuristik „Dar-
stellung der Welten“ zu bearbeiten.
Der Codebaum wurde immer umfangreicher und es wurde in dieser Phase deutlich,
dass eine Eingrenzung und Strukturierung dringend erforderlich war. Angesichts
der vielen verschiedenen Codes galt es den Überblick zu behalten und zu Ergeb-
nissen zu kommen. Ich folgte dem Vorschlag von Kluge/Kelle (1999). Sie empfeh-
len empirisch „gehaltlose“ Suchheuristiken zu verwenden, die erlauben, das Da-
tenmaterial durch eine bestimmte Linse zu betrachten. Es handelt sich dabei um
sensibilisierende theoretische Konzepte von einem solchen Allgemeinheits- und
Abstraktionsgrad, dass eine empirische Überprüfung ohne zusätzliche Annahmen
nicht möglich ist. Sie sind gerade deshalb ideal als Heuristiken bei der Hypothesen-
generierung einsetzbar, da sie als Strukturierungshilfe für das überbordende Da-
tenmaterial genutzt werden können. In ständiger Arbeit am Codebaum und der
Feinanalyse von Textstellen, aber auch durch die Beschäftigung mit methodologi-
74 Hildegard Wenzler-Cremer
Typenbildung (Schritt 5)
Eine Typologie ist der Versuch, Muster einer sozialen Realität zu identifizieren und
Sinnzusammenhänge sichtbar zu machen (Kluge/Kelle 1999).
Auf der Basis des Codebaums und der Feinanalysen und unter Einbeziehung
theoretischer Konzepte (z. B. Theorie der sozialen Identität (Mummendey/Otten
2002) wurden Vergleichsdimensionen formuliert, die sich auf zwei Hauptdimen-
sionen reduzieren lassen:
x das Gefühl der Zugehörigkeit zu einer Kultur,
x die Nutzung der Ressource Bikulturalität.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 75
Erst in der Zusammenschau der ausdifferenzierten Suchheuristik und den dafür er-
arbeiteten Feinanalysen konnten die Ergebnisse zu Typen verdichtet werden.
Hieraus ergab sich die folgende Typenbildung:
Die Verwurzelte lebt dauerhaft in der Kultur des Vaters:3 Sie ist gut integriert, hat
ein stabiles soziales Netz und sie zeichnet ein starkes Gefühl der Zugehörigkeit zur
Umgebungskultur aus. Sie kennt das Herkunftsland der Mutter wenig und be-
herrscht deren Sprache kaum. Häufig idealisiert sie die Kultur der Mutter. Sie ver-
wendet vorrangig die Strategie des Normalisierens und Distinguierens. Die Bi-
kulturalität spielt im Alltag eine geringe Rolle. Die Verwurzelte sieht die Gefahr,
dass die Kultur der Mutter als zweite Wurzel verloren geht.
Der Pendlerin stehen beide Kulturen als Optionen zur Verfügung. Sie kann sich
mühelos in beiden bewegen. Die Unterschiede sind ihr bewusst. Sie kann auch die
Außenperspektive einnehmen und kritische Distanz wahren. Die Kultur, die den
Alltag prägt, wird zum Hintergrund, vor dem die andere Kultur zur prägnanten Fi-
gur werden kann. Das führt zu einer changierenden Identität. Ihre vorrangige Stra-
tegie ist, sich anzupassen und umzuschalten. Sie zeigt eine hohe Flexibilität. Dies
3 Aufgrund der vorab vorgenommenen Gruppenbildung sind alle Interviewpartnerinnen in der Kultur
des Vaters aufgewachsen, aber die Verankerung in dieser ist unterschiedlich stark.
76 Hildegard Wenzler-Cremer
kann jedoch mit dem Gefühl fehlender Zugehörigkeit und Heimatlosigkeit bzw.
einer Sehnsucht nach der jeweils nicht präsenten Kultur einhergehen. Gefühle der
Ambivalenz sind ihr vertraut.
Die Sammlerin lebt überwiegend in der Kultur des Vaters. Es besteht eine gute
und enge Beziehung zur Mutter. Sie setzt sich mit der Kultur der Mutter intensiv
auseinander und kann beide Sprachen. Sie orientiert sich auch an den Werten und
Normen der mütterlichen Kultur. Sie entwickelt eine kreolische Identität, in der sie
Elemente beider Kulturen integriert und zu etwas Neuem mischt. Sie verwendet
alle Strategien.
Die Heimatlose ist ein weitgehend theoretisch generierter Typus. Auch wenn in
einer Reihe von Interviews Gefühle der Entwurzelung, Zerrissenheit und Heimat-
losigkeit berichtet werden, ist dies bei den meisten Interviewpartnerinnen nicht die
dominierende Erfahrung. Ein Grund für das weitgehende Fehlen dieses Typus ist
die Zuordnung der Interviewpartnerinnen zur „deutschen“ und „indonesischen“
Gruppe. Eine Mutter, für die die Lage in der Fremde unerträglich ist, wird das
Land bereits in der Kindheit der Interviewpartnerin verlassen, damit entfiele die
Voraussetzung für die Zuordnung zu einer der Untersuchungsgruppe. Die wenigen
Interviewpartnerinnen, die ich diesem Typus zugeordnet habe, sind in keiner der
beiden Kulturen verwurzelt und haben keine Möglichkeiten zum Pendeln oder zu
einer strategischen Wahl. Die Beziehung zum Vater ist schwierig oder sie mussten
häufig das Umfeld wechseln.
Der Wunsch nach Strukturierung und Systematisierung, der der Typenbildung zu-
grunde liegt, ist immer eine Vereinfachung der Realität. Folgende Gesichtspunkte
sollten deshalb im Blick behalten werden:
x Formuliert werden Idealtypen, aber die meisten Interviewpartnerinnen ent-
sprechen empirischen Mischtypen, da sie sich nur tendenziell einem Typus
zuordnen lassen und meist auch Elemente der anderen Typen enthalten.
x Die obige Typenbildung unterstellt bei den Dimensionen dichotome Merk-
malsausprägungen, was die Gefahr einer Polarisierung in sich birgt. Mögli-
che Zwischenstufen werden damit nicht zum Ausdruck gebracht.
x Typen sind Festschreibungen und Etikettierungen und lassen die Prozess-
haftigkeit des Geschehens außer Acht. Die Zuordnung zu einem Typus ist
eine Momentaufnahme.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 77
x Der Typus der Heimatlosen ist ein weitgehend theoretisch generierter Typ,
der sich im Datenmaterial allenfalls ansatzweise finden lässt.
5 Ausblick
Die Typenbildung ist eine Form, Ergebnisse zu strukturieren, zu reduzieren und
damit die Situation von bikulturellen Frauen prägnant zu beschreiben und zu ver-
stehen. Selbstverständlich ist der Forschungsprozess damit nicht abgeschlossen.
Vielmehr müssen jetzt die aus dem Datenmaterial zu entnehmenden Schutz- und
Risikofaktoren für die Gestaltung einer bikulturellen Situation weiter untersucht
werden. Eine weitere Möglichkeit läge darin, narrative Interviews mit anderen be-
troffen Gruppen (Variationen nach Alter, Geschlecht, Nation bzw. Kultur) zu füh-
ren. Es wäre auch denkbar, auf der Basis dieser Ergebnisse einen Fragebogen zu
entwickeln, um damit Menschen, die eine bikulturelle Sozialisation erfahren haben
zu befragen. Eine solche Datenerhebung könnte auch ausgeweitet werden auf die
Gruppe der Menschen mit Migrationshintergrund, die ebenfalls bikulturell soziali-
siert sind.
Die Zahl der Menschen, die mit zwei Kulturen aufwachsen, nimmt zu und da-
mit gewinnt das Thema der bikulturellen Sozialisation an Relevanz. Es ist wichtig
die speziellen Herausforderungen und Chancen, die in der bikulturellen Situation
liegen zu kennen, um die Chancen nutzen und eventuellen Schwierigkeiten begeg-
nen zu können.
Qualitative Evaluation – Versuch einer
Abkürzungsstrategie
Zusammenfassung
Quantitative Evaluation ist ein weit verbreitetes Verfahren zur Bewertung von universitären Lehrveran-
staltungen, während qualitative Evaluation in diesem Feld kaum zur Anwendung kommt. Offenbar exis-
tieren Vorbehalte, die sich nicht zuletzt auf den für eine qualitative Untersuchung vermuteten großen
Zeitaufwand und auf die weniger strukturierte und in ihren Instrumentarien weniger festgelegte Vorge-
hensweise. Das Projekt Qualitative Evaluation in 100 Stunden – Quick and Clean stellte den Versuch dar, im
Rahmen knapper zeitlicher Ressourcen (100 Stunden) eine methodisch saubere qualitative Evaluation
einer Lehrveranstaltung durchzuführen. Das gesamte Vorgehen wurde ausführlich dokumentiert und zu
einer Schritt-für-Schritt-Beschreibung verdichtet. Dieser Artikel erläutert primär das methodische Vor-
gehen im Projekt und stellt die computergestützte Vorgehensweise nachvollziehbar dar.
werden können. Lassen sich etwa Evaluationsergebnisse der Vorlesung „Recht der
internationalen Organisationen“ unmittelbar mit denen der Veranstaltung „Einfüh-
rung in die Filmanalyse“ vergleichen? Zweitens ist der Dozent hinsichtlich der In-
terpretation der Ergebnisse letztlich auf Vermutungen angewiesen. Weshalb wird
etwa das Tempo der Veranstaltung als zu hoch bewertet? Liegt es an nicht ausrei-
chenden Erläuterungen? Fehlen Grundlagen, die nicht Gegenstand der Veranstal-
tung sind? Oder ist das Interesse der Studierenden an der Thematik so gering, dass
die Motivation zu selbstständigem Lernen fehlt?
Diese unbeantworteten Fragen veranlassten uns dazu, eine computergestützte
qualitative Evaluation durchzuführen, die auch mit einem abgekürzten Verfahren
gute Resultate liefert. Bei dem Projekt Qualitative Evaluation in 100 Stunden – Quick
and Clean handelt es sich um das Experiment, durch eine vom Arbeitsaufwand her
überschaubare, methodisch saubere qualitative Evaluation einen inhaltlichen
Mehrwert in Ergänzung zur üblichen quantitativen Evaluation zu erarbeiten. Als
Evaluationsgegenstand wählten wir eine Lehrveranstaltung aus, die nicht nur auf
vorgegebenen Skalen bewertet, sondern für die eine fundierte Grundlage für eine Ver-
besserung geschaffen werden sollte. Wir erhofften uns ein besseres Verständnis für
die Antworten in ihrem jeweiligen Kontext, also z. B. etwas über Motivationen,
Lern- und Arbeitsstile oder persönliche Ambitionen zu erfahren. Darüber hinaus
sollten die Erfahrungen und Ergebnisse in einer Form festgehalten werden, die an-
deren Interessierten als Inspiration, aber auch Ermutigung zur Durchführung eige-
ner computergestützter qualitativer Evaluationen dienlich sein kann.
Zentrale Rahmenbedingung für das Projekt stellte die Begrenzung der Projekt-
dauer auf 100 Arbeitsstunden für alle Mitarbeiter des Projektteams dar. Innerhalb
des Projektteams, das aus den zwei Autoren sowie zwei weiteren Wissenschaftlern
und drei studentischen Mitarbeitern bestand, wurden die zu erledigenden Arbeiten
nach inhaltlichen Gesichtspunkten aufgeteilt.
jektteam in den einzelnen Phasen, vorgegangen sind und welche Rolle die compu-
terunterstützte Auswertung in diesem Prozess hatte.1
Als Gegenstand unserer Evaluation wählten wir die Vorlesung „Einführung in die
sozialwissenschaftliche Statistik“, die am Institut für Erziehungswissenschaft der
Philipps-Universität Marburg in jedem Wintersemester angeboten wird und auf die
Vermittlung grundlegender Kenntnisse der sozialwissenschaftlichen Statistik ab-
zielt. Zum Kanon dieser im Grundstudium verpflichtenden Veranstaltung gehören
neben der eigentlichen Vorlesung eine ergänzende Übung, in der Aufgaben selbst-
ständig bearbeitet werden, sowie durch studentische Hilfskräfte betreute Tutorien.
Um einen zum Abschluss des Grundstudiums erforderlichen Leistungsnachweis zu
erwerben, muss am Ende des Semesters eine Klausur bestanden werden.
Unser Evaluationsvorhaben enthielt Elemente summativer und formativer Eva-
luation: Hinsichtlich der untersuchten Lehrveranstaltung im Wintersemester
2005/06 handelt es sich um eine summative Evaluation, welche am Ende der Ver-
anstaltung durchgeführt wird und ein zusammenfassendes Bild zeichnet. Betrachtet
man die evaluierte Veranstaltung hingegen als jährlich wiederkehrendes Pro-
gramm2, das durch die Evaluation verbessert werden soll, so handelt es sich um ei-
ne formative Evaluation.
Nach der Bestimmung des Evaluationsgegenstandes galt es festzulegen, was
durch die Evaluation erreicht werden soll, welchen roten Faden die computerge-
stützte Auswertung und Analyse verfolgen sollte, wozu Beschreibung und Bewer-
tung letztlich beitragen und welche Fragen sie beantworten sollten. In unserer
Arbeitsgruppe haben wir die drei nachfolgenden Evaluationsziele erarbeitet, die auf
unterschiedlichen Ebenen angesiedelt sind:
1. Lernerebene: Beantwortung konkreter Fragen, die sich auf die evaluierte
Lehrveranstaltung aus Lernersicht und das individuelle Lernverhalten der
Studierenden beziehen, etwa zu Eingangsvoraussetzungen, zum Teilnahme-
verlauf, zum betriebenen Lernaufwand oder zu Klausurerwartungen.
1 Die Zeitplanung, welche diesen Schritten zugrunde liegt, sowie eine Checkliste, die bei der Durch-
führung eigener qualitativer Evaluationen unterstützt, sind in Kuckartz et al. (2007) enthalten.
2 Vgl. zum Begriff „Programm“: Glossar wirkungsorientierte Evaluation, Univation-Institut für Eva-
luation Dr. Beywl & Associates GmbH, Köln 2004, www.univation.org/glossar
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 81
3 Dieser dritte Punkt geht über die klassische Zieldefinition von Evaluation hinaus und ist der Metho-
denforschung zuzuordnen. Durch ihn erhält die Studie einen Doppelcharakter, der bei Evaluationen
in der Praxis üblicherweise nicht anzutreffen ist.
4 Bzgl. des zweiten Evaluationsziels, der Optimierung der Lehrveranstaltung, ist anzumerken, dass
sich Erkenntnisse hierzu auch direkt aus den Interviewteilen ergeben, die dem ersten Evaluationsziel
zuzuordnen sind.
82 Stefan Rädiker, Claus Stefer
rung des eigentlichen Interviews aus, sodass dieser auch einer inhaltlichen Vorbe-
reitung der Befragten auf die Themen des anstehenden Interviews diente und zu
einer ersten Reflexion des Themenkomplexes anregte.
Frage Präzisierungshinweise
1. Teilnahmeverlauf und Lernformen
Bitte beschreiben Sie, wie eine typische Statistik- z. B. Vorlesung, Übung, Tutorium, Arbeitsgruppen
woche bei Ihnen aussieht.
Was besuchen Sie dafür?
Was lesen Sie dafür?
Wen treffen Sie dafür?
2.Persönliche Gefühle und Einstellungen gegenüber der sozialwissenschaftlichen Statistik
Wie fühlen Sie sich dabei? Positive oder negative Einstellung gegenüber Sta-
Hat sich das im Laufe des Semesters verändert tistik, Angst vor dem Thema, zu viel Stoff
und wenn ja, wie?
3. Subjektive Bewertung der Veranstaltungen und Verbesserungsvorschläge
Wie beurteilen Sie rückwirkend die Veranstaltun- Alle Veranstaltungen abfragen: Vorlesung, Übung
gen? und das Tutorium.
Welche Verbesserungswünsche oder Anregungen Bitte nur umsetzbare und realisierbare Wünsche.
haben Sie?
4. Abschließende Klausur
Beschreiben Sie bitte, wie Sie sich auf die Klausur Mit der Gruppe oder alleine, Probeklausur, Litera-
vorbereitet haben. tur, Geschwister usw.
Welche Note erwarten Sie in der Klausur?
Abb. 1: Interviewleitfaden
Die Befragung führten wir eine Woche vor der semesterabschließenden Klausur
durch. Für jedes Interview waren incl. Begrüßung, Aufklärung der Befragten über
die Studie und ihre Ziele, Ausfüllen des Kurzfragebogens vor dem eigentlichen In-
terview max. 15 Minuten veranschlagt.
Die Aufzeichnung der Interviews wurde nach dem Ausfüllen des Fragebogens
begonnen und erfolgte mit Hilfe digitaler Diktiergeräte5. Die Transkription wurde
5 Informationen über den Einsatz digitaler Aufnahmegeräte in Wissenschaft und Forschung finden
sich unter www.audiotranskription.de.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 83
von den Interviewern selbst nach vorher festgelegten, einfachen Regeln durchge-
führt. Wir einigten uns beispielsweise darauf
x Sprache und Interpunktion zu glätten, d. h. an das Schriftdeutsch anzunä-
hern,
x Angaben, die Rückschlüsse auf eine bestimmte Person ermöglichten, nach
vereinbarten Regeln zu anonymisieren,
x Interviewer und Befragte durch I und B zu kennzeichnen sowie
x Sprecherwechsel durch eine Leerzeile (zweimaliges Drücken der Enter-
Taste) hervorzuheben.
Ein Auszug aus einem von uns erzeugten Transkript hat folgendes Erscheinungs-
bild:
B7: Ich habe, also ich habe so eine Lerngruppe mit meinem Freund. Das heißt, ich erkläre ihm alles zwei-
mal und dann sitzt es bei mir auch. Und dann noch, ja, habe ich mich noch mal mit, mit einem aus meiner
Arbeitsgruppe da von Statistikgruppe getroffen.
I: Und wie, wie fühlst du dich dabei? Also, hast du positive oder negative Einstellungen gegenüber der Sta-
tistik oder (...)
B7: Ich mag das ganz gerne. Hätte ich am Anfang auch nicht gedacht, aber ich mochte auch Mathe, und
deshalb finde ich das ganz okay.
I: Und hat sich das im Laufe des Semesters verändert? (B7: Ja!) Und wenn ja, wie? (B7, 8-11)
Die Zeit für die Transkription variiert in der Regel zwischen dem Vier- bis Achtfa-
chen der eigentlichen Interviewlänge, in unserem Fall lag sie bei etwa 1:6. Für die
schnelle und einfache Transkription der Audiodateien empfiehlt sich ebenso wie
für die spätere Auswertung der Daten eine geeignete Software. Als ideal für diesen
Arbeitsschritt haben sich unserer Erfahrung nach die Programme f4 (PC) oder Ex-
press Scribe (Mac) herausgestellt. Im Programm f4 konnten wir die Wiedergabe
entweder per Maus, Tastenkombination oder mit einem Fußschalter steuern und
direkt in das vorhandene Textfenster schreiben. Nach der Fertigstellung des Tran-
skriptes haben wir jedes Interview als RTF-Datei gespeichert, und zwar mit seinem
jeweiligen Kennnamen (z. B. B1, B2 usw.) als Dateibezeichnung.
Die Transkripte wurden anschließend in MAXQDA importiert. Zu jedem Text
wurde ein Memo verfasst, in dem der Interviewer und relevante Kontextinforma-
tionen festgehalten wurden. Schließlich wurden die Daten des Kurzfragebogens
(Alter, Geschlecht, letzte Mathenote etc.) als Variablen in MAXQDA eingegeben,
wodurch sie uns für die Analyse direkt zur Verfügung standen.
84 Stefan Rädiker, Claus Stefer
Den Einstieg in die eigentliche Arbeit am Material bildete die Erkundung der
Daten. Durch das Lesen der Transkripte – direkt am Monitor in MAXQDA oder
auf Papier – verschafften wir uns einen Überblick über die Interviews. Auf Grund-
lage dieser persönlichen fallweisen Erkundung erstellten wir für jeden Fall ein so
genanntes Case Summary, in dem die wesentlichen Merkmale eines Interviews in
Stichpunkten zusammengefasst und das mit einem plakativen, die befragte Person
charakterisierenden Kurztitel versehen war:
Zu dieser fallweisen Auswertung zogen wir auch die Daten der standardisierten
Kurzfragebögen heran, verglichen und kontrastierten Probanden miteinander, um
Ähnlichkeiten oder Unterschiede herauszustellen, und suchten nach Adjektiven,
mit deren Hilfe die Befragten beschrieben und Gefühlslagen interpretiert wurden
(„Ich denke, B3 fühlt sich überfordert.“). Am Ende dieser Phase hatten alle
Teammitglieder plastische, durch die Diskussion rückversicherte Bilder der Inter-
views im Kopf, die wir als Memos direkt in MAXQDA zu jedem Interview spei-
cherten, um bei der späteren Auswertung unmittelbar darauf zurückgreifen zu kön-
nen.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 85
Um eine Basis für die Erstellung des Kategoriensystem zu schaffen, überlegte sich
jeder Mitarbeiter unter Berücksichtigung der Evaluationsziele fünf Kategorienvor-
schläge, die hinsichtlich der Zielsetzung der Evaluation ergiebig und gleichzeitig
gut auf das Material anwendbar sein sollten. Die individuellen Vorschläge führten
wir anhand der folgenden Kriterien zu einem gemeinsamen Kategoriensystem zu-
sammen:
x Das Kategoriensystem sollte nicht zu feingliedrig und nicht zu umfangreich
sein.
x Die Kategorien müssen trennscharf sein.
x Die Kategorien müssen im direkten Bezug zu den Zielen der Evaluation
stehen.
Das so entstandene, erste Kategoriensystem testeten wir, indem wir es Zeile-für-
Zeile auf zwei sich in Inhalt und Länge möglichst stark unterscheidende Interviews
anwendeten. Diese Überprüfung gestattete, noch immer vorhandene Kategorien-
überlappungen aufzulösen und einige sich doppelnde (Sub-) Kategorien zu einer
86 Stefan Rädiker, Claus Stefer
blau
rot
grün
3. Alle Codierer erhielten eine Kopie der zentralen Datei und codierten die ih-
nen zugewiesenen Interviews in der ihnen zugewiesenen Farbe.
4. Mit der Teamworkfunktion von MAXQDA transferierten die jeweiligen
Codierpartner ihre Codierungen zum gemeinsamen Abgleich in eine ge-
meinsame Datei.
5. Durch die unterschiedlichen Farben war im „Text Browser“ von MAX-
QDA sofort sichtbar, wo Codierungen übereinstimmten und wo Einigung
nötig war. Die letztendlichen Codierungen hielten die Teams im grünen
„Ursprungs“-Codebaum fest.
6. Nur diese endgültigen „grünen Codebäume“ wurden jeweils exportiert und
in der zentralen Datei über „Teamwork Import“ vereint.
88 Stefan Rädiker, Claus Stefer
Den Beginn der kategorienbasierten Auswertung bildete die Sichtung der Textstel-
len jeder einzelnen Kategorie. In MAXQDA ließen wir uns die einer Kategorie zu-
geordneten Textteile im Fenster „Liste der Codings“ anzeigen und verschafften
uns so einen ersten Überblick. Alles Wichtige konnte notiert, beschrieben und ggf.
interpretiert werden.
Abb. 6: Übersicht über die codierten Textstellen im Fenster „Liste der Codings“
Für die weitere Auswertung des Materials und das Schreiben des Auswertungstex-
tes – in unserem Fall ein Evaluationsbericht – haben sich verschiedene Strategien
bewährt:
x Zunächst ist es wichtig, beim gesamten Auswertungsprozess das Ziel der E-
valuation stets im Blick zu behalten.
x Zur Systematisierung, z. B. der gemachten Verbesserungsvorschläge, und
bei Kategorien mit sehr vielen zugeordneten Textstellen bietet es sich an,
Subkategorien zu bilden. In diesen können jeweils thematisch zusammenhän-
gende Codings gruppiert werden.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 89
Abb. 7: Der Code „Bewertung von Veranstaltung und Inhalt“ mit Subkategorien
x Für manche Kategorien hat es sich als hilfreich erwiesen, Daten durch den
Einsatz von Tabellen zu vergleichen, in denen in jeder Zeile ein Fall dargestellt
wird (Abb. 8). Auf diese Weise erhält man nicht nur einen guten Überblick,
es lassen sich auch über Kategorien hinweg Vergleiche ziehen und dadurch
Annahmen äußern, etwa bzgl. des Zusammenhangs von Literaturverwen-
dung, Lerngruppe und von den Befragten prognostizierter Klausurnote.
Eine Frage, die bei der Auswertung häufig auftritt, ist die nach der Nennung von
Häufigkeiten. Wir halten quantifizierende Aussagen, die Mehr- oder Minderheiten
verdeutlichen, auch im Rahmen einer qualitativen Evaluation für sinnvoll. Ob ein
Aspekt von nur einer Person oder von drei Vierteln der Befragten genannt wurde,
macht etwa bei Verbesserungswünschen einen deutlichen Unterschied. Auch Inter-
pretationen sind notwendig, wenn nicht nur auf einer rein beschreibenden Ebene
agiert werden soll. Die Spanne der Interpretation reicht dabei von abstrahierenden
Beschreibungen der Textstellen bis zu detaillierten Deutungen. Wir haben etwa die
Textstellen einer Kategorie beschrieben und interpretativ in einen größeren Rah-
men aus unserem Erfahrungswissen, den Evaluationszielen, bereits bekannten
Wünschen und Problemen etc. eingeordnet.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 91
Den Abschluss der Evaluation bildete ein Feedbacktreffen mit dem Veranstal-
tungsleiter der Vorlesung, bei dem die Ergebnisse der Evaluation vorgestellt und
diskutiert wurden. Auf diese Weise konnten Verbesserungsvorschläge, Ideen, sons-
tige Anmerkungen und das vorhandene Praxiswissen mit den erhobenen Daten
kombiniert und fundierte Handlungsmöglichkeiten erarbeitet werden.
3 Resümee
Der Mehrwert, den wir durch die qualitative gegenüber einer üblichen quantitativen
Evaluation erzielt haben, lässt sich in verschiedene Einzelaspekte unterteilen, von
denen wir einige zentrale herausgreifen wollen:
x Fallorientierung: Durch den beinahe automatischen Kontextbezug werden
z. B. Emotionen deutlich oder Ähnlichkeiten zwischen Personen fallen auf,
man hat es mit „lebendigen“ Fällen zu tun, die geradezu plastisch vor einem
stehen.
x Kontexte und Hintergründe: Die Einbettung der Aussagen in einen Kontext ist
sehr stark, wodurch sich Vorder- und Hintergründe voneinander abheben,
was etwa für das Verständnis einer Aussage von großer Bedeutung sein
kann.
x Vermeiden von Fehlschlüssen und Missinterpretationen: Durch die Einbettung der
Aussagen erhält man als Forscher mehr Interpretationshinweise als bei der
quantitativen Vorgehensweise, bei der Gründe und Motive für die spezifi-
schen Aussagen im Dunkeln bleiben. Dadurch verringert sich die Gefahr
von Fehlschlüssen.
x Komplexität und Ganzheitlichkeit: Die Befragten haben die Möglichkeit, sich
differenziert, sogar widersprüchlich zu äußern, die Antworten beschränken
sich nicht auf ein starres 4er- oder 5er-Bewertungssystem. Auch kann der
Interviewer die Qualität eines Interviews direkt beurteilen, so wird bei-
spielsweise relativ schnell deutlich, ob die befragte Person sich authentisch
verhalten hat.
Insgesamt ist unser Resümee eindeutig: Eine qualitative Evaluation lässt sich auch
in einem knapp bemessenen Zeitrahmen bewerkstelligen und die Zugewinne, die
durch sie erreicht werden, sind erheblich. Dabei spielt die Verwendung von geeig-
neter Software eine bedeutende Rolle und es sind konkret drei Punkte, die wir be-
92 Stefan Rädiker, Claus Stefer
Peter Herrgesell
Zusammenfassung
Der Einsatz von Textanalysesystemen findet nahezu ausschließlich im Rahmen von Forschungsprojek-
ten statt. Mit der verpflichtenden Einführung von Qualitätsprogrammen in Rheinland-Pfalz erhielt die
Schulaufsicht die neue Aufgabe, eine große Anzahl umfangreicher Textvorlagen auszuwerten. Damit
verbunden wurde auch der Auftrag, die Schulen als pädagogische Schulaufsicht bei der Qualitätssiche-
rung und -entwicklung (Hofmann 2001) zu beraten und kritisch zu begleiten.
An einer Auswahl von 26 Qualitätsprogrammen und ihren Fortschreibungen wird aufgezeigt, wie durch
den Einsatz von MAXQDA eine Evaluation objektiver und gleichzeitig zeitsparender erfolgen kann.
Die relativ einfache Handhabung des Programms wird an praxisrelevanten Beispielen zur Aufbereitung
von Texten vor dem Einlesen in MAXQDA und der Dokumentenanalyse unter Einsatz der Funktionen
Textsuche, Gewichtung und Variablen beschrieben. Abschließend wird vorgestellt, wie die Ergebnisse
systematischen Vorgehens für schulbezogene Rückmeldungen, Abstimmungen und Beratungen, aber
auch für resultierende Planungen durch Schulaufsicht und Fortbildungsinstitute eingesetzt werden kön-
nen.
Qualitätsprogramme in Rheinland-Pfalz
sen (z. B. der Beratung dienenden Interpretationen) die Grundlagen für mehr Ob-
jektivität und Transparenz geschaffen und berücksichtigt werden.
Auch die inzwischen abgeschlossenen Rückmeldegespräche („Dialoggesprä-
che“) mit den Schulleitungen und Steuergruppen der Schulen zu den Fortschrei-
bungen der Qualitätsprogramme wurden überwiegend von den jeweiligen subjekti-
ven Einschätzungen der zuständigen Referenten bestimmt.
Mit der im November 2005 erfolgten Einrichtung einer Agentur für Qualitäts-
sicherung, Evaluation und Selbstständigkeit von Schulen (AQS) in Rheinland-Pfalz
gewinnt der Einsatz empirischer Methoden der Datenerhebung und Auswertung
mit dem Ziel der praktischen Bedeutsamkeit deutlich an Gewicht. Die erklärte Ab-
sicht, sowohl quantitative wie qualitative Erhebungsmethoden zu nutzen, wird bei
der vorgesehenen Dokumentenanalyse (u. a. Qualitätsprogramme und deren Fort-
schreibungen) bei ca. 1.600 Schulen ohne den Einsatz eines computergestützten
Textanalysesystems kaum die selbst beschlossenen Grundsätze der Professionalität
in der Durchführung, Transparenz in den Verfahren und Nachvollziehbarkeit der
Ergebnisse (AQS 2006) erreichen können.
Mit nachvollziehbaren Evaluationsverfahren wird die zukünftige Aufgabe der
Schulaufsicht, mit der Einzelschule auf der Grundlage des AQS-Berichts Zielver-
einbarungen zu treffen, voraussichtlich erhöhte Akzeptanz und Wirkung erreichen
können.
Vor diesem Hintergrund erwuchs bei den jetzt durchgeführten Auswertungen
die interessante Aufgabe, auf der Basis der Auftragsbeschreibung des MBFJ für die
Schulen selbst die erforderlichen Kategorien und Indikatoren zu bestimmen. Bei
der Analyse der vorgelegten Qualitätsprogramme und Fortschreibungen mit MAX-
QDA wurden die im Schreiben des MBFJ (MBFJ 2002) enthaltenen Kategorien ex-
trahiert, angewandt, hinterfragt und ergänzt. In den nächsten Jahren wird eine
Orientierung an den von der AQS nach einer Pilotphase festgelegten Bereichen
und Kriterien erfolgen können.
Mein Einsatz von MAXQDA hatte vier Zielsetzungen: Die Evaluation der
Qualitätsprogramme der Einzelschulen, die kritische Hinterfragung der Auftrags-
formulierung, die Erprobung, in welchem Maße bei ähnlichen Aufgabenstellungen
praxisbezogener Dokumentenauswertungen Zeiteinsparungen bei gleichzeitig deut-
lich erhöhter Validität, Objektivität und Reliabilität möglich sind und viertens, ins-
besondere die transparente und dialogische Abstimmung der Ergebnisse mit den
Schulen.
96 Peter Herrgesell
Wie im ersten Kapitel bereits beschrieben, hatten die Schulen die Pflicht, die von
ihnen erarbeiteten Qualitätsprogramme der Schulaufsicht vorzulegen. Die vorge-
legten Dokumente einer Schulart bildeten die Datengrundlage für zusammenfas-
sende Rückmeldungen an das MBFJ und für die Beratung dieser Schulen. Einbe-
zogen in die Analyse wurden von mir 26 Qualitätsprogramme und deren Fort-
schreibungen. Viele Qualitätsprogramme aller Schularten sind durch deren Veröf-
fentlichung im Internet als Erweiterung der Datenbasis für weitergehende Untersu-
chungen zugänglich.
Eine Auswertung der Qualitätsprogramme zu schulaufsichtlichen Zwecken
steht nicht unter dem Anspruch wissenschaftlichen Erkenntnisgewinns. Ein zu-
sammenfassendes Paraphrasieren, eine Bedeutungszuweisung und Häufigkeitsaus-
zählung wird meist beschränkt auf den Aspekt praxisbezogener Zwecke erfolgen.
Dabei ist die Transparenz und Reproduzierbarkeit bisher meist unsystematischer
Praxisarbeit i.d.R. nicht gegeben; gleiche Texte können in den verschiedenen Abtei-
lungen, Referaten und durch die einzelnen Referenten unterschiedlich interpretiert
werden, d. h. dass die Objektivität solcher Ergebnisse sehr eingeschränkt ist. Zu-
sätzlich muss damit gerechnet werden, dass der Umfang des zu lesenden und zu
interpretierenden Materials (pro Referent mussten je nach Schulart kurzfristig bis
zu 60 Qualitätsprogramme gelesen und ausgewertet werden) eine sorgfältige Aus-
einandersetzung deutlich erschwert.
Nach mehrjährigem Einsatz der Programme winMAX und MAXQDA lag es
nahe, die dort gegebenen Möglichkeiten zur schnelleren und gleichzeitig systemati-
scheren Textanalyse einzusetzen – in der Erstauswertung als Rückmeldungs- und
Beratungsgrundlage ohne tiefgehenden Theorieanspruch.
Die qualitative Inhaltsanalyse erfolgte in Anlehnung an das Ablaufmodell zu-
sammenfassender Inhaltsanalyse Mayrings (Mayring 1995: 56) in Verknüpfung mit
dem durch Lamnek wiedergegebenen inhaltsanalytischen Auswertungsmodell
Mühlfelds (Lamnek 1993: 205 ff.).
Gerade die gestuften, praktischen Handlungsanweisungen für Textinterpreta-
tionen Mühlfelds (Lamnek 1993: 207) erscheinen mir geeignet, Verständnis und
Akzeptanz eines Analysevorschlags bei den vorwiegend praxisorientierten Schul-
aufsichtspersonen zu erreichen. Hier eine zweckgerichtete Anpassung:
Stufe 1: Erstes Durchlesen aller Texte, Übertragung von grafischen Ablaufsche-
mata und Tabellen in Textform. Formatieren und Einlesen der Dateien in
das MAXQDA-Projekt.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 97
Stufe 2: Beim zweiten Durchlesen wird der Text in das Kategorienschema einge-
ordnet, wobei dieses zugleich erweitert wird.
Stufe 3: Erneutes, drittes Durchlesen des mit Codierungen markierten Textes,
Gewichtung besonderer Codings, Kopplung logisch zusammenpassender
Codings.
Stufe 4: Erstellen von Text- und Codememos, die den Prozess der Verarbeitung
darstellen.
Stufe 5: Erstellung der Auswertung mit Textausschnitten, Filtern nach Gewich-
tung. Zugleich viertes Durchlesen des Textes.
Stufe 6: Zusammenstellung des Auswertungstextes zur Präsentation, ergänzt mit
interpretatorischen Fragestellungen.
Mit der Übertragung in einen Text muss ein Informationsverlust in Kauf genom-
men werden. In einem Textmemo wird die Art der Grafik beschrieben und die
Fundstelle benannt. Zusätzlich wurde durch die Auswahl kursiver Schriftzeichen
die eigene Textproduktion von den Originaltexten abgehoben.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 99
Grundlage der ersten Kategorieneingabe waren die durch das MBFJ vorgegebenen
„Pflichtaufgaben“, welche in den Qualitätsprogrammen bearbeitet werden sollten
(ADD 2003).
Bei dieser Codierung ist wesentlich, dass nur Textstellen aufgenommen werden,
die eine Fortbildungskonzeption erkennen lassen, welche gleichzeitig im Zusam-
menhang mit Entwicklungsschwerpunkten der Schule stehen.
So zugeordnet, blieben von den ursprünglich 54 Codings noch 16 übrig, welche
in unterschiedlichem Maße der Vorgabe angenähert waren. Durch die Ergänzung
von Gewichtungsfaktoren ließ sich die Zahl der vollständig zutreffenden Codings
weiter reduzieren. Übrig blieben lediglich vier Schulen, die eine konkrete Fortbil-
dungsplanung im oben genannten Sinne entwickelt hatten. Hier ein Beispiel, wel-
ches den Vorgaben sehr nahe kommt:
Gewicht: 100
Position: 104 - 107
Code: Eschmann\Fortbildung\Konzeption
Fortbildung im PSE-Programm
Für das Schuljahr 2002/03 liegt der Schwerpunkt der Fortbildung innerhalb des Programms.
Der Ist-Bestand besteht darin, dass alle Kolleginnen und Kollegen das Methodentraining durchlaufen haben
und in mindestens einem Workshop beteiligt waren.
Im Schuljahr 2002/03 werden alle Lehrpersonen ein Teamtraining und ein Kommunikationstraining durch-
laufen. Die geplanten Workshops sind im Jahresplan ausgewiesen. Im Juni 2003 wird ein Workshoptag mit
gegenseitigen Hospitationsmöglichkeiten stattfinden. Weil durch diese Fortbildung Unterrichtsausfall un-
vermeidbar ist, werden weitere Fortbildungen zurückgestellt (Ausnahme: Gewaltprävention, Lehrergesund-
heit).
Das so kriterienorientiert erzielte Ergebnis lag weit unter den auf herkömmliche
Art ermittelten und an das MBFJ weitergemeldeten Zahlen. Auch dort wurden
schon die schulinterne Fortbildungsplanung und Evaluation als die Bereiche be-
nannt, die vielfach in den Qualitätsprogrammen nicht berücksichtigt wurden. Die
zu hohen Rückmeldezahlen sind damit erklärbar, dass ähnlich wie beim ersten Co-
dierdurchlauf alle Fortbildungsangaben (ob Einzelfortbildung, ob Fortbildungs-
maßnahmen in der Vergangenheit u.ä.) mitgezählt wurden.
Das Summieren von Schulen mit Fortbildungskonzeption, Einzelfortbildungen,
Evaluationskonzepten u.ä. wird vor allem bei größeren Datenmengen durch die
Einrichtung entsprechender Textvariablen erleichtert. Durch Darstellung der ge-
wichteten Codings (als tragfähige Arbeitsbasis definierte ich alle Codings mit Ge-
wichtungsfaktoren zwischen 60 und 100) wurde unmittelbar erkennbar, bei wel-
chen Schulen eine Konzeption oder ein Einzelbereich beschrieben waren. In der
gleichzeitig eingeblendeten Variablenmatrix (welche um diese beiden Variablen er-
weitert wurde) konnte mit der Eingabe einer „1“ die entsprechende Zuordnung er-
104 Peter Herrgesell
folgen. Nach der Übertragung der Variablenmatrix in Excel waren noch lediglich
die Spaltensummen zu bilden. Zu den vier Schulen mit Fortbildungskonzeption
kamen noch elf Schulen mit Angaben zu Einzelfortbildungen hinzu. Die Summe
beider Zahlen entsprach annähernd der auf herkömmliche Weise ermittelten Zahl,
welche eindeutig nahezu alle Angaben zur Fortbildung, ohne Abwägung, ob eine
Entsprechung zum vorgegebenen Kriterium vorhanden war, enthielt.
Ein Vergleich des mit MAXQDA erzielten Ergebnisses mit den dokumentier-
ten und auf die zuletzt genannte Weise entstandenen Angaben bestätigt die Not-
wendigkeit systematischen kriterienorientierten Analysierens.
Gewichtung
Diese Fragestellungen verwiesen die Schule auf das eigene Programm zurück und
sollten durch die Kollegien selbst geprüft und beantwortet werden.
Die Dialoggespräche mit den aus fünf bis zehn Personen zusammengesetzten
Steuerungsteams wurden unmittelbar an den Texten der von den Schulen einge-
reichten Fortschreibungen der Qualitätsprogramme orientiert. Die Projektion des
MAXQDA-Bildschirms mit einem Beamer erwies sich für den Gesprächsablauf
und -austausch als deutliche Verbesserung gegenüber der beim ersten Durchlauf an
den ausgedruckten Texten, Codierungen und Memos ausgerichteten Diskussion.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 107
Über die gleichzeitige Verfügbarkeit des jeweiligen Textes hinaus konnten im Bild
alle vorhandenen Informationen durch Anklicken der jeweiligen Funktion einge-
blendet werden (u. a. Gewichtungsfaktor und Memoinhalt). Sehr hilfreich bei der
Gesprächsstrukturierung war das Visualisierungstool MAXMaps. Die interaktive
Arbeitsweise ermöglichte unmittelbar den Zugriff vom Kriterium (Codewort) auf
die codierte Textstelle. Gleichzeitig konnte die in einem Memo festgehaltene An-
merkung oder Frage des Beraters eingeblendet werden.
3 Resümee
Die praxisorientierte Analyse von 26 Qualitätsprogrammen und deren Fortschrei-
bungen zeigte, dass sich bei deutlicher Zeitersparnis treffsicherere Aussagen aus
den Dokumenten entnehmen lassen, als dies beim alltäglichen Texterlesen möglich
ist. Der Vergleich mit den vor der Computeranalyse schriftlich fixierten Aussagen
des herkömmlichen Vorgehens wies nach, dass beim unsystematischen Vorgehen
im Einzelfall Schulen selbst Merkmale zugeschrieben wurden, welche in deren Tex-
ten nicht vorhanden waren.
Der Zwang zur Systematik, zur Orientierung an klar definierten Kriterien er-
höhte die Gültigkeit der getroffenen Auswahlen. Die Ergebnisse wurden für die
Autoren der Qualitätsprogramme transparent und überprüfbar.
Die gleichzeitige Bewertung der Hälfte der Programme durch zwei Codierer
zeigte, dass im Unterschied zur herkömmlichen Erstbeurteilung eine hohe Über-
einstimmung der Bewertungen erreicht wurde; d. h., dass die Objektivität der
Rückmeldungen deutlich gesteigert werden konnte.
Beim Einsatz der beschriebenen MAXQDA-Funktionen wurde erkennbar, dass
der zusätzliche Zeitaufwand bei einer größeren Dokumentanzahl deutlich hinter
der Zuwachszahl an Daten zurückbleibt, die Zeiteinsparung nimmt bei größeren
Textzahlen weiter zu.
Bei bis mehr als 50 auszuwertenden Programmen pro Schulaufsichtreferenten,
zwischen 400 und 600 für jeden der drei Schulabteilungsstandorte in Rheinland-
Pfalz könnte der Einsatz von MAXQDA relativ kurzfristig objektive, valide und
reliable Aussagen und Zahlen zur Verfügung stellen. Voraussetzung dafür wäre pro
Standort die zeitweise Beauftragung von wenigstens zwei in das Programm einge-
arbeiteten Codierern und die vorherige Abstimmung gemeinsamer Kriterien. Die
im Aufbau befindliche Agentur für Qualitätssicherung, Evaluation und Selbstän-
digkeit von Schulen könnte – entsprechend ihrer Zielsetzung – in Zukunft diese
Aufgabe übernehmen. Auf der Basis der für die Referentinnen und Referenten als
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 109
Torsten Koch
Zusammenfassung
Im Rahmen eines Forschungslernseminars am Institut für Soziologie und Sozialpsychologie der Univer-
sität Hannover wurde in Anlehnung an das von Bartlett entwickelte Verfahren der seriellen Reproduk-
tion der Frage nachgegangen, wie die vorwiegend studentischen Versuchspersonen eine Zeitzeugener-
zählung zum Thema Kriegsende des II. Weltkriegs nacherzählen, welche Erinnerungseinheiten sie auf-
greifen oder weglassen, welche Passagen verändert werden. Theoretischer Hintergrund ist Frederic C.
Bartletts Konzept der kulturellen Schemata und des rekonstruktiven Gedächtnisses. Die mittels compu-
tergestützter qualitativer Inhaltsanalyse gewonnenen Ergebnisse zeigen, welche Ungenauigkeit bei der
seriellen Reproduktion von sinnvollem Material auftreten können. Die Studie belegt, dass konfliktbela-
dene Passagen motiviert ausgelassen, de- und rekontextualisert und zu völlig neuen Erzählungen ange-
ordnet werden. Stereotype überlagern die Erinnerung und beeinflussen die Genauigkeit der Rekonstruk-
tion.
1 Einleitung
Eine zentrale Frage der Gedächtnisforschung ist, wie Menschen bedeutungstra-
gende Inhalte (Input) organisieren, interpretieren und aufbewahren. Es wird dabei
davon ausgegangen, dass die Form und die Inhalte, an die man sich erinnert, auch
dadurch bestimmt werden, welches Wissen man hat und wer man ist. Erinnerung
kann durch Erzählung lebendig gehalten werden.
Geschichtenerzählen erfüllt diese Funktion und gilt als eine wichtige Form
menschlicher Kommunikation. Geschichten sind mehr als nur Aneinanderreihun-
gen verschiedener Bilder, die durch deskriptive Passagen miteinander verbunden
sind. Sie sind ebenso Transmitter für Botschaften und Lehren intentionaler und
nichtintentionaler Art, die deren Erzähler weitergeben. Sie können als wechselseiti-
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 111
2 Theoretischer Hintergrund
Bereits in den zwanziger Jahren des letzten Jahrhunderts hat der britische Psycho-
loge Frederic C. Bartlett die Bedeutung kultureller Schemata für die Speicherung
und den Abruf von Erinnerungen belegt. Bartlett fasst seine Idee im Begriff des
„rekonstruktiven Gedächtnis“ zusammen. Gemeint ist damit nicht, dass encodier-
te, gespeicherte Engramme beim Prozess des Abrufens gefunden und decodiert
werden, sondern vielmehr, dass jeder Gedächtnisinhalt im Moment des Sich-
Erinnerns durch einen aktiven Konstruktionsprozess erneut aufgebaut wird. Die
im Gehirn angelegten neuronalen Netze stellen Muster dar, die als ein Korrelat sol-
cher Schemata verstanden werden können (vgl. Greuel et al. 1998: 40 ff.).
In seinem wohl bekanntesten Experiment lässt Bartlett den Versuchspersonen
– seine Studentinnen und Studenten – eine exotische Geschichte vorlegen, die sie
lesen und anschließend nacherzählen sollen. Dabei kommen zwei unterschiedliche
Settings zur Anwendung: In der ersten Variante – ein dem Kinderspiel „Stille Post“
ähnliches Prozedere – werden die Versuchspersonen aufgefordert, die Geschichte
an eine zweite Person weiterzuerzählen, die sie wiederum an eine Dritte weiter-
erzählt. Dieses Vorgehen bezeichnet Bartlett als „serielle Reproduktion“ (Serial
Reproduction). In der zweiten Variante, der „wiederholten Reproduktion“ (Repea-
ted Reproduction), wurde jeweils dieselbe Versuchsperson aufgefordert, in ver-
schiedenen Zeitabständen die Geschichte erneut zu erzählen. Die Geschichte, die
Bartlett einsetzt, entstammt dem Untersuchungsmaterial des Anthropologen Franz
Boas, ein Indianermärchen mit dem Titel „The War of the Ghost“ (Bartlett 1997:
65). Die Geschehensabläufe dieser Erzählung unterscheiden sich deutlich von
denen abendländischer Traditionen. Besonders deutlich wird das an den Namen,
112 Torsten Koch
Objekten und Akteuren, die den Lesern ebenso fremd waren wie der Plot der Ge-
schichte. In beiden Forschungssettings war die Erinnerung der Versuchspersonen
sehr ungenau. Die Geschichten, die die Versuchspersonen nacherzählten, unter-
schieden sich oft beträchtlich von der Erzählung, die ihnen ursprünglich präsen-
tiert worden war.
Bartletts Aufzeichnungen ergaben, dass im Falle der wiederholten Reproduk-
tion bereits bei der zweiten Wiedergabe nach 20 Stunden signifikante Abweichun-
gen vorzufinden waren. Er fand heraus, dass Individuen ein ihnen präsentiertes
Material in einer für sie bedeutungsvollen Weise uminterpretieren. Einzelheiten
werden so verändert, dass sie besser zum Hintergrund der Versuchsperson und der
Bewertung anhand ihres Weltwissens passen (Assimilation). Weiterhin stellte er
fest, dass die Geschichten vereinfacht (leveling), einige Details jedoch hervorgeho-
ben und überbetont (sharpening) werden (vgl. Zimbardo 1995: 337). Insgesamt
werden die Nacherzählungen in ihrem narrativen Stil moderner, logischer und er-
halten kohärentere Strukturen (vgl. Welzer 2002: 145). Nach einer Reihe solcher
Reproduktionen bildet sich eine stabile Kernstruktur heraus, die dieselbe Richtung
behält, wenn die Versuchsperson – zum Teil nach Jahren – erneut gebeten wird,
die Geschichte nachzuerzählen.
Zusammengefasst zeigen Bartletts Studien das Bestreben der Versuchsperso-
nen, die Geschichten mit eigenem Sinn zu versehen, ein Vorgang, den Bartlett als
„Effort after Meaning“ (Bartlett 1997: 20) bezeichnet, und für den Welzer den Be-
griff „Sinnmachen“ (Welzer 2002: 145) vorschlägt. Bartlett schlussfolgert daraus,
dass vorhandene kulturelle Schemata Wahrnehmung und Erinnerung derart prä-
gen, dass Fremdes unbemerkt zu Eigenem gemacht wird. Mit anderen Worten, es
werden in den Nacherzählungen merkwürdige und für den Leser unlogische As-
pekte ausgelassen und zugleich werden all jene Merkmale, die den Akteuren unbe-
kannt sind (wie z. B. Kanus) aus dem fremden in das eigene kulturelle Schema im-
portiert.
Bartlett hat in seinen seriellen Reproduktionen eine Erzählung aus einer frem-
den Kultur verwandt, die er zur Nacherzählung westlich geprägten Probanden vor-
legte. In gewisser Weise verhält es sich mit den Geschichten, die über die Zeit des
Nationalsozialismus erzählen, ähnlich. Sie berichten von Erlebnissen aus einer an-
deren Epoche, einer anderen Gesellschaft. Diese Berichte werden von den Ange-
hörigen der Nachfolgegenerationen immer aufgrund der Erfahrung ihrer eigenen
Kultur und Zeit interpretiert.
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 113
3 Methode
Middleton und Edwards (1990: 24 ff.) haben darauf hingewiesen, dass die soziokul-
turelle Dimension in Bartletts Untersuchungen regelmäßig vernachlässigt wird. Ih-
rem Eindruck nach ist das Verfahren der seriellen Reproduktion zu wenig an sozia-
ler Kommunikation des Alltags orientiert. Bartlett untersucht in seinem experimen-
tellen Setting den Output von einer Versuchsperson zum Input der nächsten Ver-
suchsperson. Dieser lineare Prozess der Weitergabe von Erinnerungen ermöglicht
dem Forscher, die Beziehungen von In- und Output und die dazwischen liegenden
Abweichungen zu betrachten. Die Abweichungen bilden die Basis für Schlussfolge-
rungen über den Prozess des Sich-Erinnerns. Der soziale Einfluss wird zu sehr in
einer Richtung untersucht und ist eben entgegen den Situationen des alltäglichen
Sprechens nicht interaktiv ausgerichtet. Die Versuchspersonen haben keine Mög-
lichkeit, miteinander in Wechselbeziehung zu treten. Edwards und Middleton
schlagen deshalb vor, ein Untersuchungsdesign zu entwickeln, das es den Ver-
suchspersonen ermöglicht, miteinander zu reden, sich gemeinsam zu entwerfen.
Die hier vorgestellte Studie greift die Überlegungen von Middleton und Edwards
auf und nimmt im wesentlichen folgende zwei Veränderungen vor:
x Es ist den Versuchspersonen gestattet, Rückfragen an den Erzähler zu rich-
ten. Dadurch wird eine stärkere Interaktivität erreicht, die der Situation des
alltäglichen Sprechens näher kommt.
x Die Versuchspersonen werden mit einer Ausgangserzählung konfrontiert,
die aus ihrem eigenen Kulturkreis stammt und die ihnen zumindest in Tei-
len auch aus familialen Gesprächen bekannt sein dürfte.
114 Torsten Koch
[BK 1] Dass es zu Ende ging, [BK 2] sagt uns nicht nur das näher kommende Artille-
riefeuer, [BK 3]sondern auch die Tatsache, dass die ansehnlichen Damen im Haus ne-
benan, die noch vor kurzem allerlei hohen SS-Besuch gehabt hatten, weiße Bettlaken
aus den Fenstern hängten. [BK 4] Zur gleichen Zeit (das erfuhren wir erst später) hatte
der preußisch-aufrechte Offizier aus dem Ersten Weltkrieg ein paar Häuser weiter zu-
erst seine Frau, dann sich selbst erschossen.
[BK 5] Dann kamen die ersten sowjetischen Soldaten den Süntelsteig herauf, zwei jun-
ge Offiziere aus Leningrad, die deutsch sprachen und uns hoffen ließen. [BK 6] Lange
währten die Hoffnungen nicht. Ein paar Stunden später gingen wir mit Drahtscheren
daran, Lücken in die Gartenzäune zu schneiden, damit die Frauen fliehen konnten,
wenn an der Vordertür sowjetischen Soldaten Einlass begehrten. Die Angst ging um,
und Willkür herrschte. [BK 7] Ein Sowjetsoldat hoch zu Ross sah eine schluchzende
Frau, der ein anderer Soldat gerade ihr Fahrrad weggenommen hatte; ihn packte das
Mitleid und er gab der ratlosen Frau sein Pferd.
[BK 8] Manche machten sich auf zu den Geschäften im U-Bahnhof Onkel Toms Hüt-
te, deren Eigentümer das Weite gesucht hatte. [BK 9] Was nicht niet-und nagelfest war,
und zuweilen auch das, wurde geplündert; nur in dem Buchladen war ich fast allein
und holte mir vom Regal ein halbes Dutzend Rütten & Löhningen-Bände mit romanti-
scher Lyrik, die ich noch heute besitze – wenn das das richtige Wort für gestohlenes
Gut ist ...
[BK 10] Gerüchte kamen auf, ohne dass irgend jemand ihren Ursprung kannte. [BK1]
Mein Freund und ich folgten ihnen in ein SS-Warenlager, wo wir einen halben Zentner
rohes Fleisch auf eine Holztrage luden und nach Hause schleppten, [BK 12] wo meine
Mutter es dann im Waschkessel unten im Keller kochte, damit es sich hielte.
(Dahrendorf 1995: 11-12)
Datenerhebung
1 Für ihre engagierte Mitarbeit bedanke ich mich bei den TutorInnen Jelena Jaunzeme, Michaela
Nack, Kevy-Ellen Meuser, Christian Schankat, Arne Steveling, Andreas Glöde und bei allen Studie-
renden, die im Rahmen ihrer Forschungslernprojekte an der Erhebung und Auswertung beteiligt
waren.
2 Das praktische Vorgehen qualitativer Sozialforschung ist zu großen Teilen ein prozedurales Wissen,
das den Studierenden anhand praktischer Übungen – wie dem hier dargestellten Vorgehen – vermit-
telt werden kann.
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 115
versität Hannover rekrutiert. Die Erhebung fand entweder in den jeweiligen Semi-
narräumen der Bildungseinrichtung statt oder in den Räumen des Instituts. Erste
Erhebungen wurden bereits 1999 durchgeführt. Die Datenerhebung erfolgte in
Form eines Qualitativen Experiments (Kleining 1986), das eine hohe interne Vali-
dität gewährleistet.
Zum Ablauf der Erhebung: Den Versuchspersonen wird vom Versuchsleiter
eine kurze Erzählung über das Kriegsende in Berlin vorgelesen. Für die seriellen
Reproduktionen wurde als Ausgangserzählung ein Auszug aus einem Bericht von
Ralf Dahrendorf (1995) gewählt, der einem Vortrag – gehalten aus Anlass des 50.
Jahrestags des Kriegsendes – entstammt. Die Erzählung setzt sich aus mehreren
Erinnerungseinheiten zusammen. Der Text wurde ausgewählt, weil er in Anleh-
nung an das Kategorienschema des Forschungsprojekts „Tradierung von Ge-
schichtsbewusstsein“ (Welzer et al. 2002) Erinnerungseinheiten enthielt, die für
gewöhnlich auch in Erzählungen von Zeitzeugen über die NS-Zeit vorkommen,
und weil es aufgrund der Anzahl der Erinnerungseinheit zwar möglich sein sollte,
viele aber nicht detailliert alle Erinnerungseinheiten wiedergeben zu können, son-
dern auswählen zu müssen. Unmittelbar danach werden die Versuchpersonen
(Vpn) aufgefordert, die Geschichte einer anderen Person weiterzuerzählen, diese
erzählt sie dann einer dritten Person usw. Die letzte Person einer Kette spricht ihre
Version ohne Anwesenheit eines Zuhörers auf Band. Jede Versuchsperson hat zu-
sätzlich die Geschichte noch einmal aufgeschrieben. Es entstehen Dreierketten von
Nacherzählungen, die sowohl in mündlicher als auch in schriftlicher Fassung vor-
liegen. Ergänzend notierten die Versuchspersonen einige soziodemographische
Daten wie Alter und Geschlecht auf ihren Erhebungskarten. Die Aufzeichnung er-
folgt durch die Versuchspersonen. Der Versuchsleiter ist bei der Reproduktion
nicht anwesend. Die in schriftlich- und mündlicher Form vorliegenden Nacherzäh-
lungen werden transkribiert. Die Verschriftungsregeln sind ein Kompromiss zwi-
schen Genauigkeit und Lesbarkeit des Interviewmaterials.
116 Torsten Koch
Abb. 2: Die Verwendung unterschiedlicher Farbcodierungen hat sich beim Codiervorgang als
sehr hilfreich erwiesen.
Qualitative Inhaltsanalyse
3 Die Analyse wurde von mehreren Personen unter tutorieller Anleitung durchgeführt. Die Aufgabe
des Tutors bestand unter anderem darin, die Ergebnisse der Codierer zu überprüfen. Forschungs-
praktisch bedeutet das, dass vor der Datenübertragung in MAXQDA Checks durchgeführt wurden.
Bei Unstimmigkeiten entscheiden dann Experten (Arbeitsgruppe aus Tutoren und Dozent), wie wei-
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 117
ter zu verfahren ist. Gegebenenfalls wurden so die Codierregeln erweitert oder ergänzt, neue Kate-
gorien gebildet oder eine Kategoriendifferenzierung vorgenommen.
118 Torsten Koch
Stichprobe
Das Sample umfasst derzeit 78 Personen. Davon sind 78,2% (61) Personen Frauen
und 21,8% (17) Männer. Sie waren zum Zeitpunkt der Erhebung im Mittel 27 Jahre
alt. Die Standardabweichung beträgt 9 Jahre und der Modalwert liegt bei 21 Jahren.
Die jüngste Versuchsperson ist 20 Jahre alt, die älteste 58. Die Altersklasse der 20 –
24 Jährigen umfasst 70% der Befragten. Bei 54 Versuchspersonen handelt es sich
um Studierende und bei 24 Personen um Erwerbstätige. Insgesamt liegen z. Z. 132
verschriftete Texte vor, davon sind 78 schriftliche (s) und 54 mündliche (m) Re-
produktionen.
4 Ergebnisse
Absolut wurden 910 Sequenzen codiert. Davon entfallen 536 Codings auf die 78
Schriftfassungen und 374 Codings auf die 54 mündlichen Fassungen. Durch-
schnittlich gibt jede Versuchsperson sieben (Modalwert: 8) von maximal 12 mögli-
chen Erinnerungseinheiten wieder. In insgesamt 33 Fällen (25%) wird die Erzähl-
reihenfolge der vier Hauptthemen eingehalten bzw. es werden alle vier Blöcke er-
wähnt. 24 thematisch vollständige Replikationen liegen in der Schriftfassung vor
und neun in der mündlichen.
Eine geschlechtspezifische Analyse anhand der absoluten Häufigkeiten der Co-
dings in den vier Hauptkategorien zeigt, dass Männer (17) sich quantitativ in den
schriftlichen Nacherzählungen etwas besser erinnern (60% der möglichen Erinne-
rungseinheiten) als in den mündlichen Nacherzählungen (50%). Die weiblichen
Versuchspersonen erreichen sowohl in der schriftlichen wie in der mündlichen
Fassung leicht höhere Werte, die bei rund 60% liegen. Thematisch gibt es in ein-
zelnen Kategorien vereinzelt geschlechtsspezifische Unterschiede.
In der Hauptkategorie II „Einmarsch sowjetischer Soldaten“ ist auffallend, dass
die häufig wiederholte Passage über die Flucht vor den Sowjetsoldaten öfter von
Männern (80%) als von Frauen (70%) nacherzählt wird. In der Hauptkategorie III
„Plündern“ berichten etwas über 90% der Frauen von der Plünderung des Buchla-
dens, während dies weniger als die Hälfte der Männer tun. In dem letzten Ab-
schnitt über das „Organisieren“ werden die Gerüchte nur von Frauen (4 Vpn.) er-
wähnt und sie sprechen häufiger (80%) von der Erzählung über das SS-Warenlager
als Männer (60%) es tun.
120 Torsten Koch
In dieser kurzen Passage werden Erinnerungseinheiten aus der ersten, zweiten und
dritten Hauptkategorie zu einer neuen Geschichte angeordnet. Der Akteur wird
von einem aufrechtem preußischem Offizier zu einem Feldwebel, nicht mehr die
Frauen fliehen vor den sowjetischen Soldaten, sondern die Bewohner des Hauses
und der erweiterte Selbstmord durch Erschießen wird zum Selbstmord durch Er-
hängen. Durch das Austauschen des Akteurs, durch Modifizieren von Handlungen
und durch die Umstellung der Erzählreihenfolge ergibt sich eine vereinfachte und
eindeutigere Erzählung. Die Erinnerungseinheit in der Ausgangserzählung (BK 4)
lässt bei genauer Betrachtung viele Fragen offen, die von den Versuchspersonen
gedeutet werden müssen, um nacherzählt werden zu können.
Betrachtet man das Durchmischen und Auslassen der Geschichten aus Bartletts
Perspektive der aktiven Erinnerungsrekonstruktion, lässt sich ganz allgemein sagen,
dass sich die erinnerten Texte durch einige Besonderheiten auszeichnen, die auch
anhand dieses Datenmaterials festgestellt werden konnten. Nacherzählungen sind
meist kürzer als Zeitzeugenberichte und häufig auch verständlicher und eindeutiger
als die Originale. Im folgenden Beispiel wird eine Erinnerungseinheit aus der ersten
mit einer aus der dritten Hauptkategorie vermischt: „Der Nachbar war ein Haupt-
mann und ist schon vorher abgehauen zur Haltestelle ‚Onkel Toms Hütte‘„ (G45
P3s, männlich, 21 Jahre).
Häufig werden auch bestimmte Perspektiven aus den Erzählungen ausgewählt
und daran fädelt sich die Nacherzählung auf. Diese Wahrnehmung des Rezipienten
muss deshalb nicht auf der intentionalen Ebene der Ausgangserzählung angelegt
sein, sondern kann unbeabsichtigt weitergegeben werden. Ein weiterer wichtiger
Aspekt: Die wiedergegebenen Erzählungen werden der persönlichen Einstellung
des Sprechers angepasst. Konträre Aussagen zur eigenen Einstellung können im
4 Die Kürzel bezeichnen die jeweilige Gruppe, die Erhebungsreihenfolge und die vorliegende Form
der Nacherzählung (schriftlich oder mündlich).
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 121
Extremfall zum Weglassen der Erinnerungseinheit führen. Das trifft besonders auf
die Basiskategorie (BK4) „erweiterter Selbstmord“ zu, die die mit Abstand am häu-
figsten ausgelassene Erinnerungseinheit ist. Lediglich 11 Personen (21 Codings)
greifen die Basiskategorie in ihren Nacherzählungen auf.
Allgemein lässt sich sagen, dass die Nacherzählungen dieser Basiskategorie zum
Teil entkonkretisiert werden, indem der Ort (irgendwo) und/oder der Akteur (ei-
ner) durch Platzhalter ersetzt werden. Welzer et al. (2002) bezeichnen diese Form
der Kommunikation als „Leeres Sprechen“. „Irgendwo in der Nachbarschaft wur-
de jemand erschossen“ (G21 P2m, männlich, 23 Jahre).
Stereotype
ben scheinen. Sie kommen in den Nacherzählungen auch dann vor, wenn sie ur-
sprünglich gar nicht oder nur andeutungsweise vorhanden waren.
Bei den Themen „Organisieren“ und „Plünderungen“ fallen bei 53 Personen die
Nacherzählungen eher neutral und bei 25 Personen deutlich negativ aus. Das
macht sich an Begriffen wie „stehlen“ fest. „Organisieren“ steht umgangssprach-
lich für etwas, das auf nicht ganz rechtmäßige Weise den Besitzer wechselt. Mit
dem Begriff des „Organisierens“ kann einerseits schlicht Diebstahl aber ebenso
Übervorteilung bei Geschäften, oder das Sich-Erschleichen von Eigentum gemeint
sein. In jedem Fall wird eine andere Person ausgetrickst und übervorteilt. Meist
handelt es sich dabei um lustige Geschichten, die die Pfiffigkeit ihres Erzählers
zum Ausdruck bringen sollen. Insbesondere in der unmittelbaren Nachkriegszeit
hat der Begriff aufgrund der anarchischen Gegebenheiten Hochkonjunktur (vgl.
Lehmann, 1987: 54 f.).
In Alltagserzählungen steht demgegenüber häufig der Begriff des „Plünderns“.
Er bezeichnet eher die Aktivitäten der fremden Wir-Gruppe, die durch einen au-
ßenstehenden Beobachter geschildert werden. Während es in Erzählungen über das
Organisieren wie selbstverständlich kein Mitleid mit den Opfern gibt, ermöglichen
Erzählungen über Plünderungen, sich von der negativen Bezugsgruppe abzugren-
zen. Das Freund-Feind-Schema ist fester Bestandteil solcher Erzählungen. Padover
(1999), ein Offizier der Abteilung psychologische Kriegsführung, der 1944 mit den
amerikanischen Truppen Richtung Deutschland vorstieß und dessen Auftrag es
war, die besiegten Deutschen zu befragen, weist darauf hin, dass die Deutschen
sich ständig bei den Alliierten über die „Ostarbeiter“ beklagt haben, weil diese steh-
len und plündern würden. In einem Bericht an das Hauptquartier weist er darauf
hin, dass sich die geschundenen Polen und Russen nur das Allernötigste nahmen.
„Die eigentlichen Plünderungen gingen auf das Konto amerikanischer Soldaten
und deutscher Zivilisten“ (Padover 1999: 283).
14 Personen (25 Codings) vollziehen die Trennung zwischen Organisieren und
Plünderung nicht nach und sprechen von Diebstahl. 35 Personen (59 Codings)
bleiben mit ihren Nacherzählungen im Wortlaut dicht an der Ausgangserzählung
und sprechen z. B. von „mitnehmen“. 10 Personen (neun Frauen und ein Mann)
verlagern den Ort der Handlung in eine der Gegenwart vergleichbareren Situation
und sprechen vom Einkaufen (15 Codings): „Auf dem Weg kamen wir an einem
124 Torsten Koch
Warenhaus vorbei. Meine Mutter war/nahm etwas Fleisch mit“ (Gruppe 18 P2s,
weibl, 25 Jahre).
5 Fazit
Geschichten werden in den Gesprächen nicht einfach eins zu eins nacherzählt, sie
sind keine starren Konstrukte, sondern erfahren durch das Erzählen und Bewerten
Veränderungen und werden schließlich zu eigenen Geschichten. Mehrdeutigkeiten
der Ursprungserzählung werden in den Nacherzählungen aufgehoben, neue An-
ordnungen getroffen, Strukturen gebildet und Bedeutungen neu zugewiesen. All
dies sind motivierte Prozesse, die sich anhand der vier nachstehenden Befunde zu-
sammenfassen lassen:
1. Problematische, widersprüchliche Inhalte werden in der Nacherzählung
weggelassen: solche Inhalte, die sich nur schwer mit dem Bild von der eige-
nen Wir-Gruppe vereinbaren lassen, werden häufig nicht mehr erinnert.
2. Die Nacherzählungen werden de- oder rekontextualisiert: Geschichten wer-
den in den Nacherzählungen aus dem Rahmen der NS-Zeit herausgenom-
men und anschließend auf dem Hintergrund der eigenen Erfahrung der
Gegenwart interpretiert und in den Rahmen anderer, meist unverfängliche-
rer Zusammenhänge nacherzählt.
3. Die Geschichten werden miteinander vermischt und zu neuen logischen
Gebilden verbunden: Häufig werden ähnliche Geschichten miteinander
vermischt, d. h. wenn z. B. die handelnden Akteure sich ähneln oder ver-
gleichbare Aktionen dargestellt werden. Eine exakte Rekonstruktion gelingt
dann oft nur schwer.
4. Stereotype Vorstellungen führen zu verzerrten Nacherzählungen: Fest ge-
fügte Stereotype führen zu Nacherzählungen, die den Ursprungserzählun-
gen positiv und negativ entgegenstehen können.
Replikationen von Bartletts Untersuchungen scheinen unter anderem deshalb loh-
nend, weil sie zeigen, dass die narrative Reproduktion kein kognitiver Vorgang ist.
Mit Hilfe der Erhebungstechnik des Qualitativen Experiments bzw. mit themen-
zentrierten seriellen Reproduktionen lässt sich eine neue Perspektive auf den Vor-
gang der Tradierung eröffnen, der in engen biographischen, identitätsbezogenen
Kontexten, wie z. B. Familiengesprächen, so nicht untersucht werden kann.
Der Nationalsozialismus im familialen Dialog.
Qualitative Inhaltsanalyse von
Drei-Generationen-Interviews mit MAXQDA
Olaf Jensen
Zusammenfassung
Qualitative Studien haben den Nachteil, aufgrund der recht arbeits- und zeitintensiven hermeneutischen
Analyse von verbalen Daten meist nur relativ kleine Fallzahlen auswerten zu können. Soll aber eine grö-
ßere Zahl von Interviews vergleichend ausgewertet werden, ist es notwendig, hermeneutische Verfahren
mit etwas ökonomischeren Methoden zu kombinieren. Hier wird eine Verfahrensweise vorgestellt, die
die Vorteile einer hermeneutischen Feinanalyse mit den Vorzügen der computergestützten Qualitativen
Inhaltsanalyse verbindet. Basierend auf induktiv generierten Kategorien wurde eine qualitative Studie,
bestehend aus 182 Interviews mit den Angehörigen von 40 ost- und westdeutschen Familien zu ihrem
kommunikativen Umgang mit der Zeit des Nationalsozialismus, nach eindeutig definierten Kriterien mit
Hilfe von MAXQDA inhaltsanalytisch ausgewertet.
Das Ergebnis der qualitativen und quantitativen Auswertungsschritte sind fünf Strukturmerkmale des
intergenerationellen Sprechens über die NS-Vergangenheit – Opferschaft, Rechtfertigung, Distanzie-
rung, Faszination und Heldentum, die das Sprechen der interviewten Familienangehörigen kennzeich-
nen und die hier in Auszügen vorgestellt werden.
1 Einleitung
Die vorliegende Analyse der Strukturmerkmale des intergenerationellen Sprechens
über die nationalsozialistische Vergangenheit in 40 deutschen Familien entstand im
Rahmen eines Forschungsprojektes am Psychologischen Institut der Universität
Hannover. Hier wurde im Rahmen einer qualitativen Mehrgeānerationenstudie von
1997 bis 2000 untersucht, wie die nationalsozialistische Vergangenheit im Bewusst-
sein und im Unbewussten der Deutschen fortwirkt. Anhand von Einzel- und Fami-
126 Olaf Jensen
1 Das von der VolkswagenStiftung geförderte Projekt wurde geleitet von Prof. Dr. Harald Welzer,
MitarbeiterInnen waren Sabine Moller, Karoline Tschuggnall, Olaf Jensen, Torsten Koch und Erika
Rothärmel.
2 „Normal“ heißt hier, dass es explizit darum ging, keine Familien von „Tätern des Nationalsozialis-
mus“ im juristischen Sinne zu interviewen. Es muss aber festgestellt werden, dass die männlichen
Zeitzeugen in zwei Familien durchaus unter diese Kategorie fallen.
Der Nationalsozialismus im familialen Dialog 127
3 34 Fälle sind dokumentiert, in denen die Interviews wegen der fehlenden Bereitschaft eines Genera-
tionsangehörigen und trotz anfänglicher Zusage nicht zustande kamen.
4 Der zu Beginn des Familiengesprächs per Videorekorder eingespielte Film von ca. 10 Minuten be-
steht aus 13 Sequenzen ohne Ton. Die meisten Sequenzen sind Amateuraufnahmen z. B. über einen
BDM-Rapport, die Hochzeit eines SS-Mannes in Uniform oder spielende Kindern in Soldatenuni-
form (vgl. Welzer et al. 2002: 211 ff., Jensen 2004a). Ziel war dabei, die Beteiligten mit möglichst
nicht determiniertem visuellen Material über den Nationalsozialismus zu einer Diskussion anzure-
gen.
128 Olaf Jensen
Stichprobenbeschreibung
Die Herkunft der 30 west- und 10 ostdeutschen Familien wird anhand des Wohn-
ortes der Angehörigen der Zeitzeugengeneration definiert. Die Generationeneintei-
lung ist genealogisch angelegt, d. h. die einzelnen Interviewpartner werden nicht in
Hinblick auf ihren Geburtsjahrgang Generationen zugeordnet, sondern aufgrund
ihrer Stellung innerhalb der Familie. Die Generationen und Geschlechter verteilen
sich wie folgt:
Geschlecht
weiblich männlich Gesamt
Generation Zeitzeugen 31 17 48
Kinder 25 25 50
Enkel 19 25 44
Gesamt 75 67 142
Von den 48 interviewten Zeitzeugen sind 31 weiblich und durch die Jahrgänge von
1906 bis 1933 vertreten, 17 Zeitzeugen sind männlich und gehören ebenfalls den
Jahrgängen von 1906 bis 1933 an. Das durchschnittliche Alter der Zeitzeugen zum
Erhebungszeitraum lag damit bei ca. 80 Jahren. Die Angehörigen der Kindergene-
ration teilen sich in 25 Frauen in den Jahrgängen von 1934 bis 1967 und 25 Män-
ner, verteilt auf die Jahrgänge von 1933 bis 1964; das Durchschnittsalter zum Zeit-
punkt des Interviews betrug 46 Jahre. Die Enkelgeneration ist in dieser Studie
durch 19 weibliche (1966 – 1986) und 25 männliche (1954 – 1985) Enkel vertreten.
Sie waren zum Zeitpunkt der Interviews durchschnittlich 23 Jahre alt.
Die Erwerbs- bzw. Bildungsstruktur der gesamten Stichprobe liegt insgesamt
im gehobenen Qualifikationsbereich. Besonders Kinder- und Enkelgeneration zäh-
len überwiegend zur Gruppe der Angestellten bzw. zu Schülern und Studenten.
Die Interviews wurden von acht weiblichen und fünf männlichen Interviewern
durchgeführt. Die Interviewerinnen führten Interviews mit 24 Familien durch und
gehören den Jahrgängen 1964 bis 1976 an, die Interviewer machten Interviews mit
16 Familien und zählen zu den Jahrgängen von 1958 bis 1969.
Der Nationalsozialismus im familialen Dialog 129
3 Auswertungsmethoden
Qualitative Studien haben in der Regel den Nachteil, aufgrund der arbeitsā- und
zeitintensiven hermeneutischen Analyse verbaler Daten nur kleine Fallzahlen aus-
werten zu können. Mit der hier gewählten Methodenkombination aus induktiver
Kategorienbildung und computergestützter Qualitativer Inhaltsanalyse mit MAX-
QDA können aber die Stärken einer detaillierten hermeneutischen Analyse mit den
Vorteilen des inhaltsanalytischen Vorgehens kombiniert werden, was die Auswer-
tung einer recht großen Stichprobe ermöglichte.
Die Erhebung und Auswertung der Untersuchung ist orientiert am offenen, in-
duktiven und vergleichenden, sehr eng am Datenmaterial operierenden Stil der
Grounded Theory (Glaser/Strauss 1998, Strauss 1987, Strauss/Corbin 1990), wo-
bei die Kategorienbildung mit Hilfe der Hermeneutischen Dialoganalyse (Welzer
1993, 1998) erfolgte und anschließend in das regelgeleiteten Vorgehen der Qualita-
tiven Inhaltsanalyse nach Mayring (1990, 1997) mündete, um nach eindeutig defi-
nierten Kategorien die gesamte Stichprobe inhaltsanalytisch zu bearbeiten. Diese
Methodenkombination ist bereits an anderer Stelle ausführlich dargestellt worden
(Jensen 2000, 2004a, 2004b).
Für die induktive Kategorienbildung im Rahmen der Grounded Theory wurde
die Hermeneutische Dialoganalyse von Welzer (1990, 1993, 1995, 1998) verwendet.
Zwar wird im Rahmen der Grounded Theory grundsätzlich induktiv vorgegangen,
die Kategorien werden also direkt aus dem Material generiert, jedoch vernachlässigt
sie die für die hier vorliegende Fragestellung maßgeblichen Interaktionsprozesse,
die zwischen den Interview- bzw. Gesprächsteilnehmern stattfinden (vgl. Jensen
2000, Jensen/Welzer 2003). Die Analyse dieser Interaktionsprozesse ist deshalb
notwendig, weil es weder den Zeitzeugen der NS-Zeit möglich ist, unabhängig von
gesellschaftlicher Bewertung und Entwicklung über ihr Leben im Nationalsozialis-
mus zu berichten, noch können die Angehörigen der Nachfolgegenerationen wie
auch die Interviewerinnen und Interviewer mit diesen Erzählungen situativ nicht-
normativ umgehen (vgl. Watzlawick et al. 1974).
Die Hermeneutische Dialoganalyse lässt sich als eine pragmatische Weiterent-
wicklung der Objektiven Hermeneutik (Oevermann et al. 1979) beschreiben. Bei
dieser Analysemethode wird sich sowohl an das Gruppenprinzip als auch an das
Prinzip der sequenziellen Interpretation gehalten, kein Interakt wird demnach im
Lichte zeitlich nachfolgender Interakte interpretiert. Außerdem wird die von Oe-
130 Olaf Jensen
vermann et al. als „weniger wichtig“ (1979: 399) bezeichnete Ebene 4 zum zentra-
len Bestandteil der Analyse: Hier geht es um die Klärung der Funktion eines Inter-
akts in der Verteilung der Interaktionsrollen. Dabei werden die entstandenen Paar-
sequenzen des Gesprächs, d. h. die pragmatische Ebene der Kommunikation analy-
siert. Dies sind die zentralen Stellen, an denen deutlich wird, welche Motive hinter
dem Interakt stehen. Gerade die situativ gegebenen Beiträge beider bzw. aller
Interakteure – auch die der Interviewerinnen und Interviewer – stehen also bei die-
ser Analyse im Zentrum. Der Vorteil eines solchen Vorgehens ist, dass sich die
Interpretation eines Interakts auch damit validieren lässt, wie der nächste Sprecher
auf diesen reagiert; wie die Äußerung also von den Beteiligten aufgenommen bzw.
interpretiert wird (vgl. Jensen 2004b).
5 Diese Überprüfung bzw. Präzisierung der Pilotstudie durch die Hauptstudie hatte zur Folge, dass
der Tradierungstyp „Heldentum“ notwendig, ein anderes Strukturmerkmal („Überwältigung“) auf-
grund mangelnder Präsenz hingegen fallen gelassen wurde (vgl. Jensen 2004a).
Der Nationalsozialismus im familialen Dialog 131
Regime gab (und gibt) und auch die Angehörigen der Nachfolgegenerationen Teil-
aspekte dieses Regimes noch immer gutheißen. Besonders die Frühphase des Na-
tionalsozialismus mit Institutionen wie den NS-Jugendorganisationen, die mit einer
„schönen Jugend“ assoziiert werden, machen hier die ambivalente Einschätzung
deutlich, die z.T. noch heute das Bild des „Dritten Reiches“ bestimmt.
Das Strukturmerkmal Heroisierung bzw. „Heldentum“ wiederum umfasst alle
Äußerungen, in denen die Zeitzeugen als handelnde Subjekte präsentiert werden,
indem sie sich z. B. gegen Vorgesetzte auflehnten, den „Hitlergruß“ vermieden
oder Verfolgten des Regimes halfen. Dieses Sprechen steht dabei zumeist im Wi-
derspruch zum häufigen Rechtfertigungsdiskurs, der die Zeitzeugen als kaum ge-
sellschaftlich handlungsfähig und lediglich aufgrund politischer Zwänge handelnd
darstellt. Bemerkenswert ist in diesem Tradierungstyp zudem, dass von den Nach-
folgegenerationen häufig auch entlegendste Anhaltspunkte genutzt werden, um
ihre Eltern bzw. Großeltern als in irgendeiner Weise widerständig darzustellen.
Oftmals entpuppt sich z. B. die häufig von den Zeitzeugen erklärte „Hilfe für Ju-
den“ lediglich als ein „nicht Melden“ der jüdischen Nachbarn.
Der Typ „Opferschaft“ beinhaltet dabei allgemein die Betonung der Bedro-
hung bzw. des Leidens der Zeitzeugen unter Nationalsozialismus, Krieg und
Nachkriegszeit – durch die Zeitzeugen selbst oder durch die Nachfolgegeneratio-
nen („Hunger“, „keine Arbeit“, „wären ja sonst auch ins KZ gekommen“). Hier
fällt besonders das Phänomen der sog. Wechselrahmung (Welzer et al. 2002: 81 ff.)
auf, in der die nicht-jüdischen Zeitzeugen ihre Leidensgeschichten in einen Erzähl-
kontext stellen, der den Darstellungen des Holocaust entstammt. Durch das Buch
„Der Brand“ von Jörg Friedrich (2002) über die alliierten Bombenangriffe auf
deutsche Städte, das aufgrund der verwendeten Begriffe (z. B. Städte als „Vernich-
tungsräume“, „Keller arbeiten wie Krematorien“) äußerst kritisch zu betrachten ist,
trat dieser Aspekt unlängst auch in der öffentlichen Diskussion hervor (vgl. z. B.
Hans Ulrich Wehler in der Süddeutsche Zeitung vom 14.12.2002).
Das fünfte Merkmal ist der Typ „Rechtfertigung“. Dieser umfasst das entlas-
tende bzw. legitimierende Sprechen über das Verhalten der Zeitzeugen („sie muss-
ten ja“, oder „haben nichts gewusst“). Bei diesem Strukturmerkmal wird besonders
deutlich, wie stark die intergenerationellen Gespräche von unausgesprochenen
Vorannahmen und unterstellten Vorwürfen geprägt sind. Hier sind es vor allem die
Zeitzeugen, die ihre Erlebnisse aus der NS-Zeit fast immer mit einem Rechtferti-
gungsdiskurs kombinieren.
132 Olaf Jensen
6 Das Rechenprogramm „Intercod“ von Müller-Benedict berücksichtigt bei der Berechnung von Scott
neben möglichen zufälligen Übereinstimmungen (Müller-Benedict 1998, vgl. Merten 1983: 304 f.)
auch, dass bei der Codierung von großen Textmengen mit vielen Kategorien von verschiedenen Co-
dierern alle Kategorien prinzipiell zur Verfügung stehen und auch die Nichtauswahl einer Kategorie
eine bewusste Entscheidung der Codierer ist (Müller-Benedict 1998). Bei der Berechnung von Co-
hen und entsprechenden Operationen in SPSS bleiben diese Fälle ausgespart, was zu unpräziseren
höheren Kappa-Werten führt.
7 Mein besonderer Dank gilt hier Torsten Koch (vgl. auch seinen Beitrag in diesem Band).
Der Nationalsozialismus im familialen Dialog 133
nen), Personen und Kategorien angefertigt worden, wodurch schon während der
Analyse erste theoretische Überlegungen festgehalten worden sind, die in die späte-
re Auswertung einfließen konnten.
Das Codieren der Interviews mit MAXQDA ist dabei ganz ähnlich dem tradi-
tionellen Codieren mit dem Textmarker (siehe Abb. 1): Das Interview der Stich-
probe (links oben) wird am Bildschirm gelesen (rechtes Fenster), während das
Codewortsystem (links unten) immer sichtbar ist. Bei der Analyse wird jede Text-
sequenz danach befragt, ob sie zu einem Haupt- oder Subcodewort – dem Katego-
riensystem – entsprechend der zugrunde liegenden Definition und dem zugehöri-
gen Ankerbeispiel passt bzw. ob für diese Textsequenz ein neues (Sub-) Codewort
eingefügt werden soll. Dann wird die Textsequenz mit der Maus markiert und dem
Codewort zugeordnet.
stärksten vertreten. In den Gruppengesprächen wird an 364 Stellen über den Op-
ferstatus der Zeitzeugen gesprochen, davon an 286 Stellen durch die Zeitzeugen,
an 173 durch die Kindergeneration und an 32 Stellen durch die Enkelgeneration.
Die Interviewer finden sich hier in 57 Textstellen. Innerhalb des Typs Opferschaft
liegt der thematische Schwerpunkt des Sprechens bei
1. der empfundenen Armut und Not der Zeitzeugen ab 1944 (426 Segmente),
besonders durch die herannahende Rote Armee (130 Segmente) und im Zu-
sammenhang mit Flucht und Vertreibung (93),
2. den Belastungen durch den Krieg (311 Segmente), besonders an der „Hei-
matfront“ (156) und erlittenen Verwundungen bzw. Todesfällen (77),
3. der empfundenen Opferschaft der Zeitzeugen durch Bedrohung oder Un-
terdrückung durch das politische System des Nationalsozialismus (268), be-
sonders der Angst vor eigener Deportation in ein Konzentrationslager (83),
konkreten Verfolgungs- bzw. Tötungssituationen (51) und dem Leiden un-
ter Drill und Befehl (62).
Die EDV-gestützte Auswertung mit MAXQDA hat dabei den Vorteil, bei der
Analyse des Kategorien- bzw. Codewortsystems lediglich einen „Mausklick“ von
den codierten Textsegmenten und den Ursprungstexten entfernt zu sein. Ein
Fragmentieren des Materials, wie bei der klassischen „Cut-and-Paste“-Methode,
findet nicht statt. Dadurch kann zu jedem Zeitpunkt geprüft werden, was sich qua-
litativ hinter den Zahlen „verbirgt“.
Auf Grundlage der codierten und ausgezählten Textstellen lassen sich also um-
fangreiche Aussagen über die Struktur der gesamten Stichprobe tätigen. Für den
Typ Opferschaft bedeutet das z. B., dass die Zeitzeugen den Focus auf ihre Leiden
durch Krieg und Bombenangriffe legen, bevor sie auf die Konsequenzen der sich
abzeichnenden Niederlage in Form der Flucht vor der Roten Armee und der dro-
henden Gefangenschaft zu sprechen kommen. Bei den Nachfolgegenerationen
zeichnet sich der zweite Aspekt deutlicher ab, der Schwerpunkt hat sich auf die
Leidenszeit der Zeitzeugen ab ca. 1944 verlagert, besonders die Flucht vor „dem
Russen“ mit all ihren Implikationen steht hier im Mittelpunkt. Bei der Kindergene-
ration hat zudem der Hunger bzw. die Nahrungsbeschaffung zum Ende des Krie-
ges einen starken Eindruck hinterlassen. Die Opferempfindung der Zeitzeugen
bzgl. der eigenen Bedrohung im Nationalsozialismus durch die Konzentrationsla-
136 Olaf Jensen
ger oder den militärischen Drill bildet den dritten großen Bereich des Opfer-
schaftsdiskurses.8
„Die haben halt auf freiem Feld übernachtet und jeden Morgen sind immer weniger
aufgestanden.“
Am Beispiel der Familie Pfeffer9 soll hier noch einmal im Zusammenhang gezeigt
werden, wie sich der Tradierungstyp Opferschaft in den Gesprächen über drei Ge-
nerationen darstellt. Von dieser Familie wurden der Zeitzeuge August Pfeffer, ge-
boren 1927 und Landwirt, während des Nationalsozialismus in der HJ, der
NSDAP, im Reichsarbeitsdienst und später als junger Soldat in der Wehrmacht bei
der Artillerie interviewt, seine Tochter Jutta Trapp, geboren 1957 und Bankkauf-
frau, sowie deren Tochter Paula, Jahrgang 1980, zum Zeitpunkt der Interviews
Schülerin.
Im Einzel- und Gruppengespräch sind für August Pfeffer das Ende des Krie-
ges, der Weg in die russische Gefangenschaft und die damit verbundenen Entbeh-
rungen die Kernthemen seiner Erzählungen. Nach einer kurzen Zeit beim Reichs-
arbeitsdienst (RAD) kam Herr Pfeffer im August 1944 zur Artillerie und erlebt in
den folgenden Monaten das Ende des Krieges im Umkreis von Berlin und an der
Elbe. Irgendwo an der Elbe kam er schließlich in russische Gefangenschaft. Aus-
führlich schildert er den Weg ins russische Gefangenenlager (F27Z, 479–87)10.
In der folgenden Interviewsequenz lässt er den bisherigen Verlauf noch mal Revue
passieren:
August P.: „Wir hatten ja in/en ganzen Mai durch nur draußen gelegen in/in’ner, äh, großen
Wiese irgendwo manchmal im Wasser und manchmal und ham morgens gegenseitich hochge-
holfen, so steifgelegen und sind dann in Graudenz, äh, am 23. Juli Abend verladen. . Und dann
wussten wir ja auch die nächsten paar Wochen ungefähr/jedenfalls im Lager nacher hatten wa
dann wieder en Datum. Am 5./am 3. September sind wa ausgeladen. .. Da in Könichsberch.
Kam dann in ein Fort . so, en, en, vor [Dönhoff] ... und ham da in den alten Kasematten gele-
jen, die vor 300 Jahren gebaut warn oder vor 200 Jahren nech . . „ (F27Z, 501–509).
8 Eine solche Darstellung und Analyse der Ergebnisse des Codierens in MAXQDA liegt für alle hier
untersuchten Tradierungstypen vor. Diese wird durch eine umfangreiche Präsentation von Inter-
viewsequenzen ergänzt, die die Gemeinsamkeiten und Unterschiede der drei Generationen im Spre-
chen über die NS-Vergangenheit deutlich machen (Jensen 2004a).
9 Alle Namen sind pseudonymisiert.
10 Die Quellenangabe zu den Interviews enthält hier F27 für Familie Nr. 27 und die Abkürzung Z für
Zeitzeugengeneration (bzw. G für Gruppen- bzw. Familiengespräch, K für Kindergeneration und E
für Enkelgeneration). Danach folgt die Zeilenangabe im Interview.
Der Nationalsozialismus im familialen Dialog 137
Herr Pfeffer blickt an dieser Stelle noch einmal auf die ersten vier Wochen der Ge-
fangenschaft und den Weg nach Russland zurück. Dabei ergänzt er, dass die Ge-
fangenen bis dahin immer im Freien campieren mussten. Obwohl es Sommer war,
beschreibt er diesen Umstand als schwierig, da die Wiesen, auf denen z.T. campiert
wurde, teilweise unter Wasser standen. Jedenfalls merkt er an, dass die Gefangenen
sich morgens beim Aufstehen gegenseitig hochhelfen mussten, weil sie „steifgele-
gen“ waren. Diese kleine Ergänzung des Zeitzeugen wird uns gleich noch beschäf-
tigen.
Im Einzelinterview von Jutta Trapp, der Tochter von Herrn Pfeffer, findet sich
allerdings nur wenig zur Gefangenschaft des Vaters. Von ihrer Mutter weiß sie,
dass über diese Zeit nicht gerne gesprochen wurde:
Jutta Trapp: „Meine Mutter hat/die hat dann gesagt, dass das ’ne schlimme Zeit gewesen wäre
und dass man da eben so nich drüber spricht. . Das war’s eigentlich.“
Interv.: „Ja, dann . . war dann die Mutter da so die erste Person, die/“
Jutta Trapp: „Nein. Das kam alles eigentlich viel später. Also zu Hause wurde nich drüber ge-
sprochen. . Und wie ich dann meinen Mann kennen lernte. Das wars, na ja, da muss doch
schon irgendwas gewesen sein. Ich wusste zumindest, dass Papa in russischer Gefangenschaft
war (Interv.: Hm). Aber was [unv], das wusst’ ich nich (hm). . „ (F27K, 32–41).
Die Tochter hielt sich, wie es scheint, innerhalb der eigenen Familie an ein „Frage-
verbot“, das sie von der Mutter übernommen hat. Die Teilbereiche der Erinnerun-
gen, über die der Zeitzeuge nicht sprechen wollte, wurden so auf seine gesamten
Erlebnisse ausgeweitet mit dem Ergebnis, dass die Tochter nach eigener Aussage
überhaupt nicht mehr danach fragte und erst viel später darauf zurückkam. Trotz-
dem bemerkt Frau Trapp aber schon während ihrer Beschreibung dieser Situation,
dass in ihrer Familie durchaus über diese Zeit geredet worden sein muss („Da muss
schon irgendwas gewesen sein“), denn sie wusste zumindest, dass ihr Vater in rus-
sischer Gefangenschaft gewesen war. Später erzählt sie noch einige Einzelheiten
über die Rückkehr des „verhungerten“ Vaters aus der Gefangenschaft (F27K, 409–
434).
Eine ähnliche Position vermittelt die Enkelin Paula in ihrem Interview. Auch
sie ist der Meinung, über all diese Dinge wäre innerhalb der Familie nicht gespro-
chen worden – und sie selbst hatte sogar direkt Angst, ihren Großvater danach zu
fragen:
„Weil ich auch immer Angst davor hatte, [...] dass er vielleicht Böse auf mich
is“ (F27E, 4–7). Ein Grund für diese Furcht war, dass Paula von ihrer Großmutter
erfahren hatte, dass der Großvater mit schweren Alpträumen aus der Gefangen-
schaft zurückkam: „ja [das] er im Schlaf geredet hat und so um sich geschlagen hat
138 Olaf Jensen
und so was alles und das hatte se irgendwann mal erzählt und von daher hatte ich
immer Angst ihn irgendwie anzureden“ (F27E, 4–31).
Trotzdem findet auch bei Familienangehörigen, die fest der Meinung sind, über
den Nationalsozialismus, den Krieg oder den Holocaust überhaupt nicht gespro-
chen zu haben, eine deutliche kommunikative Tradierung statt. Das Gespräch zwi-
schen Interviewerin und Enkelin schreitet fort und Paula erzählt nun erstaunli-
cherweise doch noch Einzelheiten, die sie von der Gefangenschaft des Großvaters
kennt:
Interv.: „Was weißt du denn, ähm, jetzt aus Erzählungen von ’ner Oma oder deinen Eltern?“
Paula Trapp: „Also ich weiß, dass er ja halt vier Jahre in russischer Gefangenschaft war und
dass er danach . ja wieder zurückgekommen is. Ja und dann hier eigentlich angefangen hat so .
ja ne Existenz aufzubauen. Ja das einzigste, was/was ich weiß, das is halt, dass er als er gefan-
gengenommen wurde diesen Weg nach Moskau machen (Interv.: hm) musste. Und . dass . ja,
dass er halt morgens, also die ham halt auf freiem Feld übernachtet und ja jeden Morgen sind
halt immer weniger aufgestanden. Das weiß ich aber nich von ihm. Das weiß ich jetzt von
meiner Mutter (hm). ich denke mal, dass sie das irgendwie von meiner Oma oder meinem Papa
hat. Und das is das einzigste, was ich von ihm weiß“ (F27E, 88–98).
Wir erinnern uns an die Geschichte von August Pfeffer und seinen „steifgelege-
nen“ Kameraden. Die Enkelin erzählt hier nun eine Version, die über ihre Mutter
bei ihr angekommen ist. Sie weist ausdrücklich darauf hin, diese Informationen
nicht von ihrem Großvater bekommen zu haben. Auch wenn Herr Pfeffer durch-
aus erzählt hat, dass Gefangene auf diesem „Weg nach Moskau“, wie es die Enke-
lin nennt, getötet wurden: von Kameraden, die das Campieren auf den Wiesen im
Mai 1945 nicht überlebten, erzählt er im Interview nichts. Wie bei dem Kinderge-
burtstagspiel „Stille Post“ hat sich also hier in einem bestimmten Detail die Ge-
schichte des Zeitzeugen beim kommunikativen Durchlauf durch die Familie verän-
dert. Der Opferstatus des Großvaters wird dadurch deutlich verstärkt.
Quantitative Analysen
Um eine strukturelle Analyse der gesamten Stichprobe durchzuführen, ist es sehr
hilfreich, die Häufigkeiten der codierten Textsegmente zu untersuchen. Durch den
Export der Matrix der Codeworthäufigkeiten (bzw. der gewünschten Kombination
aus Texten und Codeworten) aus MAXQDA und dem Einlesen dieser Matrix in
ein Tabellenkalkulationsprogramm (z. B. MS Excel) lässt sich recht einfach eine
Tabelle erstellen, die die Verteilung der codierten Textsegmente auf die hier ausge-
werteten Interviews zeigt:
Der Nationalsozialismus im familialen Dialog 139
Die Tabelle zeigt, dass sich anhand der Häufigkeiten der codierten Textsegmente
der Tradierungstypen und ihrer prozentualen Verteilung auf die verschiedenen In-
terviews bzw. Generationen allgemeine Aussagen über die Struktur des empiri-
schen Materials treffen lassen. Die Tradierungstypen sind hier bereits der Häufig-
keit nach geordnet und zur besseren Übersicht ohne die Subcodeworte dargestellt.
Wir sehen, dass unter dem Typ Opferschaft mit 1.130 Textstellen die mit Abstand
größte Zahl codiert wurde. Zudem lässt sich ablesen, dass sich dieses Struktur-
merkmal vor allem in den Zeitzeugeninterviews (36% der Textsegmente dieses
Tradierungstyps) und den Familiengesprächen (32%) ausmachen lässt.
Im Gegensatz dazu finden sich die meisten Segmente des Tradierungstyps
Rechtfertigung in den Familiengesprächen (44%), was daārauf hinweist, dass dieses
Strukturmerkmal des intergenerationellen Sprechens vor allem in actu stattfindet,
also wenn die Familien bzw. die drei Generationen zusammensitzen.
Der Typ Distanzierung findet sich wiederum vornehmlich in den Zeitzeugen-
gesprächen (44%), was darauf hindeutet, dass die Zeitzeugen sich vor allem gegen-
über den Interviewern als lediglich distanzierte Beobachter des nationalsozialisti-
schen Regimes positionieren. In den Familiengesprächen ist dieser Typ ebenfalls
noch stark vertreten (38%), d. h. auch gegenüber (oder gemeinsam mit) den Fami-
lienangehörigen findet ein hohes Maß an Distanzierung vom Nationalsozialismus
statt.
Ähnliches gilt auch noch für den Typ Faszination. Hier ist aber bemerkenswert,
wie die Prozentwerte der Kinder- und Enkelgeneration wieder ansteigen. In ihren
Einzelinterviews finden sich also vermehrt Textstellen, die ihre Faszination für be-
stimmte Elemente der NS-Herrschaft zum Ausdruck bringen.
Das Strukturmerkmal Heldentum ist mit 306 Textsegmenten, verglichen mit
dem Typ Opferschaft nicht mehr so stark im Material vorhanden. Trotzdem ist
140 Olaf Jensen
seine prozentuale Verteilung über die Generationen recht interessant. Die meisten
Textsegmente finden sich wieder in den Interviews mit den Zeitzeugen des Natio-
nalsozialismus (46%). Auch die nachfolgenden Generationen sprechen in ihren
Einzelinterviews, gemessen am Gesamtvolumen der unter diesem Typ codierten
Textstellen, noch recht häufig über die „Heldentaten“ ihrer Eltern bzw. Großeltern
(17% bzw. 10% der Textsegmente). Im Gegensatz zu den anderen Tradierungsty-
pen werden diese aber in den Familiengesprächen deutlich weniger thematisiert, als
dies bei den anderen Typen der Fall war.
Über die absolute Häufigkeit der Textsegmente hinaus ist von Interesse, auf
wie viele Interviewte sich die codierten Textsegmente jeweils verteilen, da es ja
durchaus Mehrfachnennungen zu den einzelnen Strukturmerkmalen geben kann.
Dies kann in MAXQDA auch manuell ausgezählt werden, besser aber ist, die Ma-
trix der Häufigkeiten in ein Statistikprogramm (hier SPSS) zu importieren und die
absoluten Häufigkeiten der Codeworte in dichotome Werte (1/0) für vorhan-
den/nicht vorhanden umzucodieren. Über entsprechende Zusammenfassungen
und Auswahloperationen der Daten lässt sich anschließend sichtbar machen, wie
viele Interviewte sich jeweils hinter den codierten Segmenten verbergen (Tab. 3):
Tradierungstyp Textsegmente
Gesamt Zeitzeugen Kinder Enkel
Segmente (n=48/100%) Segmente (n=50/100%) Segmente (n=44/100%)
Opferschaft 1.130 404 44 (92%) 248 48 (96%) 114 36 (82%)
Rechtfertigung 605 188 37 (77%) 96 30 (60%) 56 23 (52%)
Distanzierung 484 211 39 (81%) 58 20 (40%) 30 19 (43%)
Faszination 374 159 34 (71%) 55 27 (54%) 36 17 (37%)
Heldentum 306 142 31 (65%) 51 26 (52%) 30 16 (36%)
Textsegmente 2.899 1.104 508 266
Gesamt
Tab. 3: Verteilung der codierten Textsegmente auf die Interviewten (ohne Familiengespräche)
Bis auf wenige Abweichungen wird hier das bisherige Ranking der Tradierungsty-
pen bestätigt. Für die Zeitzeugengeneration bleibt es bei der Reihenfolge der Tra-
dierungstypen, wie sie sich anhand der Häufigkeit der Textsegmente dargestellt hat
(vgl. Tab. 2).
Der Tradierungstyp Opferschaft tritt bei 44 der 48 Zeitzeugen auf, der Typ
Distanzierung am zweithäufigsten bei 39 Zeitzeugen, gefolgt vom Typ Rechtferti-
Der Nationalsozialismus im familialen Dialog 141
gung (37), Faszination (34) und Heldentum (31). Bei der Kinder- und bei der En-
kelgeneration ändern sich jeweils die Rangfolgen ab dem dritten Platz.
Bei der Kindergeneration folgt auf Opferschaft (48 von 50 Interviewten) und
Rechtfertigung (30) nun der Typ Faszination (27) vor Heldentum (26). Der Typ
Distanzierung tritt noch bei 20 Angehörigen dieser Generation auf, obwohl hier
die drittmeisten Textsegmente codiert wurden. Hier verbergen sich also Mehrfach-
nennungen. Bei der Enkelgeneration rückt der Tradierungstyp Distanzierung inter-
essanterweise einen Platz auf. Statt bisher an vierter Stelle, steht er hier nun nach
Opferschaft (36 der 44 Enkel) und Rechtfertigung (23) mit 19 Enkeln an dritter
Position. Faszination (17) und Heldentum (16) sind entsprechend nach hinten ge-
rückt.11
Die leichten Veränderungen bei den fallbasierten Häufigkeiten der Codeworte
haben gezeigt, dass es durchaus sinnvoll ist, die absoluten Häufigkeiten aus MAX-
QDA auf diese Weise zu überprüfen bzw. zu ergänzen, um fallbezogene Aussagen
treffen-, bzw. die Stichprobe noch genauer beschreiben zu können.
4 Abschließende Bemerkungen
Die dargestellten qualitativen und quantitativen Analysen der vorliegenden Mehr-
generationen-Interviews zum Nationalsozialismus sind der Versuch, die Stichprobe
von 182 Interviews anhand der Häufigkeit der fünf Tradierungstypen, die die
Struktur und den Inhalt der intergenerationellen Kommunikation beschreiben, ex-
emplarisch darzustellen. Dies musste an dieser Stelle notwendig fragmentarisch
bleiben und auf Beispiele aus den Interviews musste weitgehend verzichtet werden.
Es sollte aber deutlich geworden sein, wie gewinnbringend der Einsatz eines Text-
analysesystems wie MAXQDA für die Auswertung von verbalem Datenmaterial
sein kann. Da qualitative Studien in der Regel aufgrund der arbeitsā- und zeitinten-
siven hermeneutischen Analyse verbaler Daten nur kleine Fallzahlen auswerten
können, besteht mit der Kombination aus hermeneutischen und EDV-basierten
inhaltsanalytischen Verfahren die Möglichkeit, qualitative Forschung auf größere
Fallzahlen zu stützen und neben Einzelfallanalysen auch breiter angelegte struktu-
relle Betrachtungen des Datenmaterials vorzunehmen.
Im Rahmen der hier vorgestellten Methodenkombination aus induktiver Kate-
gorienbildung und anschließender Qualitativer Inhaltsanalyse ermöglicht ein
11 Eine entsprechende Aufschlüsselung wurde auch für die Familiengespräche erstellt, um den Anteil,
den die einzelnen Generationen jeweils haben, sichtbar zu machen.
142 Olaf Jensen
Hilfsmittel wie MAXQDA, eine recht große Zahl Interviews in einer akzeptablen
Zeit systematisch und methodisch kontrolliert auszuwerten. Der computergestützte
Auswertungsprozess ist dabei um einiges kreativer und flexibler, da z. B. die Code-
worte jederzeit variiert oder ausdifferenziert werden können, wenn es im Laufe der
Codierarbeit notwendig erscheint. Ebenso können sie im Zuge der Überarbeitung
des Codewortschemas wieder zusammengefasst werden, falls sie zu detailliert gera-
ten sind. Möglichkeiten wie diese fördern im Analyseprozess die besonders von der
Grounded Theory geforderte potenzielle Offenheit gegenüber dem Datenmaterial,
da es keine große Mühe macht, zusätzliche „Phänomene“ erst einmal zu codieren,
um im weiteren Verlauf der Analyse zu entscheiden, welche Perspektiven weiter
untersucht werden sollen. Dies verhindert zudem ein starres Festhalten an vorher
(oftmals theoretisch) entwickelten Kategorienschemata, die dem Datenmaterial
womöglich nicht gerecht werden. Zwar birgt dies die Gefahr, dass die Auswertung
deutlich komplexer gerät, als geplant, dafür stehen aber mit den vielen Zähl-, Aus-
wahl-, Such-, Sortier-, Import- und Exportfunktionen sehr viele Hilfsmittel bereit,
die die Analyse erleichtern.
Besonders für die Auswertung der hier vorgestellten Mehrgenerationenstudie
hat sich dieses Verfahren als sehr hilfreich erwiesen, da es ermöglichte, viele unter-
schiedliche Betrachtungsebenen des Materials ausschöpfen zu können, die bei rei-
ner „Papierarbeit“ nicht leistbar gewesen wären. Neben der Gliederung der Kom-
munikationsstruktur mit Hilfe der dargestellten fünf Tradierungstypen konnte
durch eine große Zahl von Subkategorien immer auch erfasst werden, was inhalt-
lich über Nationalsozialismus, Krieg, Holocaust und Nachkriegszeit innerhalb der
Familien erzählt wird. Dadurch konnten die drei Generationen horizontal und ver-
tikal nach Form und Inhalt der Kommunikation miteinander verglichen werden.
Schließlich war es auch möglich, die Interviews der jeweiligen Familie komplett zu
betrachten, miteinander zu vergleichen und einzelne Familien entsprechend ihrer
Kommunikationsstruktur exemplarisch darzustellen.
Zwar konnten bei dieser Auswertung nicht alle Aspekte, die in den Interviews
vorhanden sind, einer intensiven Analyse unterzogen werden, da im Mittelāpunkt
die Überprüfung und Ausarbeitung der bereits vorhandenen Tradierungstypen
stand. Im Rahmen des Forschungsprojektes, in dem diese Analyse erfolgte, liegen
aber bereits eine Reihe von Ergebnissen vor, an die hier angeschlossen wird und
die zusammengenommen ein detailliertes und differenziertes Bild des intergenera-
tionellen Sprechens über die nationalsozialistische Vergangenheit in Deutschland
ergeben (vgl. Welzer et al. 2002, Moller 2003, Jensen 2004a).
Neue Datenquellen für die Sozialforschung: Analyse
von Internetdaten
Zusammenfassung
Das Internet stellt für die Sozialwissenschaften eine ergiebige Datenquelle dar. Der Beitrag stellt die ver-
schiedenen Formen von Internetdaten (u. a. Chat, Foren und Mailinglisten) und ihre Charakteristika wie
etwa Materialumfang und Zugänglichkeit der Daten dar. Zudem werden die Aufbereitungsmöglichkei-
ten für die computergestützte Analyse diskutiert. Das konkrete Auswertungsbeispiel beschreibt die
theoriegeleitete Inhaltsanalyse der Forenbeiträge eines universitären Onlineseminars. Ziel der Untersu-
chung war es, festzustellen ob der zu Beginn der Veranstaltung anhand eines Fragebogens festgestellte
Lerntyp jedes Teilnehmenden auch beim virtuellen Austausch der Personen im Onlineforum bevorzugt
wird oder ob er sich ändert. Detailliert beschrieben sind die Schritte von der Datenerhebung und
Datenvorbereitung, dem Datenimport in MAXQDA , dem Codieren des Textmaterials nach einem Ka-
tegoriensystem bis hin zur Visualisierung der Codeüberschneidungen im Code-Relations-Browser.
Medium
Chat Transkript der Chatsitzung, Bei Text-Export bleibt Textfor- Bilder und Grafiken spielen
Inhalt meist nur vollständig matierung erhalten, meist ist keine Rolle; Emoticons
wenn man selbst im Chat keine Korrektur nötig. werden eventuell nicht über-
anwesend ist Export: sehr tragen
leicht bei HTML Chat bis un-
möglich bei Java Chat (je
nach Art der Chat-
Applikation)
Foren Alle zugänglichen Forenbei- Bei Export mittels markieren Bleiben erhalten, wenn man
träge Export: sehr leicht bei und kopieren werden u.U. stö- nicht Exportvariante
eigenem Forum, mittel bis rende Tabellen, Buttons und „Druckansicht“ wählt
arbeitsaufwändig bei fremden Links mitübertragen, evtl. ist
Foren, weil jedes Forenthe- viel Zeitaufwand für die Korrek-
ma einzeln markiert und ko- tur nötig. Tipp: Forenfunktion
piert werden muss. Unmög- „Druckansicht“ o.ä. nutzen,
lich bei passwortgeschützten diese stellen Forentexte ohne
Forenbereichen. Grafikformatierung und Rah-
mentabellen dar.
Online-Konferenzen Abstracts als PDF-, Word- Fußnoten und Seitenzahlen in Grafiken, Diagramme und
oder HTML-Datei, Forenbei- PDF-Datei werden beim Export Bilder bleiben erhalten.
träge der Teilnehmenden, zu MAXQDA in den Text ein- Tipp: Eventuell auch mit
Rundmails, Infos Export: So- gebaut, eventuell korrekturbe- Screenshot probieren
fern zugänglich, sehr leichter dürftig (DRUCK Taste auf der Tas-
Export der PDFs, Word- und tatur und STRG+V in Word
HTML-Daten zum Einfügen)
Mailinglisten Sammlung von E-Mails Ex- Möglicherweise gehen HTML Grafiken oder Attachments
port: Sehr leichter Export Formatierung verloren. werden über Outlook nicht
aller E-Mails eines Outlook mit exportiert
Ordners mit der Outlookex-
portfunktion als CSV-Datei.
Webseiten Alle Webseiten des Internet Viel Formatierungsarbeit wenn Bilder und Grafiken bleiben
Export: aufwändig, weil jede man nur einzelne Textpassa- bei Export über Word erhal-
Webseite einzeln aufgerufen, gen benötigt, Formatierung ten
markiert und kopiert werden sieht in Word und MAXQDA
muss anders aus, als im Webbrow-
ser
Die folgende Tabelle zeigt, dass häufig kaum Informationen über die Textprodu-
zenten vorhanden sind bzw. dass die verfügbaren Informationen nicht zuverlässig
sind. Dies gilt trotz der Pflicht zum Impressum vor allem für Webseiten, hier ist
eine verallgemeinernde Betrachtung über die Zuverlässigkeit und Authentizität der
Daten schlichtweg nicht möglich.
146 Thorsten Dresing, Udo Kuckartz
1 In der Zeitschrift „Die Zeit“ wird wie folgt zur Beteiligung an dieser Diskussion aufgerufen: „Was
bedeutet es für Sie, deutsch zu sein? Schicken Sie uns Ihre Erinnerungen, Erfahrungen und Gedan-
ken. Zeit.de veröffentlicht ausgewählte Einsendungen. Außerdem wertet das Institut für Medienwis-
senschaft der Ruhr-Universität Bochum Ihre Einsendungen im Rahmen einer Dissertation aus.“
148 Thorsten Dresing, Udo Kuckartz
Text-Retrieval Code-Häufigkeiten
Interpretation
Relativ einfach gestaltet sich die Forenauswertung bei den bereits erwähnten Foren
der Shell-Jugendstudie und der Umfrage „Was ist deutsch“ der Zeitschrift „Die
Zeit“, bei denen sich die Diskussionsbeiträge zusammen mit einigen Rahmendaten
hintereinander in einer Datei befinden.
Bei der Aufbereitung der Texte muss als erstes entschieden werden, ob man
den gesamten Textkorpus als einen Text behandeln oder ob man die Beiträge ge-
sondert als Einzeltexte auswerten möchte. Wählt man die zweite Variante, erhält
man im QDA-Programm folglich so viele Primärtexte wie es Beiträge im Forum
gibt. Eine allgemeingültige Regel, mit deren Hilfe man diese Entscheidung treffen
könnte, existiert nicht, vielmehr kommt es darauf an, welche Art von Fragen man
an das Datenmaterial stellen möchte. Im Falle der Shell-Jugendstudie kann etwa ge-
fragt werden:
x Wie viele Beiträge gibt es überhaupt in einem bestimmten Zeitraum?
x Wie alt sind die Personen, die sich beteiligen? Gibt es Unterschiede nach
Geschlecht (bei der Lektüre fällt bspw. auf, dass es häufig Schulklassen
sind, die sich im Unterricht mit der Studie beschäftigen)? Zu beachten sind
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 149
man an das vorliegende Material stellt. Aus der Perspektive dieser Fragen lässt sich
dann ein Analyseprozess konzipieren, der durchaus auch zirkuläre Elemente ent-
halten kann.
Der erste Schritt des Auswertungsprozesses besteht in der Datenbeschaffung
aus dem Netz, d. h. im Fall der Jugendstudie im Kopieren der Daten im Internet-
Browser und Einfügen in eine Word-Textdatei (oder eine andere Textverarbei-
tungssoftware), ggf. sind Copyright-Vermerke zu respektieren.
Im zweiten Schritt werden die Daten (d. h. die Word-Datei) für die Auswertung
vorbereitet. Hat man sich dafür entschieden, die Beiträge in Form einzelner Texte
zu analysieren, muss das Textmaterial entweder in entsprechend viele Einzeldateien
aufgeteilt werden oder man nutzt entsprechende Features der QDA-Software.
MAXQDA offeriert mit dem Textpreprozessor eine solche Möglichkeit, diese Art
der Textvorbereitung vorzunehmen. Fügt man vor jedem Text eine Zeile mit dem
Schlüsselwort „#TEXT“ ein, so wird dies als Anfang eines neuen Forenbeitrags
interpretiert und ein neuer Text in der Liste der Texte erzeugt. Eine sequenzielle
Text-Identifikationsnummer wird automatisch eingefügt. Auch lassen sich Passa-
gen des Textes bereits vorab codieren, indem zu Beginn der jeweiligen Textpassage
eine Zeile eingefügt wird, die das Schlüsselwort „#CODE“ und den Code enthält,
der zugeordnet werden soll (z. B. „#CODEkategorie-abc“). Das Ende des zu co-
dierenden Abschnitts wird durch eine Zeile mit dem Schlüsselwort
„#ENDCODE“ festgelegt. Dies kann z. B. wie bei dem unten dargestellten Bei-
spiel der Auswertung der Forenbeiträge eines Online-Seminars dazu genutzt wer-
den, um vorab den Autor bzw. die Autorin eines Beitrags zu codieren. Bei einem
einfach gestalteten Forum wie dem der Jugendstudie ist dies nicht erforderlich,
man kann sofort mit der Codierung der Beiträge beginnen. In diesem Fall haben
wir ein induktives Vorgehen gewählt und haben auf der Basis einer Satz-für-Satz
Analyse Kategorien gebildet. Für die Kategorien Lob und Kritik sahen die Subka-
tegorien wie folgt aus:
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 151
Kritik Lob
Kritik allgemein (bin enttäuscht) Gefallen allgemein (gut-okay-gefällt mir)
Sprache interessante Studie
bestimmtes Thema fehlt gute Darstellung
Studie ist langweilig gute Webseite
Resultate sind nichts Neues wichtige Sache
Studie ist praxisfern sonstiges
zu viel Statistik
Geld vergeudet
wenig übersichtlich
Fragebogen fehlt
sonstiges
Die Ergebnisse der Auswertung sollen hier nur schlaglichtartig beleuchtet werden:
Die Analyse der Codehäufigkeiten zeigte, dass deutlich mehr Lob als Kritik ausge-
sprochen wurde. Mehrheitlich handelt es sich dabei um unspezifisches Lob im Stile
von „Die Studie gefällt mir gut“, „Studie ist okay“ oder „Tolle Studie“. Auch die
zweithäufigste Form des Lobs („Die Studie ist interessant“) verbleibt im Allgemei-
nen, aber es gibt nur wenige Rückmeldungen, in denen gesagt wird, was genau man
interessant findet. Auffällig häufig finden sich Selbstdarstellungen der Autoren in
den Meinungsäußerungen, meist handelt es sich dabei um Mitteilungen des Sinns
und Zwecks der eigenen Arbeit bzw. der Gründe für das eigene Interesse an der
Studie. Der Hauptkritikpunkt betrifft die Sprache der Studie, die als zu wissen-
schaftlich und schwer verständlich empfunden wird. Sehr häufig wird auch mo-
niert, dass ein bestimmtes Thema, das man als wichtig beurteilt, in der Studie nicht
oder zu wenig berücksichtigt ist. Weitere Kritikpunkte sind eher allgemeiner Natur:
Die Studie sei langweilig, praxisfern oder enthalte schlichtweg nichts Neues. Die
von MAXQDA erstellte Matrix Texte mal Codes ermöglicht weitere statistische
Auswertungen, etwa die Untersuchung der wechselseitigen Kontingenzen der Ka-
tegorien.
Eine Auswertung von Foren wie dem der Jugendstudie ist computergestützt
recht einfach zu bewerkstelligen. In vertretbarem Zeitaufwand lässt sich ein guter
Überblick gewinnen, der für die Autoren ein gutes Feedback darstellt und wertvolle
Hinweise – nicht nur in Form von Häufigkeitsverteilungen, sondern auch in Form
von einzelnen Beiträgen – geben kann. Die Auswertung ist explorativ und ohne
einengenden Theoriebezug. Bei dem im Folgenden ausführlich dargestellten Bei-
152 Thorsten Dresing, Udo Kuckartz
spiel verhält es sich anders. Dort ist der Auswertungsprozess wesentlich aufwändi-
ger und von vornherein auf eine Theorie bezogen.
Abb. 2: Überblick der Diskussionsthemen der Gruppe „Helden wie wir“ im Forum des Online-
seminars im Wintersemester 2003/04
Wenn man jetzt in eines der dargestellten Themen hineingeht, so kann man die
Gruppendiskussion, die dort stattgefunden hat, nachāvollziehen. Im nachfolgenden
Bild sieht man einen Ausschnitt aus dem Thread „Themenblock 6…“. Die Person
„tiede“ legt eine Idee zur Gestaltung der aktuellen Aufgabe dar. Aus Platzmangel
sind die darauf folgenden Antworten hier nicht gelistet. Neben dem Inhalt der
Diskussion ist es auch interessant, die Uhrzeit der jeweiligen Antworterstellung zu
2 PHPBB (www.phpbb.de) ist ein reines Online-Diskussionsforum und kostenlos verfügbar. Es be-
sitzt eine große Entwicklergemeinde mit über 10.000 Teilnehmern, ist einfach zu bedienen und den-
noch komplex im Funktionsumfang und kann aktuell mit etwa 200.000 Userbeiträgen aufwarten.
Darüber hinaus ist es in über 21 Sprachen verfügbar und kann recht einfach angepasst werden. Ad-
ministratoren benötigen als technische Voraussetzung nur einen Webspace, der PHP unterstützt
und eine MySQL-Datenbank zur Verfügung hat. Weitere Informationen zur verfügbaren Adaption
des im Onlineseminar verwendeten Forums finden Sie unter www.textanalyse.com.
154 Thorsten Dresing, Udo Kuckartz
Abb. 3: Auszug aus einer Diskussion der Gruppe „Helden wie wir“ im Forum des Onlinesemi-
nars im Wintersemester 2003/04
Es ist möglich, bei allen über einen Browser zugänglichen Forenbeiträgen und
Webseiten das dort enthaltene Textmaterial zu exportieren, indem man den ge-
wünschten Text markiert, kopiert, ihn in Word oder einem ähnlichen Textverarbei-
tungsprogramm wieder einfügt und als *.rtf Datei abspeichert. Diese Vorgehens-
weise ist aber mit sehr viel Arbeit verbunden, da man diese Schritte für jeden ein-
zelnen Thread eines Forums durchführen und dabei eventuelle Fehlformatierungen
in Word korrigieren muss (eingefügte und störende Tabellen, Grafikelemente, die
nicht gebraucht werden, Personenzuordnungen korrigieren etc.). In einem stark
genutzten Forum, wie unserem Onlineseminar, waren mehr als 290 einzelne
Threads einzulesen. Um diesen zeitlichen und technischen Schwierigkeiten zu ent-
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 155
3 Das dazu notwendige Tool kann kostenlos genutzt werden und ist unter
www.phpbb.de/topic54220.html erhältlich (weitere Informationen auch auf www.textanalyse.com).
156 Thorsten Dresing, Udo Kuckartz
Nach Abschluss der Zuordnung aller Forenbeiträge konnte nun die absolute Häu-
figkeit der Codierungen differenziert nach dem zugeordneten Stil und den vorab
codierten Personen ermittelt werden. Alle Forenbeiträge sind durch den Preprozes-
sorvorgang nach Personen codiert worden. Zudem sind alle Beiträge manuell auch
nach dem oben beschrieben Lernstil codiert. Sucht man nun gezielt nach den
Codeüberschneidungen, z. B. Lernstil KE und Person Bo, lassen sich für uns wich-
tige Aussagen gewinnen, wie bspw. „44 codierte Segmente4 zu ‚konkreter Erfah-
rung’ sind auch der Person ‚Bo’ zugeordnet“. Die Information über die absolute
Häufigkeit der Codeüberschneidungen liefert der Code-Relation Browser in MAX-
QDA.
4 Ein codiertes Segment war in unserem Fall immer ein Satz. 30 Segmente bedeuten hier also 30 Sätze
in den Forenbeiträgen. KE=44 ermittelt sich bspw. aus 12 mal KE/1, 22 mal KE/2, 8 mal KE/3
und 2 mal KE/4.
160 Thorsten Dresing, Udo Kuckartz
Über diese Aussagen ist es möglich, den Lernstil und -typ einer Person wie sie ihn
auf der Lernplattform im Forum angewendet hat, zu bestimmen. Der „Code-
Relation-Browser“ in MAXQDA hilft dabei und liefert eine visuelle Darstellung
von Codeüberschneidungen. Diese visuelle Darstellung, die ähnlich einer Tabelle
aufgebaut ist, listet alle (aktivierten) Codes in der Zeile und Spalte. In den jeweili-
gen Schnittpunkten wird die absolute Häufigkeit der Überschneidungen der jewei-
ligen Codes als farbiger Kasten dargestellt, der je nach absoluter Häufigkeit seine
Größe und Farbe verändert (siehe Abb. 7). Je mehr Überschneidungen der zugehö-
rigen Codes, desto größer der Kasten. Auf den ersten Blick erkennt man in Abb. 8
zunächst einmal, wo es viele oder wenige Überschneidungen gibt. Ferner erkennt
man bspw., dass viele Textstellen sowohl der Person „Irschlin“ (Codewort „Ir-
schlin“ in der Spalte), als auch dem Lernstil der konkreten Erfahrung zugeordnet
wurden (großes Rechteck bei „Irschlin“ und „Konkrete Erfahrung - KE-3“). Diese
Datenansicht, die die Häufigkeit der Codeüberschneidungen visuell darstellt, lässt
sich auch als Datenmatrix exportieren und in EXCEL oder SPSS importieren, um
weitere Berechnungen vorzunehmen.
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 161
So kann man durch einfaches Ablesen erkennen, in wie vielen Segmenten (in
unserem Fall Sätzen) der Person „Bo“, sich für uns konkrete Erfahrung widerspie-
gelt (hier 44). Mittels dieser Daten konnte der Lernstil errechnet werden, den die
Person „Bo“ in der kooperativen Onlinearbeit angewendet hat. Mittels Umwand-
lung5 wurden die vorliegenden Daten von Fragebogen und Auszählungen der Co-
dierungen verglichen.
Bei neun von fünfzehn Personen wird in der Forenanalyse ein anderer Lerntyp
als durch den Fragebogen vor Seminarbeginn festgestellt. Dies spricht eher für ein
gemischtes und uneinheitliches Bild. Schaut man sich die Daten aber genauer an,
so wird interessanterweise ein nahezu einheitliches Bild der Veränderung bei allen
untersuchten Teilnehmenden sichtbar. 14 von 15 Teilnehmenden zeigen auf der Y-
Achse, also der Dimension mit den Lernstilpolen konkrete Erfahrung und abstrak-
te Begriffsbildung, eine sehr deutliche Verschiebung in Richtung konkreter Erfah-
rung. Die Stärke der Verschiebung liegt immerhin zwischen 25% und 50% der Ge-
samtspanne, also einem beträchtlich großen Wert. Der problemorientierte Lernan-
satz, der im Seminarmodell verfolgt wurde, und der Projektcharakter der Aufgaben
in den Themenblöcken kann sicher als eine wichtige Ursache dafür gewertet wer-
den. Der Lernstil ist nach Kolb kein feststehender Wert, sondern bezeichnet nur
eine grundlegende Präferenz, die je nach Situation auch anpassbar ist. In den Lern-
einheiten vor allem die aktive Anwendung und Umsetzung in der Arbeitsgruppe
gefördert. Allerdings würde in diesem Fall die Vermutung nahe liegen, dass sich
eine ähnliche Veränderung des Lernstils auch auf der zweiten Dimension vollzieht,
nämlich zugunsten des aktiven Experimentierens im Gegensatz zum reflektiven
Beobachten. Diese These wird aber von dem vorliegenden Datenmaterial nicht ge-
stützt. Also gibt es vermutlich weitere Faktoren, die eine so deutliche Veränderung
zugunsten der konkreten Erfahrung bewirkt haben. Konkrete Erfahrung bezieht
sich nach der Operationalisierung Schäfers (2004) auf den Ausdruck von Gefühlen,
eigenen Erfahrungen, das Bekunden von Interesse an anderen Gruppenmitgliedern
und das Nachfragen nach der persönlichen Meinung anderer. Unbestritten ist, dass
die Onlinesituation eine mangelnde soziale Präsenz mit sich bringt. Die verstärkte
Äußerung konkreter Erfahrungen könnte also auch als ein Versuch gesehen wer-
den, wichtige Funktionen für eine verbesserte soziale Repräsentation der einzelnen
Person auf der netzbasierten Lernplattform zu übernehmen und somit zusätzliche
5 Mit der Berechnung für X = (AE-RB)/(AE+RB) und Y= (AB-KE)/(AB+KE), erhält man einen
Wert zwischen -1 und +1, wobei AE für die absolute Häufigkeit von „aktiver Erfahrung“ steht usw.
Auf dieser Basis sind die Ergebnisse des Fragebogens und der Forenbeitragsauswertung vergleich-
bar.
162 Thorsten Dresing, Udo Kuckartz
5 Ausblick
Internetdaten lassen sich schon heute sehr gut mit QDA-Software auswerten. Es
ist davon auszugehen, dass das Internet in Zukunft als Datenquelle noch an Bedeu-
tung zunehmen wird. Methoden zur Auswertung von Onlineforen oder qualitati-
ven Online-Befragungen stellen deshalb vermutlich wachsende Felder sozialwis-
senschaftlicher Forschungsmethoden dar. Es lassen sich problemlos die gebräuch-
lichen Varianten qualitativer Analysen durchführen, z. B. thematisches Codieren,
zusammenfassende Inhaltsanalyse, Theorie generierendes Codieren im Stile der
Gounded Theory oder, wie im ausführlichen Beispiel dieses Beitrags dargelegt,
Theorie orientiertes Codieren (hier auf der Grundlage einer Theorie der Lernstile).
Als besonders nützlich erweisen sich dabei die durch QDA-Software gegebenen
Möglichkeiten zu visuellen Darstellungen, nicht nur des Kategoriensystems und
seiner Struktur, sondern auch der Codierungen pro Dokument und der Über-
schneidungen von Codes. In dieser Richtung, d. h. der besseren Visualisierung von
Koinzidenzen und Zusammenhängen von Codes, ist QDA-Software erweiterbar
und verbesserungsfähig.
1000 Fragen zur Bioethik –
Qualitative Analyse eines Onlineforums unter
Einsatz der quantitativen Software MAXDictio
Zusammenfassung
Das Internetforum „1000fragen.de“ bietet eine Plattform für alle Interessierten, ihre Meinungen zu Bio-
ethik zu äußern, auszutauschen und zu diskutieren. Der vorliegende Artikel stellt ausgewählte Ergebnis-
se einer Analyse der Forumsbeiträge vor, wobei ein Fokus auf der Diskursanalyse liegt. Zwar hat das
Forschungsprojekt insbesondere die qualitative Auswertung im Blick, doch präsentieren die Autoren
hier ihr methodisches Vorgehen bei einer quantiativen Analyse mit der Unterstützung durch das Pro-
grammmodul MAXDictio. An eine Beschreibung, wie die umfangreiche Datenmenge für die computer-
gestützte Bearbeitung aufbereitet wurde, schließt sich die Vorstellung von drei Strategien bei der quanta-
tiven Inhaltsanalyse an: eine diktionärsbasierte Wortschatzanalyse, der Vergleich von Männern und
Frauen sowie eine Faktorenanalyse der Diktionärswörter.
1 Die Studie unter Leitung von Prof. Dr. Anne Waldschmidt (Universität zu Köln, Soziologie in der
Heilpädagogik, Sozialpolitik und Sozialmanagement) wurde von Aktion Mensch finanziell gefördert
(Laufzeit: 2004 bis 2007).
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 165
nun „Patenschaften“ für ausgesuchte Fragen und stellten den Besucher/-innen der
Internetseiten ihre Stellungnahmen zur Diskussion.
Mit der Festlegung auf eine Summe von 10.000 Fragen und den dazu gehörigen
34.611 Kommentaren wurde dem Interesse des Auftraggebers, eine Totalerhebung
durchzuführen, im Rahmen des praktisch Möglichen entsprochen.2 Im Sommer
2006 fand eine Erweiterung des Korpus um 78 Fragen mit Stellungnahmen promi-
nenter Paten und die daraufhin abgegebenen 20.585 Kommentare statt.
Die Daten wurden uns von den Betreibern des Internetforums in Form von
Excel-Dateien übermittelt. Ein Datensatz enthielt außer dem Text der Frage bzw.
des Kommentars eine ID-Nummer, freiwillige persönliche Angaben (Name und
Wohnort) der User, den Zeitpunkt des Eintrags und eine der vorgegebenen The-
menkategorien, denen die Teilnehmer/-innen ihre Beiträge zuordnen mussten.
Für das Einlesen vieler kurzer Texte wurde der Preprozessor von MAXQDA be-
nutzt, der innerhalb eines Dokuments Textanfänge durch das Trennzeichen
„#TEXT“ erkennen kann. Vor der Konvertierung der Excel-Datei in ein rtf-
Dokument wurde vor dem Textfeld der Fragen eine Spalte eingefügt, die nur das
Trennzeichen enthielt (s. Tab. 1). Beim Einlesen generierte MAXQDA automa-
tisch eine Datei mit 10.000 Texten, die jeweils eine Frage enthielten. Für die Analy-
se ganzer Diskussionsfäden („Threads“) wurden mit Hilfe der Sortierfunktion in
der Excel-Ausgangsdatei jedem Fragetext die Kommentare mit identischer Fragen-
ID (s. Tab. 2) beigefügt. Der Einlesevorgang ergab somit eine weitere Datei mit
ebenfalls 10.000 Texten, die das komplette Material beinhaltete.
2 Nicht untersucht werden die von den Moderatoren/-innen gefilterten Beiträge, die aufgrund der
Verletzung von Teilnahmeregeln nicht veröffentlicht wurden.
166 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein
Soweit zur Aufbereitung der Daten für die Analyse. Um das anschließend entwi-
ckelte Methodendesign nachvollziehen zu können, ist ein kurzer Abriss methodo-
logischer Überlegungen erforderlich. Die Methodologie der Studie folgt dem An-
satz der Diskursforschung, die sowohl quantitative als auch interpretative Metho-
den zulässt (Keller 2005, Keller et al. 2005). Aus der Sicht dieser Theorie stellt der
Forschungsgegenstand, also das untersuchte Internetforum, ein „diskursives Ereig-
nis“ im zivilgesellschaftlichen Interdiskurs dar.3
Was die Diskursanalyse von anderen Arten der Textanalyse unterscheidet, ist
ihr spezifischer Blick auf die Dokumente: Ihr zufolge kommt der Redeweise, d. h.
der diskursiven Praxis ein bedeutender Stellenwert bei der Konstituierung von Ge-
sellschaft zu. Für diese Funktion ist nicht der subjektive Sinn maßgeblich, den Ak-
teure ihren Äußerungen geben, sondern die anonymen und nicht intentionalen
Umstände, unter denen sie zustande kommen. Es geht um die Herausarbeitung ei-
ner Systematizität dessen, was im Feld der verstreuten Äußerungen faktisch sagbar
und denkbar ist. Die Kernfrage der Diskursanalyse lautet daher: „Wie kommt es,
daß eine bestimmte Aussage erschienen ist und keine andere an ihrer Stelle?“ (Fou-
cault 1990: 42)
Die diskursanalytische Perspektive wird unserem Gegenstand insofern gerecht,
als aus ihrer Sicht die Anonymität der Beiträge im Internet kein Problem für das
methodische Vorgehen darstellt. Vielmehr gilt: Die Rekonstruktion konsistenter
Sinnstrukturen (im Sinne über-individueller Wissensordnungen) kann erst im stän-
digen Vergleich einer größeren Anzahl von Texten erreicht werden. Das scheinbare
Chaos der verstreuten Äußerungen bildet den Ausgangspunkt jeder Diskursanalyse.
Nach Link (1999: 152) ist jeder Diskurs „idealiter als großer Haufen von Aussagen
definiert, die nur in ihm und durch ihn möglich sind und die zusätzlich als eine be-
stimmte Verteilung und Streuung strukturiert sind.“ Die Diskursanalyse kann also
als Typisierungsprozess aufgefasst werden, der Ordnung in einen bestimmten
„Haufen“ von Sprechakten bringt. Folglich wird die Struktur diskursiver Praktiken
erst im Prozess der Materialbearbeitung als solche identifiziert, z. B. im Bereich der
Formation der Begriffe: Spricht ein Teilnehmer vom „Embryo“ oder vom „Zell-
haufen“? Verwendet eine Teilnehmerin medizinische Terminologie, zitiert sie die
Bibel oder lässt sie eigene Erfahrungen in ihren Kommentar einfließen? Dabei
spielt es keine Rolle, wer die Autoren/-innen der einzelnen Äußerungen sind; es
kommt nur auf die Regelmäßigkeiten und Muster in der Verwendung von Begrif-
fen und Begriffsfamilien an. Die diskurstheoretische Analyse geht somit den Weg
des abduktiven Schließens (Seipel/Riecker 2003: 62): Von den beobachtbaren For-
mationen wird induktiv auf die zugrunde liegende Diskurs- oder Wissensordnung
geschlossen. Die so gewonnenen Strukturannahmen müssen wiederum am Material
überprüft werden. Um ein Bild aus Foucaults (1990) methodologischem Haupt-
werk zu benutzen: Die Forscher/-innen graben wie Archäologen die Oberfläche
auf, um zu den tiefer liegenden Schichten der untersuchten Macht-Wissen-
Formation zu gelangen.
3 Methodendesign
Die generelle methodische Orientierung unser Studie war durch den Materialkor-
pus vorgegeben: Da es sich um ein Konglomerat von sprachlichen Äußerungen
handelte, konnte es nur um eine Inhaltsanalyse gehen. Eine Reflexion verschiede-
ner möglicher Herangehensweisen unter der Vorgabe, Material und Theorie mög-
lichst gerecht zu werden, führte zu einer Kombination von qualitativem und quan-
titativem Methodeneinsatz. Das angewandte Methodendesign ließ sich in vier Pha-
sen einteilen:
Phase 1: In dieser explorativen Phase kam es darauf an, mit dem umfangreichen
und unübersichtlichen Material vertraut zu werden. Eine Reduktion der
Komplexität konnte zunächst durch Zählen und Messen erreicht werden.
Phase 2: In dieser Kernphase des Projekts sollten Konturen von Diskursordnun-
gen im Internetforum identifiziert werden. Die Auswertungstätigkeit be-
stand im Wesentlichen aus dem Kategorisieren und Systematisieren von
Äußerungen des Internetforums. Die Codiertechnik orientierte sich am
offenen Codieren der Grounded Theory, war allerdings durch den „dis-
168 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein
Daher verfolgte der erste Arbeitsschritt mit MAXDictio eine induktive Logik:
Über eine einfache Auszählung von Wörtern wollten wir zu einem Diktionär ge-
langen, das die am häufigsten genannten sinntragenden Wörter aus den 10.000 Fra-
gen zusammenfasste. Grundlage dieser ersten Wortschatzanalyse war die von
MAXDictio automatisch erstellte „Liste der Worthäufigkeiten“. Nach einem ersten
Durchlauf wurden die nicht sinntragenden Wörter und Zeichenfolgen (Artikel,
Präpositionen, Konjunktionen, Zahlen etc.) in eine Stoppliste transferiert und so-
mit von allen weiteren Zählvorgängen ausgeschlossen. Die so bereinigte Liste der
Worthäufigkeiten ergab im Ergebnis eine Verteilung mit auffälligen Häufungen
zentraler Begriffe wie „Mensch“, „Leben“, „Kind“, „Recht“. In dieser Häufigkeits-
liste waren semantisch gleiche bzw. ähnliche Wörter (z. B. „Mensch“ und „Men-
schen“) noch in verschiedene Kategorien einsortiert und demzufolge gesondert
ausgezählt worden. Um dieser Verzerrung entgegen zu wirken, wurde im nächsten
Schritt ein Diktionär erstellt, das Wortstämme und verwandte Wörter zu Lemmata
zusammenfasste. Die Zusammenstellung erfolgte nach strengen Regeln: Nur ge-
meinsame Wortstämme oder eindeutige Oberbegriffe bei Hauptwörtern bildeten
einen Diktionärseintrag. Das Lemma „Abtreibung“ bestand beispielsweise aus den
Zeichenfolgen *abtreibung*, *abtreiben*, *abgetrieben*, *abbruch*, *abort*; das
Lemma „Gefühle – Leiden“ aus: *schmerz*, *qual*, *quälen*, leid, *leiden* *litt*,
*leidest*, *leidet*.4 Die anschließende Häufigkeitszählung der Diktionärswörter5
listete pro Lemma die Summe der Einzelnennungen der jeweiligen Unterbegriffe
auf; im Ergebnis wurde wiederum eine Komplexitätsreduktion des Wortschatzes
erzielt.
Die quantitative Wortschatzanalyse der 10.000 Fragen kam zu dem überra-
schenden Resultat, dass sich aus dem sehr umfangreichen Material einige wenige
Schlüsselbegriffe heraus kristallisieren ließen. Allein das Lemma „Mensch“ wurde
fast 5.000 Mal genannt, „Leben“ verzeichnete über 2.000 Einträge, „Tod/Sterben“
kam 1.000 Mal in den Fragen vor. Neben diesen Einzelbegriffen fanden sich in der
Spitzengruppe (mindestens über 1.000 Nennungen) noch Sammelbegriffe wie
„Familie“ und formale Kategorien wie „W-Fragen“, „Bewertung“ und „Ge-/Ver-
4 Ein * vor und nach dem Suchbegriff bedeutet, dass die Zeichenfolge auch als Wortbestandteil ge-
zählt wurde. Die Suchfunktion differenzierte nicht nach Groß- und Kleinschreibung, da viele User
im Internetforum ausschließlich Kleinschreibung verwendeten.
5 Dazu muss im Programm die Funktion „MAXDictio > Nur Diktionär-Worte zählen“ eingeschaltet
werden.
170 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein
bote“. Mit 500 bis rund 1.000 Nennungen kam weiteren 16 Lemmata eine beson-
dere Bedeutung im Internetforum zu.6
Dass in einem Forum zur Bioethik über den Menschen, das Leben und das
Sterben geredet wird, ist nicht weiter verwunderlich. Allerdings ist der deutliche
Abstand dieser drei Schlüsselbegriffe zu den anderen herausgefilterten Lemmata
bemerkenswert. Das Beispiel veranschaulicht, wie eine simple Auszählung Denkan-
stöße für die qualitative Arbeit erzeugen kann: So wurden wir vor der Codierphase
für die Frage sensibilisiert, ob die User möglicherweise intuitiv Bioethik mit der
philosophischen Frage „Was ist der Mensch?“ verknüpften. Wird im alltagsweltlich
geprägten Internetdiskurs um ein neues, das Wissen aus den Biotechnologien inte-
grierendes Menschenbild gerungen?
Neben diesen Interpretationsversuchen diente die Zählung der in den 10.000
Fragen benutzten Wörter außerdem der Orientierung bei späteren Auswahlent-
scheidungen. Die Häufigkeit der Lemmata half abzuschätzen, ob es sich bei be-
stimmten Begriffen um ein geläufiges, viel diskutiertes Topos oder eher um ein
„Orchideenthema“ handelte.7
6 Diese sind: Wissenschaft/Forschung, Behinderung, Krankheit, Klonen, Recht & Gesetz, Gene,
Körper, Perfektion, Natur, Religion, Ethik, Technologie, Medizin, Gefühle-Glück Liebe Freude,
Fragen, Entscheidung.
7 Zwei der drei Einzelstudien aus Phase 4 bezogen sich auf Lemmata, die unter den „Top 20“ zu fin-
den waren: „Behinderung“ und „Klon“ (vgl. Fußnote 6).
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 171
Tab. 3 zeigt nicht das von Frauen/Männern insgesamt bevorzugte Vokabular, son-
dern nur die Lemmata mit den größten Geschlechtsunterschieden. Diejenigen in
der ersten Spalte weisen einen besonders hohen, die in der zweiten Spalte einen be-
sonders niedrigen Frauenanteil auf. Das Zählergebnis muss allerdings vorsichtig
interpretiert werden, da es sich um reine Wortnennungen handelt, ohne den Sinn-
gehalt oder Kontext einbezogen zu haben. Außerdem bezieht sich das Ergebnis
nur auf rund die Hälfte der Fragesteller (n=4.676), da den anonymen Beiträgen
keine Geschlechtsvariable zugewiesen werden konnte. Dennoch fällt auf, dass eini-
ge der typischerweise von Männern verwendeten Begriffe zum gängigen männli-
chen Geschlechtsstereotyp passen: Die Wortnennungen „Produktion“, „Nutzen“,
„Verbesserung“, „Technologie“ können einem technisch-rational-ökonomischen
Bedeutungsfeld zugeordnet werden. Auf der anderen Seite passen die Wörter „Ba-
by“, „Frau“, „Familie“, die von weiblichen Usern auffallend häufig benutzt werden,
zur weiblichen Geschlechtsnorm. Die Lemmata mit dem höchsten Frauenanteil,
„Individualität“ und „Wissen“, sind jedoch kaum in dieser Weise zu interpretieren.
Nicht zuletzt aufgrund der Virtualität der Namensnennungen in der Internet-
kommunikation wurde die geschlechtsspezifische Perspektive in den folgenden
Analysephasen wieder aufgegeben. Eine nicht zu unterschätzende Konsequenz die-
ses quantitativen Arbeitsschritts war jedoch das Aufzeigen eines möglichen gender
bias für spätere Befunde. Sollte sich im weiteren Verlauf der Untersuchung bei-
spielsweise die Semantik der Evolutionstheorie als mächtige Metapher im zivilge-
172 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein
Faktorenanalyse ausgemacht werden konnte. In anderen Fällen erwies sich die In-
terpretation einzelner Faktoren als schwierig. Die Grenzen dieses rein auf Zähler-
gebnissen beruhenden Verfahrens zeigten Faktoren mit über 20 Einträgen auf, die
von uns nicht mehr zu sinnvollen Kategorien zusammengefasst werden konnten.
Entscheidungen am Lebensende
Diktionärseintrag Faktorladung
Sterbehilfe 0,93
Hilfe 0,90
Medizin 0,70
Tod 0,48
Leiden 0,35
Willen/Selbstbestimmung 0,34
Entscheidung 0,32
Euthanasie 0,32
Evolutionstheorie
Diktionärseintrag Faktorladung
Selektion 0,62
Evolution 0,61
Gene 0,48
Natur 0,40
Philosophisch-religiöse Grundwertediskussion
Diktionärseintrag Faktorladung
Sinn 0,91
Liebe/Glück 0,64
Fragen 0,59
Leben 0,59
Religion 0,39
Tab. 4: Interpretationen ausgewählter Ergebnisse aus der Faktorenanalyse
8 Das Projektteam umfasst neben der Projektleiterin eine wissenschaftliche Mitarbeiterin, einen wis-
senschaftlichen Mitarbeiter sowie vier Hilfskräfte (in Teilzeit; Gesamtaufwand ohne Projektleiterin:
76h/Woche).
III
Ines Steinke
Zusammenfassung
Dieser Beitrag diskutiert, welche Bewertungskriterien für qualitative Forschung adäquat sind. Dazu wird
zunächst das Verhältnis der Gütekriterien der quantitativen Forschung zu Bewertungskriterien der quali-
tativen Forschung beschrieben. Im Anschluss werden übergeordnete Kriterien vorgestellt, die für die
Qualitätssicherung qualitativer wie auch quantitativer Forschung geeignet sind. Abschließend werden
Vorschläge zu zentralen Qualitätskriterien in der qualitativen Forschung formuliert.
1 Einleitung
Wer empirische Forschung betreibt, steht nicht nur vor der Aufgabe, ein Untersu-
chungsdesign aufzusetzen, die Daten zu erheben und auszuwerten und einen Ab-
schlussbericht zu schreiben. Die Forscher stehen auch vor der Frage, an Hand wel-
cher Kriterien sie die Qualität und Wissenschaftlichkeit ihrer Studie festmachen. In
der quantitativen Forschung haben sich als Qualitäts- bzw. Bewertungskriterien die
bekannten Gütekriterien Objektivität, Reliabilität und Validität über Jahrzehnte
hinweg etabliert. In der qualitativen Forschung hingegen herrscht zur Frage der
Güte- bzw. Bewertungskriterien weniger Einigkeit. Das Thema ist hier vergleichs-
weise jung. Die Ansätze sind eher skizziert als tatsächlich ausgearbeitet (Lüders
2004, 635).
Neben dem oben skizzierten wird ein weiterer Weg diskutiert, um Kriterien für
qualitative Methoden zu definieren. Die Kriterien Objektivität und Reliabilität wer-
den verworfen. Lediglich das Validitätskonzept wird aufrecht erhalten (z. B. Lege-
Qualitätssicherung in der qualitativen Forschung 179
wie 1987, Kvale 1989, Altheide/Johnson 1994). Dabei wird unter Validität sehr
unterschiedliches verstanden (vgl. Wolcott 1990: 126).
Kommunikative Validierung
Ein prominentes Beispiel für Validität in der qualitativen Forschung ist die kom-
munikative Validierung (z. B. Abels et al. 1977, Scheele/Groeben 1988, Kvale
1995). Dabei legt der Forscher sein Verständnis des Untersuchten bzw. seine In-
terpretationen dem Untersuchungspartner vor. Gemeinsam diskutieren sie dann
über die Gültigkeit des Vorgelegten.
können. Zugleich dienen sie infolge der vielgestaltigen Perspektiven auf den Unter-
suchungsgegenstand der „Erweiterung der Erkenntnismöglichkeiten“ (Flick 2004b:
98). Dadurch kann Triangulation zur Generalisierung von Ergebnissen (dem klassi-
schen Kriterium der externen Validität) beitragen (Flick 2004b: 99).
Ein dritter Weg zur Entwicklung von Bewertungskriterien konzentriert sich aus-
schließlich auf die zentralen Kennzeichen qualitativer Forschung sowie deren me-
thodologische und epistemologische Voraussetzungen. Diesen Weg sind zahlreiche
Autoren gegangen wie z. B. Richardson (1994) mit der Forderung nach „Mixed
Genres“ beim Schreiben von Forschungstexten; Mishler (1990) und Guba/Lincoln
(1989) mit dem Kriterium der Vertrauenswürdigkeit; Guba/Lincoln (1989) mit der
katalytischen Validität. Sie distanzieren sich von den klassischen Gütekriterien als
einer Art „Einheitskriterien“ und Orientierungsrahmen und formulieren stattdes-
sen Kriterien eigens für qualitative Methoden. Dafür steht z. B. das Kriterium der
Authentizität (vgl. Guba/Lincoln 1989: 245 ff., Manning 1997). Geprüft wird hier,
inwiefern der Forscher sorgfältig mit den von den Untersuchungspartnern geäußer-
ten Aussagen oder gezeigten Verhaltensweisen umgeht. Diese sollen nicht nur sen-
sibel erhoben werden, auch die Interpretation der Daten soll den in den Daten
transportierten Werten und Relevanzsetzungen der Untersuchten gerecht werden.
3 Kriterienvorschläge
Nachfolgend werden zunächst Kriterien vorgestellt, die auf jegliche empirische So-
zialforschung ungeachtet der Forschungstradition anwendbar sind. Im Anschluss
werden Kriterien, die speziell für die Bewertung qualitativer Studien angemessen
sind, beschrieben. Dabei handelt es sich teilweise um Operationalisierungen der
oben angeführten Kriterien unter Rekurs auf die Besonderheiten qualitativer For-
schung.
Verfahren Indikation/Anwendungsbereich
Fokussiertes Interview Analyse von subjektiven Bedeutungen
Halbstandardisiertes Interview Rekonstruktion subjektiver Theorien
Problemorientiertes Interview biographisch oder gesellschaftlich relevante Probleme
Experteninterview Rekonstruktion von Expertenwissen
Ethnographisches Interview Analyse offener Felder im Rahmen von Feldforschung
Narratives Interview Analyse biographischer Verläufe
Episodisches Interview Rekonstruktion von Routinen, Wandel und Situationen im Alltag
Gruppendiskussion Meinungs- und Einstellungsforschung
Gemeinsames Erzählen Familienforschung
Verfahren Indikation/Anwendungsbereich
Theoretisches Kodieren Theoriebildung in allen möglichen inhaltlichen Bereichen
Thematisches Kodieren Vergleichen von Gruppen
Qualitative Inhaltsanalyse Bearbeitung großer Datenmenge in verschiedensten inhaltlichen Fel-
dern
Konversationsanalyse formale Analyse von Alltags- und institutionellen Gesprächen
Diskursanalyse inhaltliche Analyse von Alltagsgesprächen und anderen Diskursen
Narrative Analysen Biographieforschung
Objektive Hermeneutik Aufdeckung von „objektiven“ Strukturen, anwendbar auf Texte und
Bilder
Empirische Verankerung
Es ist abzusichern, dass die Ergebnisse der empirischen Studie kein Wildwuchs o-
der frei erfunden, sondern in den Daten begründet sind. Dazu gibt es verschiedene
Möglichkeiten:
x Gibt es hinreichende Textbelege für die entwickelte Theorie?
Negatives Beispiel: Es lassen sich keine Belege in den Daten finden.
Positives Beispiel: Mehrere Belege können für die Theorie in den Daten an-
geführt werden.
x Wurde explizit nach negativen Fällen Gegenbeispielen und alternativen Les-
arten bzw. Interpretationen gesucht? Wurde versucht, die Theorie zu wider-
legen? Falsifikationen sollten als Teilelemente des Forschungsprozesses ein-
184 Ines Steinke
Verallgemeinerbarkeit
Mit diesem gemeinsamen Kriterium quantitativer und qualitativer Forschung wird
thematisiert, inwiefern die Theorie, die im Forschungsprozess entwickelt wurde,
auf andere Kontexte (Personen, Situationen, Bedingungen) transferierbar ist. An-
ders ausgedrückt wird geprüft, wofür die Analyseergebnisse repräsentativ sind. Es
geht um das Aufzeigen der Grenzen der Gültigkeit der generierten Theorie. Für die
qualitative Forschungstradition gibt es folgende Vorgehensweisen:
x Dichte Beschreibungen („thick description“), ein Konzept, das für die Eth-
nographie von Geertz (1983, 1988) entwickelt wurde, wird von Seale (1999,
108) sowie Lincoln/Guba (1985: 316) als eine Möglichkeit beschrieben, das
Problem der Verallgemeinerbarkeit in der qualitativen Forschung zu lösen.
Sehr detaillierte (dichte) Beschreibungen der Fallstudie(n) sollen dem Leser
ermöglichen, seine eigenen Schlussfolgerungen darüber zu ziehen, inwiefern
die Ergebnisse auf einen anderen Kontext übertragbar sind.
x Die zwei folgenden Techniken haben zum Ziel, die Ereignisse und Bedin-
gungen zu identifizieren, die das Phänomen hervorrufen bzw. es modifizie-
ren. Dabei sollen die Kontexte (Personen, Situationen, Bedingungen), die
nur zufällig in der Theorie enthalten waren, herausgefiltert und aus der
Theorie ausgeschlossen werden. Ergebnis ist eine im Vergleich zur dichten
Beschreibung „schlanke“ Theorie. Damit dürfte die Transferierbarkeit der
Ergebnisse besser einschätzbar sein.
a) Nachdem im Forschungsprozess eine (vorläufige) Theorie über den Un-
tersuchungsgegenstand entwickelt wurde, wird ein Gedankenexperiment
durchgeführt (in Anlehnung an Weber 1930 und Gerhardt 1986). Dabei
werden die vorliegenden Fälle daraufhin analysiert, welche Elemente, Ursa-
chen und Bedingungen letztlich essentiell sind, d. h. für das Hervorbringen
der vorläufigen Theorie ausreichend sind.
b) Es werden Fälle gesucht, die maximal und minimal verschieden zur gene-
rierten Theorie sind (Fallkontrastierung). Das kontrastierende Vergleichen
der Fälle ermöglicht eine Identifikation der Elemente, die gleichartige Fälle
miteinander teilen und so eine Selektion der relevanten Elemente (Bedin-
gungen, Interaktionen, Situationen, Ereignisse etc.)
186 Ines Steinke
x Die Technik der Triangulation (s. o.) als bewusster Mix von Methoden,
Theorien, Forschern und Datenquellen lässt sich auch hier einordnen. Eine
Variante der Methodentriangulation bzw. „Mixed Methods“ ist die Über-
führung der qualitativen Daten über dimensionale Analysen in quantitative
Daten (Variablen und Werte), was sich technisch sehr effizient mit entspre-
chender Software für qualitative Datenanalysen wie z. B. MAXQDA umset-
zen lässt. Über die so gewonnenen quantitativen Daten lässt sich die Reprä-
sentativität der qualitativen Ergebnisse statistisch absichern. Sofern die kriti-
schen Fallzahlen in der qualitativen Analyse nicht erreicht wurden, wäre,
ggf. unter Einsatz standardisierter Verfahren, eine größere Stichprobe zu
untersuchen.
Negatives Beispiel: Es werden im Abschlußbericht keine Angaben zur Ver-
allgemeinerbarkeit der Theorie getroffen. Zudem werden die Untersu-
chungskontexte nicht genau beschrieben.
Positives Beispiel: Mehrere der genannten Techniken werden eingesetzt
(z. B. Gedankenexperiment und Fallkontrastierung).
Intersubjektive Nachvollziehbarkeit
Mit der Herstellung der intersubjektiven Nachvollziehbarkeit der Studie wird die
Voraussetzung für die Bewertung der Forschung durch Dritte geschaffen. Dazu
dient in erster Linie die Dokumentation des Vorgehens, was ein für qualitative und
quantitative Forschung übergreifendes Kriterium ist (s. o.).
x Es sind die in der Studie realisierten Methoden für Erhebung und Auswer-
tung, Samplingstrategien, Transkriptionsregeln, methodische Entscheidun-
gen, zugrunde liegende Daten und Bewertungskriterien zu dokumentieren.
Die Dokumentation der Theoriegenerierung aus den Daten wird erleichtert,
wenn softwarebasierte Auswertungsmethoden wie z. B. ATLAS.ti oder
MAXQDA verwendet werden.
x Zu dokumentieren ist auch das theoretische Vorverständnis. Dies kann z. B.
dadurch erfolgen, dass der Forscher vor dem Start der empirischen Erhe-
bung die vermuteten Ergebnisse formuliert.
Negatives Beispiel: Forschungsergebnisse werden dem Leser als plausibel
dargestellt indem sich der „Autor als glaubwürdige Autorität“ inszeniert
(Lüders 2004: 634). Auf Nachvollziehbarkeit oder andere Kriterien wird
verzichtet.
Qualitätssicherung in der qualitativen Forschung 187
Positives Beispiel: Methoden, Sampling und die Begründungen für die Ent-
scheidungen, die Daten (zumindest auszugsweise) und die in der Studie
umgesetzten Bewertungskriterien werden dokumentiert.
4 Fazit
Uwe Flick
Zusammenfassung
Angesichts des derzeitig steigenden Interesses an qualitativer Forschung in Drittmittel-, Ausbildungs-
und Publikationskontexten wird die Frage nach der Qualität qualitativer Forschung mit wachsender
Dringlichkeit gestellt. Im folgenden Beitrag sollen die unterschiedlichen Wege, auf denen eine Antwort
gesucht wird, diskutiert werden. Es zeigt sich dabei, dass zunehmend Checklisten für die Bewertung
qualitativer Forschung, Anträge und Artikel entwickelt werden, die jedoch nicht ungeteilte Zustimmung
finden. Auch die Entwicklung von Kriterien bzw. die Anwendung der traditionell in der quantitativen
Forschung verbindlichen Kriterien ist in der qualitativen Forschung nicht unumstritten. Die Forderung
nach neuen, methodenangemessenen Kriterien hat zwar eine Vielzahl von Vorschlägen zur Folge ge-
habt, die jedoch weit entfernt sind von einer allgemeinen Akzeptanz und auch von einer pragmatischen
Handhabbarkeit im Sinne von Grenzwertbestimmungen zwischen guter und weniger guter qualitativer
Forschung. Da zunehmend in Frage gestellt wird, ob das Wesen guter qualitativer Forschung überhaupt
mit Kriterien bestimmt werden kann, werden abschließend zwei Strategien diskutiert, die die Qualität
qualitativer Forschung auf der Ebene des Forschungsprozesses zu bestimmen suchen.
1 Einleitung
Qualitative Forschung befindet sich in vielen Kontexten in einem starken Auf-
schwung. So sind z. B. in der deutschen Soziologie Bemühungen, qualitative For-
schung im Curriculum für die Methodenausbildung zu verankern, von einem ge-
wissen Erfolg gekennzeichnet. Die Deutsche Gesellschaft für Soziologie hat ein
Rahmenpapier verabschiedet und veröffentlicht, in dem qualitative und quantitative
Methoden ihren Platz und ihren Anteil finden – auch wenn die quantitativen Me-
thoden umfangreicher berücksichtigt werden (vgl. Rehberg 2003). Inwieweit dies
an den Fakultäten und Instituten letztlich umgesetzt wird, bleibt abzuwarten. In der
Psychologie in England bspw. wird ein ausreichender Anteil an qualitativer Metho-
dik zunehmend von der Fachgesellschaft (British Psychological Society) und dem
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 189
der British Sociological Association Medical Sociology, der aus einem Fragenkata-
log zu 20 Bereichen von der Fragestellung über das Vorgehen bei Sampling, Erhe-
bung, Analyse und Darstellung sowie Ethik besteht. Die vorgestellten Leitfragen
sind zwar hilfreich, bei der Beantwortung ist der Anwender des Kataloges jedoch
auf seine eigenen ggf. impliziten Kriterien angewiesen, wenn bspw. im Bereich 19
(Are the results credible and appropriate?) die Frage „do they address the research
question(s)“? (ebd.: 192) beantwortet werden soll.
Ein weiterer Katalog wurde von den National Institutes of Health, Office of
Behavioral and Social Sciences (NIH 2001) für den Bereich Public Health vorge-
legt. Hierbei werden vor allem Designfragen in den Vordergrund gestellt, wobei
auch Fragen der Erhebung und Analyse diesem Bereich zugerechnet werden, sowie
die Frage der Kombination von qualitativer und quantitativer Forschung. Die Er-
läuterung der relevanten Teile eines Forschungsantrags und der Fragen, die dabei
zu beachten sind, ergänzt eine Checklist. Sie enthält Items wie: „Data collection
procedures are fully explained“ (ebd.: 16). Das Ziel ist, den eingeführten Katalog
für quantitative Projekte auf die Besonderheit qualitativer Anträge hin zu modifi-
zieren.
Elliot/Fischer/Rennie (1999) haben für die klinische Psychologie einen Katalog
von Guidelines für die Publikation qualitativer Studien vorgelegt. Dieser besteht
aus zwei Bereichen, von denen der erste gleichermaßen für qualitative und quanti-
tative Forschung gelten soll. Der zweite Bereich ist auf die Besonderheiten qualita-
tiver Forschung zugeschnitten. Der erste Teil behandelt Fragen der Angemessen-
heit der Methodenwahl oder der ausreichenden Spezifikation der Methoden. Im
zweiten Teil stehen Fragen der ausreichenden Verankerung von Aussagen in Bei-
spielen, die Kohärenz von Ergebnissen oder die Anwendung von „credibility
checks“ (z. B. Member Checks oder Peer Debriefing, Triangulation etc. – 1999:
229) im Zentrum. Wie die heftige Reaktion von Reicher (2000) verdeutlicht, sind
diese Guidelines trotz ihrer relativ allgemeinen Formulierung nicht unbedingt kon-
sensfähig.
Auf Initiative der Deutschen Forschungsgemeinschaft hat ein Rundgespräch
stattgefunden, das die Entwicklung von Standards und Kriterien zur Beurteilung
qualitativer Forschung(-santräge) in der Erziehungswissenschaft zum Ziel hatte.
Die Autoren der entsprechenden Veröffentlichung (Helsper/Herwartz-Emden/
Terhart 2001) verdeutlichen, dass dabei im wesentlichen eine erste Sichtung von
Diskussionspunkten herausgekommen ist, an welchen Punkten des Forschungs-
prozesses eine qualitätsorientierte Begutachtung ansetzen kann und sollte.
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 191
schen Raum dagegen eine ausgedehntere Debatte in der Soziologie und Psycholo-
gie geführt. In England hat bspw. die British Psychological Society festgelegt, dass
qualitative Forschungsmethoden fester Bestandteil von Studiengängen sein soll.
Besonderen Einfluss hat das Buch von Seale (1999), das auch als Einstieg in die
Diskussion gut geeignet ist. In den USA orientierte sich in der Soziologie die Dis-
kussion stärker an der Frage der Legitimation von Forschung an sich und an er-
kenntnistheoretischen Grundlagen, wobei sie gelegentlich ins Metaphyische abzu-
gleiten droht. Hier sind Arbeiten im Kontext der Zeitschrift Qualitative Inquiry
oder der Handbücher von Denzin/Lincoln (1994, 2000) zu nennen. Die Debatte
richtet sich auf die Auseinandersetzung mit klassischen Kriterien wie Reliabilität
und Validität (Angen 2000, Morse 1999a), aber auch auf die Frage der Qualität von
Forschung und ihrer Vermittlung von Forschung und ihrer Ergebnisse in „the
pragmatic world of health care management“ (Peck/Secker 1999), sowie auf die
Frage der Verallgemeinerbarkeit qualitativer Forschung und Forschungsergebnisse
(Morse 1999b).
Diese Diskussionen werden teilweise mit wenig Bezug untereinander geführt.
Beim gegenwärtigen Stand sind konkret-pragmatische Antworten auf die Frage:
„Wie sichere ich die Qualität meiner qualitativen Studie und welche Kriterien kann
ich bzw. muss ich anwenden“ eher schwierig zu finden. Es ist auch noch nicht aus-
zumachen, ob die Frage jemals so einfach gestellt und beantwortet werden kann
und sollte, und ob nicht andere Wege der Qualitätssicherung beschritten werden
sollten (vgl. Flick 2002: Kap. 18 und 22).
Ein Ansatz ist, die klassischen Kriterien Reliabilität, Validität und Objektivität auf
qualitative Forschung gleichermaßen anzuwenden oder sie für diesen Gegenstand
zu modifizieren. Kirk und Miller (1986) behandeln Reliabilität und Validität in die-
ser Hinsicht. Dabei wird deutlich, dass die Reliabilität von Daten und Verfahren im
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 193
traditionellen Sinne – als die Stabilität von Daten und Ergebnissen bei mehreren
Erhebungen – für die Bewertung qualitativer Daten eher ungeeignet ist: Die identi-
sche Wiederholung einer Erzählung bei wiederholten narrativen Interviews lässt
eher auf eine „zurechtgelegte“ Version als auf die Verlässlichkeit des Erzählten
schließen.
Validität (vgl. Kvale 1995) wird für die qualitative Forschung häufiger disku-
tiert. Die Frage der Validität lässt sich auch darin zusammenfassen, ob „der For-
scher sieht, was er (...) zu sehen meint“ (Kirk/Miller 1986: 21). Auch bei der Über-
tragung und unmittelbaren Anwendung klassischer Validitätskonzeptionen ergeben
sich Probleme in der qualitativen Forschung. Interne Validität wird etwa erhöht
bzw. sichergestellt, indem ausgeschlossen werden soll, dass andere als die in der
Untersuchungshypothese enthaltenen Variablen den beobachteten Zusammenhang
bestimmen. (z. B. Bortz/Döring 2001: 53). In diesem Verständnis liegen bereits die
Probleme bei der Übertragung auf qualitative Forschung begründet: Die interne
Validität soll durch eine möglichst umfassende Kontrolle der Kontextbedingungen
in der Untersuchung erhöht werden. Dazu dient die weitgehende Standardisierung
der Erhebungs- bzw. Auswertungssituation. Der dafür notwendige Grad an Stan-
dardisierung ist jedoch mit dem größten Teil der gängigen qualitativen Methoden
nicht kompatibel bzw. stellt ihre eigentlichen Stärken in Frage. Ähnlich lässt sich
für die anderen Formen der Validität aufzeigen, warum sie nicht direkt auf qualita-
tive Forschung übertragen werden können (vgl. hierzu Steinke 1999).
Das dritte Kriterium aus dem Kanon der quantitativen Forschung ist die Ob-
jektivität. Hier gibt es kaum Versuche, dieses auf qualitative Forschung anzuwen-
den. Eine Ausnahme ist die Arbeit von Madill et al. (2000). Darin wird jedoch Ob-
jektivität qualitativer Analysen mit der Frage, ob zwei Forscher zu gleichen Ergeb-
nissen bei der Analyse vorliegender qualitativer Daten kommen und damit mit der
„Konsistenz der Bedeutung durch die Triangulation der Ergebnisse zweier unab-
hängiger Forscher“ (2000: 17) gleichgesetzt.
Insgesamt betrachtet wird der Anspruch formuliert, qualitative Forschung müs-
se sich zumindest den Fragen stellen, die mit Konzepten wie Reliabilität und Vali-
dität (z. B. bei Morse 1999a: 717) oder Objektivität (Madill et al. 2000) verknüpft
sind. In der Umsetzung überwiegt jedoch die Modifikation oder Reformulierung
der Konzepte (für eine ausführliche Auseinandersetzung mit der Frage, ob die klas-
sischen Kriterien auf qualitative Forschung übertragbar sind bzw. warum nicht vgl.
Steinke 1999). Generell stellt sich bei der Übertragung der klassischen Kriterien
quantitativer Forschung das Problem, dass deren Umsetzung dort wesentlich auf
der Standardisierung (des Vorgehens, der Methoden und ihrer Anwendung) beruht,
194 Uwe Flick
ben 1988 für konkrete Vorschläge). Gelegentlich wird die kommunikative Validie-
rung auch in Bezug auf die Ergebnisse der Interpretation von Texten bzw. Daten
diskutiert (etwa bei Heinze 1987). Aufgrund der bei der Konfrontation mit Inter-
pretationen auftretenden ethischen Probleme (vgl. hierzu Köckeis-Stangl 1982) hat
dieses Verständnis kommunikativer Validierung an Bedeutung verloren. Aktueller
greift Baumeler (2003) diese Verwendungsweise der kommunikativen Validierung
im Kontext einer ethnographischen Studie wieder auf und demonstriert in ihrem
Artikel die Probleme, die sich dabei ergeben. Vor einer allgemeineren Anwendung
solcher Strategien sollten Antworten auf zwei Fragen gesucht werden: (1) Wie soll-
te das methodische Vorgehen bei der kommuānikativen Validieārung gestaltet wer-
den, damit es den untersuchten Sachverhalten und der Sicht der Subjekte tat-
sächālich gerecht wird? (2) Wie lässt sich die Frage der Geltungsbegründung jen-
seits der Zustimāmung der Subjekte weitergehend beantāworten? Hierzu sind ande-
re Qualitätsprüfungen notwendig, die eine kommunikative Validierung ergänzen
(vgl. als Überblick Flick 1987).
Mit dem Konzept der Prozeduralen Validierung in der Reformulierung des
Konzepts der Validität geht Mishler (1990) einen Schritt weiter. Sein Vorschlag fo-
kussiert den Prozess der Validierung (statt den Zustand der Validität). Mishler de-
finiert „Validierung als soziale Konstruktion von Wissen“ (1990: 417), durch die
wir „Behauptungen über die „Vertrauenswürdigkeit“ berichteter Beobachtungen,
Interpretationen und Verallgemeinerungen aufstellen und diese bewerten“ (1990:
419). Schließlich lassen sich durch „Validierung, verstanden als der soziale Diskurs,
durch den Vertrauenswürdigkeit hergestellt wird, solche vertrauten Konventionen
wie Reliabilität, Falsifikation und Objektivität“ umgehen. Als empirische Basis für
diesen Diskurs und die Konstruktion von Vertrauenswürdigkeit erörtert Mishler
die Verwendung von Beispielen aus narrativen Studien.
Wolcott (1990: 127-128) formuliert für den Prozess in ethnographischer For-
schung neun Punkte, deren Realisierung der Sicherung von Validität dienen sollen:
(1) Der Forscher soll im Feld weniger selbst reden sondern möglichst viel zu-
hören. Er soll (2) möglichst genaue Aufzeichnungen erstellen und (3) frühzeitig zu
schreiben beginnen, und zwar (4) in einer Form, die es dem Leser seiner Aufzeich-
nungen und Berichte ermöglicht, selbst zu sehen, d. h. soviel an Daten mitzuliefern,
dass Leser ihre eigenen Schlüsse ziehen können und die des Forschers nachvollzie-
hen können. Der Bericht soll möglichst (5) vollständig und (6) offen sein. Der For-
scher soll im Feld oder bei seinen Kollegen (7) Feedback zu seinen Ergebnissen
und Darstellungen suchen. Darstellungen sollen eine Balance (8) zwischen den ver-
schiedenen Aspekten und (9) durch Genauigkeit im Schreiben gekennzeichnet sein.
196 Uwe Flick
Diese Schritte zur Sicherstellung der Validität im Forschungsprozess lassen sich ei-
nerseits als Versuch des sensiblen Agierens im Feld und andererseits als Verlage-
rung des Problems der Validität in der Forschung in den Bereich des Schreibens
über Forschung sehen.
Altheide und Johnson (1998: 291-292) formulieren das Konzept der „Validität-
als-reflexive-Erklärung“. Darin setzen sie Forscher, den Gegenstand und den Pro-
zess der Sinnfindung in Beziehung und machen Validität am Prozess der For-
schung und den verschiedenen Beziehungen fest:
1. Die Beziehung zwischen dem, was beobachtet wird (Verhaltensweisen, Ri-
tuale, Bedeutungen) und den größeren kulturellen, historischen und organi-
satorischen Kontexten, innerhalb derer die Beobachtungen durchgeführt
werden (die Materie);
2. Beziehungen zwischen dem Beobachter, dem bzw. den Beobachteten und
dem Setting (der Beobachter);
3. die Frage der Perspektive (oder der Sichtweise), ob diejenige des Beobach-
ters oder die der Mitglieder des Feldes verwendet werden, um eine Interpre-
tation der ethnographischen Daten anzufertigen (die Interpretation);
4. die Rolle des Lesers im Endprodukt (die Leserschaft) und
5. die Frage des darstellenden rhetorischen oder schriftstellerischen (authorial)
Stiles, der von dem oder den Autoren verwendet wird um eine Beschrei-
bung und/oder Interpretation anzufertigen (der Stil) (Altheide/Johnson
1998: 291-292).
Validierung wird hier unter der Perspektive des gesamten Forschungsprozesses
und der beteiligten Faktoren behandelt. Die Vorschläge bleiben dabei jedoch eher
auf der Ebene der Programmatik, als dass konkrete Kriterien oder Anhaltspunkte
formuliert werden, anhand derer sich einzelne Studien oder Bestandteile davon be-
urteilen lassen. Versuche, Validität und Validierung in der qualitativen Forschung
zu verwenden oder zu reformulieren haben insgesamt betrachtet mit verschiedenen
Problemen zu kämpfen: Formale Analysen des Zustandekommens von Daten in
der Interviewsituation beispielsweise können noch nichts über Inhalte und ihre an-
gemessene Behandlung im weiteren Verlauf der Forschung aussagen. Das Konzept
der kommunikativen Validierung oder Member Checks ist mit dem Problem kon-
frontiert, dass die Zustimmung dort als Kriterium schwierig ist, wo die Sicht des
Subjekts systematisch überschritten wird – in Interpretationen, die ins soziale oder
psychische Unbewusste vordringen wollen oder sich gerade aus der Unterschied-
lichkeit verschiedener subjektiver Sichtweisen ableiten. Entsprechend gab es hierzu
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 197
eine heftige Kritik seitens Vertretern der Objektiven Hermeneutik an solchen An-
sätzen. Insgesamt betrachtet zeichnen sich die behandelten Reformulierungen des
Validitätskonzeptes durch eine gewisse Unschärfe aus. Sie bieten der Forschungs-
praxis durch ihre generelle Problematisierung und Programmatik nicht unbedingt
eine Lösung für die Frage der Geltungsbegründung an. Als gemeinsame Tendenz
bleibt jedoch eine Verlagerung von Validität zur Validierung und von der Beurtei-
lung des einzelnen Schritts oder Bestandteils der Forschung zur Herstellung von
Transparenz über den Forschungsprozess festzuhalten.
Schließlich wird die Anwendung klassischer Kriterien auf qualitative Forschung
in Frage gestellt, da „das ‚Wirklichkeitsverständnis‘„ beider Forschungsrichtungen
dafür „zu unterschiedlich“ (Lüders/Reichertz 1986: 97) sei. Ähnliche Vorbehalte
formulieren schon Glaser und Strauss (1979: 92).
Sie „bezweifeln, ob der Kanon quantitativer Sozialforschung als Kriterium (...)
auf qualitative Forschung (...) anwendbar ist. Die Beurteilungskriterien sollten viel-
mehr auf einer Einschätzung der allgemeinen Merkmale qualitativer Sozialfor-
schung beruhen – der Art der Datensammlung (…), der Analyse und Darstellung
und der (...) Weise, in der qualitative Analysen gelesen werden.“
Aus dieser Skepsis resultiert im Lauf der Zeit eine Reihe von Versuchen, „me-
thodenangemessene Kriterien“ (Flick 1987) zu entwickeln und diese an die Stelle
von Kriterien wie Validität und Reliabilität zu setzen.
Als dritte Variante der Beantwortung der Frage nach der Bewertung qualitativer
Forschung ist die Suche nach alternativen, methodenangemessenen Kriterien zu
verzeichnen. Dabei ist der Leitgedanke, dass die Frage nach der Qualität grundsätz-
lich durch die Formulierung und Anwendung von Kriterien beantwortet werden
kann und sollte, dass jedoch die klassischen Kriterien an den Charakteristika quali-
tativer Forschung und Methoden vorbeizielen.
5 Triangulation
In diesem Kontext wird seit längerem die Triangulation diskutiert (Denzin 1978,
1989, Flick 1992a, 1992b, 2004), die eine eigene Antwort auf die Frage der Gel-
tungsbegründung sowohl für qualitative (vgl. Flick 2000) als auch für quantitative
Forschung und die Verbindung beider Strategien (vgl. Kelle/Erzberger 2000, Flick
2004) liefern kann. In der Sozialforschung wird mit dem Begriff „Triangulation“
198 Uwe Flick
genannten Kontexten lässt sich die Triangulation grundsätzlich auf zwei Ebenen
anwenden.
Triangulation am Fall
Triangulation an Datensätzen
Bei manchen Untersuchungen lässt sich die gerade skizzierte Variante nicht umset-
zen. Bei Beobachtungen an offenen Plätzen (z. B. Sport-Szenen) ergibt sich das
Problem, dass so viele Personen dabei beobachtet werden, dass nicht alle auch in-
terviewt werden können. Deshalb ist hier eine Triangulation am Fall gar nicht mög-
lich, weshalb sie auf der Ebene der Datensätze ansetzen sollte.
Der Einsatz der verschiedenen Methoden erfolgt zunächst unabhängig vonein-
ander. Daraus resultieren ein Satz von Beobachtungsdaten und eine Reihe von In-
terviews. Beide werden auf ihre Gemeinsamkeiten und Unterschiede hin ausgewer-
tet. Die Triangulation bezieht sich dann praktisch auf die Ergebnisse beider Aus-
200 Uwe Flick
wertungen und setzt sie in Beziehung. Als praktisches Problem stellt sich hier die
Frage, wie die Vergleichbarkeit der Samples, an denen die unterschiedlichen Me-
thoden zum Einsatz kommen, gewährleistet werden kann. Ebenfalls sollte geklärt
werden, ob die verschiedenen Methoden zum gleichen Zeitpunkt eingesetzt wer-
den können oder ob aufgrund der Planung und Ressourcen des Projektes die empi-
rischen Schritte nacheinander durchgeführt werden – erst die Beobachtungsdaten
erhoben und ausgewertet und dann die Interviews geführt und analysiert werden.
In diesem Fall sind Einflüsse der unterschiedlichen Zeitpunkte auf die Inhalte zu
berücksichtigen.
Datensatz
Einzelfall
Abb. 1: Ansatzpunkte methodischer Triangulation
Weiterhin sollte beachtet werden, dass unterschiedliche Methoden vor jeweils un-
terschiedlichen theoretischen Hintergründen und Kontexten entwickelt wurden.
Von daher wird verschiedentlich (z. B. Fielding/Fielding 1986) vor einer Triangula-
tion – verstanden als eine zu simple Kombination von Methoden – gewarnt. Einen
Ausweg bietet das Konzept der Systematischen Perspektiven Triangulation (Flick
1992a). Dabei werden systematisch verschiedene Forschungsperspektiven (mit ih-
rem theoretischen und methodischen Zugängen) bei der Untersuchung eines Phä-
nomens kombiniert.
Insgesamt betrachtet wird Triangulation als Strategie der Validierung (bei Den-
zin 1978), als Alternative dazu (bei Flick 1992b und ähnlich dann auch bei Den-
zin/Lincoln 1994) und vor allem aber auch als Strategie zu erweiterten Erkennt-
nismöglichkeiten diskutiert (vgl. hierzu auch Flick 2004). Diese drei Verwendungs-
weisen liefern jedoch jeweils spezifische Beiträge zur Steigerung der Qualität quali-
tativer Forschung bzw. Ansätze zu ihrer Bestimmung.
Analytische Induktion
Richtung zu verzeichnen wären, jedoch hat diese Vielfalt bislang nicht zu einer
schulenspezifischen Infragestellung der Kriterien Reliabilität, Validität und Objek-
tivität geführt.
Die andere Seite der Problematik ist, dass die Qualität qualitativer Forschung
jenseits dessen liegt, was in eindeutige Kriterien gefasst werden kann (vgl. hierzu
Flick 2002: Kap. 22). Yardley (2000) diskutiert in diesem Kontext „dilemmas in
qualitative research“. Wie lässt sich bei einer explorativen Studie etwa bewerten,
was den tatsächlichen Gewinn an neuem Wissen darstellt? Wie lässt sich bewerten,
ob die verwendeten Methoden dem untersuchten Feld und der Fragestellung an-
gemessen waren? Lässt sich die Originalität im methodischen und im Feld-Zugang
beurteilen? Auf welche Weise kann man die Kreativität im Zugang zum und im
Umgang mit dem Material bewerten? Wie lässt sich das Verhältnis von Einzel-
schritt und Gesamtprozess beurteilen? Die meisten der weiter oben behandelten
Bewertungsansätze versuchen, die Qualitätsfrage auf den einzelnen Schritt im For-
schungsprozess herunterzubrechen: Madill et al. (2000) bspw. betrachten die Frage
der Objektivität und Reliabilität ausschließlich an der Übereinstimmung der Inter-
pretationen unterschiedlicher Forscher, ohne die anderen Schritte des Forschungs-
prozesses dabei zu berücksichtigen.
Vielversprechender als die Definition von Kriterien ist entsprechend die Ent-
wicklung von Strategien der Geltungsbegründung bzw. Qualitätssicherung (bzw. -
förderung). Damit wird die Qualitätsfrage über den einzelnen Schritt im For-
schungsprozess auf die Bewertung des Prozesses als Ganzes erweitert. Hierzu sol-
len abschließend zwei Ansätze diskutiert werden.
Die Prüfung dieser Fragen soll einer einseitigen Festlegung auf bestimmte qualitati-
ve Methoden (die man schon immer angewendet hat) vermeiden helfen. Durch die
hier vorgestellte Prozessperspektive, konkretisiert im Ansatz des Qualitätsmanage-
ments und in der Klärung der Indikation, sollten Wege skizziert werden, die Frage
nach der Qualität qualitativer Forschung jenseits von Kriterien zu beantworten
(vgl. Flick 2002: Kap. 22 für eine ausführlichere Darstellung).
Dabei sind die Bestimmung, was Qualität ist, deren Herstellung und Sicherstellung
im Prozess und die Erfahrung, dass Qualität sich nur in der Kombination von Me-
thoden und einer entsprechenden Haltung realisieren lässt, Anknüpfungspunkte
zur Disākussion um Qualitätsmanagement in der sozialwissenschaftlichen For-
schung. Im Unterschied zu anderen Ansätzen der Qualitätsprüfung in der qualitati-
ven Forschung wird beim Qualitätsmanagement zunächst mit allen Beteiligten ge-
klärt, was unter Qualität verstanden wird, welche Qualitätsziele sich daraus ableiten
lassen und wie diese im einzelnen zu erreichen sind. Hier wird der Gedanke aufge-
geben, Forschungsqualität ließe sich allgemein, abstrakt und von außen bestimmen,
zugunsten einer gemeinsamen Klärung des Qualitätskonzeptes und seiner Umset-
zung (vgl. hierzu ausführlicher Flick 2002: Kap. 22).
9 Fazit
Die hier vorgestellten Überlegungen und Ansätze sollten deutlich machen, dass es
einerseits eine Notwendigkeit der Auseinandersetzung mit der Frage der Qualität (-
sbestimmung) in der qualitativen Forschung gibt, die zunehmend dringlich wird
oder dringlich gemacht wird. Weiterhin sollte deutlich werden, dass die Antwort
auf sehr unterschiedliche Weise gesucht wird, wobei sich noch kein Weg durchge-
setzt hat bzw. allgemein akzeptiert wird. Dies unterscheidet qualitative Forschung
von quantitativer Forschung. Ebenso sollte aufgezeigt werden, was die Gründe für
diesen Stand der Dinge sind – dass diese z. T. auch im Wesen der qualitativen For-
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 209
Heiko Grunenberg
Zusammenfassung
Das Ziel der dargestellten Untersuchung ist es, eine Überprüfung der Qualität einschlägiger For-
schungsarbeiten zu leisten, welche mit qualitativen Methoden der Sozialforschung gearbeitet haben.
Qualität meint in diesem Zusammenhang die Einhaltung verbreiteter Forschungsstandards. Dieser auf
den gesamten Forschungsprozess abzielende Ansatz der Begutachtung von Veröffentlichungen in den
größten gereviewten Fachzeitschriften der Soziologie und den Erziehungswissenschaften förderte in
allen vier großen Bereichen, der Methodenauswahl, der konkreten Ausführung, der Analyse sowie der
Präsentation mehr oder weniger bedeutsame Schwächen zu Tage. Als Bewertungsmaßstab werden eine
Reihe von approbierten Gütekriterien herangezogen, die der jüngsten Qualitätsdiskussion in der qualita-
tiven empirischen Sozialforschung entstammen. Dabei wird eindeutig der Ansatz vertreten, dass diese
Forschungsrichtung ihre eigenen Kriterien zu entwickeln und heranzuziehen haben. Das aufgefundene
Spektrum reicht von vorbildlichen bis hin zu defizitären Arbeiten. Am anfälligsten jedoch ist der Be-
reich der Datenanalyse, die bisweilen unsystematisch und geheimnisvoll bleibt. Es überrascht dahinge-
hend, dass die marktüblichen QDA-Software-Pakete in den einbezogenen Artikeln keine Rolle spielen.
Die Ergebnisse deuten einerseits auf ein Defizit in der Methodenausbildung hin. Andererseits scheint
die gern kritisierte Einbringung der Subjektivität der Forschenden von diesen zum Teil selbst auf eine
Art und Weise missverstanden zu werden, die dazu führt, dass ein Eindruck von Beliebigkeit und Zufall
zu entstehen vermag. Insbesondere dem muss entgegengearbeitet werden.
1 Einleitung
Im Laufe der Geschichte der empirischen Sozialforschung mussten sich interpreta-
tive Verfahren ihren heutigen Status hart erkämpfen. Im Vergleich zu quantifizie-
renden Verfahren – für die recht früh ein kanonisiertes Bündel von Gütekriterien
gebildet werden konnte – hinkten sie meist hinterher. Lincoln und Denzin be-
zeichnen den Entwicklungsstand, auf dem sich die qualitative Sozialforschung der-
Empirische Befunde zur Qualität qualitativer Sozialforschung 211
zeitig befindet, als „The Fifth Moment“ (Lincoln/Denzin 1994: 575). Dieser sei
gekennzeichnet durch eine Krise der Repräsentation und der Legitimation (ebd.),
an die Stelle von Theorien träten zunehmend Erzählungen. (ebd.: 582) Klassische
Gütekriterien, wie Validität und Reliabilität verlören ihre Bedeutung in der Dialek-
tik bzw. Kontradiktion von Validität und Authentizität. (ebd.) Im deutschsprachi-
gen Raum drängt sich ein davon abweichendes Bild auf, denn es scheint so, als
verbreite sich gerade erst eine gewisse Leichtigkeit – nicht zu Verwechseln mit Be-
liebigkeit – im Umgang mit qualitativen Methoden, wie es im stärker vom Pragma-
tismus geprägten anglo-amerikanischen Raum längst üblich ist. Zumindest in der
jungen forschenden Generation sind dogmatische Methodenressentiments seltener
geworden, eine Methode mit ihren bekannten Stärken und Schwächen wird zu-
nehmend weniger um ihrer selbst willen, sondern immer öfter je nach Erkenntnis-
gegenstand bzw. -interesse ausgewählt. Folglich nimmt einerseits für die einzelnen
Forschenden die Anzahl der potenziell anwendbaren Methoden zu, andererseits
aber leidet darunter eine in die Tiefe gehende Professionalisierung auf einzelne
spezielle Methoden. Nicht nur deshalb ist es von Nöten, die Bemühungen um die
Qualität qualitativer Forschung zu forcieren. Notwendigerweise hat sich jüngst in
Verbindung damit gleichsam der Diskurs um Qualität und Qualitätskriterien in der
hiesigen qualitativen Sozialforschung entscheidend weiterentwickelt (vgl. Steinke
1999, Grunenberg 2001, Flick in diesem Band), so dass dem bisweilen zu verneh-
menden Etikett der Unwissenschaftlichkeit entgegengearbeitet werden konnte.
Im Folgenden wird erörtert, inwieweit Vorgaben aus der Methodenforschung
letztlich in der Forschungspraxis Berücksichtigung finden. Zu diesem Zweck wer-
den einige Ergebnisse einer Analyse von 60 qualitativen Forschungsarbeiten darge-
stellt, die anhand von Kriterien untersucht werden, wie sie in den Qualitätsdiskur-
sen vornehmlich vorgeschlagen werden. Anhand der Ergebnisse können quer-
schnittartig typische Mängel und Vortrefflichkeiten eruiert werden. Die Analyse
kann ganz in der Art und Weise, wie Sahner (1979) bzw. Meinefeld (1985) dies für
quantitativ-empirische Forschungsarbeiten versuchten, eine Beschreibung des Sta-
tus Quo liefern oder aber wie Ludwig-Mayerhofer (2003) dies für die Verwendung
statistischer Methoden unternommen hat, weitergehende Rückschlüsse und Emp-
fehlungen z. B. auf die universitäre Methodenausbildung geben.
2 Grundlagen
Die Geltung, im Sinne einer allgemeinen Anerkennung einer empirischen For-
schungsarbeit, ist maßgeblich davon abhängig, inwieweit die Anforderungen einzu-
212 Heiko Grunenberg
heit müssen identifizierbar sein. Dennoch ist die klassische Vorstellung von Objek-
tivität unter dieser Sichtweise nicht mehr haltbar, sondern sie verweist nun ver-
stärkt auf das konsensuelle Wahrheitsprinzip. Darauf beruht letzten Endes der
Standpunkt des „subtle realism“, der insbesondere jenen angesprochenen kommu-
nikativen Aspekt aufgreift.
Begründet wurde diese Auffassung von empirischer Sozialforschung von Ham-
mersley (1992: Part I), der sich eingehend mit dem Phänomen der Qualität in der
Ethnographie auseinander setzte. Die Idee einer Gemeinde von Forschenden mit
anerkannten Standards zur Beurteilung von Plausibilität, Glaubwürdigkeit und Re-
levanz von Forschungsberichten nimmt eine zentrale Stellung im subtilen Realis-
mus ein. (ebd.) Durch ständige vorsichtige Kritik nimmt Wahrheit nur einen provi-
sorischen Status ein, da sie demzufolge lediglich solange Gültigkeit besitzt, bis gute
Gründe dafür sprechen, diese zu Gunsten einer widersprechenden Version abzulö-
sen. Hammersley schlägt dementsprechend vor: „der Wahrheitsbegriff sollte umde-
finiert werden als Glaube daran, wessen Gültigkeit wir vernünftigerweise folgen.“
(ebd.: 50)
3 Kriterienkataloge
1 Da der Katalog als solcher hier nicht im Mittelpunkt der Untersuchung steht, wird er lediglich en
passant in Form der empirischen Ergebnisse expliziert. Eine umfangreiche Dokumentation, Diskus-
sion und Herleitung findet sich an anderer Stelle (Grunenberg 2001, Hansen/Grunenberg 2003).
214 Heiko Grunenberg
ten und sind nicht mehr hauptsächlich den quantifizierenden Verfahren entlehnt.
Das Selbstvertrauen der einst Gescholtenen ist im Aufschwung begriffen, der stabi-
lisierende Diskurs ausdrücklich erwünscht (vgl. Scott 2000) und in Gang gekom-
men. Die innere Struktur der Kataloge ist zumeist sehr vielschichtig, komplex und
bisweilen unübersichtlich – es ist zu vermuten, dass sich in den nächsten Jahren ei-
ne weitere Vereinheitlichung der Kriterien in Abhängigkeit von den je unterstellten
erkenntnistheoretischen Grundlagen einstellt.
Im internationalen Vergleich ist zu erkennen, dass nahezu die gesamte For-
schung dieses Bereichs aus dem anglophonen Raum stammt und sich dort, wie er-
wähnt, eine deutliche Beeinflussung durch die Denktradition des Pragmatismus
bemerkbar macht. In der deutschen Diskussion dagegen gibt es zwar vermehrt An-
knüpfungspunkte daran, dennoch wird immer noch manche lähmende Auseinan-
dersetzung auf Nebenschauplätzen geführt.
4 Das Erfassungsinstrument
Zum Zweck der Qualitätsbestimmung aktueller empirischer Forschungsprojekte
werden im nachfolgenden Abschnitt einige der zentralen Kriterien herausgegriffen
und daraufhin überprüft, inwieweit sie in der Forschungspraxis umgesetzt werden.
Dazu wurde der eigens erstellte Kriterienkatalog in ein Bewertungsraster übersetzt,
das den Merkmalsraum mittels kategorial abgestufter Merkmalsklassen unterteilt,
ähnlich dem Schulnotensystem.
Den Untersuchungsgegenstand bilden Veröffentlichungen in soziologischen
und erziehungswissenschaftlichen Fachzeitschriften, die zwei notwendige Bedin-
gungen erfüllen müssen. Selbstverständlich muss im engeren Sinne ein empirischer
Anteil vorhanden sein, sowie qualitativ-interpretativ gearbeitet werden. Bewertet
wurden solche Fachartikel, die in den jeweils wichtigsten wissenschaftlichen Zeit-
schriften erschienen sind, welche die bei ihnen eingereichten Publikationen einem
Peer-Review-Verfahren unterziehen.2 Der Referenzzeitraum wurde festgelegt auf
die Jahrgänge 1998 bis 2001, realisiert wurde ein Sample von exakt 60 Aufsätzen.
Unter den führenden deutschsprachigen Veröffentlichungsorganen dieses Berei-
2 Berücksichtigt wurden die Zeitschrift für Soziologie der Erziehung und Sozialisation (ZSE): 22 Auf-
sätze; Zeitschrift für Soziologie (ZfS): 11 Aufsätze; Zeitschrift für Biographieforschung und Oral
History (BIOS): 9 Aufsätze; Zeitschrift für Erziehungswissenschaft (ZfE): 6 Aufsätze; Zeitschrift für
Pädagogik (ZfP): 5 Aufsätze; Kölner Zeitschrift für Soziologie und Sozialpsychologie (KZfSS): 4
Aufsätze; Zeitschrift für qualitative Bildungs-, Beratungs- und Sozialforschung (ZBBS): 3 Aufsätze.
Empirische Befunde zur Qualität qualitativer Sozialforschung 215
ches kann damit von einer Vollerhebung innerhalb dieses Zeitraumes gesprochen
werden.
Die methodische Vorgehensweise dieser Analyse birgt sowohl Vor- als auch
Nachteile. Von Vorteil ist, dass in gereviewten Zeitschriften bei der Bewetung der
Artikel indirekt die Meinung der Reviewers mitberücksichtigt wird, d. h. es kommt
in einem eingereichten Artikel nicht nur jenes zum Ausdruck, was die Forschenden
für die richtige Art und Weise des Forschens halten, sondern darüber hinaus auch
das, was dahingehend die Begutachtenden vertreten. Diese wiederum sind im Ide-
alfall bewährte Vertreter der Scientific-Community und damit Repräsentanten der
momentan vorherrschenden Paradigmen. Von Nachteil dagegen ist die Form des
Zeitschriftenaufsatzes, die gegenüber einer Monografie zweifelsohne nur einge-
schränkte Möglichkeiten bietet. Insbesondere aber in der qualitativen Sozialfor-
schung kommt es häufig gerade auf eine ausführliche Darstellung nicht nur der Er-
gebnisse sondern auch des Forschungskontextes an. Wie im Konkreten mit dieser
Restriktion umgegangen wird und wie es um die Qualität qualitativer empirischer
Forschung an der Jahrtausendwende bestellt ist, wird im folgenden Kapitel darge-
legt.
Methode
damit auch die Credibility. Der Umgang mit größeren Mengen an Datenmaterial
wird erleichtert (Kelle/Laurie 1995); das Datenmanagement, die Datenreduktion
und das Speichern der Daten gestalten sich müheloser und effizienter (Kelle 1995).
Außerdem wird durch die zahlreichen Funktionen des Text-Retrievals und die je-
derzeitige Möglichkeit der Re-Kontextualisierung von Datenmaterial eine größere
Nähe zu den Daten ermöglicht (Cresswell/Maietta 2002). Nicht zuletzt werden
durch den Software-Einsatz erweiterte und komplexe Analysen überhaupt erst er-
möglicht. Schließlich können redundante und nicht kreative Aufgaben schneller
durchgeführt werden (Moseley/Mead/Murphy 1997). Offenbar jedoch sind jene
Aspekte nicht ausreichend bekannt, um einen Einsatz von QDA-Software auf brei-
ter Basis hervorzurufen. In den vorliegenden Untersuchungen nämlich finden sich
nur drei explizite Hinweise auf Anwendungsfälle im Forschungsprozess, darunter
jedoch keine der größeren gängigen qualitativen Analyseprogramme.3
Weitaus beliebter sind triangulierende Vorgehensweisen – in gut einem Viertel
aller Forschungsdesigns wird mehr als ein Verfahren der Datengewinnung heran-
gezogen. Dieses von Denzin (1970) erstmals genauer ausgearbeitete Konzept der
vielfältigen methodologischen Herangehensweise an einen Untersuchungsgegen-
stand bietet zahlreiche Chancen (vgl. Tashakkori/Tedlie 1998, neuerdings Sei-
pel/Rieker 2003), bereitet nichtsdestotrotz auch einige Schwierigkeiten (vgl. Flick
2000: 318, Kelle 2001: 205f.). Dennoch wird es hier betrachtet als ein modernes
Verfahren zur vertiefenden Einsicht in den Gegenstand – freilich jedoch nicht als
Imperativ der Sozialforschung.
In neun von 60 Fällen werden quantitative und qualitative Daten aufeinander
bezogen, weitere fünf Mal werden verschiedene qualitative Daten einbezogen und
schließlich drei Mal werden mehrere qualitative und zudem quantitative Daten be-
rücksichtigt. Insgesamt sind also heute Verfahren der Triangulation gängig – des-
sen ungeachtet scheint den Forschenden der systematische Vollzug der Datenzu-
sammenführung zum Teil schwer zu fallen, Verbesserungen wären insbesondere in
diesem Belang zu erzielen. So zeigt sich auch kein Zusammenhang zwischen trian-
gulierenden Forschungsarbeiten und der Gesamtqualität der Artikel, d. h. im
Durchschnitt führt der Einsatz mehrerer Verfahren nicht von allein zu einem guten
Forschungsergebnis. Es bestätigt sich der Hinweis auf die Gefahr der Überforde-
rung von Helga Kelle (2001:205f.), wenn nämlich ein allzu leichtfertiger paralleler
3 Dennoch kann von einer gewissen „Dunkelziffer“ ausgegangen werden, die Analysesoftware ver-
wendet, dies aber nicht erwähnt. Schließlich, so mögen viele Autorinnen und Autoren denken, ist es
ja auch nicht üblich, dass das verwendete Schreibprogramm und das Betriebssystem des Rechners
erwähnt werden.
218 Heiko Grunenberg
Umgang mit mehreren Ansätzen die Fertigkeiten und die Kapazitäten der For-
schenden überfordert.
Wie angemessen geschieht die Auswahl der Methode im Allgemeinen? Um die-
se Frage beantworten bzw. die Adäquanz beurteilen zu können, muss quasi das
Pferd von hinten aufgezäumt werden. Die Beurteilung erfolgt reversiv über die ex-
plizierten Forschungsfragen sowie das Erkenntnisinteresse. Anschließend müssen
die weitgehend bekannten Für und Wider der gewählten Methode abgewogen wer-
den. Auf diesem Wege stellte sich heraus, dass bei 8% der Untersuchungen das Er-
fordernis einer qualitativ-interpretativen Vorgehensweise gegenüber einer quantita-
tiven nicht offensichtlich war.4 Ähnliches gilt für die Samplingstrategie der einzel-
nen Untersuchungen, die in 12% der untersuchten Forschungsdesigns stark man-
gelhaft war und in vier Untersuchungen schlicht weder Erwähnung fand, noch er-
sichtlich wurde.
Kurz erörtert wurde oben das Postulat einer falsifikatorischen Grundhaltung
auch während des Induktionsvorganges. Diese bislang in der qualitativen Sozialfor-
schung nicht unbedingt gängige Sichtweise findet sich überraschend häufig wieder,
denn genau ein Drittel aller Aufsätze zeugten deutlich von einer Vorgehensweise,
die die eigenen Prämissen und Zwischenergebnisse kontinuierlich in Frage stellen.
Demgegenüber sind 8% der Vorgehensweisen deutlich konfirmatorisch, d. h. es
geht innerhalb des Forschungsprozesses ausschließlich darum, eigene Hypothesen,
Annahmen oder einfach Ansichten und Meinungen zu belegen, unabhängig von
Evidenz und Gegenevidenz.
Ausführung
4 Womöglich ist dies abermals ein Hinweis auf vorhandene Schulbildungen, da z.T. der Eindruck ent-
steht, eine einstmals erlernte Forschungsvariante wird von einigen Forschenden auf beliebige Unter-
suchungsgegenstände und Fragestellungen angewandt.
Empirische Befunde zur Qualität qualitativer Sozialforschung 219
schungsziele aufgeklärt wurden. Nicht nachprüfbar ist ferner, ob jeweils alle betei-
ligten Geldgeber genannt wurden, so findet sich lediglich ein einziger Verweis auf
nicht-öffentliche Förderung von Forschung – entweder ist dies ein Zeichen für das
geringe Engagement dieser privatwirtschaftlichen Geldgeber oder aber die Finanz-
quellen werden nicht im gewünschten Maße angeführt.
Reflexion als ein gezielt eingesetztes Mittel innerhalb des Forschungsprozess ist
eine der Errungenschaften der interpretativen Verfahren und erfährt über ihre
Grenzen hinaus eine breite Rezeption. Wenden aber qualitativ Vorgehende selbst
gezielt verschiedene Möglichkeiten der Reflexion an?
Die Antwortet lautet ja, aber meist nicht gezielt und kontrolliert. Und damit re-
flektiert knapp die Hälfte, 29 Veröffentlichungen, überhaupt nicht und lässt damit
diese große Chance der Methode aus.
Die Phase der Analyse des Datenmaterials ist mit Sicherheit nicht nur die am
schwierigsten durchzuführende sondern auch zu beurteilende Phase innerhalb des
Forschungsprozesses. Die überaus große Vielfalt der möglichen Vorgehensweisen
kann von einer einzelnen Person kaum mehr überschaut werden. Angesichts des-
sen muss sich die diesbezügliche Einschätzung auf einige allgemeine bzw. abstra-
hierte Punkte beschränken. (vgl. Miles/Huberman 1994)
Empirische Befunde zur Qualität qualitativer Sozialforschung 221
So stellt sich die Frage nach der Generalisierbarkeit von Ergebnissen. In der
Stichprobe ergibt sich unter anderem durch die Fragestellung, die Samplestrategie
und die Festlegung des Geltungsbereichs in genau drei Viertel aller Untersuchun-
gen, die Möglichkeit der Generalisierung auf unterschiedliche Reichweiten. Das üb-
rige Viertel zielte nicht auf Verallgemeinerung über das Sample hinausreichende
Zusammenhänge ab.
angewendet werden, könnten sich diese eigentlich aus dem von Kelle zusammenge-
tragenen reichhaltigen Fundus bedienen.
Einige Prinzipien der dort beschriebenen Datenanalyse lassen sich nahezu auf
das gesamte Spektrum induktiver Forschung übertragen. Zwei dieser Möglichkei-
ten, die sich inhaltlich recht nahe stehen, die minimale und maximale Kontrastie-
rung sowie die Diskussion von Evidenz und Gegenevidenz, wurden untersucht.
Dabei zeigte sich, dass Prinzipien der Kontrastierung in elf Texten (18%) zu finden
sind – jedoch ausschließlich die maximale Kontrastierung, nicht die minimale.
Evidenz und Gegenevidenz diskutierten gar nur zwei Forschende. Evidenz für
sich wurde darüber hinausgehend häufiger diskutiert, Gegenevidenz nicht. Es ist zu
vermuten, dass nach wie vor Aspekte, die nicht ins Gefüge passen, immer noch als
defizitär empfunden und verschwiegen werden, statt darin Vorteile zu entdecken.
Im Ansatz benutzten zwar einige Forschungsgruppen diese Prinzipien bereits,
wenn aber, dann nicht gezielt intendiert oder nur rudimentär. Kontrastierung war
in dieser Form 14 Mal (23%) zu finden, eine Evidenzdiskussion 13 Mal (22%). Ein
Großteil der Forschenden indes ignoriert diesen Themenkomplex vollständig.
Präsentation
Zuletzt wenden wir uns der Präsentation der Ergebnisse zu. Hierbei geht es nicht
darum zu bewerten, welcher Schreibstil gepflegt wird oder ob das Layout anspre-
chend ist. Von zentraler Bedeutung ist vielmehr die Möglichkeit, eine Nachvoll-
ziehbarkeit der Forschung und ihrer Ergebnisse durch die Lesenden zu ermögli-
chen. Zu diesem Zweck wurden sieben Bereiche identifiziert, die auf ihre Berück-
sichtigung durch die Autoren untersucht wurden.
Am besten dokumentiert ist die jeweilige Informationsquelle, in 57% der Ver-
öffentlichungen (34 Mal) ist diese erschöpfend dargestellt. Mitunter ist dies in we-
nigen kompakten Sätzen zu leisten, daher auch häufig zu finden. Die Erhebungs-
methode wurde immerhin noch in einem Viertel aller Aufsätze beschrieben, der
Kontext der Erhebung dagegen oftmals ausgelassen.
Empirische Befunde zur Qualität qualitativer Sozialforschung 223
Bereich der Dokumentation Anzahl der Fälle, in denen der Bereich nicht be-
rücksichtigt wurde5
Entscheidungen und Probleme 44 (73%)
Datenbasis 39 (65%)
Transkriptionsregeln 35 (67%)
Vorverständnis 35 (58%)
Auswertung 25 (42%)
Erhebungsmethoden und -kontext 16 (28%)
Informationsquelle 3 (5%)
Die Auswertung und das Vorverständnis dokumentieren nur 12% bzw. 8%, in
einer Weise, dass diese angemessen nachvollziehbar werden. Insbesondere jedoch
ohne eine Darstellung einzelner Auswertungsschritte sind die Ergebnisse einer
Untersuchung kaum einschätzbar. Zweitere ist nötig zur Kontrollierbarkeit von
Subjektivität und entspringt damit eigentlich einem Ur-qualitativen Grundgedan-
ken.
In fünf Aufsätzen (12%) werden die Transkriptionsregeln beschrieben und zum
Teil erläutert. Sicherlich ist dieser Bereich einer der weniger wichtigen, da auch oh-
ne das genaue Wissen darum eine Nachvollziehbarkeit gut möglich sein kann. Die
Dokumentation der Daten, also eine freie Einsicht in weite Teile des Datenmate-
rials ist nur in fünf Fällen möglich. In lediglich einem Fall darunter wird als im Üb-
rigen sehr hilfreiches Mittel auf eine Internetseite verwiesen, auf der die Daten ab-
rufbar sind, die anderen vier Fälle bedienen sich öffentlich zugänglicher Literatur,
die als Grundlage der Analyse gewählt wurde. In weiteren 22 Texten existiert ein
Verweis auf eine umfassendere Veröffentlichung des Forschungsberichtes, meist
eine Monographie. Einige positive Beispiele zeigen aber, dass es auch auf engem
Raum möglich ist, breite Dokumentationen zu entfalten. Deswegen ist die Lösung
des Problems durch einen Verweis zwar nicht die Ultima Ratio, aber dennoch
durchaus gangbar.
Zugegebenermaßen machen die Forschenden sich leichter angreifbar, wenn sie
ihre Interpretationsgrundlage veröffentlichen, aber eine fundierte und regelgeleitete
Interpretation sollte sich jeder Diskussion stellen können. Eine Auseinanderset-
zung zu vermeiden, indem ihr die Diskussionsgrundlage entzogen wird, kommt ei-
5 Die Prozentangaben beziehen sich nur auf die jeweils relevanten Fälle. Z. B. bedarf es bei einem auf
Literaturvorlagen beruhenden Verfahren keiner Transkriptionsregeln.
224 Heiko Grunenberg
ner Kapitulation gleich und steht jedem Bemühen um „ensuring rigour“ in der qua-
litativen Sozialforschung entgegen.
Zuletzt noch einige Anmerkungen zur Dokumentation von Entscheidungen
und Problemsituationen während des Forschungsprozesses. Nur 10% der Veröf-
fentlichungen greifen diese Themen auf. Nach wie vor wird es zu Unrecht als Zei-
chen der Unzulänglichkeit empfunden, wenn innerhalb des Forschungsprozesses
Probleme auftreten. Entweder ist diese These zutreffend und derartige Angelegen-
heiten werden bei der Verschriftlichung eher bei Seite geschoben, oder aber 90%
der Forschungen verlaufen ohne größere Schwierigkeiten. Ein neuer gewinnbrin-
gender Umgang mit kniffligen Situationen könnte sich entwickeln, wenn Entschei-
dungssituationen nachvollziehbarer werden.
Summiert man die in den Veröffentlichungen zumindest ansatzweise dokumen-
tierten Bereiche auf, dann zeigt sich einerseits, dass immerhin neun Aufsätze (15%)
alle Bereiche im Ansatz dokumentieren. Auf der anderen Seite erwähnen dagegen
27 Veröffentlichungen (45%), die Hälfte der Bereiche oder mehr, mit keinem
Wort. Die Anzahl der dokumentierten Bereiche korreliert statistisch nicht mit der
Länge des Textes, d. h. das Argument des Platzmangels, der eine genauere Doku-
mentation verhindert, ist nicht haltbar.
Insgesamt sind 31 Forschungsprozesse (52%) nur schwer oder gar nicht nach-
zuvollziehen. Die Spannweite zwischen gut und schlecht klafft dabei weit ausein-
ander. Neben bereits teilweise praktizierter Dokumentation herrscht anscheinend
vielerorts noch nicht das Bewusstsein für transparente Forschung. Alles was nicht
geschildert wird, kann auch nicht kritisiert werden, denn solange das Ergebnis
stimmt, kann der Weg nicht schlecht sein. Die Befolgung dieses Prinzips wird den
Vorwurf der Beliebigkeit den interpretativen Methoden gegenüber weiterhin ver-
stärken.
Der Blick auf die Praxis hat mitunter Defizite offenbart, in allen vier vorgestell-
ten Bereichen war die Streuung der Qualität sehr breit. Die Methode, die Ausfüh-
rung, die Analyse und die Präsentation der durchgeführten Forschungen war in ei-
nigen Fällen von hoher Qualität, in anderen waren verschiedenste Handwerksfehler
zu finden. Eine angemessene Methode zu finden, stellt kaum ein Problem dar,
Schwierigkeiten zeigen sich häufiger in der Umsetzung methodologischer Vorga-
ben. Selbst wenn eine mögliche Vorgabe lautet, der Forschungsprozess müsse the-
oretisch offen ausgelegt werden, bedeutet dies nicht, dass dies als Einladung zu un-
begründeter Beliebigkeit verstanden werden sollte.
Allzu oft bleibt vieles im Forschungsprozess unerwähnt nebulös, was nicht
primär auf den lediglich eingeschränkt zur Verfügung stehenden Platz zurückzu-
führen ist, denn die Länge eines Artikels korrespondiert nach der Datenlage nicht
mit der Quantität und Qualität vielfältiger Dokumentationen der Forschung. Auch
auf engem Raum kann vieles, dem Nachvollzug dienendes geleistet werden. Unter
allen Gesichtspunkten, die in qualitativen empirischen Artikeln abgehandelt wer-
den, weist derjenige der Analyse des Datenmaterials die größten Mängel auf. All-
gemein bereitet der Bereich der Datenanalyse die größten Probleme, denn nicht
nur die Darstellung ist oft defizitär, sondern auch die Analyse als solche wird zum
Teil auf eine Weise durchgeführt, dass nicht klar wird welche Schritte unternom-
men werden und zu welchem Zweck. Ebenso bleiben die Herleitung und der Ent-
stehungsweg eines gewonnenen Ergebnisses meist im dunkeln und lassen Raum
für Spekulationen. Es sollte nie der Eindruck entstehen, dass alle nicht beschriebe-
nen Vorgänge willkürlich zustande gekommen sind. Jedoch drängt sich dieser Ge-
danke zwangsläufig auf, wenn Ergebnisse und ihre Entstehung durch die Lesenden
nicht nachvollzogen werden können.
Ein möglicher Schritt zur Steigerung von Validität mag in vielen Fällen die bis-
lang selten angeführte Nutzung der Potenziale von Analyse-Software sein. Diese
sind zwar keine Conditio sine qua non zur Sicherstellung von Qualität, jedoch bie-
ten sie zahlreiche bereichernde Möglichkeiten zur Unterstützung während des For-
schungsprozesses, insbesondere der Analysephase, welche nach wie vor nicht zur
Gänze ausgeschöpft werden.
Ein Großteil all jener Missstände hätte sicherlich vermieden werden können,
wenn die Auseinandersetzung mit methodologischer und methodischer Literatur
intensiver ausgefallen wäre. Entsprechend kann Seale nur beigepflichtet werden,
wenn er grundsätzlich eine Auseinandersetzung der Forschenden mit diesen
Grundlagen für äußerst fruchtbar und notwendig hält, solange diese nicht über al-
226 Heiko Grunenberg
les gesetzt würden und damit die Ausführung einer Forschung zur Erfüllung eines
Schemas verkomme. (Seale 1999b: 466)
Alle diese Ergebnisse weisen letztlich auf bestehende Mängel in der Methoden-
ausbildung hin. Es ist naheliegend, dass die in der Vergangenheit vorhandenen
Mängel in der Ausbildung für eine heutige defizitäre Forschungspraxis mitverant-
wortlich sind. Im Gegensatz zur quantitativen Methodenausbildung, die schon lan-
ge zum Grundgerüst in den Sozial- und Erziehungswissenschaften gehört, ist die
Vermittlung von profunden qualitativen methodischen Fertigkeiten und profun-
dem qualitativen Wissen bislang immer noch keine Selbstverständlichkeit an den
Hoch- und Fachhochschulen. In ihrem eigenen Interesse sollten Qualitätsstandards
von Forschenden noch mehr beachtet werden als in der Vergangenheit. Dies käme
sowohl den eigenen Forschungsergebnissen als auch der interpretativen Forschung
als solcher zu Gute.
IV
Thorsten Dresing
Zusammenfassung
QDA-Software als Werkzeug der qualitativen Forschung ist bisher selten in Form von Seminaren und
Übungen in die Hochschullehre eingebunden. Das hier vorgestellte hybride Onlineseminar bindet
QDA-Software in einen methodentheoretischen und praktischen Kontext ein und strukturiert den Se-
minarverlauf nach aktuellen didaktischen Kriterien. Diese fordern verstärkt die Aktivierung der Lernen-
den, den Erwerb anwendbaren Wissens, die soziale Einbindung des Lernprozesses und einen Mehrwert
durch den Medieneinsatz. Auszüge aus der Seminarstruktur illustrieren, wie man diesen Forderungen
konkret nachkommt, und präsentieren einen Vermittlungsansatz für QDA-Software in der Hochschul-
lehre. Es werden exemplarisch Erfahrungen, Schwierigkeiten und Lösungen beim aktiven Umgang mit
der Vermittlung der Software aufgezeigt. Die Beschreibung endet mit einigen Zitaten von bisherigen
Seminarteilnehmern und einem Ausblick auf die Gestaltung von weitergehenden Lehrangeboten zum
Thema QDA-Software
1 Einleitung
Die Vermittlung von QDA-Software ist in der Hochschullehre vor allem für Leh-
rende und Lernende der Fachbereiche eine Herausforderung, in denen qualitative
Forschung bislang bereits gelehrt und angewendet wird. Sie ist dort als logische
und zeitgemäße Erweiterung des Ausbildungsspektrums anzusehen, weil die Soft-
ware einen festen Bestandteil des Forschungshandwerkszeugs darstellt und der
Einsatz von QDA-Software auch in Zukunft weiter zunehmen wird (vgl. Kuckartz
2007). Die damit verbundenen neuen Möglichkeiten der Datenauswertung (z. B.
Exploration) und Vorgehensweise, der veränderten Bedingungen und Anforderun-
gen an Lehrende, Studierende, Computerressourcen und Materialaufbereitung er-
fordern die gezielte Planung und Einbindung von QDA-Software in die Lehre. In
der Literatur findet sich bisher keine konkrete Auseinandersetzung mit der Einbin-
dung von QDA-Software in der Lehre.
QDA-Software in der Hochschullehre 229
Die folgende Abbildung zeigt die inhaltliche Zielsetzung und Dauer der jeweiligen
Themenblöcke.
232 Thorsten Dresing
3 Aufgabengestaltung
Für die adäquate didaktische Umsetzung der Lerninhalte muss eine Aufgabenform
gewählt werden, die die Teilnehmenden in angemessener Weise unterstützt, moti-
viert und instruiert. Die Angemessenheit richtet sich in dieser Umsetzung an den
Gestaltungskriterien des problemorientierten Lernens nach Reinmann-Roth-
meier/Mandl (2001). Hiernach muss die Lernumgebung folgende Kriterien erfül-
len: Authentizität und Anwendungsbezug, Multiple Kontexte und Perspektiven,
Soziale Lernarrangements, und Instruktionale Unterstützung. Das problemorien-
tierte Lernen setzt die aktive Beteiligung der Lernenden voraus und verwendet da-
für problemorientierte und kooperative Aufgabenstellungen statt rezeptiver Infor-
mations- und Selbstlernquellen, wie z. B. das Literaturstudium. Die Lernenden
werden durch eine authentische Problemstellung in den Aufgaben aktiviert. Au-
thentizität wird von Mandl nicht in erster Linie als Realität gedeutet, sondern meint
eine hohe (subjektive) Relevanz oder sogar persönliche Brisanz der Aufgaben für
den Lernenden, die unter anderem durch einen konkreten Anwendungsbezug her-
gestellt wird. Neben der Schaffung von kognitiven Voraussetzungen wird eine
234 Thorsten Dresing
Aufgabe B – Problemanalyse
Diskutiert in eurem Gruppenforum über die in der Geschichte (per Link zur Ver-
fügung gestellt) beschrieben Problematik, erläutert die Problemstellung und ver-
sucht eine Lösung im Sinne einer Fortführung der Geschichte zu finden. Legt da-
für in eurem Gruppenforum einen zweiten Thread mit dem Namen „Geschichte“
an. Bis zum xx.xx.xx verfasst ihr als Gruppe ein schriftliches Gruppenstatement
(max. 1 DIN A4 Seite) und veröffentlicht es im Plenumsforum. So kann das Er-
gebnis auch von den anderen TeilnehmerInnen gelesen werden. Das Statement
könnte ungefähr so aussehen: „Sehr verehrte Anwesende … wir denken, dass die
236 Thorsten Dresing
den Aufgaben dürfen ruhig auch einige knifflige, noch nicht erläuterte Funktionen
enthalten sein. Die Teilnehmenden werden dadurch zum Ausprobieren ermutigt.
Dies festigt nach unserer Erfahrung die Anwendung der Software besser und lässt
mögliche Fehlerquellen leichter erkennen. Falls sich viele Fehlerquellen und Un-
klarheiten gezeigt haben, werden die erweiterten Funktionen abschließend noch-
mals durch den Dozenten erläutert. Wir verteilen im Laufe des vierstündigen Se-
minars etwa drei bis vier Aufgabenzettel, bspw. zum Textimport, zum Codieren
und zum Textretrieval. In jedes Aufgabenblatt fügen wir noch einen Screenshot
ein, wie das Programmbild zum jetzigen Zeitpunkt aussehen müsste. So kann auch
später noch zuhause die Aufgabe wiederholt und überprüft werden.
Hier ein Beispiel für eine Aufgabe zum Codieren:
a. Erstellen Sie die folgenden Codes mittels rechter Maustaste: Individuelle
Voraussetzungen und Vorerfahrungen, Teilnahmeverlauf an den Veranstaltungen,
Lernen außerhalb der Veranstaltung
b. Erstellen Sie die folgenden Codes mit der Tastenkombination Alt+N: Be-
wertung von Veranstaltung und Inhalt, Verbesserungsvorschläge, Erwartung der
Klausurnote
c. Ordnen Sie das Kategoriensystem so an, wie im Bild unten angegeben.
d. Bilden Sie Zweierteams und nehmen Sie sich zusammen einen kurzen
Textabschnitt aus dem Text B02 vor, den Sie gemeinsam anhand der ge-
gebenen Codes codieren.
e. Für Themen, die nicht direkt im Kategoriensystem aufgeführt sind, er-
zeugen Sie bitte einen freien Code (STRG+W) oder Invivo-Codes
(STRG+I).
f. Um die Kategorien optisch besser zu unterscheiden, vergeben Sie bitte
unterschiedliche Codefarben für jeden erstellten Code.
g. Erstellen Sie nun ein Code-Memo an Ihrem freien Code um ihn näher zu
erläutern. Hier können Sie den Code definieren und ein Ankerbeispiel aus
dem Text einfügen. Wählen Sie das Symbol „!“ für das Memo.
Nach dem Kurs müssen die Teilnehmenden innerhalb von maximal zwei Wochen
die wesentlichsten Programmfunktionen nochmals einüben, um das erlernte Wis-
sen zu festigen. Dazu können sie das von MAXQDA kostenfrei zur Verfügung ge-
stellte Einführungstutorial verwenden, das über die Webseite www.maxqda.de
nutzbar ist. Den Download der Demoversion findet man ebenfalls auf dieser Web-
seite. Mit der Demoversion und den Lektionen A, B, C, D und E des Einführungs-
tutorials werden die wichtigsten Funktionen nochmals eingeübt. Im Umgang mit
dem Einführungstutorial und den Übungen haben wir bisher sehr gute Erfahrun-
QDA-Software in der Hochschullehre 239
gen gemacht und alle Studenten und Interessierte hatten weder in der Verwendung,
noch in Bezug auf die Komplexität des Programms Schwierigkeiten. MAXQDA ist
grundsätzlich sehr leicht zu erlernen.
Schwierigkeit gibt es vor allem im Bereich der inhaltlichen Umsetzung. Die Ka-
tegorienbildung und anschließende Auswertung („Was mache ich mit den Segmen-
ten?“) ist ein schwieriges Kapitel und Bedarf der Übung. Das Bilden von Katego-
rien kann am konkreten Beispiel in einem Folgetermin im Team eingeübt werden.
4 Fazit
Das Onlineseminar eignete sich unserer Meinung nach sehr gut für die Vermittlung
und Einübung von Basiswissen für die qualitative Sozialforschung und die damit
verbundene Software MAXQDA. Die Vermittlung der Software selbst sollte je-
doch am besten als Präsenzveranstaltung durchgeführt werden, ist aber grundsätz-
lich auch durch das Onlinetutorial erlernbar. Nach dem Besuch der Veranstaltung
sind die Studenten in der Lage in einem Team an einem qualitativen Forschungs-
projekt zu arbeiten. Sie kennen die wichtigste Literatur zu den angebotenen Ver-
fahren, haben eine Forschungsfrage entwickelt, durchgeführt, hinterfragt, mit
MAXQDA ausgewertet und einen Abschlußbericht verfasst.
Die Onlinezusammenarbeit ist allerdings sowohl für Studenten als auch für
Dozenten arbeitsintensiver als ein Präsenzseminar. Unabhängig von den jeweiligen
Inhalten fordert ein Onlineseminar grundsätzlich mehr Arbeitseinsatz. Doch der
erhöhte Lerneffekt und die äußerst flexible zeitliche und örtliche Teilnahme sind
nur einige der von uns erkannten Vorzüge. Folgende Zitate aus den Kommentaren
und Interviews mit Studenten des Seminars im Sommersemester 2004 mögen dies
verdeutlichen:
Vor dem Seminar:
„Ich bin auf alle Fälle mal gespannt, ob das mit der „Ausgewogenheit“ innerhalb der Gruppen
funktioniert. Denn in Referats- oder anderen Arbeitsgruppen habe ich bisher schon des Öfte-
ren, die in den Regeln beschriebenen Phänomene (Trittbrettfahren, Schweigen, autoritäres bis
totalitäres Auftreten etc.) erlebt. Hoffentlich bietet die „semi-anonymität“ dieses Seminars end-
lich mal die Gelegenheit diesen Phänomenen entgegen zu wirken.“ (B-ID4, 3)
„Der Seminarplan scheint mir auf den ersten Blick gut durchdacht und eine runde Sache zu
sein. Hoffe, dass ich so Schritt für Schritt in das Thema reinfinde. Besonders gut finde ich,
dass die Onlineplattform ermöglicht, sich die Zeit selbst einzuteilen. Arbeite gerne gemütlich
von zu Hause und vorzugsweise spät in der Nacht – Kommt mir sehr entgegen.“ (B-ID5, 1)
240 Thorsten Dresing
5 Ausblick
QDA-Software und die Möglichkeiten der Datenauswertung und Darstellung wer-
den komplexer. Auch die Anforderungen an Absolventen werden umfangreicher.
Daher bieten sich zusätzliche Module als Kurse oder Weiterbildung an, die bspw.
eine Verbindung zwischen qualitativer und quantitativer Forschung oder das kom-
plexe Textretrieval im Kern darstellen und vermitteln. Dabei könnte im geeigneten
Rahmen auch auf tiefere Details der jeweiligen Verfahren eingegangen werden oder
eine Kombination mit anderen empirische Methoden, wie die der klassischen Sta-
tistik erreicht werden.
QUASAR: Eine Online-Umfrage zum Einsatz von
QDA-Software im Forschungsprozess
Claus Stefer
Zusammenfassung
Der folgende Beitrag stellt die Ergebnisse einer online durchgeführten Erhebung über die
Anwendung von Software zur qualitativen Datenanalyse in der Forschungspraxis vor. Ne-
ben Problemen und vermissten Funktionen in der QDA-Software wird zudem die Anwen-
dung in der Praxis thematisiert. Hierbei stehen insbesondere der Rückgriff auf Methoden,
die Methodeneignung der Software und das Arbeiten in Gruppen im Mittelpunkt.
1 Einleitung
Unter dem Titel QUASAR – Qualitative Software in Advanced Research wurde eine
Online-Befragung von Personen, die mit Software zur qualitativen Datenanalyse
(QDA-Software) arbeiten, durchgeführt. Ziel der Untersuchung war es, einen Ein-
blick in die Nutzung von QDA-Software im Forschungsprozess zu erhalten. Dazu
wurde ein aus 31 Fragen bestehender Online-Fragebogen entworfen, der von Mitte
Dezember 2005 bis Ende Januar 2006 im Internet zur Verfügung stand. Über the-
menbezogene Mailinglisten (z. B. QSF-L und GIR-L) wurde zur Teilnahme aufge-
rufen, der Fragebogen wurde von 75 Personen ausgefüllt. Im Folgenden werden
die zentralen Ergebnisse der Befragung dargestellt.
2 Allgemeine Daten
62% der Personen, die an der Studie teilgenommen haben, sind weiblichen, 38%
männlichen Geschlechts. Das Alter der Befragten bewegt sich zwischen 24 und 60
Jahren, der Durchschnitt liegt bei 36 Jahren. 58% der Befragten gaben an, seit
sechs oder weniger Jahren mit Methoden der qualitativen Sozialforschung zu arbei-
242 Claus Stefer
ten, eine Person wendet diese Methoden bereits seit 29 Jahren an. Im Durchschnitt
arbeiten die Befragten seit 7,6 Jahren mit qualitativen Methoden.
Haupteinsatzbereich der QDA-Software sind Qualifikationsarbeiten (56%),
wobei hier Dissertationen (44%) häufiger als andere Abschlussarbeiten (12%) ge-
nannt wurden. Auftragsforschung, also kommerzieller Einsatz der Software, liegt
mit 29% auf dem zweiten Rang. Weitere angegebene Einsatzbereiche sind v.a.
DFG-Projekte sowie Einfachnennungen wie etwa ein Lehrprojekt. Dieses Über-
gewicht der Qualifikationsarbeiten lässt sich eventuell durch die Rekrutierung der
Teilnehmenden via Mailinglisten erklären.
Die hauptsächlich vertretene Forschungsdisziplin ist Pädagogik (41%), gefolgt
von Soziologie (28%) und Psychologie (8%). Darüber hinaus gibt es zahlreiche
Einzelnennungen wie etwa Musikwissenschaft, Pflegewissenschaft, Schulentwick-
lung, Landschaftsplanung, Wirtschaftswissenschaften oder Marketing. Insgesamt
zeigt sich, dass softwareunterstützte qualitative Datenanalyse mittlerweile in einem
breiten disziplinären Spektrum zur Anwendung kommt, zumal die Befragtenaus-
wahl über die Mailinglisten eher die Begünstigung bestimmter Fachrichtung nahe
legt.
3 Rahmenbedingungen
Eingesetzte Software
Das von den Befragten hauptsächlich eingesetzte QDA-Programm ist MAXQDA
bzw. sein Vorgängerprogramm winMAX (77%). Das zweithäufig genutzte Pro-
gramm ist ATLAS.ti (16%), gefolgt von der Software NVivo/NUD*IST (3%) und
sonstigen Programmen (ebenfalls 3%).
ren Umfeld auch von anderen Personen genutzt wird, eine Chance auf persönliche
Unterstützung im Falle von Fragen und Problemen. Sicherlich ist hier auch von
Bedeutung, dass viele der Befragten nicht alleine, sondern in einer Gruppe arbeiten
(siehe Abschnitt Anwendungspraxis).
Probleme
Bei der Arbeit mit QDA-Software treten insgesamt nur wenige ernsthafte Proble-
me auf. Lediglich 19 Personen gaben an, überhaupt Probleme mit dem eingesetz-
ten Programm zu haben. Davon entfallen 32% auf eine nicht logische Bedienung
und 21% auf Datenverluste, welche ihrerseits vermutlich entweder auf unzurei-
chende Datensicherungsstrategien der Benutzer oder möglicherweise auch auf eine
fehlende „Undo“-Funktion der genutzten Programme zurückzuführen sein könn-
ten. Wirkliche Programmfehler (die allerdings nicht weiter spezifiziert wurden) sind
lediglich bei 32% der Personen, die angaben, Probleme bei der Arbeit zu haben,
aufgetreten; dies entspricht 8% der Befragten. Die übrigen Nennungen beziehen
sich etwa auf komplizierte Bedienung und nicht selbsterklärende Symbole. Generell
scheint QDA-Software somit mittlerweile einen hohen Reifegrad erreicht zu haben.
Softwarebezogene Kommunikation
Bezüglich der Frage nach genutzten Informationsquellen, Support- und Kommu-
nikationsangeboten zeigt sich ein wenig einheitliches Bild. 36% gaben an, haupt-
sächlich Workshops für die softwarebezogene Kommunikation zu nutzen. Jeweils
21% nannten Herstellerforen im Internet sowie allgemeine Diskussionsfo-
ren/Mailinglisten. Damit nimmt das Internet mit insgesamt 43% die zentrale Rolle
als Kommunikationsweg ein. Nur 14% der Befragten greifen auf den Hersteller-
support zurück. Überraschend ist, dass bei dieser Frage von der Möglichkeit der
244 Claus Stefer
Mehrfachnennung kein Gebrauch gemacht wurde, die Befragten also offenbar bis-
her nicht mehr als eine Informationsquelle genutzt haben.
Vermisste Funktionen
Obwohl die Mehrheit der Respondenten keine bestimmte Programmfunktion ver-
misst, gaben immerhin 45% an, dass der Funktionsumfang der eingesetzten Soft-
ware zu verbessern wäre. Ein Teil der geäußerten Wünsche scheint aus mangelnder
Kenntnis der Programmfunktionen zu resultieren, denn einige der Wünsche – etwa
bzgl. des Datenexportes oder des Vorgehens nach einer bestimmten Forschungs-
methode – werden indirekt von der Software unterstützt, wenn dies auch nicht
immer deutlich dokumentiert ist. Es bleibt eine Anzahl an speziellen methodischen
Anforderungen, denen QDA-Software gegenwärtig nicht entspricht. Gewünscht
werden etwa klarere Anleitungen zu methodenspezifischen Arbeitsschritten bzw.
ein den Methoden angepasster Aufbau der Software und ihrer Funktionen.
An erster Stelle der nicht direkt methodenbezogenen Wünsche, denen bisher
nicht entsprochen wird, steht eine Möglichkeit zur Visualisierung des Codesystems,
der Codierungen und der Ergebnisse. Immer wieder genannt wird auch eine feh-
lende „Undo“-Funktion. Ansonsten wurden vor allem konkret programmbezogene
Verbesserungswünsche geäußert.
4 Anwendungspraxis
Immerhin 33% verneinten dies, was wiederum die Frage nach dem Grund dafür
aufwirft, der nicht mit erhoben wurde. Womöglich liegt es daran, dass die Software
nicht in einem klassisch qualitativen Untersuchungskontext verwendet, sondern
beispielsweise dazu genutzt wird, größere Materialmengen zu kategorisieren und
zugänglich zu machen, ohne die Auswertungsfunktionen der Programme einzuset-
zen. Es sind durchaus noch weitere Szenarien denkbar, die keiner unbedingten me-
thodischen Fundierung bedürfen. Vorstellbar wäre allerdings auch, dass die Frage
selbst missverstanden und dahingehend interpretiert wurde, dass es sich um eine
Frage nach der Vielfalt eingesetzter Methoden handelt.1
Hauptsächlich angewandte Methoden sind die qualitative Inhaltsanalyse nach May-
ring (31%) und die Grounded Theory (29%). Weiter wurden Verfahren, die her-
meneutischen und quantitativen Richtungen zugerechnet werden können, mehr-
fach genannt. Diverse andere Methoden wie etwa die Netzwerkanalyse und die
Diskursanalyse sowie verschiedene Methodenkombinationen wurden jeweils ein-
mal genannt.
Der Großteil der Befragten, nämlich 77%, arbeitet induktiv; 23% arbeiten mit
einem vorab festgelegten Kategoriensystem. Lediglich 6% der Befragten durchlau-
fen das Material während des Codierens nur einmal, 68% durchlaufen es zwei- bis
siebenmal, der Rest (26%) noch häufiger.
Arbeit in Gruppen
Gruppenarbeit ist in der qualitativen Sozialforschung von Bedeutung: 44% gaben
an, in Gruppen zu arbeiten (zwei bis fünf Personen: 42%, sechs bis zehn Personen:
2%). Hier lässt sich erkennen, dass die Unterstützung von mehreren Benutzern
und Gruppenarbeit eine wichtige Anforderung an QDA-Software darstellt. Hin-
sichtlich der praktischen Ausgestaltung der Arbeitsteilung gibt es sehr unterschied-
1 Die Frage lautete wörtlich: „Arbeiten Sie nach einer bestimmten Methode? Bitte möglichst genau
angeben und kurz beschreiben.“
246 Claus Stefer
liche Modelle. Sie reichen von Interpretationswerkstätten über die Zerlegung des
kompletten Forschungsprozesses in Einzelschritte, deren Aufteilung und Zusam-
menführung am Ende bis zur fallbezogenen Aufteilung des gesamten Projektes.
5 Fazit
Zusammenfassend lässt sich feststellen, dass Software zur qualitativen Datenanaly-
se in einem breiten disziplinären Spektrum zur Anwendung kommt und im Großen
und Ganzen den mitunter sehr unterschiedlichen Anforderungen gerecht zu wer-
den scheint. Die Programme kommen meist während des gesamten bzw. während
großen Teilen des Forschungsprozesses und nicht nur in Bezug auf eine spezifische
Aufgabe zum Einsatz. Moderne QDA-Software bietet vielfältige Möglichkeiten
hinsichtlich der Projektverwaltung und gestatten es auch große Datenmengen zu
bearbeiten. Zwar sind extrem große Projekte mit mehr als 1.000 Analyseeinheiten
in der Praxis eher selten, dennoch können sie mit neuer Software erfolgreich be-
arbeitet werden.
Der Wunsch nach einer stärkeren Methodenorientierung ist auf Seiten der An-
wender vorhanden, allerdings sollten hier Vor- und Nachteile sehr genau bedacht
werden. Die flexible Visualisierung der Ergebnisse, der Codes oder des Codesys-
tems sind ein häufig geäußerter Wunsch, der vermutlich zum Einen in Richtung
der Unterstützung der Dateninterpretation, zum Anderen mit Hinblick auf die Er-
gebnispräsentation geäußert wird. Der Wunsch, verschiedene Medienarten wie Au-
dio-, Video- und Textdateien integriert bearbeiten zu können, wurde nur selten ge-
äußert (3% der Befragten), würde aber sicher eine interessante Erweiterung der
Möglichkeiten qualitativer Software darstellen.
Der hohe Anteil von in Gruppenarbeit durchgeführten Projekten und ihre sehr
individuelle Organisation innerhalb der verschiedenen Projekte zeigt, dass es wich-
tig ist, dass eine Mehrbenutzerfunktionalität flexibel genug ist, unterschiedliche
Modelle der Gruppenarbeit zu ermöglichen.
QUASAR: Eine Online-Umfrage zum Einsatz von QDA-Software im Forschungsprozess 247
Schließlich lässt sich noch festhalten, dass neben einem umfangreichen betreu-
ten Lernangebot (Summerschools, Workshops etc.) in jedem Falle ausreichendes
und fundiertes Selbstlernmaterial zur Verfügung stehen sollte, um den Anwendern
das vielfach präferierte eigenständige Erarbeiten und Vertiefen der Programm-
kenntnisse zu ermöglichen.
Literatur
Denzin, N. K. (1997): Interpretive Ethnography. Ethnographic Practices for the 21st Century. Thou-
sand Oaks/London/New Dehli: Sage.
Denzin, N. K./Lincoln, Y. S (1994): Introduction. Entering the Field of Qualitative Research. In: dies.
(Eds.): Handbook of Qualitative Research. Thousand Oaks: Sage, 1-18.
Denzin, N. K./Lincoln, Y. S. (1998): The Landscape of Qualitative Research. Thousand Oaks/Lon-
don/New Delhi: Sage.
Denzin, N. K./Lincoln, Y. S. (Eds.) (1994): Handbook of Qualitative Research (1. Aufl.). Lon-
don/Thousand Oaks/New Dehli: Sage.
Denzin, N. K./Lincoln, Y. S. (Eds.) (2000): Handbook of Qualitative Research (2. Aufl.). Lon-
don/Thousand Oaks/New Dehli: Sage.
Deutscher Bundestag (2002): Schlussbericht der Enquete-Kommission „Recht und Ethik der modernen
Medizin“. Berlin (Bundestagsdrucksache – 14. Wahlperiode).
Dotzler, H. (1999): Computerprogramme zur Unterstützung qualitativer Textanalyse: ein Beitrag vor
dem Hintergrund der aktuellen Praxis und Technik. München: Dissertationsdr. R. Ibing.
Dresing, T. (2006): E-Learning in der universitären Lehre am Beispiel der Entwicklung und Evaluation
eines hybriden Onlineseminars zur computergestützten Text- und Inhaltsanalyse. Marburg, Univ.,
Diss.
Elliot, R./Fischer, C. T./Rennie, D. L. (1999): Evolving guidelines for publication of qualitative rese-
arch studies in psychology and related fields. British Journal of Clinical Psychology (38), 215-229.
Erzberger, Chr. (1998): Zahlen und Wörter. Die Verbindung quantitativer und qualitativer Daten und
Methoden im Forschungsprozess. Weinheim: Deutscher Studien Verlag.
Erzberger, Chr./Kelle, U. (1998): Qualitativ vs. Quantitativ? Wider den Traditionalismus methodologi-
scher Paradigmen. In: Soziologie 1998 (3), 45-54.
Fend, H. (1998): Qualität im Bildungswesen. Schulforschung zu Systembedingungen, Schulprofilen und
Lehrerleistung. Weinheim und München: Juventa Verlag
Fielding, N. G./Fielding, J. L. (1986): Linking Data. Qualitative Research Methods, Vol. 4. London:
Sage.
Fielding, N. G./Lee, R. M. (1998): Computer Analysis and Qualitative Research. London: Sage.
Fielding, N. G./Lee, R. M. (2002): New patterns in the adoption and use of qualitative software. Field
methods 14:2 (5), 197-216.
Fielding, N. G./Lee, R. M. (Eds.) (1991): Using computers in qualitative research. London: Sage.
Fischer, K. (1983): Rationale Heuristik. In: Zeitschrift für allgemeine Wissenschaftstheorie, 14, 234-272.
Flick, U. (1987): Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In:
Bergold, J.B./Flick, U. (Hrsg.): Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer For-
schung. Tübingen: DGVT-Verlag, 246-263.
Flick, U. (1991): Triangulation. In: Flick, U./von Kardoff, E./Keupp, H./von Rosenstiel, L./Wolff, S.
(Hrsg.): Handbuch qualitative Sozialforschung. München: PVU, 432-434.
Flick, U. (1992a): Entzauberung der Intuition. Triangulation von Methoden und Datenquellen als Stra-
tegie der Geltungsbegründung und Absicherung von Interpretationen. In: Hoffmeyer-Zlotnik, J.
(Hrsg.): Analyse qualitativer Daten. Opladen: Westdeutscher Verlag, 11-55.
Flick, U. (1992b): Triangulation Revisited – Strategy of or Alternative to Validation of Qualitative Data.
Journal for the Theory of Social Behavior, (22), 175-197.
Flick, U. (1998): An Introduction to Qualitative Research. Thousand Oaks/London/New Delhi: Sage.
Flick, U. (1998): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwis-
senschaften. Reinbek: Rowohlt.
Flick, U. (1999): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwis-
senschaften. Reinbek: Rowohlt.
Flick, U. (2000): Triangulation in der qualitativen Forschung In: Flick, U./von Kardorff, E./Steinke, I.
(Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 309-319.
Flick, U. (2002): Qualitative Sozialforschung. Eine Einführung. Reinbek: Rowohlt.
Literatur 251
Flick, U. (2003): Qualitative Forschung – Stand der Dinge. In: Orth, B./Schwietring, Th./Weiß, J.
(Hrsg.): Soziologische Forschung. Stand und Perspektiven. Opladen: Leske+Budrich, 309-322.
Flick, U. (2004): Triangulation – Methodologie und Anwendung. Wiesbaden: Verlag für Sozialwissen-
schaft.
Flick, U. (2004a): Qualitative Sozialforschung – Eine Einführung. Reinbeck: Rowohlt.
Flick, U. (2004b): Triangulation. Eine Einführung. Wiesbaden. VS Verlag für Sozialwissenschaften.
Flick, U./von Kardorff, E./Steinke, I. (Hrsg.) (2000): Qualitative Forschung. Ein Handbuch. Reinbek:
Rowohlt.
Flick, U./Walter, U./Fischer, C./Neuber, A./Schwartz, F.-W. (2004): Gesundheit als Leitidee? – Ge-
sundheitsvorstellungen von Ärzten und Pflegekräften. Bern: Huber.
Ford, K./Oberski, I./Higgins, S. (2000): Computer-Aided Qualitative Analysis of Interview Data: Some
Recommendations for Collaborative Working. The Qualitative Report (Online Journal), 4(3/4).
Verfügbar über: http://www.nova.edu/ssss/QR/BackIssues/index.html [12.08.2002].
Foucault, Michel. (1990): Archäologie des Wissens. Frankfurt a. M. (Suhrkamp). (4. Aufl.).
Friebertshäuser, B./Prengel, A. (Hrsg.) (1997): Handbuch Qualitative Forschungsmethoden in der Er-
ziehungswissenschaft. München: Juventa Verlag.
Friedrich, J. (2002): Der Brand. Deutschland im Bombenkrieg 1940-1945. München: Propyläen.
Friedrichs, J. (1980): Methoden empirischer Sozialforschung. Opladen: Westdeutscher Verlag (erstm.
ersch. 1973).
Gadenne, V. (1984): Theorie und Erfahrung in der psychologischen Forschung. Tübingen: Mohr.
Geertz, C. (1983): Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. Frankfurt/M:
Suhrkamp.
Geertz, C. (1988): Works and Lives: the Anthropologist as Author. Stanford/Ca: Stanford University
Press.
Gerhardt, U. (1983): Patientenkarrieren: eine Medizinsoziologische Studie (Abschlußbericht DFG-
Projekt: Biographische Typenkonstruktion in den Patientenkarrieren bei chronischer Niereninsuffi-
zienz (1981 – 1982). Gießen: Justus-Liebig-Universität.
Gerhardt, U. (1985): Erzähldaten und Hypothesenkonstruktion: Überlegungen zum Gültigkeitsproblem
in der biographischen Sozialforschung. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie,
37, 230-256.
Gerhardt, U. (1986): Verstehende Strukturanalyse: Die Konstruktion von Idealtypen als Analyseschritt
bei der Auswertung qualitativer Forschungsmaterialien. In H. G. Soeffner (Hrsg.), Sozialstruktur
und soziale Typik. Franfurt/M: Campus, 31-83.
Gerhardt, U. (1995): Typenbildung. In: Flick, U./von Kardoff, E./Keupp, H./von Rosenstiel,
L./Wolff, S. (Hrsg.): Handbuch Qualitative Sozialforschung. Weinheim: Beltz, PVU, 435-439.
Gerhardt, U. (1998): Die Verwendung von Idealtypen bei der fallvergleichenden biographischen For-
schung. In: Jüttemann, G./Thomae, H. (Hrsg.): Biographische Methoden in den Humanwissen-
schaften. Weinheim: PVU, 193-212.
Gibbs, G. R. (2002): Qualitative Data Analysis: Explorations with NVivo. Buckingham: Open Univer-
sity Press.
Gibbs, G. R./Friese, S./Mangabeira, W. C. (2002): Technikeinsatz im qualitativen Forschungsprozess.
Einführung zu FQS Band 3(2) (34 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative
Social Research (On-line Journal), 3(2). Verfügbar über: http://www.qualitative-research.net/
fqs/fqs.htm [31.07.2002].
Glaser, B. (1978): Theoretical Sensitivity. Advances in the Methodology of Grounded Theory. Mill Val-
ley: The Sociology Press.
Glaser, B. (1978): TheoreticalSensitivity. Advances in the Methodology ofGrounded Theory. Mill
Valley, Ca.: The Sociology Press.
Glaser, B. (1992): Emergence vs. forcing. Basics of grounded theory analysis. Mill Valley.
Glaser, B. (1992): Emergence vs. Forcing: Basics of Grounded Theory Analysis. Mill Valley, Ca.: So-
ciology Press.
252 Literatur
Hofmann, J. (2001): Schulaufsicht im Umbruch. Neue Aufgaben der Schulaufsicht bei der Qualitätssi-
cherung und –entwicklung von Schule. Kronach – München – Bonn – Potsdam: Carl Link Verlag.
Huber, G. L. (Hrsg.) (1992): Qualitative Analyse: Computereinsatz in der Sozialforschung. München:
Oldenbourg.
Jensen, O. (2000): Zur gemeinsamen Verfertigung von Text in der Forschungssituation. Forum Qualita-
tive Sozialforschung/Forum: Qualitative Social Research (Online Journal), verfügbar über:
http://qualitative-research.net/fqs, 1, 2, 32 Absätze.
Jensen, O. (2004a): Geschichte machen. Strukturmerkmale des intergenerationellen Sprechens über die
NS-Vergangenheit in deutschen Familien. Tübingen: edition diskord.
Jensen, O. (2004b): Induktive Kategorienbildung als Basis Qualitativer Inhaltsanalyse. In: Mayring,
Ph/Gläser-Zikuda, M. (Hrsg.): Die Praxis der Qualitativen Inhaltsanalyse. Weinheim: Utb.
Jensen, O./Welzer, H. (2003): Ein Wort gibt das andere, oder: Selbstreflexivität als Methode. Forum
Qualitative Sozialforschung/Forum: Qualitative Social Research (Online Journal), verfügbar über:
http://qualitative-research.net/fqs, 4, 2, 58 Absätze.
Kamiske, G.F./Brauer, J.P. (1995): Qualitätsmanagement von A bis Z – Erläuterungen moderner Be-
griffe des Qualitätsmanagements (2. Aufl.). München: Hanser.
Kelle, H. (2001): Ethnographische Methodologie und Probleme der Triangulation. Am Beispiel der Peer
Culture Forschung bei Kindern. In: Zeitschrift für Soziologie der Erziehung und Sozialisation (H2),
192-208.
Kelle, U. (1990): Computerunterstützte Auswertung qualitativer Daten. Ein Überblick über Konzepte
und Verfahren. SFB 186 der Universität Bremen, Arbeitspapier Nr.11. Bremen.
Kelle, U. (1994a): Computergestützte Kategorisierung verbaler Daten. In: Faulbaum, Frank (Ed.): SoftS-
tat ’93, 369-376.
Kelle, U. (1994b): Empirisch begründete Theoriebildung. Zur Logik und Methodologie interpretativer
Sozialforschung. Weinheim: Deutscher Studien Verlag.
Kelle, U. (1995) (Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. Lon-
don: Sage.
Kelle, U. (1996): Computer-Aided Qualitative Data Analysis: An Overview. In: Züll et. al. (Hrsg.): Text
Analysis and Computers. ZUMA-Nachrichten Spezial. Mannheim, 33-64.
Kelle, U. (1997a): Capabilities for Theory Building & Hypothesis Testing. In: Software for Computer
Aided Qualitative Data Analysis. Data Archive Bulletin, No.65.
Kelle, U. (1997b): Theory building in Qualitative Research and Computer Programs for the Manage-
ment of Textual Data. Sociological Research Online Vol. 2, No. 2.
Kelle, U. (1998): Empirisch begründete Theoriebildung. Zur Logik und Methodologie interpretativer
Sozialforschung. Weinheim: DSV (2. Aufl.).
Kelle, U. (2000): Computergestützte Analyse qualitativer Daten. In: Flick, U./von Kardorff, E./Steinke,
I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 485-501.
Kelle, U. (2005): “Emergence” vs. “Forcing” of Empirical Data? A Crucial Problem of “Grounded
Theory” Reconsidered [52 paragraphs]. Forum Qualitative Sozialforschung/Forum: Qualitative So-
cial Research [On-line Journal], 6(2), Art. 27. Verfügbar über: http://www.qualitative-
research.net/fqs-texte/2-05/05-2-27-e.htm [14.08.2006].
Kelle, U./Erzberger, C. (2000): Quantitative und Qualitative Methoden – kein Gegensatz. In: Flick,
U./von Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek:
Rowohlt, 299-309.
Kelle, U./Kluge, S. (1999): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der quali-
tativen Sozialforschung. Opladen: Leske+Budrich.
Kelle, U./Laurie, H. (1995): Computer Use in Qualitative Research and Issues of Validity. In: Kelle, U.
(Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. London: Sage,
19-28.
254 Literatur
Kelle, U./Laurie, H. (1995): Computer Use in Qualitative Research and Issues of Validity. In: Kelle, U.
(Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. London: Sage,
19-28.
Kelle, U./Zinn, J. (1998): School-to-Work transition and Occupational Careers – Results from a Longi-
tudinal Study in Germany. In: Lange, Th. (Ed.): Understanding the School-to-Work transition. New
York: Nova Science Publishing.
Kelle, Udo (2007): Die Integration qualitativer und quantitativer Methoden. Handlungstheoretische
und methodologische Grundlagen. Wiesbaden: VS.
Kelle, Udo; Lüdemann, Christian (1995): „Grau, teurer Freund, ist alle Theorie...“ Rational Choice und
das Problem der Brückenannahmen. In: Kölner Zeitschrift für Soziologie und Sozialpsycholo-
gie, 47 (2), S. 249-267.
Keller, R. (2005): Wissenssoziologische Diskursanalyse. Grundlegung eines Forschungsprogramms.
Wiesbaden: VS.
Keller, R./Hirseland, A./Schneider, W./Viehöver, W. (2005) (Hrsg.): Die diskursive Konstruktion von
Wirklichkeit. Zum Verhältnis von Wissenssoziologie und Diskursforschung. Wiesbaden: VS.
Kempfert, G./Rolff, H.G. (2000): Pädagogische Schulentwicklung. Ein Arbeitsbuch für Schule und
Unterricht. Weinheim und Basel: Beltz.
Kirk, J./Miller, M. L. (1986): Reliability and Validity in qualitative Research. Beverley Hills: Sage.
Klein, H. (1997): Overview on text analysis software. In: Bandilla, W./Faulbaum, F. (Eds.): SoftStat ‚97
– Advances in Statistical Software. Stuttgart: Lucius & Lucius.
Kleining, G. (1986): Das qualitative Experiment. In: Kölner Zeitschrift für Soziologie und Sozialpsycho-
logie, Vol. 38, 724-750.
Kluge, S. (1999): Empirisch begründete Typenbildung. Zur Konstruktion von Typen und Typologien in
der qualitativen Sozialforschung. Opladen: Leske+Budrich.
Kluge, S./Opitz, D. (1999): Die Archivierung qualitativer Interviewdaten: Forschungsethik und Daten-
schutz als Barrieren für Sekundäranalysen? Soziologie, Mitteilungsblatt der DGS, Nr. 4, 48-63.
Klüver, J. (1979): Kommunikative Validierung. In Th. Heinze (Hrsg.), Lebensweltanalyse von Fernstu-
denten. Fernuniversität Hagen, 68-84.
Köckeis-Stangl, E. (1982): Methoden der Sozialisationsforschung. In: Hurrelmann, K./Ulich, D. (Hrsg.):
Handbuch der Sozialisationsforschung. Weinheim: Beltz, 321-370.
Kolb, D.A. (1984): Experiential Learning, Englewood Cliffs, NJ.
Kolb, D.A. (1999): The Kolb Learning-Style Inventory, Version3. Manual: Boston.
Kowall, S./O’Connell, D. C. (2000): Zur Transkription von Gesprächen. In: Flick, U./von Kardorff,
E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 437-447.
Kromrey, H./Hoffmeyer-Zlotnik, J./Kelle, U. (2000): Validität qualitativer Forschung. Tagung der Sek-
tion Empirische Sozialforschung der Deutschen Gesellschaft für Soziologie, Mannheim, Dezember
2000.
Krüger, H./Born, C. (1991): Unterbrochene Erwerbskarrieren und Berufsspezifik: Zum Arbeitsmarkt-
und Familienpuzzle im weiblichen Lebensverlauf. In: Maxner, K.U./Allmendinger, J./Huinink, J.
(Hrsg.): Vom Regen in die Traufe: Frauen zwischen Beruf und Familie. Frankfurt a.M./New York:
Campus, 142-161.
Kuckartz, U. (1992): Computers and qualitative research: A comparison of the computer software for
qualitative data analysis. In: Faulbaum u.a. (Hrsg.): SOFTSTAT ‚91. Fortschritte der Statistik-
Software 3, 6. Konferenz über die wissenschaftliche Anwendung von Statistik-Software. Stuttgart:
Gustav Fischer.
Kuckartz, U. (1994): Using MAX in surveys: Experiences and New Features. In: Faulbaum, F. (Hrsg.)
SOFTSTAT ‚93. Stuttgart: Gustav Fischer, 377-385.
Kuckartz, U. (1996): MAX für Windows: ein Programm zur Interpretation, Klassifikation und Typen-
bildung. In: Bos, W./Tarnai, Chr. (Hrsg.): Computerunterstützte Inhaltsanalyse in den empirischen
Sozialwissenschaften. Münster/New York: Waxmann, 229-243.
Literatur 255
Kuckartz, U. (1997): A Standardized Text Interchange Format for Computer Programs for Qualitative
Data Analysis. In: Faulbaum, F. (Ed.): SOFTSTAT ‚97, 259-266.
Kuckartz, U. (1999): Computergestützte Analyse Qualitativer Daten. Eine Einführung in die Methoden
und Arbeitstechniken. Opladen: Westdeutscher Verlag.
Kuckartz, U. (2007): Einführung in die computergestützte Analyse qualitativer Daten. 2., aktualisierte
und erw. Aufl., Wiesbaden: VS.
Kuckartz, U./Dresing, T./Rädiker, S./Stefer, C. (2007): Qualitative Evaluation. Der Einstieg in die
Praxis. Wiesbaden: VS.
Kühn, Th./Witzel, A. (2000): Der Gebrauch einer Textdatenbank im Auswertungsprozess problemzen-
trierter Interviews (115 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative Social Re-
search (Online-Journal), 1(3). Verfügbar über: http://www.qualitative-research.net/fqs/fqs.htm
[31.07.2002].
Kvale, S. (1989): To Validate is to Question. In S. Kvale (ed.): Issues of Validity in Qualitative Research.
Lund: Studentlitteratur, 73-92.
Kvale, S. (1995): The Social Construction of Validity. Qualitative Inquiry, 1, 19-40.
Kvale, S. (1995): Validierung: Von der Beobachtung zu Kommunikation und Handeln. In: Flick, U./von
Kardoff, E./Keupp, H./von Rosenstiel, L./Wolff, S. (Hrsg.): Handbuch Qualitative Sozialfor-
schung (2. Aufl). München: PVU, 427-432.
Lakatos, Imre (1982): Die Methodologie der wissenschaftlichen Forschungsprogramme. Philosophische
Schriften, Bd. 1. Wiesbaden: Vieweg.
Lamnek, S. (1988): Qualitative Sozialforschung, Bd.1: Methodologie (1. Aufl.). Weinheim: PVU.
Lamnek, S. (1993): Qualitative Sozialforschung, Bd.1: Methodologie (2. Aufl.). Weinheim: PVU.
Lamnek, S. (1995): Qualitative Sozialforschung, Bd.1: Methodologie (2. Aufl.). Weinheim: PVU.
Laucken, U. (2002): Qualitätskriterien als wissenschaftspolitische Lenkinstrumente (83 Absätze). Forum
Qualitative Sozialforschung/Forum: Qualitative Social Research (On-line Journal), 3(1): Verfügbar
über: http://www.qualitative-research.net/fqs-texte/1-02/1-02laucken-d.htm [20.02.2003].
Laudan, L. (1977): Progress and its Problems. Towards a Theory of Scientific Growth. London and
Henley: Routledge & Kegan Paul.
Lazarsfeld, P. F./Barton, A. H. (1951): Qualitative Measurement in the Social Science. Classification,
Typologies and Indices. In: Lasswell, H.D./Lerner, D.T. (Eds.): Policy Sciences in the United
States. Stanford: University Press, 155-192.
Lee, R. M./Fielding, N. G. (1996): Qualitative Data Analysis: Representations of a Technology: A Com-
ment on Coffey, Holbrook and Atkinson‘ Sociological Research Online Vol. 1, No. 4.
Legewie H. (1987): Interpretation und Validierung biographischer Interviews. In: Jüttemann,
G./Thomae, H. (Hrsg.): Biographie und Psychologie. Berlin: Springer, 138-150.
Legewie, H. (1987): Interpretation und Validierung biographischer Interviews. In G. Jüttemann & H.
Thomae (Hrsg.): Biographie und Psychologie. Berlin, Heidelberg: Springer, 138-150.
Lehmann, A. (1987): Organisieren – Über Erzählen aus der Kriegs- und Nachkriegszeit. In: Der
Deutschunterricht 6, 51-63.
Lienert, G. A. (1969): Testaufbau und Testanalyse. Weinheim, Berlin, Basel: Verlag Julius Beltz
Lienert, G. A./Raatz, U. (1994): Testaufbau und Testanalyse. Weinheim: Psychologie Verlags Union.
Lincoln, Y. S./Denzin, N. K. (1994): The Fifth Moment. In: dies. (Eds.): Handbook of Qualitative Re-
search. London/Thousand Oaks/New Dehli: Sage.
Lincoln, Y. S./Guba, E. G. (1985): Naturalistic Inquiry. Beverly Hills: Sage.
Lincoln, Y. S./Guba, E. G. (1985): Naturalistic Inquiry. London/Thousand Oaks/New Dehli: Sage.
Lindesmith, A. R. (1947/1968): Addiction and Opiates. Chicago: Aldine.
Link, J. (1999): Diskursive Ereignisse, Diskurse, Interdiskurse: Sieben Thesen zur Operativität der Dis-
kursanalyse, am Beispiel des Normalismus. In: Bublitz, Hannelore/Bührmann, Andrea/Hanke,
Christiane/Seier, Andrea (Hrsg.): Das Wuchern der Diskurse. Perspektiven der Diskursanalyse
Foucaults. Frankfurt/M.: Campus, 149-161.
256 Literatur
Link, J. (2005): Warum Diskurse nicht von personalen Subjekten ‚ausgehandelt’ werden. Von der Dis-
kurs- zur Interdiskurstheorie. In: Keller, R./Hirseland, A./Schneider, W./Viehöver, W. (Hrsg.): Die
diskursive Konstruktion von Wirklichkeit: Zum Verhältnis von Wissenssoziologie und Diskursfor-
schung. Konstanz: UVK, 77-99.
Lissmann, U. (2001): Inhaltsanalyse von Texten. Ein Lehrbuch zur computerunterstützten und konven-
tionellen Inhaltsanalyse. Landau: Verlag Empirische Pädagogik.
List, J. (Hrsg.) (1998): TIMSS: Mathematisch-Naturwissenschaftliche Kenntnisse deutscher Schüler auf
dem Prüfstand. Köln: Deutscher Instituts-Verlag
Lucius-Hoene, G./Deppermann, A. (2002): Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur
Analyse narrativer Interviews. Opladen: Leske+Budrich.
Lüders, C. (2000a): Beobachten im Feld und Ethnographie. In: Flick, U./von Kardorff, E./Steinke, I.
(Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 384-402.
Lüders, C. (2000b): Herausforderungen qualitativer Forschung. In: Flick, U./von Kardorff, E./Steinke,
I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 632-643.
Lüders, C. (2004): Herausforderungen qualitativer Forschung. In Flick, U.; Kardorff E. v.; Steinke, I.
(Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbeck: Rowohlt, 632-642.
Lüders, C./Reichertz, J. (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß
warum – Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche
Rundschau, H. 12, 90-102.
Ludwig-Meyerhofer, W. (2003): Zur Qualität der sozialwissenschaftlichen Methodenausbildung – am
Beispiel statistischer Datenanalyse. ZA-Informationen, H. 53, 144-155.
Madill, A./Jordan, A./Shirley, C. (2000): Objectivity and reliability in qualitative analysis: Realist, contex-
tualist and radical constructionist epistemologies. British Journal of Psychology, (91), 1-20.
Mangabeira, W.C. (1996): Computer-Assistance, Qualitative Analysis and „Model Building: Hyper-
Research and Ethno Programs. In: Bandilla, W./Faulbaum, F. (Eds.): SoftStat ’95, 334-343.
Mangold, W. (1960): Gegenstand und Methode des Gruppendiskussionsverfahrens. Frankfurt a.M.: eva.
Manning, K. (1997): Authenticity in Constructivist Inquiry: Methodological Considerations without Pre-
scriptions. Qualitative Inquiry 3, 93-115.
Marotzki, W. (1994): Forschungsmethoden der erziehungswissenschaftlichen Biographieforschung. In
H. H. Krüger/W. Marotzki (Hrsg.) Erziehungswissenschaftliche Biographieforschung. Opladen:
Leske+Budrich, 55-89.
Marotzki, W. (1998): Ethnographische Verfahren in der Erziehungswissenschaftlichen Biographie For-
schung. In: Jüttemann, G./Thomae, H. (Hrsg.): Biographische Methoden in den Humanwissen-
schaften. Weinheim: Beltz, 44-59.
Mayntz, R./Holm, K./Hübner, P. (1969/1978): Einführung in die Methoden der empirischen Soziolo-
gie. Opladen: Westdeutscher Verlag.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung (1. Aufl.). Weinheim: Deutscher Stu-
dien Verlag.
Mayring, P. (1994/1995): Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Deutscher
Studien Verlag.
Mayring, P. (1995): Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Deutscher Stu-
dienverlag.
Mayring, P. (1997): Qualitative Inhaltsanalyse. Grundlagen und Techniken (6. Aufl.). Weinheim: DSV.
Mayring, P. (2000): Qualitative Inhaltsnanalyse. Forum Qualitative Sozialforschung, Online-Journal 1(2).
Verfügbar über: http://qualitative-research.net/fqs/fqs-d/2-00inhalt-d.htm [03.03.2004].
Mayring, P. (2001): Kombination und Integration qualitativer und quantitativer Analyse (31 Absätze).
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research (Online Journal), 2(1). Ver-
fügbar über: http://qualitativeresearchnet/fqs/fqs.htm [03.03.2004].
Mayring, P./Gläser-Zikuda, M. (2005) (Hrsg.): Die Praxis der Qualitativen Inhaltsanalyse. Weinheim:
Beltz.
Literatur 257
MBFJ – Ministerium für Bildung, Frauen und Jugend (2002): Qualitätsentwicklung an Schulen in Rhein-
land-Pfalz. Ministerielle Dienstanweisung.
MBWW – Ministerium für Bildung, Wissenschaft und Weiterbildung (1999): Schule machen, Mainz: Re-
ferat Presse- und Öffentlichkeitsarbeit.
Meinefeld, W. (1985): Die Rezeption empirischer Forschungsergebnisse – eine Frage von Treu und
Glaube? Resultate einer Analyse von Zeitschriftenartikeln. In: Zeitschrift für Soziologie, Jg.15, 297-
314.
Merten, K. (1983): Inhaltsanalyse. Einführung in Theorie, Methode und Praxis. Opladen: Westdeutscher
Verlag.
Merton, R. K. (1968): Social Theory and Social Structure. New York: The Free Press.
Metzger, W. (1982): Möglichkeiten der Verallgemeinerung des Prägnanzprinzips. In: Gestalt Theory,
Vol. 4, No. 1/2, 3-22.
Middleton, D./Edwards, D. (1990): Collectiv Remebering. London: Sage.
Miles, M. B./Huberman, A. M. (1994): Qualitative Data Analysis. An Expanded Sourcebook. 2nd Ed.
Thousand Oaks: Sage.
Miller, D. C./Salkind, N. J. (Eds.) (2002): Handbook of Research Design and Social Measurement. 6th
Edition. Thousand Oaks: Sage.
Mishler E. G. (1990): Validation in inquiry-guided research. The role of exemplars in narrative studies.
Harvard Education Review, 60, 415-442.
Mishler, E.G. (1986): Research Interviewing. Context and Narrative. Cambridge, Ma.: Harvard Univer-
sity Press.
Mohler, P.Ph. (1981): Zur Pragmatik qualitativer und quantitativer Sozialforschung. In: Kölner Zeit-
schrift für Soziologie und Sozialpsychologie, Jg.33, 716-734.
Moller, S. (2003): Vielfache Vergangenheit. Öffentliche Erinnerungskulturen und Familienerinnerungen
an die NS-Zeit in Ostdeutschland. Tübingen: edition diskord.
Morse, J.M. (1999a): Myth #93: Reliability and Validity are not relevant for qualitative inquiry – Edito-
rial. Qualitative Health Research, (9), 717-718.
Morse, J.M. (1999b): Qualitative Generalizability – Editorial. Qualitative Health Research, (9), 5-6.
Moseley, L.G./Mead, D.M./Murphy, F. (1997): Applying lexical and semantic analysis to the explora-
tion of free-text data. Nurse Researcher, 4(3), 46-68.
Mruck, K. (2000): Qualitative Sozialforschung in Deutschland (54 Absätze). Forum Qualitative Sozial-
forschung/Forum Qualitative Social Research (On-line Journal), 1(1). Verfügbar über:
http://qualitative-research.net/fqs [31.07.2002].
Muhr, T. (2000): Forum: Increasing the Reusability of Qualitative Data with XML: Forum Qualitative
Sozialforschung/Forum Qualitative Social Research (On-line Journal), 3(2). Verfügbar über:
http://www.qualitative-research.net/fqs/fqs-eng.htm [31.07.2002].
Müller-Benedict, V. (1998): Der Einsatz von Maßzahlen der Intercoder-Reliabilität in der Inhaltsanalyse.
Zeitschrift für Soziologie der Erziehung und Sozialisation, 1, 105.
Mummendey, A./Otten, S. (2002): Theorien intergruppalen Verhaltens. In: Frey, I./Irle, M. (Hrsg.):
Theorien der Sozialpsychologie Bd. II. Bern: Huber, 95-119.
Niethammer, L. (1990): Juden und Russen im Gedächtnis der Deutschen. In: Pehle, Walter H. (Hrsg.):
Der historische Ort des Nationalsozialismus. Frankfurt a.M.: Fischer, 114-134.
NIH (2001): Office of Behavioral and Social Sciences Research des National Institutes of Health (Ed.):
Qualitative Methods in Health Research – Opportunities and Considerations In Application and
Review.
Oevermann, U./Allert, T./Konau, E./Krambeck, J. (1979): Die Methodologie einer objektiven Herme-
neutik und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner,
H.-G. (Hrsg.): Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler,
352-434.
Padover, S. K. (1999): Lügendetektor – Vernehmungen im besiegten Deutschland. Frankfurt/M.: Eich-
Born.
258 Literatur
Peck, E./Secker, J. (1999): Quality Criteria for Qualitative Research: Does Context Make a Difference?
Qualitative Health Research, (9), 552-558.
Plaß, C./Schetsche, M. (2000): The Analysis and Archiving of Heterogeneous Text Documents: Using
Support of the Computer Program NUD*IST 4 (21 paragraphs). Forum Qualitative Sozialfor-
schung/Forum: Qualitative Social Research (On-line Journal), 1(3). Verfügbar über:
http://www.qualitative-research.net/fqs-texte/3-00/3-00plassschetsche-e.htm [20.03.2007].
Pollock, F. (1955): Gruppenexperiment. Ein Studienbericht. Bearbeitet von Friedrich Pollock. Frankfurt
a.M.: eva.
Popper, K. R. (1989b): Logik der Forschung. 9. verbesserte Aufl. Tübingen: J.C.B. Mohr (erstmals er-
schienen 1934).
Popper, K.R. (1989a): Grundprobleme der Erkenntnislogik. Zum Problem der Methodenlehre. In:
Skirrbeck, G. (Hrsg.): Wahrheitstheorien. Eine Auswahl aus den Diskussionen über Wahrheit im
20. Jahrhundert. Frankfurt/M.: Suhrkamp, 109-139.
Prein, G./Kelle, U./Bird, K. (1995): An Overview of Software. In: Kelle, U. (Ed.) (1995): Computer-
Aided Qualitative Data Analysis. Theory, Methods and Practice. London: Sage.
Rehberg, K.-S. (2003): Zu aktuellen Fragen der Studienreform und Lehrgestalt der Soziologie. In: Orth,
B./Schwietring, Th./Weiß, J. (Hrsg.): Soziologische Forschung. Stand und Perspektiven. Opladen:
Leske+Budrich, 17-26.
Reichenbach, H. (1983): Erfahrung und Prognose (Gesammelte Werke, Bd. 4). Herausgegeben von
Kamlah, A./Reichenbach, M.: Braunschweig: Vieweg (erstmals erschienen 1938 unter dem Titel:
Experience and Prediction).
Reicher, S. (2000): Against methodolatry: Some comments on Elliot, Fischer and Rennie. British Journal
of Clinical Psychology, (39), 11-26.
Reichertz, J. (2000): Objektive Hermeneutik und hermeneutische Wissenssoziologie. In: Flick, U./von
Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 514-
524.
Reid, A. D./Gough, S. R. (2000): Guidelines for Reporting and Evaluating Qualitative Research: what
are the alternatives? Environmental Education Research, H.1, 59-91.
Reinmann-Rothmeier, G. (2003): Didaktische Innovation durch Blended Learning. Leitlinien anhand
eines Beispiels aus der Hochschule. Bern u.a.: Huber.
Reinmann-Rothmeier, G./Mandl, H. (2001): Unterrichten und Lernumgebungen gestalten. In: Krapp,
A./Weidenmann, B. (Hrsg.): Pädagogische Psychologie. Weinheim, 601-646.
Reinmann-Rothmeier, G./Mandl, H. (2001): Virtuelle Seminare in Hochschule und Weiterbildung. Drei
Beispiele aus der Praxis. Bern: Huber.
Richards, T./Richards, L. (1994): Creativity in Social Sciences: the computer enhancement of qualitative
data analysis. In: Dartnall, T. (Ed.): Artificial Intelligence and Creativity. An Interdisciplinary Ap-
proach. Kluwer: Dordrecht, 365-383.
Richardson, L. (1994): Writing. A Method of Inquiry. In Denzin, N. K./Lincoln, Y. S. (Eds): Handbook
of Qualitative Research. Thousand Oaks: Sage, 516-529.
Roberts, K. A./Wilson, R. W. (2002): ICT and the Research Process: Issues Around the Compatibility
of Technology with Qualitative Data Analysis (52 paragraphs). Forum Qualitative Sozialfor-
schung/Forum: Qualitative Social Research (On-line Journal), 3(2). Verfügbar über:
http://www.qualitative-research.net/fqs-texte/2-02/2-02robertswilson-e.htm [31.07.2002].
Sahner, H. (1979): Empirische Sozialforschung. Ein Instrument zur Bestätigung der Vorurteile des For-
schers? Eine Analyse veröffentlichter empirischer Sozialforschung. In: Zeitschrift für Soziologie, Jg.
8, 267-278.
Schäfer, M. (2004): Lernstile und e-Learning: Entwicklung und Erprobung eines Kategoriensystems zur
Analyse von Lernstilen in problemorientierten virtuellen Seminaren. Unveröffentlichte Diplom-
arbeit: Bergische Universität Wuppertal.
Scheele, B./Groeben, N. (1988): Dialog-Konsens-Methoden zur Rekonstruktion Subjektiver Theorien.
Münster: Aschendorff.
Literatur 259
Tashakkori, A./Teddlie, C. (1998): Mixed Methodology. Combining Qualitative and Quantitative Ap-
proaches. Thousand Oaks: Sage.
Tashakkori, A./Teddlie, C. (2003): Handbook of Mixed Methods in Social and Behavioral Reserach.
Thousand Oaks: Sage.
Taylor, S. E./Crocker, J. (1981): Schematic bases of social information processing. In: Higgins,
E.T./Herman, P./Zanna, M. (Eds.): Social cognition: The Ontario Symposium, Vol. 1. Hillsdale:
Erlbaum.
Terhart, E. (1981): Intuition – Interpretation – Argumentation. Zum Problem der Geltungsbegründung
von Interpretationen. Zeitschrift für Pädagogik, 27, 769-793.
Tesch, R. (1990): Qualitative research. Analysis types and software tools. New York: Falmer Press.
Tillmann, K.-J. (1994) (Hrsg.): Was ist eine gute Schule? Hamburg: Bergmann + Helbig.
Waldschmidt, A./Klein, A./Tamayo Korte, M./Dalman, S. (2006a): Ist “Bioethik” ein “Diskurs”?
Methodologische Reflexionen am Beispiel des Internetforums 1000 Fragen zur Bioethik. In: Ker-
chner, B./Schneider, S. (Hrsg.): Diskursanalyse der Politik. Eine Einführung. Wiesbaden: VS, 191-
209.
Waldschmidt, A./Klein, A./Tamayo Korte, M./Dalman, S./Pilot, A. (2006b): Dritter Zwischenbericht
zum Forschungsprojekt 1000fragen.de. Ein Online-Diskurs zur Bioethik. Auswertung der Ergeb-
nisse aus partizipationstheoretischer und wissenssoziologischer Sicht. Köln (Univ. zu Köln).
Watzlawick, P./Beavin, J./Jackson, D. D. (Hrsg.) (2000): Menschliche Kommunikation. Formen, Stö-
rungen, Paradoxien. Bern: Huber.
Webb, Chr. (1999): Analysing qualitative data: computerised and other approaches. Journal of Advanced
Nursing, 29(2), 323-330.
Webb, E. J. et al. (1966): Unobstrusive Measures: Nonreactive Research in the Social Sciences. Chicago:
Rand McNally.
Weitzman, E. A. (2000): Software and Qualitative Research. In: Denzin, N.K./Lincoln, Y.S. (Eds.):
Handbook of qualitative research. Thousand Oaks: Sage.
Weitzman, E. A./Miles, M. B. (1995): A Software Source Book: Computer Programs for Qualitative
Data Analysis. Thousand Oaks: Sage.
Welsh, E. (2002): Dealing with Data: Using NVivo in the Qualitative Data Analysis Process (12 para-
graphs). Forum Qualitative Sozialforschung/Forum Qualitative Social Research (On-line Journal),
3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm [31.07.2002].
Welzer, H. (1990): Von Fehlern und Daten. Zur Rolle des Forschers im interpretativen Paradigma. Psy-
chologie und Gesellschaftskritik, 14, 2/3, 153-174.
Welzer, H. (1993): Transitionen. Zur Sozialpsychologie biographischer Wandlungsprozesse. Tübingen:
edition diskord.
Welzer, H. (1995): „Ist das ein Hörspiel?“ Methodologische Anmerkungen zur interpretativen Sozialfor-
schung. Soziale Welt, 2, 182-196.
Welzer, H. (1998): Hermeneutische Dialoganalyse. Psychoanalytische Epistemologie in sozialwissen-
schaftlichen Fallanalysen. In: Gerd Kimmerle (Hrsg.), Zur Theorie der psychoanalytischen Fallge-
schichte. Tübingen: edition diskord, 111-138.
Welzer, H. (2000): Das Interview als Artefakt. Zur Kritik der Zeitzeugenforschung. BIOS, 1, 51-63.
Welzer, H. (2002): Das kommunikative Gedächtnis. Eine Theorie der Erinnerung. München: Beck.
Welzer, H./Moller, S./Tschuggnall, K. (2002): „Opa war kein Nazi“. Nationalsozialismus und Holo-
caust im Familiengedächtnis. Frankfurt a.M.: Fischer.
Welzer, H./Montau, R./Plaß, C. (1997): „Was wir für böse Menschen sind!“ Der Nationalsozialismus
im Gespräch zwischen den Generationen. Tübingen: edition diskord.
Wenzler-Cremer, H. (2006): Bikulturelle Sozialisation als Herausforderung und Chance. Verfügbar über:
http://www.freidok.uni-freiburg.de/volltexte/2267 [02.02.2006].
Widmer, T. (2004): Qualität der Evaluation – Wenn Wissenschaft zur praktischen Kunst wird. In R.
Stockmann (Hrsg.) Evaluationsforschung. Grundlagen und ausgewählte Forschungsfelder. Opla-
den: Leske+Budrich, 83-109.
Literatur 261
Witzel, A./Helling, V./Mönnich, I. (1996): Die Statuspassage in den Beruf als Prozess der Reproduktion
sozialer Ungleichheit. In: Bolder, A./Heinz, W.R./Rodax, K. (Hrsg.): Die Wiederentdeckung der
Ungleichheit. Tendenzen in Bildung und Arbeit. Opladen: Leske+Budrich.
Wolcott, H. F. (1990): On seeking – and rejecting – validity in qualitative research. In: Eisner, E.
W./Peshkin, A. (eds.): Qualitative inqiury in education. The continuing debate. New York; London:
Teachers Colege Press, Columbia University, 121-152.
Yardley, L. (2000): Dilemmas in Qualitative Health Research. Psychology and Health, (15), 215-228.
Zimbardo, P. G. (1995): Psychologie. Berlin u.a.: Springer.
Znaniecki, F. (2004): Analytische Induktion in der Soziologie. In: Strübing, J./Schnettler, B. (Hrsg.): Me-
thodologie interpretativer Sozialforschung – Klassische Grundlagentexte. Konstanz, UVK/UTB,
265-319.
Züll, C./Harkness, J./Hoffmeyer-Zlotnik, J. (Hrsg.) (1996): Text Analysis and Computers. ZUMA-
Nachrichten Spezial: Mannheim.
Züll, C./Mohler, P. (Hrsg.) (1992): Textanalyse, Anwendungen der computergestützten Inhaltsanalyse,
Opladen: Westdeutscher Verlag.
Autoren