Sie sind auf Seite 1von 263

Udo Kuckartz · Heiko Grunenberg

Thorsten Dresing (Hrsg.)

Qualitative Datenanalyse: computergestützt


Udo Kuckartz · Heiko Grunenberg
Thorsten Dresing (Hrsg.)

Qualitative
Datenanalyse:
computergestützt
Methodische Hintergründe und
Beispiele aus der Forschungspraxis

2., überarbeitete und


erweiterte Auflage
Bibliografische Information Der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der
Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
<http://dnb.d-nb.de> abrufbar.

1. Auflage November 2004


2., überarbeitete und erweiterte Auflage Juni 2007

Alle Rechte vorbehalten


© VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2007

Lektorat: Frank Engelhardt

Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media.
www.vs-verlag.de

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist
ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere
für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspei-
cherung und Verarbeitung in elektronischen Systemen.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem


Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.

Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg


Druck und buchbinderische Verarbeitung: Krips b.v., Meppel
Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier
Printed in the Netherlands

ISBN 978-3-531-34248-1
Inhalt

Vorwort ............................................................................................................................... 7

I Methodische Hintergründe
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte ................... 15
Udo Kuckartz
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“....... 32
Udo Kelle
Integration qualitativer und quantitativer Methoden .................................................. 50
Udo Kelle

II Beispiele aus der Forschungspraxis


Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen
Sozialisation ...................................................................................................................... 66
Hildegard Wenzler-Cremer
Qualitative Evaluation – Versuch einer Abkürzungsstrategie.................................... 78
Stefan Rädiker, Claus Stefer
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv
analysieren. ........................................................................................................................ 93
Peter Herrgesell
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller
Reproduktionen“ – Ein Werkstattbericht – ............................................................... 110
Torsten Koch
Der Nationalsozialismus im familialen Dialog. Qualitative Inhaltsanalyse von
Drei-Generationen-Interviews mit MAXQDA ......................................................... 125
Olaf Jensen
6 Inhalt

Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten .............. 143
Thorsten Dresing und Udo Kuckartz
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums unter
Einsatz der quantitativen Software MAXDictio ........................................................ 163
Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

III Fragen der Qualität


Qualitätssicherung in der qualitativen Forschung...................................................... 176
Ines Steinke
Zur Qualität qualitativer Forschung – Diskurse und Ansätze ................................. 188
Uwe Flick
Empirische Befunde zur Qualität qualitativer Sozialforschung. Resultate einer
Analyse von Zeitschriftenartikeln ................................................................................ 210
Heiko Grunenberg

IV QDA-Software in Lehre und Forschung


QDA-Software in der Hochschullehre........................................................................ 228
Thorsten Dresing
QUASAR: Eine Online-Umfrage zum Einsatz von QDA-Software im
Forschungsprozess......................................................................................................... 241
Claus Stefer

Literatur ........................................................................................................................... 248


Autoren............................................................................................................................ 262
Vorwort

Qualitative Datenanalyse: Computerunterstützt –


Methodischer Hintergrund und Beispiele
aus der Forschungspraxis

Die Entwicklung von Software zur Analyse qualitativer Daten (QDA-Software)


stellt ein relativ neues Feld der Methodenentwicklung dar. Viele Forscherinnen und
Forscher in unterschiedlichen Disziplinen setzen zur Auswertung ihrer Daten –
seien es offene Interviews, Beobachtungsprotokolle, Feldnotizen, Fokusgruppen
u.a.m. – spezielle Software ein. Nach wie vor ist die Methodenliteratur zu diesem
Thema aber relativ spärlich. Dieser Mangel ist zum einen in der rasanten Entwick-
lung begründet, die in diesem Bereich der Methodenentwicklung stattgefunden hat
und weiter stattfindet. Ein weiterer Grund mag eine gewisse Langsamkeit der Lite-
raturproduktion in den Sozialwissenschaften sein. Ferner zeigt sich hier ein gene-
relles Problem der Literatur zu qualitativen Methoden: Es besteht nämlich ein er-
hebliches Ungleichgewicht zwischen dem vorfindbaren Umfang der Literatur zu
Fragen der Datenerhebung und der Literatur zur Datenauswertung. Fragen der Daten-
auswertung werden meist vernachlässigt oder nur in relativ kurzen Textabschnitten
behandelt, so dass beim Leser viele Fragen zur praktischen Durchführung unge-
klärt bleiben.
Nicht selten findet man im Methodenteil von Forschungsberichten die knappe
Aussage, dass hier mit forschungspragmatischen Verkürzungen bestimmter Me-
thoden gearbeitet werde („Abkürzungsstrategien“), ohne dass aber die tatsächlich
verwendete Methodik als solche im Detail nachvollziehbar würde. So bleibt den
Leserinnen und Lesern der entsprechenden Studien im schlechtesten Falle nur das
Vertrauen in die Methodenkompetenz der Autoren, eine für Außenstehende nach-
vollziehbare Beschreibung des Analyseprozesses wird hingegen nicht gegeben.
Ausgerechnet also dieser Forschungsabschnitt, der eigentlich eines der Kernstücke
des Forschungsprozesses bildet, bleibt auf diese Weise intransparent.
QDA-Software eröffnet unserer Meinung nach einen Weg zu einer methodisch
besser kontrollierten Vorgehensweise. Die computergestützte Analyse erfolgt sys-
8 Vorwort

tematisch, sie lässt sich in jedem Schritt nachvollziehen, ist gut dokumentierbar und
lässt sich somit auch hervorragend für Sekundäranalysen nutzen. Die benutzten
Kategorien und Schlüsselkategorien und ihre Bedeutung sind klar nachvollziehbar
– insofern sind die Analysevorgänge insgesamt transparenter. Im Sinne des Analy-
seprozesses als Entdeckungsprozess bleiben natürlich immer noch Fragen des
„Wie“ offen, denn schließlich ließe sich nur unter großen Schwierigkeiten eine An-
leitung verfassen, die zuverlässig vermitteln würde, wie man Neues findet, wie man
gute Ideen produziert oder wie man Schlüsselkategorien entdeckt. Dass ein solcher
Rest an nicht Codifizierbarem, an „kreativer Entdeckungsleistung“, bleibt, stellt
aber keine ausschließliche Besonderheit qualitativer Forschung dar, sondern gilt
ebenfalls für das klassische, dem Kritischen Rationalismus folgende Forschungs-
paradigma.
Die computergestützte Analyse qualitativer Daten ist kein homogenes, in sich
geschlossenes Verfahren, das sich trennscharf von anderen (nicht computergestütz-
ten) Methoden unterscheiden ließe, sondern sie ist gewissermaßen die „zeitgemäße
Form“ qualitativer Auswertungsmethodiken, die einerseits als Hilfsmittel bewährter
Methoden (etwa der Qualitativen Inhaltsanalyse oder der Grounded Theory) fun-
gieren kann, andererseits aber auch neue, technikinduzierte Möglichkeiten eröffnet.
Die Analyse mittels QDA-Software hat also potenziell einen Doppelcharakter: Sie
ist einerseits ein innovatives neues Instrumentarium, andererseits methodisch
durchaus traditionell in dem Sinne, dass sich hier ähnliche Methodenfragen stellen
wie bei der nicht computergestützten Form der Analyse. Wer sich beispielsweise an
der Grounded Theory orientieren möchte und sich fragt, welcher der verschiede-
nen Varianten der Grounded Theory der Vorzug gegeben werden sollte, dem stark
auf Emergenz setzenden Ansatz von Barney Glaser oder dem stärker am Pragma-
tismus orientierte Ansatz von Anselm Strauss und Juliet Corbin (vgl. Kelle 2005,
Kelle in diesem Band, Strübing 2004, Cisneros-Puebla 2004), wird feststellen, dass
die Frage des Computereinsatzes bei der Entscheidung für bestimmte methodische
Schritte und Strategien von eher untergeordneter Bedeutung ist. Anders gesagt: Die
computergestützte Analyse ist mit vielen methodischen Entscheidungen und Pro-
blemen konfrontiert, mit denen auch die nicht-computergestützte Methodik befasst
ist. Diese Feststellung ist nicht ohne Konsequenzen für dieses Buch: Nicht jeder
Beitrag steht von vornherein in direktem Zusammenhang zum Thema Computer-
unterstützung und zu QDA-Software. Ein Rezensent der ersten Auflage dieses
Buchs, das hier stark überarbeitet und aktualisiert vorgelegt wird, vermisste in der
ersten Auflage den die verschiedenen Beiträge verbindenden roten Faden. Nun ist
die Metapher des „roten Fadens“ für die Inhalte dieses Buches und die Auswahl
Vorwort 9

der Beiträge allerdings nicht treffend, denn den Herausgebern ging es nicht, wie in
der ursprünglichen Bedeutung der auf Goethe zurückgehenden Metapher um einen
alles durchziehenden Leitgedanken der computergestützten Analyse, sondern um
die Facetten der qualitativen Datenanalyse in den verschiedenen Phasen des For-
schungsprozesses, wobei wir allerdings voraussetzen, dass QDA-Software bei der
Analyse benutzt wird bzw. der Einsatz geplant ist und das Buch also nicht die Auf-
gabe hat, jemanden argumentativ von der Sinnhaftigkeit des Computereinsatzes zu
überzeugen oder gar das Für und Wider von QDA-Software abzuwägen. Die Her-
ausgeber haben sich die Leserinnen und Leser als Methodeninteressierte vorge-
stellt, die sich die Frage stellen: Was spielt für mich alles eine Rolle, wenn ich eine
computergestützte Analyse meiner qualitativen Daten vornehmen will. Mit diesen
Fragen werden sehr viele Aspekte und Facetten der Auswertung angesprochen und
diese finden sich zumindest teilweise in den Beiträgen des vorliegenden Buches
wieder: Methodische Hintergründe werden ebenso beleuchtet wie Fragen der Qua-
lität und Gütekriterien und schließlich wird die konkrete Forschungspraxis in Form
von Anwenderberichten dargestellt. Was die Beiträge zudem miteinander verbin-
det, ist, dass sie alle ursprünglich als Vorträge auf den seit Mitte der 1990er Jahre
regelmäßig veranstalteten Marburger CAQD-Konferenzen gehalten worden sind.
Diese Konferenzen fanden ursprünglich als Anwendertagungen der NutzerInnen
von MAXQDA (früher winMAX) statt, haben aber auch immer schon Methoden-
fragen mit allgemeiner Bedeutung in den Mittelpunkt gestellt. Mittlerweile nehmen
regelmäßig mehr als 100 meist jüngere WissenschaftlerInnen an den jährlich statt-
findenden Tagungen teil, deren pragmatische Ausrichtung führt – so der Titel der
Tagung 2007 – „Rund um den qualitativen Analyseprozess“.
Die Beiträge, die in diesem Band versammelt sind, erörtern ein breites Spek-
trum von Fragen, die in der Auswertungspraxis eine Rolle spielen. Dem Tatbe-
stand, dass alle Beiträge im Kontext der CAQD-Konferenzen entstammen, ist zu
verdanken, dass die Praxisbeiträge sich allesamt auf die Software MAXQDA bezie-
hen. Viele der geschilderten Vorgehensweisen (und Probleme) sind auch auf andere
QDA-Software übertragbar, allerdings sind detaillierte „How to do“ Anweisungen
naturgemäß programmspezifisch.
Nach wie vor gibt es einen Mangel an Methodenliteratur, in der die praktische
Vorgehensweise im qualitativen Forschungsprozess detailliert und nachvollziehbar
beschrieben wird, dies gilt auch für die computergestützte Analyse. Obwohl mitt-
lerweile von sehr vielen Forschern eingesetzt, ist nur wenig praxisnahe Literatur
verfügbar, aus der man lernen kann, wie man Schritt für Schritt vorgehen kann.
Die CAQD-Konferenzen stellen ein in Deutschland einmaliges Forum für Metho-
10 Vorwort

denfragen rund um die computergestützte qualitative Datenanalyse dar. Wir hof-


fen, dass wir mit diesem Buch einen interessanten Band zusammengestellt haben,
der für Forschungspraktiker aus unterschiedlichen Disziplinen Anregungen auf
verschiedenen Ebenen liefern kann. Die Vielfalt und Breite der angesprochenen
Themen spiegelt die unterschiedlichen Aspekte von Methodenfragen wider und die
Vielfalt der Anwenderberichte zeigt den Reiz von Methodenfragen auf, dass sich
nämlich in ganz unterschiedlichen Forschungsfeldern und Disziplinen durchaus
ähnliche Methodenprobleme stellen und vergleichbare Vorgehensweisen gewählt
werden.
Gegenüber der ersten 2005 erschienenen Auflage wurden einige Erweiterungen
und Veränderungen vorgenommen. Das Buch ist nun deutlich in vier Abschnitte –
„Methodische Hintergründe“, „Beispiele aus der Forschungspraxis“, „Fragen der
Qualität“ und „QDA-Software in Lehre und Forschung“ – gegliedert:
Im ersten Teil „Methodische Hintergründe“ werden übergreifende methodi-
sche Fragen erörtert. Der Einleitungsartikel von Udo Kuckartz schildert die Ge-
schichte und Entwicklung der computergestützten Analyse qualitativer Daten und
gibt einen Überblick über die methodischen Diskurse, die in diesem Feld in den
letzten Jahren stattgefunden haben. Hier werden die generellen Vorteile der
CAQDAS herausgestellt, die vor allem in der Systematik, Dokumentation und me-
thodischen Kotrolle bestehen.
Die beiden anderen, von Udo Kelle verfassten Beiträge dieses ersten Teils er-
örtern methodische Fragen, die nicht für die qualitative Datenanalyse generell von
Bedeutung sind. Im Beitrag „Theoretisches Vorwissen und Kategorienbildung in
der Grounded Theory“ geht Udo Kelle der Rolle des theoretischen Vorwissens
und den Strategien der Kategorienbildung nach, wie sie in den beiden Hauptströ-
mungen der Grounded Theory – Strauss/Corbin einerseits und Glaser andererseits
– praktiziert werden. Der Analyseprozess mit QDA-Software stellt in den meisten
Fällen eine Form kategorienbasierter Auswertung dar und insofern ist die Art und
Weise des Vorgehens bei der Kategorienbildung von elementarer Bedeutung. In
seinem zweiten Beitrag berichtet Kelle über Konzepte der Verknüpfung qualitati-
ver und quantitativer Verfahren, verschiedene Konzepte der Triangulation sowie
empirische Ergebnisse verschiedener Modelle der Integration von qualitativen und
quantitativen Methoden. Auch dies ist für die computergestützte Analyse ein zen-
trales Thema, denn sie ermöglicht auf eine zuvor nicht gekannte Weise die Arbeit
mit Mixed Methods Verfahren.
Der zweite, umfangreichste Teil dieses Buches enthält insgesamt sieben Bei-
spiele für die Anwendung von QDA-Software in der Praxis der empirischen For-
Vorwort 11

schung. Neu aufgenommen in den Band haben wir die Beiträge von Stefan Rädiker
und Claus Stefer „Qualitative Evaluation – Versuch einer Ankürzungsstrategie“,
Hildegard Wenzler-Cremer „Der Forschungsprozess am Beispiel einer qualitativen
Studie zur bikulturellen Sozialisation“ und Miguel Tamayo Korte et al. „1000 Fra-
gen zur Bioethik“. Rädiker und Stefer stellen den Ablauf eines qualitativen Evalua-
tionsprojektes zur universitären Lehre in sieben Schritten nachvollziehbar dar.
Wenzler-Cremer schildert den komplexen Auswertungsprozess und beschreibt die
verschiedenen Schritte der Typenbildung. Tamayo Korte et al. zeigen auf, wie sich
auch sehr große Datenmengen eines frequentierten Internetforums auswerten las-
sen
Aktualisiert und teilweise umfangreich überarbeitet wurden die Beiträge von
Peter Herrgesell, Torsten Koch, Olaf Jensen und Thorsten Dresing und Udo Ku-
ckartz. Herrgesell zeigt an einer beispielhaften Auswahl von Dokumenten auf, wie
durch den Einsatz von MAXQDA eine Evaluation objektiver und gleichzeitig zeit-
sparender erfolgen kann und stellt die Frage, wie Ergebnisse systematischen Vor-
gehens für schulbezogene Beratungen und für resultierende Planungen durch
Schulaufsicht und Fortbildungsinstitute eingesetzt werden können. Koch ist der
Frage nachgegangen, wie Ungenauigkeiten bei der seriellen Reproduktion von
sinnvollem Material auftreten können. Jensen stellt in seinem Beitrag „Der National-
sozialismus im familialen Dialog. Qualitative Inhaltsanalyse von Drei-Generatio-
nen-Interviews mit MAXQDA“ eine Verfahrensweise vor, wie die Vorteile einer
hermeneutischen Feinanalyse mit den Vorzügen der computergestützten Qualitati-
ven Inhaltsanalyse verbunden werden können. Dresing und Kuckartz beschäftigen
sich in ihrem Beitrag mit neuen Datenquellen für die Sozialforschung und stellen
vor, wie die Datengewinnung und –analyse eines Internetforums erfolgen kann.
Beispiele aus der Forschungspraxis haben es an sich, dass die Autorinnen und
Autoren naturgemäß vor allem an den Inhalten ihrer Projekte interessiert sind und
diese dem Leser nahe bringen wollen, bevor sie sich methodischen Fragen zuwen-
den. Unvermeidliches Resultat ist, dass der Leser mit einer bunten Vielfalt von
Fragestellungen und Herangehensweisen konfrontiert ist, über Themen liest, mit
denen er sich in seinem Forschungsalltag vielleicht noch nie befasst hat. Das damit
einhergehende Problem, dass der Eindruck eines bunten Panoptikums erzeugt
wird, war den Herausgebern bewusst, scheint aber bei Publikationen dieser Art fast
unvermeidlich (vgl. Bos/Tarnai 1989 und 1996, Mayring/Gläser-Zikuda 2005,
Züll/Mohler 1992). Als Herausgeber haben wir versucht, die Autorinnen möglichst
in Richtung methodischer Beschreibungen und Reflektionen zu bewegen. Wir hof-
fen, dass dies insgesamt gelungen ist. Allesamt haben die AutorInnen inhaltlich
12 Vorwort

sehr interessante Projekte durchgeführt, zu denen meist auch umfangreichere Pu-


blikationen vorliegen, so dass es den Leserinnen möglich ist, sich ggf. noch mehr
über die Projektinhalte und -methoden zu informieren. Die im Anhang abgedruck-
te Liste der Autoren enthält die E-Mail Adressen, so dass Nachfragen leicht mög-
lich sind.
Der dritte Abschnitt des Buchs ist „Fragen der Qualität“ gewidmet. Je beliebter
qualitative Methoden werden und je häufiger sie auch in der Drittmittelforschung
verwendet werden, desto dringlicher stellt sich die Frage der Qualität qualitativer
Forschung und damit verbunden die Frage des Qualitätsmanagements im qualitati-
ven Forschungsprozess. In drei Beiträgen werden verschiedene Facetten des The-
mas „Qualität“ diskutiert.
Der Beitrag von Ines Steinke, neu in die Edition aufgenommen, erarbeitet Qua-
litätskriterien, die dem Anspruch nach nicht nur für die qualitative Forschung, son-
dern für jegliche empirische Sozialforschung anwendbar sind.
In Uwe Flicks Beitrag zur Qualität qualitativer Forschung werden unterschied-
liche Wege zur Beantwortung dieser Frage dargestellt. Unter anderem werden zwei
Strategien diskutiert, die die Qualität qualitativer Forschung auf der Ebene des For-
schungsprozesses zu bestimmen suchen.
Heiko Grunenberg stellt empirische Ergebnisse zur Qualität qualitativer Sozial-
forschung auf der Basis einer Analyse von Zeitschriftenartikeln vor und nimmt da-
bei Bezug auf Gütekriterien zur qualitativen Sozialforschung. Es wurde zwar in den
letzten Jahren viel über Qualität geschrieben, aber Arbeiten wie die Grunenbergs,
die Qualität empirisch erforschen sind nach wie vor Mangelware.
Teil 4 dieses Buches enthält unter der Überschrift „QDA-Software in Lehre
und Forschung“ zwei Beiträge, die sich mit den Anwendern von QDA-Software
und dem Thema QDA-Software in der Lehre befassen. Thorsten Dresing berichtet
hier von den Erfahrungen, die er in der universitären Lehre mit dem Unterrichten
der computergestützten Analysemethoden gemacht hat und stellt ein Seminarmo-
dell zum Thema „Sozialwissenschaftliche Text- und Inhaltsanalyse“ vor, das in
Form des „Blended Learnings“, einer Mischform aus Präsenzlehre und E-Learning,
bereits mehrfach erprobt und realisiert wurde. Dresings Arbeit ist vor allem für sol-
che KollegInnen interessant, die in der Methodenlehre arbeiten und selbst qualita-
tive Methoden unterrichten, seine Arbeit und Konzeption ist inzwischen auch im
Rahmen einer Dissertation umfangreich dargelegt worden. Der zweite Beitrag die-
ses Abschnitts, von Claus Stefer verfasst, referiert die Ergebnisse einer Online-
Umfrage unter Nutzern von QDA-Software.
Vorwort 13

Die Beiträge dieses Buches, das bewusst kein Lehrbuch1, sondern ein Diskus-
sionsband sein will, zeigen die vielfältigen Facetten auf, mit denen man als For-
scherin oder Forscher in der Praxis qualitativer Datenanalyse konfrontiert ist, so-
wohl grundsätzlich methodologische und methodische wie auch forschungsprakti-
sche.
Neben den Autorinnen und Autoren, bei denen wir uns sehr für die kollegiale
und unkomplizierte Zusammenarbeit bedanken, sollen schließlich an dieser Stelle
diejenigen nicht unerwähnt bleiben, die auf verschiedenen Wegen zum Entstehen
dieses Buches beigetragen haben, insbesondere Stefan Rädiker, Lena Lehmann und
Thomas Ebert. Wir danken allen herzlich für die bestens geleistete Mithilfe!

Thorsten Dresing, Heiko Grunenberg, Udo Kuckartz


Marburg im April 2007

1 Dieses liegt mit dem Band Udo Kuckartz, Einführung in die computergestützte Analyse qualitativer
Daten, Wiesbaden 2007 vor.
I

Methodische Hintergründe
QDA-Software im Methodendiskurs:
Geschichte, Potenziale, Effekte

Udo Kuckartz

Zusammenfassung
Seit den Anfängen in den 1980er Jahren hat sich die Leistungsfähigkeit von QDA-Software in einer
kaum für möglich gehaltenen Weise entwickelt. Der Beitrag stellt die Möglichkeiten heutiger QDA-
Software vor, betrachtet die Behandlung der neuen computergestützten Analyseverfahren in der sozial-
wissenschaftlichen Methodenliteratur, insbesondere den Diskurs um Effizienzsteigerung, Qualitätsge-
winn und das Testen formalisierter Hypothesen. Die bisherige Forschung über Benutzer von QDA-
Software zeigt, dass es sich bei den Nutzern häufig um Nachwuchswissenschaftler handelt sowie um
Personen, die eher Neulinge im Feld qualitativer Methoden sind. Abschließend diskutiert der Beitrag die
Effekte des Einsatzes von QDA-Software auf den qualitativen Forschungsprozess.

1 Wie alles begann: Zur Geschichte von QDA-Software


Verfahren zur computergestützten Auswertung qualitativer Daten und die speziell
hierfür entwickelte Software können mittlerweile schon auf eine recht lange Ge-
schichte zurückblicken. Alles begann in der Mitte der 1980er Jahre, als der neu
entwickelte IBM Personal Computer seinen Einzug in das Arbeitszimmer von Wis-
senschaftlern hielt. Damit war der Computer gewissermaßen frei gesetzt und nicht
länger in speziellen Rechenzentren kaserniert.
Die Computerisierung der quantitativen Methoden hatte schon zwei Jahrzehnte
vorher begonnen: Programmsysteme wie SPSS hatten es leicht gemacht, hoch
komplexe und rechenintensive statistische Analysen im Forschungsalltag einzuset-
zen. Freilich hatte der Wissenschaftler dazu seine Daten in Form von Lochkarten
„abzulochen“ und eine kryptisch erscheinende Steuersprache für den Computer
und die statistische Software zu erlernen. Zu Beginn der 1980er Jahre registrierte
man auch die ersten Versuche, den Computer (und das waren damals riesige und
wenig benutzerfreundliche Maschinen) für die Analyse von qualitativen Materialien,
wie etwa offene Interviews, nutzbar zu machen. Diese ersten Versuche waren noch
16 Udo Kuckartz

sehr umständlich und arbeitsaufwändig, da die Texte mühevoll mit Erfassungsgerä-


ten (als Lochkarten oder Lochstreifen) eingegeben werden mussten und nur schwer
verändert werden konnten.
Mit dem IBM PC trat eine wesentliche Veränderung ein, nun konnte der Wis-
senschaftler Texte direkt in ein Textverarbeitungsprogramm eingeben. Allerdings
hatten die damaligen Programme mit den heutigen wenig gemeinsam, die Mausbe-
dienung war noch unbekannt und die freie Formatierung von Schriftarten, Schrift-
größen und ein entsprechender Ausdruck waren nicht möglich.
In der zweiten Hälfte der 1980er Jahre wurden an verschiedenen Orten der
Welt zur gleichen Zeit EDV-Programme entwickelt, deren Zweck es war, die quali-
tativ Forschenden bei der Auswertungsarbeit zu unterstützen. Häufig waren es So-
zialwissenschaftler, die zusätzlich über (programmier)technische Fertigkeiten ver-
fügten, die solche QDA-Software wie „The Ethnograph“, „Textbase Alpha“,
„Max“, „Atlas.ti“ oder „Nudist“ entwickelten. Die Software der ersten Generation
(vgl. Kelle 1996, Fielding/Lee 2002: 198 ff.) unterstützte nur einfachste Cut-and-
Paste Funktionen, d. h. die Zuordnung von Codes1 zu Textstellen, ein Verfahren,
das der traditionellen Arbeitsweise – Papier, Schere, Kleber, Karteikarte – nach-
empfunden war. Diese Codierung geschah in großer Distanz vom Text, indem Zei-
lenzuordnungen in Eingabemasken einzutippen waren.
Erst mit der zweiten Generation wurde QDA-Software transparenter in dem
Sinne, dass man Codes und vorgenommene Codierungen überblicken und Zuord-
nungen am Text kontrollieren konnte. Mit der dritten Softwaregeneration schließ-
lich gelang ein Sprung nach vorn, nicht nur hinsichtlich der durch das Windows
Betriebssystem ermöglichten graphischen Benutzeroberfläche mit Mausbedienung,
sondern auch durch die Möglichkeit, nach Überschneidungen und der Nähe von
Codierungen zu suchen. Nun ließen sich auch komplexe Code- und Memosysteme
aufbauen und komplexe Suchfragen formulieren.
QDA-Software wurde Ende der 1980er und zu Beginn der 1990er Jahre in be-
achtlicher Zahl entwickelt. Gleichzeitig entstand eine multinationale und interdiszi-
plinäre Scientific Community, die sich auf internationalen Konferenzen austauschte
und Sammelbände herausgab (vgl. Fielding/Lee 1991, Kelle 1995, Züll/Harkness/
Hoffmeyer-Zlotnik 1996). Das Feld der QDA-Software war rasch so umfangreich
(und unübersichtlich) geworden, dass in der ersten Hälfte der 1990er Jahre bereits
Überblicksliteratur publiziert wurde, deren Ziel es war, einen Weg durch das Di-
ckicht zu bahnen: Software wurde miteinander verglichen, unterschiedliche Leis-

1 Der Begriff Code wird in diesem Beitrag synonym mit dem Begriff Kategorie verwendet.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 17

tungen und Ansätze herausgearbeitet und Unterscheidungen von verschiedenen


Softwaretypen vorgenommen.
Die erste, viel rezipierte Arbeit dieser Art stellt die Monografie von Tesch
(1990) dar, die im Unterschied zu vielen nach ihr erschienen Arbeiten noch stark
von der Bemühung getragen war, sozialwissenschaftliche Methoden und Software
zusammenzudenken. Tesch unterscheidet zunächst einmal 25 verschiedene Ansät-
ze qualitativer Forschung und versucht die Eignung und Leistungsfähigkeit von
Software auf dieser Basis von Forschungsmethoden mit divergenten Zielsetzungen
zu beurteilen.
Der bedeutendste und ambitionierteste Versuch zur Systematisierung von
QDA-Software stammt von Weitzman/Miles (1995). Die beiden Autoren untersu-
chen in ihrem umfänglichen Buch „Computer Programs for Qualitative Data Ana-
lysis“ die analytischen Fertigkeiten von QDA-Programmen und gelangen zu einer
Unterscheidung von fünf Softwarekategorien:
1. Text Retrievers, d. h. Programme, die die Suche nach Worten und Wort-
kombinationen in den Mittelpunkt stellen
2. Textbase Managers, welche das Sortieren und Organisieren der Daten im
Stile von Datenbankprogrammen bezwecken
3. Code and Retrieve Programme, die die Techniken des Codierens und des
darauf basierenden Anfertigens von Zusammenstellungen beinhalten und
als Programmtyp am meisten verbreitet sind
4. Code Based Theory Builders, die auf Basis des Codierens Strukturen und
Konzepte entwickeln und es erlauben, formalisierte Hypothesen zu testen
5. Conceptual Network Builders, d. h. Software zur Erstellung von Diagram-
men, Tabellen, Charts und Netzwerkdiagrammen
Aufgrund der weiten Verbreitung des Weitzman/Miles Buches findet sich diese
Systematisierung in vielen späteren Arbeiten in mehr oder weniger modifizierter
Form wieder (jetzt auch in der Neuauflage von Flick 2002: 367 f.). Es scheint aber,
dass mit der Weiterentwicklung von QDA-Programmen und der Tendenz der Pro-
gramme, immer mehr Funktionen zu integrieren, diese Differenzierung der frühen
1990er Jahre zunehmend obsolet wird (vgl. Carmichael 2002: 16). Jedenfalls ist sie
in neueren Publikationen nur noch relativ selten anzutreffen. Die Zahl der QDA-
Programme, die bis Mitte der 1990er Jahre kontinuierlich zunahm, ist in den letzten
Jahren nicht weiter gewachsen, eher ist ein Prozess der Konzentration auf relativ
wenige Programme mit umfassendem Funktionsspektrum zu verzeichnen.
18 Udo Kuckartz

2 Was QDA-Software heute leistet


Verglichen mit ihren Anfängen hat QDA-Software heute einen beachtlichen Reife-
grad erreicht. Die Analysefunktionen sind weitaus umfangreicher und die Transpa-
renz des gesamten Analyseprozesses ist unvergleichlich größer geworden, z. B. wer-
den Codierungen, Memos und (Hyper-)Textlinks direkt am Text visualisiert, sind
jederzeit einsehbar und veränderbar. Das einfache ASCII-Textformat ist bei den
führenden Programmen inzwischen durch das Rich-Text-Format ersetzt worden,
wodurch u. a. Schriftauszeichnungen wie Fett- oder Kursivdruck sowie verschiede-
ne Schriftgrößen und Schriftfarben ermöglicht werden. Teilweise können auch Ob-
jekte wie Fotos, Excel-Tabellen etc. in den Text eingebettet werden (so bei „At-
las.ti“ und „MAXQDA“). Die Zahl der Anwender von QDA-Software hat sich
immens vergrößert und ist nicht länger auf einen kleinen Kreis von Insidern be-
schränkt. Erweitert haben sich auch die Datenarten, die mit QDA-Software analy-
siert werden. Längst sind es nicht nur offene Interviews oder Feldnotizen, die aus-
gewertet werden, sondern Fokusgruppen, Beobachtungsprotokolle, Dokumente
aller Art, sowie mit dem Internet und den neuen Medien assoziierte Daten aus On-
line- und CD-Rom-Quellen. Auch Texte außerhalb der engeren sozialwissenschaft-
lichen Forschung werden zunehmend mit QDA-Software bearbeitet, so aus den
Pflegewissenschaften, Public Health, Sozialmedizin, Marketing, Wirtschaft und
Verwaltung.
Der Einsatz von computerunterstützten Verfahren ist überall dort besonders ein-
fach, wo das Datenmaterial ohnehin bereits in digitalisierter Form vorliegt oder wo
es leicht in eine solche überführt werden kann. Die computerunterstützte Analyse
qualitativer Daten ist keine standardisierte Methode, die in immer gleicher Form an
das Datenmaterial herangetragen wird. Ihre konkrete Ausgestaltung hängt sowohl
von Art und Umfang des Materials als auch vom gewählten methodischen und
theoretischen Ansatz ab. Mit QDA-Software lassen sich heute folgende Auswer-
tungsschritte computerunterstützt durchführen:

• Datenmanagement, d. h. Verwaltung eines Datenkorpus und schneller Zugriff


auf einzelne Texte bzw. Textstellen. Der Größe eines Datenkorpus – ehemals
ein entscheidendes Hindernis für speicherintensive Texte – sind fast keine
Grenzen mehr gesetzt. Nicht selten werden auch Projekte mit unterschiedlichen
Daten (Interviews, Feldbeobachtungen, Dokumente, Fokusgruppen) verwaltet.
Aufwändige Designs mit mehr als 100 Primärtexten und mehrmaliger Befragung
der gleichen Personen („qualitative Panels“) sind inzwischen keine Seltenheit
mehr.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 19

• Kategorienbasierte Erschließung des Textmaterials nach dem Muster sozialwis-


senschaftlicher Analysestile wie etwa der Grounded Theory oder der Qualitati-
ven Inhaltsanalyse.
• Iterative Entwicklung eines Kategoriensystems in übersichtlicher visueller Dar-
stellung, sei es in Form eines Codebaumes oder Netzwerkes.
• Gewichtung von codierten Textsegmenten, um besonders relevant erscheinende
Textstellen zu kennzeichnen und besser wiederfinden zu können.
• Code-Definitionen und Code-Memos in Form von „living documents“, die
während der Auswertung anwachsen, präzisiert werden und durch Ankerbei-
spiele gefüllt werden können.
• Datenexploration, d. h. die lexikalische Suche nach Zeichenketten, Worten oder
Wortkombinationen in den Texten oder Teilgruppen der Texte.
• Gestufte Suchprozesse im Sinne von Text Mining, d. h. die sukzessive Suche in
den Texten und in den Resultaten vorangehender Suchprozesse.
• Automatische Codierung von Fundstellen in den Texten, d. h. Zuweisung eines
Codes (=Kategorie).
• Erstellen von Hyperlinks zwischen Textstellen und zwar sowohl innerhalb des
gleichen Textes als auch zwischen Textstellen verschiedener Texte.
• Themenanalyse als Zusammenstellung von Textstellen, die unter die gleiche Ka-
tegorie bzw. Kategorien codiert worden sind.
• Erstellen von analytischen Memos und Management der Memos in einem eige-
nen Memosystem ähnlich einem Karteikasten.
• Definition von Fallvariablen, d. h. eines mit den Texten assoziierten Datensatzes
von standardisierten Daten, z. B. soziodemographische Daten, Merkmalsdimen-
sionen des Textes bzw. von Aussagen im Text.
• Selektive Text-Retrievals, z. B. zum Zwecke des systematischen Vergleichs von
Subgruppen.
• Komplexe Text-Retrievals zur Evaluierung der Beziehung zwischen Codes, z. B.
des gleichzeitigen Vorkommens von Codes, der Nähe und Entfernung von Co-
des.
• Visuelle Darstellung der Codierungen von Texten in einer Matrix Texte mal
Codes.
• Visuelle Darstellung des gleichzeitigen Vorkommens von Codes und Subcodes
in einer Matrix Codes mal Codes ähnlich einer statistischen Korrelationsmatrix.
Die keineswegs vollständige Aufstellung macht deutlich, dass die heute offerierten
Leistungen und Funktionen sehr umfangreich sind und längst nicht mehr mit der
in den Anfängen angebotenen elektronischen Version von „Paper-and-pencil“-
Techniken gleichgesetzt werden können. Mit dem Microsoft Windows Betriebssys-
20 Udo Kuckartz

tem hat sich zudem eine visuell orientierte Arbeitsweise weithin durchgesetzt, die
der computerunterstützten qualitativen Datenanalyse sehr entgegenkommt, zu
nennen sind hier insbesondere die Visualisierung von Codierungen, Memos und
Hyperlinks zwischen Textstellen sowie die grafische Darstellung von Relationen
zwischen Codes.

3 Das Thema QDA-Software in der Methodenliteratur

Diskussion über softwaretechnische Aspekte

Das Thema QDA-Software spielt zunehmend auch in der Literatur zur Methodik
qualitativer Forschung eine Rolle (z. B. Flick 2002, Mayring 2001, Weitzman 2000,
Creswell/Maietta 2002, Denzin/Lincoln 2000, Friebertshäuser/Prengel 1997).
Häufig konzentrieren sich die Forschungsarbeiten auf eher technische Fragen, ins-
besondere den Vergleich der verschiedenen Programme (bspw. Alexa/Züll 1999,
Creswell/Maietta 2002). Seit Beginn der 1990er Jahre sind vor allem im englisch-
sprachigen Bereich zahlreiche Überblicksarbeiten (z. B. Tesch 1990, Kelle 2000,
Fielding/Lee 1991, Prein/Kelle/Bird 1995, Weitzman/Miles 1995 und Richards/
Richards 1994) erschienen, unter denen der Band von Weitzman/Miles (1995) der
bei weitem umfänglichste ist. Durchaus typisch für solche Art von Programmver-
gleichen nach dem Muster technischer Reviews, wie sie auch in Computerzeit-
schriften (z. B. der „c’t“) zu finden sind, ist der Beitrag von Creswell/Maietta im
Handbook of Research Design (Creswell/Maietta 2002: 164 ff.). Die Autoren ver-
gleichen dort insgesamt sieben QDA-Programme („ATLASti“, „Ethnograph 5“,
„Hyper Research 2.5.“, „Classic N4“, „N5“, „NVivo“ und „winMAX“) hinsicht-
lich von acht Kriterien, welche primär softwaretechnische Gesichtspunkte fokus-
sieren, während forschungsmethodische Fragen nur eine untergeordnete Rolle
spielen. Bei den von Creswell/Maietta formulierten Kriterien handelt es sich um:
1. Benutzerfreundlichkeit („Ease of integration“): Logik und Layout der Soft-
ware, Integration in andere (Standard-) Software, leichte Erlernbarkeit, Qua-
lität des Dokumentationsmaterials
2. Art der analysierbaren Daten, z. B. Text, Graphiken, Audiomaterial
3. Zugänglichkeit des Textes, Nähe zu den Daten („Read and Review data“):
Möglichkeiten zum Markieren und Hervorheben von Text, gezielte Suche
in den Texten
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 21

4. Memos schreiben und mit Memos arbeiten („Memo Writing“): Art der
Memos, die erstellt werden können, Möglichkeit Memos zu ordnen und
wiederzufinden, Integrationsmöglichkeit von Memos
5. Kategorien und Codieren von Text („Categorization“): Art des Kategorien-
systems, Prozedere beim Codieren von Textpassagen, Anzeige und Visuali-
sierung von Codes
6. Analytische Prozeduren („Analysis inventory and assessment“): Sortier- und
Filteroptionen, Suche nach gleichzeitigem Vorkommen von Kategorien,
nach Überlappungen und Nähe von Kategorien, Selektionen aufgrund von
Textmerkmalen und Rahmendaten
7. Integrationsmöglichkeit quantitativer Analyse („Quantitative data“): Mög-
lichkeit zur Auswertung von Kategorienhäufigkeiten, Schnittstellen zu Sta-
tistikprogrammen
8. Projektmanagement („Merging projects“): Integration mehrerer Projekte,
Support von Teamarbeit
Arbeiten wie die von Creswell/Maietta, in denen die Leistungsfähigkeit von QDA-
Software thematisiert und in Form von Leistungsvergleichen dargestellt wird,
unterscheiden sich hinsichtlich des aufgestellten Kriterienkatalogs und der jeweili-
gen Gewichtung der Kriterien sowie hinsichtlich der Gründlichkeit und Ausführ-
lichkeit, mit der Leistungsvergleiche und Tests durchgeführt werden. Auch variie-
ren die Bedingungen der praktischen Tests, z. B. Art und Umfang des bei den Tests
verwendeten Datenmaterials und die Zahl der in den Vergleich einbezogenen Pro-
gramme – das Spektrum reicht hier vom Vergleich von lediglich zwei Programmen
(z. B. Barry 1998) bis hin zu 25 Programmen, wobei die Auswahl nicht nur auf Pro-
gramme zur qualitativen Textanalyse beschränkt ist. (Alexa/Züll 1999)
Primäres Ziel dieser durchaus arbeitsaufwändigen Beiträge ist es, einen Über-
blick über das Angebot von QDA-Software zu geben und dem interessierten Leser
Entscheidungskriterien für die Auswahl einer Software für seine Zwecke an die
Hand zu geben. Dabei stimmen die Arbeiten in dem Urteil überein, dass es derzeit
noch nicht das beste Programm gibt (Weitzman 2000: 803). Die meisten dieser
Forschungsarbeiten sind englischsprachig, nur einige wenige deutschsprachige sind
zu verzeichnen (z. B. Lissmann 2001, Kelle 1990, Dotzler 1999). Einfachere Arbei-
ten, die mit weniger umfangreichen Kriterienkatalogen und weniger aufwändigen
Tests arbeiten, wurden häufig im Rahmen von Konferenzen und Kongressen, wie
etwa den SoftStat-Tagungen, vorgetragen (u. a. Kelle 1994, Klein 1997, Hesse-
Biber/Dupuis 1996, Kuckartz 1992, 1994). Umfangreichere Arbeiten wie Weitz-
man/Miles oder Alexa/Züll entstehen fast immer in institutionellen Kontexten, sie
22 Udo Kuckartz

sind Produkte längerfristiger Projekte bzw. Teil der Arbeit sozialwissenschaftlicher


Infrastruktureinrichtungen wie des Zentrums für Methoden, Umfragen und Analy-
sen (ZUMA). Je mehr QDA-Software an Verbreitung zunimmt, desto häufiger fin-
det man Beiträge über deren Leistungsfähigkeit auch in sozialwissenschaftlichen
Forschungs- und Methodenhandbüchern (z. B. Denzin/Lincoln 2000, Flick/von
Kardorff/Steinke 2000, Miller/Salkind 2002, Friebertshäuser/Prengel 1997).
Das größte Problem dieser die Gesichtspunkte der Software fokussierenden
Überblicksarbeiten ist aber, dass Beschreibungen der Leistungsfähigkeit von Pro-
grammen und erst recht Vergleiche von Programmen häufig bereits bei der Druck-
legung historisch überholt sind, denn das Innovationstempo ist nach wie vor e-
norm hoch: Ständig erscheinen neue Softwareversionen, neue Funktionen werden
in die Programme integriert und vorhandene Funktionen verbessert, die Handhab-
barkeit verändert sich stark – nicht zuletzt durch äußere Einflüsse der generellen
Softwareentwicklung (man denke etwa an den Schritt von DOS- zu Windows-
Oberflächen).

Diskussionen über methodische Aspekte

Inzwischen findet man auch mehr und mehr Beiträge, in denen die methodischen
Aspekte und Hintergründe von QDA-Software im Mittelpunkt stehen (vgl. z. B.
Coffey et al. 1996, Kelle 1997a und b, Lee/Fielding 1996, Gibbs/Friese/Manga-
beira 2002, Glaser 2002, Mruck 2000, Fielding/Lee 2002). Schwerpunkte sind da-
bei häufig die Themen: Methodischer Fortschritt, Forschungsseffizienz, Qualitäts-
zuwachs und Reputationsgewinn. Gibbs hat den methodischen Gewinn von QDA-
Software in vier kurzen Schlagworten zusammengefasst: „more accurate, reliable,
more transparent, easier“ (Gibbs 2002: 10). Hier geht es also um einen effektive-
ren, reliableren und transparenteren Auswertungsprozess, um eine Verbesserung
der Qualität ganz im Sinne von Seales „Ensuring rigour in qualitative research“.
Viele Beiträge legen dar, dass das qualitative Forschen durch Computereinsatz er-
leichtert wird: Die Textdaten lassen sich besser organisieren, sind schneller zugäng-
lich und prinzipiell lassen sich mehr Daten verarbeiten (Flick 2002: 365, Kelle
2000, Gibbs/Friese/Mangabeira 2002). Es erheben sich auch einige kritische
Stimmen (z. B. Mruck 2000, Laucken 2002), die demgegenüber eher den kreativen,
einer Kunstlehre ähnlichen Charakter qualitativer Forschung betonen und zu be-
denken geben, dass es beispielsweise nicht auf Zahl und Umfang der analysierten
Texte, sondern auf die Tiefe der Analyse ankomme. Weitgehend unstrittig ist, dass
sich durch computergestützte Verfahren eine weit größere Transparenz als bei ma-
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 23

nuellen Vorgehensweisen erzielen lässt, die interne Validität lässt sich verbessern
(Kelle/Laurie 1995) und die Zusammenarbeit im Team wird einfacher, denn das
Zustandekommen von Kategorien und Codierungen kann leicht nachvollzogen
werden (Gibbs/Friese/Mangabeira 2002, Ford et al. 2000) und der Codierungspro-
zess kann anders organisiert werden, z. B. als „disjunktive Gruppentechnik“
(Kühn/Witzel 2000). Mit der Transparenz und der besseren Dokumentation steigt
auch die Glaubwürdigkeit qualitativer Forschung, die bisher vor allem deshalb von
Anhängern einer strikt quantitativen Methodik bemängelt wird, weil die Vorge-
hensweise und die Selektionsmechanismen nicht nachvollziehbar seien und ein ge-
höriges Maß an subjektiver Willkür des Forschers implizierten. Der Gewinn an
Konsistenz und Konsequenz (vgl. Seale 1999) trägt zu einem Prestige- und Reputa-
tionsgewinn bei, „entgegen den Vorwürfen des bloß Subjektivistischen und Es-
sayistischen qualitativer Sozialforschung“ (Mruck 2000: 29).
Ein weiterer Strang der methodischen Diskussion betrifft Fragen der Archivie-
rung und Sekundäranalyse. Anders als in der quantitativen Forschung, wo seit der
Existenz von Statistiksoftware wie SPSS, SAS u. a. die Archivierung von Datensät-
zen kein Problem mehr darstellt und wo die in vielen Ländern existierenden Da-
tenarchive (in Deutschland das ZA – Zentralarchiv für empirische Sozialforschung
in Köln) die Forschungsdaten in komfortabler Form als SPSS-Dateien für Sekun-
däranalysen bereit halten, sind in der qualitativen Forschung Sekundäranalysen bis-
her wenig gebräuchlich. In den letzten Jahren ist eine rege Diskussion entstanden,
inwieweit hier durch QDA-Software Abhilfe geschaffen werden kann. In Deutsch-
land ist vor allem im Rahmen des Bremer Sonderforschungsbereiches 186 „Status-
passagen und Risikolagen im Lebenslauf“ die Frage der Archivierung digitalisierter
qualitativer Daten diskutiert worden und es sind praktische Vorschläge erarbeitet
worden (vgl. Kluge/Opitz 1999, Plass/Schetsche 2000). Auch international sind
gleichartige Aktivitäten zu verzeichnen, z. B. wurde in Essex das Qualidata-Archiv
eingerichtet, das qualitative Daten archiviert und für weitere Lehre und Forschung
zur Verfügung stellt (Corti 2002). Die Standards zur Archivierung digitalisierter
qualitativer Daten sind allerdings noch Gegenstand der Diskussion (Carmichael
2002, Kuckartz 1997, Muhr 2000), auch forschungsethische Fragen nehmen einen
erheblichen Raum ein. Naturgemäß stellen sich im Rahmen qualitativer Forschung
Fragen der Anonymität und des Vertrauens Forscher-Beforschte mit besonderer
Intensität. Es sind wohl diese nach wie vor ungelösten ethischen Fragen, die dazu
geführt haben, dass die Aktivitäten zur Einrichtung entsprechender Datenarchive
in Deutschland bisher nicht recht vorangekommen sind (vgl. Muhr 2000).
24 Udo Kuckartz

Zahlreiche Beiträge befassen sich mit methodischen Neuerungen im Rahmen


von QDA-Software und mit der Möglichkeit der Integration von qualitativen und
quantitativen Methoden. Neuerungen sind häufig eng an spezielle Theorien bzw.
theoretische Ansätze gebunden wie beispielsweise die „Contextual Analysis“ (Sve-
derberg 2001) oder das GABEK-Verfahren2 (vgl. Buber/Zelger 2000), eines auf
dem Hintergrund der Gestaltpsychologie konzipierten textanalytischen Verfahrens,
bei dem hauptsächlich mittels clusteranalytischer Verfahren nach Mustern in den
Textdaten gesucht wird.
Gegenstand heftiger Kontroversen ist der Vorschlag, im Rahmen qualitativer
Datenanalyse formalisierte Hypothesen zu testen, was mitunter auch als „Theory
Building“ bezeichnet wird (vgl. Hesse-Biber/Dupuis 1996, Huber 1992, Kelle
1995, 1997a und 1997b, Mangabeira 1996, Richards/Richards 1994). Diese Metho-
de ist u. a. in den Ansätzen von Hesse-Biber und Huber (vgl. Hesse-Biber/Dupuis
1996, Huber 1992) und in den entsprechenden Programmen „Hyper Research“
und „AQUAD“ zu finden. Im Kern geht es hier um die Überprüfung von Hypo-
thesen, die in formalisierter Form als logische Verknüpfung von Codes formuliert
werden. Hesse-Biber/Dupuis nennen als einfaches Beispiel die Überprüfung einer
Hypothese zum Zusammenhang von kritischen Lebensereignissen (Code „CLE“)
und emotionaler Befindlichkeit (CODE „EMO“)3. Bedingung für das Hypothesen-
testen ist, dass die Texte zuvor entsprechend durchgearbeitet und codiert werden.
Wenn sich nun solche Koinzidenzen in Form des gemeinsamen Vorkommens der
beiden genannten Codes „CLE“ und „EMO“ innerhalb eines vorgegebenen Zei-
lenabstands in den Daten finden lassen, wird dies als Beleg für die Gültigkeit der
Hypothese, d. h. des Zusammenhangs von kritischen Lebensereignissen und Stö-
rungen gewertet, d. h. in diesem Fall gilt der hypothetische Zusammenhang von
kritischen Lebensereignissen und emotionaler Befindlichkeit als bestätigt und damit

2 Ausgehend von Äußerungen einer offenen Befragung oder von anderen normalsprachlichen Texten
strebt das GABEK-Verfahren an, Erfahrungen über Ursachen und Wirkungen, Meinungen, Bewer-
tungen und emotionale Einstellungen vieler Personen in Form von sprachlichen Gestalten, Wir-
kungsnetzen, Bewertungsprofilen und Relevanzlisten miteinander zu verknüpfen. Wie Landkarten
ermöglichen diese, so die Autoren, eine sinnvolle Orientierung über die gesamte Meinungsland-
schaft, in der die betroffenen Personen ihre persönlichen Perspektiven wiederfinden können. Die
Tiefenstruktur soll dadurch transparent werden, so dass Zusammenhänge verstanden, Optionen
bewertet, Ziele und mögliche Maßnahmen bestimmt und trendhafte Entwicklungen, Folgen oder
Nebenwirkungen frühzeitig erkannt werden können. Dabei ist jeder Schritt der Auswertung inter-
subjektiv rekonstruierbar und überprüfbar.
3 Im Programm „Hyper Research“ wird die Überprüfung solcher Hypothesen in folgender Form
standardisiert: „SEARCH FOR incidents of critical life event (CLE) AND emotional disturbances
(EMO) within a MAXIMUM DISTANCE of 20 lines“.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 25

ist ein Baustein der Theorie gefunden. Diese Form der Prüfung von Hypothesen
deterministischer Art ist vielfach kritisiert worden. Kelle (1997a) kritisiert etwa,
dass der Hypothesenbegriff hier sehr eigenwillig verwendet wird und ein solches
Verfahren selbstverständlich auch an bestimmte Voraussetzungen der Codes ge-
knüpft ist. Diese müssten distinkt sein, d. h. sich wechselseitig ausschließen, und die
Reliabilität des Codiervorgangs müsse sicher gestellt sein (Kelle 1997a: 4). Diese
Anforderungen korrespondieren aber, so Kelle, nicht mit dem Konzept der
Grounded Theory, derzufolge es sich bei theoretischen Codes um abstrakte Kon-
zepte handelt. Zudem bleibe es beim Hypothesentesten sensu Hesse-Biber unklar,
wie man sich gegen die Zufälligkeit von Ergebnissen absichere. Kelle gesteht die-
sem Verfahren nur einen explorativen Nutzen zu, es könne als „heuristic device“
genutzt werden (Kelle 1997a: 5), allenfalls bei Codes, die Fakten in den Texten be-
zeichnen, sei ein solches „Testen“ begründbar. Strikte Regeln des Theorietestens
auf „fuzzy codes“ anzuwenden, müsse notwendigerweise zu Artefakten als Resulta-
te führen.
Viele methodische Beiträge befassen sich mit Fragen der Integration von quan-
titativen und qualitativen Methoden und der Typenbildung (Kuckartz 1999, May-
ring 2001, Kluge 1999, Kelle/Kluge 1999). Dabei werden Vorschläge für die
Kombination von qualitativen und quantitativen Methoden mit teilweise sehr de-
taillierten Ablaufschemata entwickelt (Kühn/Witzel 2000, Mayring 2001, Kluge
1999, Kuckartz 1999, de Haan/Kuckartz/Rheingans 2000), die auch bereits prak-
tisch in Projekten erprobt wurden. Mayring stellt heraus, dass die Hinzuziehung
quantitativer Analyseschritte nicht nur zu einer gesteigerten Systematisierung, son-
dern auch zu einer größeren Verallgemeinerbarkeit der Ergebnisse führe (Mayring
2001). Eine besondere Bedeutung haben im Rahmen der Integration von quantita-
tiver und qualitativer Methodik Ansätze zur Typenbildung (Kelle/Kluge 1999,
Kluge 1999, Kuckartz 1999). Eine beachtliche Zahl von praktischen Arbeiten, in
denen mit teilweise sehr unterschiedlichen Kombinationen von qualitativen und
quantitativen Verfahren gearbeitet wurde, liegt vor, nicht nur aus dem Bereich der
Sozialwissenschaften, sondern beispielsweise auch aus der Publizistik.

4 Die Nutzer von QDA-Software


Wie gehen die Anwender mit der Software und den neuen analytischen Möglichkei-
ten um? Welche Erwartungen haben sie an die computergestützte Analyse, welche
Hoffnungen verbinden sie mit QDA-Programmen? In welcher Weise erlernen sie
den Umgang mit der Software? Welche Funktionen der Software nutzen sie über-
26 Udo Kuckartz

haupt? Wer sind die Anwender? Sind es Personen, die langjährige Erfahrungen mit
handwerklich betriebener qualitativer Sozialforschung haben, oder sind es eher
Novizen? In Bezug auf die Anwenderseite ist die Forschung bislang recht dürftig
(z. B. Fielding/Lee 1998 und Kuckartz 1999).
In den USA, wo schon in den frühen 1980er Jahren eine Diskussion über den
Computereinsatz in der qualitativen Sozialforschung begonnen hatte, führten Brent
et al. bereits 1987 eine Erhebung durch, die den Grad und die Art der Computer-
nutzung durch qualitative Forscher klären sollte. Es zeigte sich, dass es vor allem
die jüngere Wissenschaftlergeneration war, die den Computer rege nutzte. Ähnliche
Ergebnisse zeigte eine in Deutschland durchgeführte Umfrage (Kuckartz 1999).
Meist sind es personell eher kleine Forschungsprojekte, in denen QDA-Software
zum Einsatz kommt, häufig handelt es sich um Ein-Personen-Projekte, oft auch
um Qualifikationsarbeiten und nur selten hat ein Projekt mehr als drei Mitarbeiter.
In der überwiegenden Zahl der Fälle richten sich die Forscher nach ihren eigenen
Angaben nicht nach einem bestimmten methodischen Paradigma, sondern prakti-
zieren eine pragmatische, prozedural wenig fixierte Art der Textauswertung. In den
Fällen, wo man sich explizit auf eine bestimmte Methode bezieht, ist dies entweder
die Grounded Theory oder die Qualitative Inhaltsanalyse, andere Verfahren wur-
den von den befragten Forschern nur vereinzelt genannt. Die Ergebnisse von
Brent et al. und Kuckartz ergänzen sich gut mit neueren Resultaten von Carvajal
(2002) und Fielding/Lee (2002). Carvajal weist auf das Missverständnis von Novi-
zen hin, die gegenüber QDA-Software drei unrealistische Erwartungen hegen: Ers-
tens, dass die Software die Daten mehr oder weniger automatisch auswerten wür-
de. Zweitens, dass sich die Analysezeit erheblich reduzieren würde und drittens,
dass QDA-Programme einen Output ähnlich wie Statistik-Programme erzeugen
würden. Fielding und Lee, Initiatoren des an der University of Surrey angesiedelten
CAQDAS-Projektes4, haben Gruppendiskussionen mit Anwendern in England
durchgeführt. Ein bemerkenswertes Resultat der Studie ist die Entdeckung, dass es
sich bei den Nutzern von QDA-Software in den meisten Fällen um Neulinge in-
nerhalb der qualitativen Forschung handelt, d. h. um Personen, die zuvor nicht mit
herkömmlichen, nicht-elektronischen Mitteln qualitative Sozialforschung betrieben
haben. Sie sind Novizen in diesem Feld und haben sich nicht zuletzt durch die
Möglichkeit computergestützter Analyse für diese Methodik interessiert bzw. ent-

4 CAQDAS („Computer Assisted Qualitative Data Analysis Software“) ist ein Projekt, das vor allem
durch Workshops und Lehrveranstaltungen die praktischen Fähigkeiten im Umgang mit QDA-
Software englandweit fördert. Das Projekt stellt verschiedene Plattformen zum Dialog über die
Software zur Verfügung. Hierzu gehört unter anderem die Mailingliste „Qual-Software“.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 27

schieden. Dies lenkt den Blick darauf, dass die Frage, wie der qualitative For-
schungsprozess durch Computereinsatz verändert wird, nicht darauf verengt wer-
den kann, welchen Veränderungen der Forschungsalltag vormals handwerklich ar-
beitender Wissenschaftler ausgesetzt ist. QDA-Software interessiert offenbar neue
Personenkreise für die qualitative Forschung und trägt damit zur ihrer wachsenden
Popularität bei.
Die Resultate der bisherigen Anwenderforschung lassen sich zur folgenden
Charakterisierung der Nutzerinnen und Nutzer zusammenfassen: Sie ...
x entstammen häufig dem wissenschaftlichen Nachwuchs,
x arbeiten oft in Drittmittelprojekten,
x setzen die Software häufig bei der Erstellung von Qualifikationsarbeiten
(Dissertation bzw. Habilitation) ein,
x sind meist nicht auf einen bestimmten Auswertungsstil festgelegt, sondern
bevorzugen eher eine pragmatische, an den Inhalten orientierte Auswer-
tungsweise,
x besitzen in den meisten Fällen keine oder wenig Vorerfahrungen mit her-
kömmlichen, nicht-elektronischen Methoden,
x sind häufig weiblichen Geschlechts,
x sind nicht auf eine bestimmte Wissenschaftsdisziplin konzentriert, sondern
ihre Zusammensetzung ist stark interdisziplinär.

5 Effekte auf den qualitativen Forschungsprozess


Welche Auswirkungen hat der Einsatz von QDA-Software auf den qualitativen
Forschungsprozess? Häufig wird der Charakter der Software als Buchhalter
(„clerk“) oder Hilfsmittel betont, wie im Internet Lexikon der Methoden der So-
zialforschung. Dort findet man zum Stichwort „Computergestützte qualitative Da-
tenanalyse“ folgende Textpassage:
„Insgesamt ist aber festzuhalten, dass QDA-Software nur ein Hilfsmittel im Forschungspro-
zess ist. Die Codes bzw. Kategorien sind eine Konstruktion des Forschers; sie dürfen (und
können gar) nicht durch EDV-Programme hervorgebracht werden. Alles, was diese leisten
können – dies kann aber sehr wichtig sein – ist Dokumentation und Retrieval (also Wieder-
Auffinden) von Textstellen gemäß den Codierungen und die Sammlung von Ideen, Gedanken,
Verweisen in Form der Memos. Angesichts der (internen) EDV-Vernetzung der meisten For-
schergruppen bzw. Institute kann QDA-Software außerdem die wichtige Funktion der wech-
28 Udo Kuckartz

selseitigen Mitteilung bzw. Dokumentation von Forschungsschritten, Ideen, Konzepten etc. in


den vernetzten Gruppen haben.“5

In der Tat spielt der Computer hier eine andere Rolle als bei der quantitativ-
statistischen Analyse, wo es der Computer ist, der die Analyse, z. B. in Form einer
Varianzanalyse, durchführt. Die eigentliche Analyse besteht in einem mathemati-
schen Kalkül und dem Forscher obliegt lediglich die Aufgabe, die Resultate, d. h.
die errechneten Parameter und Koeffizienten, zu interpretieren. Bei der computer-
gestützten qualitativen Datenanalyse ist es hingegen nicht der Computer, der die
Texte in irgendeiner Weise automatisch analysiert, sondern es ist weiterhin der For-
scher. Es wurde bislang allerdings nicht erforscht, in welcher Weise die Interaktion
zwischen Forscher und QDA-Software abläuft und welche Rolle die von der Soft-
ware offerierten Funktionen tatsächlich spielen. Ein Desiderat wäre, eine Art Kar-
tographierung der methodischen Gewinne und Unterstützungsleistungen vorzu-
nehmen.
Es hat relativ lange gedauert, bis sich die Computernutzung auch in der qualita-
tiven Forschung etabliert hat. Dies scheint nun aber mehr und mehr der Fall zu
sein und so rechnen auch jene Experten, die bisher keineswegs zu den Protagonis-
ten einer Digitalisierung qualitativer Forschung zählten, mit einem tief greifenden
Veränderungsprozess (Flick 2002: 362). Angesichts dessen überrascht es, dass bis-
lang kaum systematisch untersucht wurde, welche Effekte der Einsatz von QDA-
Software auf die Entwicklung der qualitativen Forschung besitzt.
Relativ häufig werden tatsächliche oder vermeintliche Gefahren des Arbeitens
mit QDA-Software diskutiert (Laucken 2002, Glaser 2002, Coffey et al. 1996, Kelle
1997, Lee/Fielding 1996). In besonderer Weise richtet sich dabei das Augenmerk
auf die analytische Technik des Codierens. Fielding/Lee (1998: 119) warnen davor,
dass die extensive Nutzung von QDA-Software dazu führen könne, dass das Co-
dieren nicht mehr die Analyse unterstütze, sondern diese gewissermaßen ersetze.
Auch drohe die Gefahr, dass sich durch die Zwischenschaltung des Computers die
Distanz zu den Daten vergrößere. Zudem befördere der Codierungsprozess die
Suggestion, dass die Bedeutung gewissermaßen außerhalb des Textes in den Codie-
rungen liege. So könne das Codieren tatsächlich dazu führen, dass man durch die
Dekontextualisierung, die mit dem „Cut-and-Paste“ einhergeht, das eigentliche
Phänomen aus den Augen verliere. Während solche „Warnungen“ noch auf dem
Hintergrund einer eigentlich technikfreundlichen Grundstimmung erfolgen, setzt

5 ILMES, Internet Lexikon der Methoden der Sozialforschung, Autor: Wolfgang Ludwig-Mayerhofer,
www.lrz-muenchen.de/~wlm/ilmes.htm, Stand 1.6.2004.
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 29

die Kritik von Glaser (2002) und Roberts/Wilson (2002) fundamentaler an. Rob-
erts/Wilson sehen prinzipielle Gegensätze zwischen Computern und qualitativer
Forschung: „Computer techniques of logic and precise rules are not compatible
with the unstructured, ambiguos nature of qualitative data and so it may distort or
weaken data or stifle creativity“ (ebd.: 15). Für Kritik dieses Typs gilt der gesamte
Vorgang der computergestützten Analyse als „abwegig“, weil er unnötig viel Zeit
binden und damit von der eigentlichen qualitativen Analyse abzweigen würde. Sol-
che Positionen sind durchaus charakteristisch für qualitative Forscher die dem so-
genannten „emerging paradigm“ anhängen, d. h. sie sind der Überzeugung, dass die
Theorie aus den qualitativen Daten emergieren würde, wenn man sich denn nur
lange und intensiv genug und ohne vorgefasste Theorien mit ihnen beschäftige
(vgl. Glaser 1992). Dieser offene Forschungsstil wurde in den Anfängen der
Grounded Theory von ihren Protagonisten als Gegenpol zu einer am strikten
Hypothesentesten orientierten Methodologie des Kritischen Rationalismus formu-
liert. Strauss hat sich aber später sehr deutlich gegen das Missverständnis einer
solch völlig theorielosen Vorgehensweise gewehrt.
Gegenüber diesen eher negativ getönten Warnungen vor den Effekten von
QDA-Software sind es eher positive Wirkungen, die im Rahmen der Diskussion
um Qualität und Qualitätskriterien qualitativer Forschung thematisiert werden. In
den letzten Jahren ist eine generelle Qualitätsdiskussion in Gang gekommen (vgl.
Kelle 1995, Flick/von Kardorff/Steinke 2000 und Flick 2002). Seale und Silverman
hatten 1997 mit einem unter dem Titel „Ensuring rigour in qualitative research“
publizierten Artikel den Weg zu mehr Systematik und methodischer Strenge vorge-
zeichnet. Vor allem Seale hat durch seine weiteren Beiträge (insbes. Seale 1999) die
Diskussion voran getrieben und mit dem Konzept des „subtilen Realismus“ für ein
Qualitätskonzept plädiert, das einerseits vom klassischen Objektivitätsbegriff quan-
titativer Forschung kritisch-rationalistischer Prägung abrückt, andererseits aber
auch ein radikal-konstruktivistisches bzw. postmodernes Weltbild zurückweist. Sea-
le plädiert deshalb für eine systematische Suche nach Evidenz und Gegenevidenz
und für den Fallibilismus, d. h. die Suche nach Falsifizierendem statt nach Bestäti-
gendem. Im deutschsprachigen Raum haben u. a. Flick und Kelle wichtige Beiträge
zur Diskussion um Validität und Qualität geliefert. Kelle plädiert für das aus der
Grounded Theory stammende Konzept der „constant comparative method“, d. h.
für eine ständige (möglichst maximale oder minimale) Kontrastierung von Fällen.
Dies steht dem Sealeschen Fallibilismus recht nahe, wenngleich die häufig auf E-
mergenz setzende Grounded Theory (vgl. Strauss 1994, Strauss/Corbin 1996) dem
wissenschaftstheoretischen Standpunkt von Seale eher konträr erscheint. Flick ent-
30 Udo Kuckartz

faltet ein Konzept der Triangulation und empfiehlt ein am Total Quality Manage-
ment orientiertes prozessbegleitendes Qualitätsmanagement (Flick 2002). Diese
Diskussion um die Qualität qualitativer Forschung hat inzwischen nicht nur in
DFG-Fachtagungen ihren Ausdruck gefunden, ihr ist u. a. auch ein Themenheft
der Zeitschrift für Erziehungswissenschaft (2001: Heft 47) gewidmet. Im Rahmen
der Qualitätsdiskussion werden von vielen Autoren (so Kelle 1995, Ri-
chards/Richards 1994, Welsh 2002, Kuckartz 1999, Mruck 2000) auch die poten-
ziellen Qualitätszuwächse durch QDA-Software diskutiert. Mit Hilfe von Metho-
den computergestützter Analyse seien folgende Qualitätszuwächse zu erzielen:
x Das Management von größeren Stichproben und damit von größeren Text-
mengen (Kelle/Laurie 1995, Webb 1999).
x Schnelleres Erledigen von redundanten, nicht kreativen Aufgaben (Fiel-
ding/Lee 1991, Moseley/Mead/Murphy 1997).
x Mehr Transparenz und bessere Nachvollziehbarkeit der Analyse.
x Effizientere Gestaltung von Datenmanagement, Datenreduktion und Spei-
cherung (Kelle 1995 und 1997a).
x Größere Nähe zu den Daten durch die umfangreichen Funktionen des
Text-Retrievals und die jederzeitige Möglichkeit zur Re-Kontextualisierung
(vgl. Creswell/Maietta 2002, Weitzman/Miles 1995).
x Erweiterung des Spektrums möglicher qualitativer Analysen (Tesch 1990,
Fielding/Lee 1991).
x Bessere Bedingungen für Teamarbeit.
x Möglichkeit zur elektronischen Archivierung und damit zur Nutzung für
Sekundäranalysen durch andere Forscher oder für die sozialwissenschaftli-
che Methodenausbildung.
Bislang nur vereinzelt vorliegende Studien über die Forschungspraxis zeigen, dass
aus potenziellem Qualitätszuwachs nicht unbedingt auch tatsächlicher Qualitätszu-
wachs wird. Fielding und Lee (2002) stellten fest, dass die Möglichkeiten von
QDA-Software bei weitem nicht ausgenutzt werden, sondern meist nur die Basis-
funktionen genutzt werden und die komplexeren Programmfeatures überhaupt
nicht zum Einsatz kamen. Grunenberg (2001) kam in einer Metaanalyse deutsch-
sprachiger Forschungsarbeiten zu dem Ergebnis, dass der Anteil von Publikationen
aus dem Bereich qualitativer Forschung, in denen mit QDA-Software gearbeitet
wurde, unter 5% lag. Diese empirischen Arbeiten geben aber nur erste Hinweise
und können nicht ohne weiteres generalisiert werden. Es bedarf noch erheblicher
QDA-Software im Methodendiskurs: Geschichte, Potenziale, Effekte 31

Forschungsarbeit um zu klären, ob bzw. unter welchen Bedingungen der Einsatz


von QDA-Software tatsächlich zu einem Qualitätszuwachs führt.
Klar scheint indes, dass die methodischen Innovationen durch QDA-Software
erheblich tief greifender sind, als dies in dem Terminus Hilfsmittel oder Compu-
terunterstützung zum Ausdruck kommt. Nicht nur das Auswertungspotenzial ver-
größert sich, sondern auch die Arbeitsabläufe, die Zugänglichkeit des Datenmate-
rials und die Kooperation im Team wandeln sich erheblich. Vermutlich wird man
erst aus der gesicherten Position eines Blicks zurück in die Vergangenheit ermessen
können, welche Veränderungen hier wirklich stattgefunden haben.
Theoretisches Vorwissen und Kategorienbildung in
der „Grounded Theory“

Udo Kelle

Zusammenfassung
In vielen sozialwissenschaftlichen Gegenstandsbereichen versagt ein hypothetiko-deduktiver Ansatz, bei
welchem der Forscher den empirischen Forschungsprozess mit vorab formulierten präzisen Hypothe-
sen beginnt. Der realen Notwendigkeit empirisch begründeter Theoriebildung (nicht nur) in der qualita-
tiven Sozialforschung versucht die frühe Grounded Theory der 1960er Jahre durch ein induktivistisches
Konzept Rechnung zu tragen, das allerdings erkenntnistheoretisch unhaltbar und forschungspraktisch
nicht umsetzbar ist. Nach einer kurzen Darstellung dieses Problems vergleicht dieser Beitrag die späte-
ren Versuche von Glaser und Strauss, das induktivistische Selbstmissverständnis der Grounded Theory zu
überwinden und geht dabei insbesondere auf die von Glaser begonnene Kontroverse über die Gefahren
des „Forcing“ von Konzepten ein. Abschließend wird aufgezeigt, wie sich wesentliche Probleme dieser
Diskussion durch die Einbeziehung klassischer wissenschaftstheoretischer Konzepte, insbesondere des
Konzepts „empirischer Gehalt“ überwinden lassen.

1 Das „induktivistische Selbstmissverständnis“ in den


Anfängen der „Grounded Theory“
In der qualitativen Methodenliteratur wird Grounded Theory heutzutage oft nur als
eines von mehreren verschiedenen methodischen und technischen Verfahren qualitati-
ver Sozialforschung verstanden und dann in einem Atemzug mit objektiver Hermeneutik,
ethnomethodologischer Konversationsanalyse oder qualitativer Inhaltsanalyse nach Mayring genannt.
Am Beginn jenes Buches, das das Konzept Grounded Theory begründet hatte (Glaser,
Strauss, „The Discovery of Grounded Theory“ 1967) hatten die Begründer der Me-
thode allerdings einen viel weiter gehenden Anspruch formuliert: mit ihrer „allgemei-
nen Methode vergleichender Analyse“ (Glaser, Strauss 1967: 1) wollten sie ein Verfahren
vorschlagen, um Theorien in Daten empirischer Sozialforschung zu „entdecken“. Bei die-
sem vergleichenden Entdeckungsverfahren könne man sich, so die Autoren, sowohl
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 33

qualitativer als auch quantitativer Methoden bedienen. Und sie betonen, dass (obwohl
der Schwerpunkt der Monographie eindeutig auf qualitative Daten gesetzt sei), sich
die meisten Kapitel auch von denjenigen Forschern nutzen lassen würden, die Theo-
rien auf der Grundlage quantitativer Daten entwickeln wollen (ebd.: 18). Der statisti-
schen Analyse quantitativer Daten mit dem Zweck der Generierung von Theo-
rien wird sogar ein eigenes, mehr als 30 Seiten umfassendes (aber in der Se-
kundärliteratur so gut wie nie rezipiertes) Kapitel gewidmet.
Ihre scharfe Polemik gegen den mainstream der amerikanischen Sozialfor-
schung, mit der sie in der Einleitung die Notwendigkeit des Buches begründen,
richten Glaser und Strauss dementsprechend nicht gegen quantitative Methoden,
sondern vielmehr gegen das Primat des hypothetiko-deduktiven Ansatzes,
oder, in ihren eigenen Worten, gegen die Überbetonung der „Verifikation
von Theorien“ in der Soziologie (S. 1). Dabei legen die Autoren den Finger
auf einen wunden Punkt des hypothetiko-deduktiven Modells der Sozialfor-
schung, dem zufolge der Sozialforscher seine Arbeit wie ein naturwissen-
schaftlicher Experimentator mit der Aufstellung von Hypothesen beginnt, an-
schließend Variablen definiert, mit deren Hilfe der Datenerhebung und
Datenauswertung anschließt, die dazu dient, die Hypothesen strengen Tests
zu unterziehen. Tatsächlich werden in der quantitativen Sozialforschung näm-
lich in vielen Fällen Kategorien und Aussagen erst aufgrund vorliegender Daten
entwickelt. Ein solches exploratorisches Vorgehen, bei dem statistische Zu-
sammenhänge aus dem Material herausgesucht und dann ex post interpre-
tiert werden, ist aus methodologischen Gründen kritisch zu sehen und wird
in der statistischen Literatur seit langer Zeit kritisiert, weil es hierbei leicht gesche-
hen kann, dass zufällige Zusammenhänge und Artefakte in den Rang veritabler
Forschungsergebnisse erhoben werden. So wird insbesondere die Anwendung gän-
giger Konzepte statistischen Testens bei einer solchen, manchmal data dredging
oder data fishing genannten Strategie nahezu zwangsläufig dazu führen, dass
auch zufällige Zusammenhänge als signifikant ausgewiesen werden.
Es gibt nun zwei Möglichkeiten, mit solchen Abweichungen von allgemein ge-
lehrten methodologischen Regeln umzugehen: man kann sie entweder als bad practi-
ces betrachten, die durch kollegiale Kritik, durch die Anhebung professioneller
Standards und durch eine gute Methodenausbildung zum Verschwinden gebracht
werden müssen. Möglich wäre es aber auch, dass wir es hier zu tun haben mit
einem strukturellen Problem der Theoriebildung, welches direkt mit der Natur des
Objektbereichs der Sozialwissenschaften zu tun hat, in dem Strukturen begrenzter
Reichweite, die Existenz soziohistorisch kontingenter Regelmäßigkeiten und die Be-
34 Udo Kelle

deutung sozialen Wandels die Formulierung von universellen Theorien, aus denen
für alle möglichen Fragestellungen brauchbare Hypothesen vor jedem Kontakt mit
dem empirischen Feld abgeleitet werden können, oft unmöglich machen (vgl. Kelle
2007).
Glaser und Strauss gehören zu den wenigen Autoren, die bislang versucht ha-
ben, auf dieses zentrale methodologische Problem der Sozialwissenschaften eine
Antwort zu geben. Der von ihnen vorgeschlagene Ansatz zeigt jedoch eine zentrale
erkenntnistheoretische und methodologische Schwäche, die schwerwiegende Aus-
wirkungen auf die Forschungspraxis hat. Diese Schwäche lässt sich auch als das
„induktivistische Selbstmissverständnis“ der Grounded Theory bezeichnen, das seinen
deutlichsten Ausdruck findet in der im „Discovery-Buch“ genährten und nie expli-
zit revidierten Vorstellung, wonach Theorien durch Induktion aus empirischem
Datenmaterial emergieren können. Der Forscher müsse sich vor allem hüten, so
Glaser und Strauss 1967, diesen Vorgang durch eigenes theoretisches Vorwissen zu
behindern und damit die entstehende Theorie zu verfälschen. „An effective strat-
egy is, at first, literally to ignore the literature of theory and fact on the area under
study, in order to assure that the emergence of categories will not be contaminated
by concepts more suited to different areas. Similarities and convergences with the
literature can be established after the analytic core of categories has emerged.“
(ebd.: 37) Die Validität und Erklärungskraft von Theorien sei vor allem davon ab-
hängig, dass diese systematisch in den Daten entdeckt werden (Glaser/Strauss
1967: 3). Wir haben es hier mit einem radikal induktivistischen Modell des For-
schungsprozesses zu tun, wie es ursprünglich im 17. und beginnenden 18. Jahr-
hundert von Vertretern des frühen englischen Empirismus (wie Francis Bacon,
David Hume oder John Locke) entwickelt wurde. Seit der philosophiegeschichtlich
äußerst bedeutsamen Kritik Immanuel Kants am Empirismus wird eine solche
Konzeption allerdings nur selten (in dieser Form übrigens nicht einmal von den
Vertretern des in der qualitativen Sozialforschung so stark abgelehnten logischen
Positivismus) ernsthaft vertreten. In der modernen Erkenntnistheorie gilt jene Posi-
tion, die manchmal als naiver Empirismus oder naiver Induktivismus bezeichnet wird
(vgl. Chalmers 1989), der zufolge ein Forscher unvoreingenommen von theoreti-
schen Vorüberlegungen an die Untersuchung empirischer Phänomene herangehen
soll, um sicherzustellen, dass er die Realität wahrnimmt, so wie sie tatsächlich ist,
als völlig überholt. Schließlich stimmen fast alle modernen wissenschaftsphiloso-
phischen Schulen darin überein, dass jede Wahrnehmung grundsätzlich abhängig
ist von theoretischen Konzepten, über die ein Forscher bereits verfügt. Die Forde-
rung an den Forscher, möglichst unvoreingenommen an die Daten heranzugehen,
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 35

kommentiert etwa der Wissenschaftsphilosoph und -historiker Imre Lakatos mit


den ironischen Worten, dieser Gedanke verlange eine „besondere Psychotherapie
(...) mit deren Hilfe (...) (der) Geist auf den Empfang der Gnade bewiesener Wahr-
heit durch mystische Kommunion“ vorbereitet werden solle. Für die klassischen
Induktivisten sei „der rechte Verstand eine Tabula rasa, entleert von jedem ur-
sprünglichen Inhalt und befreit von allem Vorurteil der Theorie“. (Lakatos 1982:
14) Eine solche empiristische Psychotherapie könne allerdings nie zum Erfolg füh-
ren. „Denn es gibt und es kann keine Wahrnehmung geben, die nicht von Erwar-
tungen durchsetzt ist, und deshalb gibt es auch keine natürliche (d. h. psychologi-
sche) Abgrenzung zwischen Beobachtungssätzen und theoretischen Sätzen.“ (ebd.)
Die Konstruktion einer Theorie kann weder empirisch noch theoretisch ab ovo be-
ginnen, sie muss stets von den vorhandenen Wissensbeständen des Forschers ihren
Ausgang nehmen. „Both historical examples and recentphilosophical analysis have
made it clear that the world is always perceived through the ‘lenses’ of some con-
ceptual network or other and that such networks and the languages in which they
are embedded may, for all we know, provide an ineliminable ‘tint’ to what weper-
ceive.“ (Laudan 1977: 15)
Auch Glaser und Strauss waren sich schon in „The Discovery of Grounded
Theory“ dieses Problems bewusst, denn in einer Fußnote räumen sie ein:
„Of course, the researcher does not approach reality as a tabula rasa. He must have a perspec-
tive that will help him see relevant data and abstract significant categories from his scrutiny of
the data.“ (Glaser/Strauss 1967: 3)

Die Fähigkeit, die dem Forscher hilft, relevante Daten und bedeutsame Theorien
zu sehen, das heißt, über empirisch gegebenes Material in theoretischen Begriffen zu re-
flektieren, bezeichnen die Autoren auch als theoretische Sensibilität. Diese „build up in
the sociologist an armamentarium of categories and hypotheses on substantive and
formal levels. This theory that exists within a sociologist can be used in generating
his specific theory. (...)“ (ebd.: 46). Doch wie gelangt der Forscher zu einer solchen
Ausrüstung an Kategorien und Hypothesen? Hierzu enthält das Buch nur einen
sehr kurzen – und angesichts nur wenige Seiten vorher vorgebrachten vehementen
Kritik an soziologischen Theoriekapitalisten (große Theoretiker des Faches, die ihre
Doktoranden in die Position von „proletarischen Theorietestern“ drängen würden)
doch überraschenden – Hinweis auf die great man theorists, welche „(...) have indeed
given us models and guidelines for generating theory, so that with recent advances
in data collection, concep-tual systematization and analyticprocedures, many of us
canfollow in theirpaths.“ (ebd.: 11). Weiterhin betonen Glaser und Strauss, dass
eine empirisch begründete Theorie jene Konzepte und Hypothesen, die aus den
36 Udo Kelle

Daten emergiert sind, mit anderen deutlich nützlichen und bereits existierenden Kon-
zepten verbindet (vgl. ebd.: 46) – sie geben allerdings keine Hinweise darauf, wie
diese Verbindung hergestellt werden soll.
In „The Discovery of Grounded Theory“ stehen dementsprechend zwei unter-
schiedliche Vorstellungen von Theoriebildung unverbunden nebeneinander. Der
einen Vorstellung gemäß „emergieren“ theoretische Konzepte aus dem Datenma-
terial, wenn es dem Untersucher gelingt, sich vor seinem Kontakt mit dem empiri-
schen Feld von theoretischen Vorurteilen zu lösen. Der anderen Vorstellung ent-
sprechend entdeckt ein theoretisch sensibilisierter Forscher solche Phänomene im em-
pirischen Feld, welche ihn Theorien großer Reichweite zu sehen gelernt haben. Das
Konzept der theoretischen Sensibilität wird von den Autoren dabei aber nicht in
methodologische Regeln umgesetzt. So entsteht eine Lücke in dem 1967 vorgestell-
ten, frühesten Konzept der Grounded Theory – wie ein theoretisch sensibilisierter
Forscher sein empirisches Material auf der Grundlage theoretischen Vorwissens
strukturieren kann, bleibt unklar. Berücksichtigt man jedoch die häufigen Warnun-
gen der beiden Autoren davor, den empirischen Daten irgendwelche theoretischen
Konzepte aufzuzwingen, so liegt nach der Lektüre des Discovery-Buches die Vor-
stellung nahe, ein Untersucher, der nach der Methodologie der Grounded Theory
vorgeht, führe bei der Analyse der qualitativen Daten ad hoc passende theoretische
Konzepte aus seinen soziologischen Wissensvorräten ein, anstatt ex ante entwickel-
te theoretische Überlegungen an das empirische Material heranzutragen.
Tatsächlich aber haben Glaser und Strauss gerade in der Studie über die Inter-
aktion mit Sterbenden, die ihrer eigenen Aussage zufolge eine wesentliche Grund-
lage für das Discovery-Buch darstellt, selbst zuerst theoretische Konzepte entwi-
ckelt und erst anschließend hierzu empirische Daten gesammelt. In ihrer Darstellung
dieser Untersuchung schreiben sie nämlich:
„Zunächst möchten wir erklären, dass unser Konzept des ‚Bewusstseinskontextes’ durch per-
sönliche Erfahrungen beider Autoren vorgezeichnet war. (...) Kurz nachdem sich Strauss und
Glaser zusammengetan hatten, arbeiteten sie systematisch die Konzepte (und Typen) von To-
deserwartungen und Bewusstseins-Kontexten sowie das Paradigma für die Untersuchung der
Bewusstseinskontexte aus. So wurde die Erhebung der präliminaren Daten bereits von den Vorstellungen
der Todeserwartungen und Bewusstheit beeinflusst (Hervorhebung U.K.).“ (Glaser/Strauss 1974: 264)

Zentrale theoretische Kategorien dieser Studie sind also weder aus dem Datenma-
terial emergiert, noch bei der Analyse bereits gesammelten Datenmaterials erst ad hoc
eingeführt worden. Vielmehr wurden sie vor der empirischen Untersuchung abge-
leitet aus Konzepten der interaktionistischen Theorietradition, der vor allem
Strauss eng verbunden war. Die Erhebung der präliminaren Daten der Studie wurde
dann strukturiert durch die zuvor entwickelte Kategorie des Bewusstseinskontextes,
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 37

der die Kombination all dessen darstellt, was jeder Handelnde in einer Interak-
tionssituation über die Identität seiner Interaktionspartner weiß und über das Bild,
welches sich seine Interaktionspartner über seine eigene Identität machen. Die
theoretische Herkunft dieses Konzepts, dass, wie die Autoren wiederholt betonten,
auch auf zahlreiche andere Untersuchungsfelder ausgedehnt werden kann, kann
ohne große Mühe in Theoremen zur Beschreibung und Erklärung sozialer Interak-
tion gefunden werden, die von Interaktionisten wie Thomas, Mead oder Blumer
entwickelt wurden und mit Begriffen wie „Situationsdefinition“ oder „gegenseitige
Rollenübernahme“ bezeichnet werden. Strauss, als ein Schüler Herbert Blumers
wesentlich vom symbolischen Interaktionismus geprägt (vgl. Hildenbrand 1991: 15;
Corbin 1991, Strauss 1970: 46), hatte sich bereits lange vor dieser Studie mit der
Frage auseinandergesetzt, welche Rolle die gegenseitige Einschätzung der Identität
und die hierbei bestehende Möglichkeit, sich gegenseitig hierüber zu täuschen, in
Prozessen sozialer Interaktion besitzt: „Jeder präsentiert sich anderen und sich
selbst und sieht sich in den Spiegeln ihrer Urteile. Die Masken, die er der Welt und
ihren Bürgern zeigt, sind nach seinen Antizipationen ihrer Urteile geformt. Auch
die anderen präsentieren sich; sie tragen ihre eigenen Masken und werden ihrerseits
eingeschätzt.“ (Strauss 1968: 7)
Die Typologie von Bewusstheitskontexten, die in der Studie verwendet und mit
reichem empirischem Material illustriert wird, lässt sich problemlos anhand einer
begrifflichen Analyse einerseits und dem common sense Wissen über den untersuchten
Gegenstandsbereich andererseits entwickeln, ohne zuvor eine empirische Beobach-
tung in einer Krankenhausstation zu machen. Ausgehend von der Annahme, dass
die beteiligten Interaktionspartner (Patienten und Krankenhauspersonal) über den
möglicherweise bevorstehenden Tod des Patienten entweder Bescheid wissen oder
nicht Bescheid wissen und dieses Wissen entweder verschweigen können oder dar-
über kommunizieren, kann jeder mögliche Bewusstseinskontext durch eine Kom-
bination dreier Sachverhalte beschrieben werden:
1. die Information, die der Patient über die Möglichkeit seines bevorstehenden
Todes vom Personal erhält,
2. das Bewusstsein des Patienten darüber, dass er möglicherweise bald sterben
wird,
3. die Tatsache, dass der Patient sein Wissen dem Personal gegenüber offenbart.
Da jeder dieser Sachverhalte jeweils zwei Möglichkeiten zulässt (das Personal kann
die Information geben oder nicht geben, der Patient kann ein Bewusstsein darüber
besitzen oder nicht besitzen, und er kann sein Wissen offenbaren oder darauf ver-
38 Udo Kelle

zichten), ergeben sich acht mögliche Bewusstseinskontexte, von denen einige als
offensichtlich unsinnig ausgeschlossen werden können – etwa der Fall, dass der Pa-
tient vom Personal über seinen bevorstehenden Tod informiert wurde und dem
Personal dieses Wissen dann vorenthält. Übrig bleiben vier logisch mögliche und
inhaltlich sinnvolle Bewusstseinskontexte:
x der Patient weiß über die Möglichkeit seines bevorstehenden Todes, weil er
darüber vom Krankenhauspersonal in Kenntnis gesetzt wurde – der offene
Bewusstseinskontext –,
x der Patient wurde vom Personal nicht über die Möglichkeit seines bevor-
stehenden Todes informiert, ihm ist diese Möglichkeit (auch aus anderen
Quellen) nicht bewusst – dies ist der geschlossene Bewusstseinskontext –
x der Patient wurde nicht vom Personal über die Möglichkeit seines bevor-
stehenden Todes in Kenntnis gesetzt, er weiß jedoch um diese Möglichkeit
und macht dies dem Personal gegenüber deutlich – der argwöhnische Bewusst-
seinskontext –,
x der Patient wurde nicht über die Möglichkeit seines bevorstehenden Todes
informiert, er ist sich dessen jedoch bewusst und verbirgt dieses Wissen
gegenüber dem Personal – der Bewusstseinskontext der wechselseitigen Täuschung.
Diese vier Typen bildeten den theoretischen Rahmen für die weitere empirische
Forschungsarbeit und die Grundlage für eine systematische Auswahl („theoretical
sampling“) von Krankenhausstationen, in denen verschiedene Bewusstseinskontex-
te eine Rolle spielten.
Anhand dieses Beispiels aus der Forschungspraxis von Glaser und Strauss lässt
sich der Begriff der theoretischen Sensibilität also genauer explizieren: Theoretische
Sensibilität bedeutet die Verfügbarkeit brauchbarer heuristischer Konzepte, die die Identifizierung
theoretisch relevanter Phänomene im Datenmaterial ermöglichen. Eine wesentliche Grundlage
für diese heuristischen Konzepte bilden leitende Annahmen und zentrale Konzepte
großer Theorien. Dabei zeigt sich, dass eine begriffliche Analyse solcher Annahmen
und Konzepte für die empirisch begründete Theoriebildung von ebenso großer
Bedeutung ist wie eine empirische Untersuchung der damit bezeichneten Phänomene.
Glaser und Strauss gehen im Discovery-Buch auf diese Aspekte jedoch nicht ein,
sondern erwecken eher den Eindruck, als könnten Merkmale1 der Kategorien (in

1 Der Begriff „Merkmal“ einer Kategorie wird von Glaser und Strauss nirgendwo präzise definiert
und in vielerlei Bedeutung verwendet. Manchmal sind hiermit Unterkategorien gemeint, manchmal
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 39

unserem Beispiel wären etwa die vier Bewusstheitskontexte die Merkmale der Kate-
gorie Bewusstheitskontext) allein durch empirische Analysen gewonnen werden.

2 Die Rolle theoretischen Vorwissens in späteren


Konzeptionen von Grounded Theory
Das induktivistische Selbstmissverständnis, das für die in den 1960er Jahren entwi-
ckelte erste Konzeption der Methodologie der Grounded Theory kennzeichnend war,
war sehr stark forschungspolitisch motiviert: Glaser und Strauss setzten dabei der
Vorherrschaft des hypothetiko-deduktiven Modells in der quantitativen Surveyme-
thodologie eine induktivistische Rhetorik des „zurück zu den empirischen Daten“
entgegen. Methodologisch war diese Rhetorik jedoch problematisch, weil ein in-
duktivistisches Modell des Forschungshandelns forschungspraktisch gar nicht um-
setzbar ist – jeder Versuch, theoretische Konzepte allein aus den Daten emergieren
zu lassen, wird letztendlich nur dazu führen, dass der Untersucher im Datenmate-
rial geradezu ertrinkt.
Die Entwicklung der Grounded Theory innerhalb der letzten 30 Jahre lässt sich al-
lerdings als Versuch verstehen, das hiermit aufgeworfene Problem durch unter-
schiedliche Neukonzeptionen zu lösen und dabei die Rolle theoretischen Vorwis-
sens im Prozess der empirisch begründeten Theoriebildung genauer zu bestimmen.
Glaser hat dies durch sein Konzept theoretischen Kodierens versucht und Strauss (zu-
erst allein, dann in Zusammenarbeit mit Juliet Corbin) mit Hilfe des Kodierparadig-
mas.

Das Konzept des „theoretischen Kodierens“ von Glaser

Die 1978 von Glaser veröffentlichte Arbeit „Theoretical Sensitivity“ sollte vor al-
lem der Erläuterung des Begriffs der theoretischen Sensibilität dienen. Zentral für
die Entwicklung einer empirisch begründeten Theorie, so Glaser, sei die durch
theoretische Sensibilität angeleitete Entdeckung der Zusammenhänge zwischen
einzelnen Kategorien, ein Vorgang, für den Glaser den Begriff des theoretischen Ko-
dierens einführt, den er von der gegenstandsbezogenen Kodierung abgrenzt. Diesen beiden

weitere Eigenschaften, die die unter eine Kategorie fallenden Objekte prinzipiell gemeinsam haben
können (vgl. Kelle 1994: 291 f.).
40 Udo Kelle

Formen der Kodierung entsprechen jeweils verschiedene Formen von Codes:


Gegenstandsbezogene Codes und theoretische Codes.
Gegenstandsbezogene Codes werden in der ersten Phase der Kodierung, der so ge-
nannten offenen Kodierung, ad hoc aus dem Datenmaterial entwickelt und beziehen
sich auf die empirische Substanz des Untersuchungsgebietes. Beispiele hierfür wä-
ren etwa die Kategorien „Einschätzung des Sozialen Verlustes“ und „Ausmaß pfle-
gerischer Zuwendung“, die in der Untersuchung über die Interaktion mit Sterben-
den eine Rolle spielten.
Mit Hilfe theoretischer Codes, über die die Untersucher a priori verfügen, sollen
Gegenstandsbezogene Codes zu theoretischen Modellen zusammengefügt werden.
Die Begriffe, die Glaser als Beispiele für theoretische Codes anführt, sind formale
Begriffe der Erkenntnistheorie und Soziologie, die grundlegende Annahmen über
die Ordnung der (sozialen) Welt beinhalten wie etwa die Begriffe Ursachen, Kontexte,
Konsequenzen und Bedingungen: indem bestimmte Ereignisse, die mit gegenstandsbe-
zogenen Kategorien codiert wurden, als Ursachen, andere als Wirkungen benannt
werden, können die bislang entwickelten gegenstandsbezogenen Kategorien zu
einem kausalen Modell integriert werden. So kann etwa die gegenstandsbezogene
Codekategorie „Einschätzung des sozialen Verlustes“ durch die theoretischen
Codekategorien „Ursache“ und „Wirkung“ in ein Ursache-Wirkungsverhältnis zu
der Codekategorie „Ausmaß pflegerischer Zuwendung“ gebracht und damit die
Hypothese formuliert werden: Je höher das Pflegepersonal den sozialen Verlust einschätzt,
den der Tod eines Patienten mit sich bringt, desto mehr pflegerische Zuwendung lässt es diesem
Patienten angedeihen.
Glaser stellt eine ausführliche Liste von Begriffen auf, die zum Zweck der theo-
retischen Kodierung verwendet werden können und ordnet sie lose zu so genannte
theoretischen Kodierfamilien. Dabei fügt er eine große Menge theoretischer Begriffe
aneinander, die aus ganz verschiedenen (alltäglichen, philosophischen und soziolo-
gischen) Wissenskontexten stammen, so z. B.
x Begriffe, die sich auf das Ausmaß einer Merkmalsausprägung beziehen, wie
„Intensität“, „Grad“, „Kontinuum“, „Rangplatz“ usw.,
x Begriffe, die sich auf das Verhältnis zwischen den Elementen und dem Gan-
zen beziehen, wie „Element“, „Teil“, „Facette“, „Sektor“, „Aspekt“,
„Segment“ usw.,
x Begriffe, die sich auf kulturelle Phänomene beziehen, wie „soziale Nor-
men“, „soziale Werte“, „soziale Einstellungen“ usw.,
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 41

und weitere 14 Kodierfamilien, welche Begriffe aus den verschiedensten theoreti-


schen Kontexten, Diskussionszusammenhängen und Schulen der Sozialwis-
senschaften enthalten. Hierbei lassen sich viele Begriffe unterschiedlichen Ko-
dierfamilien zuordnen: der Begriff Ziel (goal) wird bspw. sowohl der Kodierfamilie
zugeordnet, die Handlungsstrategien betrifft, als auch der Kodierfamilie, die sich
auf Mittel und Zwecke bezieht.
Glaser bietet damit einen Fundus (man könnte auch sagen: ein Sammelsu-
rium) von Konzepten an, die dem Untersucher bei der Entwicklung theoretischer
Sensibilität helfen sollen, erläutert jedoch nicht, wie diese Begriffe konkret zur
Beschreibung und Erklärung empirischer Phänomene genutzt werden können.
Allerdings kann hierzu die Verwendung einzelner Kodierfamilien kaum ausrei-
chen, wie sich sehr einfach anhand der Kodierfamilie, die sich auf kausale Be-
griffe bezieht, klarmachen lässt. Denn allgemeine Begriffe von Ursache und Wir-
kung können niemals angeben, welche Typen von Ereignissen in einem besonde-
ren sozialwissenschaftlichen Gegenstandsbereich normalerweise als Ursachen und wel-
che als Folgen bezeichnet werden können. Würde man die Verwendung theo-
retischer Codes auf diese Kodierfamilie beschränken, so könnten grundsätzlich
alle Ereignisse, die gemeinsam auftreten, als Ursache oder Folge betrachtet werden,
d. h. einem Forscher, der ein kausales Modell über den Zusammenhang bestimm-
ter Ereignisse (und nicht aller möglichen Ereignisse) formulieren möchte, wäre damit
in keiner Weise geholfen. Es muss also wenigstens ein substanzwissenschaftli-
ches (soziologisches, psychologisches etc.) Konzept in die kausale Erklärung
mit einbezogen werden, welches einen Hinweis darauf gibt, welche Typen von
Ereignissen regelmäßig miteinander verknüpft sind. Glaser unterscheidet aber
nicht zwischen formalen bzw. logischen Konzepten (wie „Kausalität“) einerseits,
und inhaltlichen bzw. substanzwissenschaftlichen Konzepten (wie „soziale Rollen“,
„Identität“, „Kultur“) andererseits und gibt des Weiteren keine Hinweise dar-
auf, in welcher Weise Kodierfamilien bei der theoretischen Kodierung verwen-
det und sinnvoll miteinander kombiniert werden können. Sein Konzept der
theoretischen Kodierung bietet damit zwar Ansätze zur Überwindung des Induk-
tivismus der frühen Grounded Theory, ist aber für die Forschungspraxis nur einge-
schränkt brauchbar, weil nicht geklärt wird, in welcher Weise die verschiedenen
Kodierfamilien sinnvoll zur theoretischen Beschreibung empirischer Sachver-
halte miteinander kombiniert werden können.
42 Udo Kelle

Das Konzept des „Kodierparadigmas“ von Strauss und Corbin

In seinem 1984 erstmals erschienenen Buch „Qualitative Analysis for Social


Scientists“ stellt Anselm Strauss ein eigenes Konzept der Kodierung vor. Auch
hier beginnt die empirisch begründete Theorienbildung – ebenso wie bei Glaser –
mit einer offenen Kodierung des Datenmaterials, d. h. mit einer Zuordnung von ad
hoc entwickelten Codes zu Textpassagen, aus denen in einem zweiten Arbeits-
schritt Kategorien durch einen systematischen Vergleich entwickelt werden sol-
len. Im Gegensatz zu Glaser berücksichtigt Strauss aber den Umstand, dass
ein Vergleich zwischen Kategorien nur dann möglich ist, wenn theoretisch rele-
vante Vergleichsdimensionen vorher bekannt sind. Das Finden von Vergleichs-
dimensionen kann durch empirische Beobachtungen zwar beeinflusst werden
(wenn relevante Dimensionen dem Untersucher in den Daten „auffallen“), er-
fordert jedoch immer Vorkenntnisse über die Natur des untersuchten Gegenstan-
des, bspw. über dessen potenzielle Merkmale. Die Bestimmung der relevanten
Vergleichsdimensionen erfordert sinnvollerweise oft eine begrifflich-analytische Ex-
plikation theoretischen Vorwissens, einen Vorgang, den Strauss Dimensionalisierung
nennt (Strauss 1987, 1991: 41): will man etwa verschiedene Strategien der
Schmerzbewältigung bei Schmerzpatienten untersuchen, müssen zuerst wesent-
liche Dimensionen der Kategorie Schmerz identifiziert werden, wie die Art des
Schmerzes, dessen Intensität, die Stelle, an der er auftritt, seine Dauer, sein zeitli-
cher Verlauf usw. (ebd.: 74). Eine solche Dimensionalisierung hilft, theoretisch und
logisch mögliche Merkmalskombinationen der untersuchten Phänomene zu bestimmen,
um eine begriffliche Grundlage für empirische Aussagen zu schaffen.
Oftmals wird nur ein Teil dieser Kombinationen empirisch realisiert:
so existieren bspw. zahlreiche logisch mögliche Kombinationen der Variablen
Schmerzdauer, -intensität und -verlauf, die (vielleicht aus medizinischen Gründen)
tatsächlich nie auftreten. Der begrifflichen Analyse von Merkmalsausprägungen
muss sich also eine empirische Untersuchung anschließen, die es erlaubt, jene Merk-
malskombinationen zu identifizieren, die tatsächlich auftreten. Diese empirische
Untersuchung braucht jedoch einen theoretischen Rahmen, der angibt, welche
Kategorien in welcher Weise theoretisch miteinander sinnvoll in Beziehung gesetzt
werden können. Anders als bei Glaser verwendet Strauss hierfür nicht eine offene Li-
ste von miteinander weitgehend unverbundenen soziologischen und erkenntnistheore-
tischen Begriffen, sondern ein handlungstheoretisches Modell in der Tradition der
pragmatistischen Philosophie und des Interaktionismus (vgl. Corbin 1991: 36, Strauss
1990: 7): Ziel der Konstruktion empirisch begründeter Theorien ist die Beschreibung
und Analyse von Handlungs- und Interaktionsstrategien und der auf sie einwirkenden
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 43

äußeren intervenierenden Bedingungen (der ökonomische und soziale Status der Akteure, ihre
individuelle Biografie und andere Einflüsse). Hierbei gilt ein besonderes Augenmerk der
Intentionalität von Handlungen, d. h. der Bedeutung von Zielen, Zwecken und Absich-
ten, sowie ihrer Prozessualität, d. h. den Konsequenzen dieser Handlungen für die Ak-
teure.
Dieser theoretische Ansatz bildet die Grundlage für das sog. Kodierparadigma, das,
wenn man so will, eine Spezifikation von Glasers theoretischen Codes darstellt: die in
der Phase des offenen Kodierens entwickelten Kategorien sollen daraufhin untersucht
werden, ob es sich dabei handelt (1.) um Phänomene, auf die das Handeln gerichtet ist,
(2.) um kausale Bedingungen für diese Phänomene, (3.) um Eigenschaften des Handlungskontex-
tes, (4.) um intervenierende Bedingungen, (5.) um Handlungs- und Interaktionsstrategien oder (6.) um
deren Konsequenzen.
Anschließend werden die Kategorien dimensionalisiert, d. h. es wird untersucht,
welche Arten von Phänomenen, Handlungskontexten, kausalen und intervenieren-
den Bedingungen, Handlungs- und Interaktionsstrategien und von deren Konse-
quenzen im Untersuchungsfeld eine Rolle spielen. Bei der Untersuchung der sozialen
Aspekte chronischen Schmerzes werden bspw. Typen von Handlungskontexten be-
stimmt, die für Schmerzpatienten eine Rolle spielen und ebenso Muster von deren
Schmerzbewältigungsstrategien. Anschließend kann dann untersucht werden, mit wel-
chen jeweils unterschiedlichen Schmerzbewältigungsstrategien Schmerzpatienten auf
verschiedene Handlungskontexte reagieren. Dies führt zur Formulierung idealtypischer
Handlungsmodelle, die die Grundlage bilden können für eine gegenstandsbezogene Theo-
rie über die in bestimmten Situationen allgemein verfolgten Handlungs- und Interak-
tionsstrategien und deren typische Konsequenzen.

Der Methodenstreit zwischen Glaser und Strauss

Da Glaser und Strauss seit den 1970er Jahren nicht mehr zusammengearbeitet ha-
ben, weisen die in den folgenden Jahrzehnten ausgearbeiteten Neukonzeptionen der
Grounded Theory erhebliche Unterschiede auf. 1992 wendete sich Glaser in einer im
Eigenverlag herausgegebenen ungewöhnlich aggressiven Streitschrift gegen Strauss und
Corbin und warf ihnen vor, mit den Konzepten der Dimensionalisierung und des
Kodierparadigmas die Methodologie der Grounded Theory grundlegend zu pervertie-
ren. Durch diese Kritik zieht sich wie ein roter Faden ein bestimmter Vorwurf:
Durch die von Strauss vorgeschlagenen Methoden würden den Daten Kategorien
„aufgezwungen“, anstatt dass ihnen die Gelegenheit gegeben würde, selber aus den
Daten zu emergieren. Dabei legt Glaser im Gegensatz zu Strauss und Corbin besonderen
44 Udo Kelle

Wert darauf, dass ein Forscher sich seinem Feld ohne Forschungsproblem oder Fragestellung nä-
hern soll („He moves in with the abstract wonderment of what is going on that is an is-
sue and how it is handled“, ebd.: 22) und beharrt darauf, dass „there is a need not to re-
view any of the literature in the substantive area under study“ (ebd.: 31). Hinter-
grundwissen ist, so Glaser, schädlich für die Anwendung der Grounded Theory: „This
dictum is brought about by the concern to not contaminate, be constrained by, inhibit,
stifle or otherwise impede the researcher’s effort to generate categories, their properties,
and theoretical codes“. (ebd.)
Die Verfahren der begrifflichen Analyse bzw. Dimensionalisierung hält Glaser
für überflüssig, wenn nicht sogar für schädlich, denn Ähnlichkeiten und Unterschiede
zwischen Ereignissen würden einfach aus dem Datenmaterial emergieren – jeder
Versuch, durch die begriffliche Analyse von Kategorien Dimensionen zu finden,
hinsichtlich derer die untersuchten Ereignisse sinnvollerweise überhaupt verglichen
werden können, führe bereits dazu, dass den Daten Konzepte „aufgezwungen“ wer-
den. Glaser bekräftigt damit die bereits im Discovery-Buch vertretene induktivistische
Rhetorik, wonach theoretische Konzepte direkt aus dem Datenmaterial auftauchen,
solange es dem Forscher gelingt, sich von theoretischen Vorannahmen zu befreien.
Der grundlegenden Problematik einer induktivistischen Forschungsmethodologie ist
sich Glaser aber trotzdem (zumindest undeutlich) bewusst – eine Untersuchungsstra-
tegie, bei der man sich einem empirischen Gegenstand ohne jegliche theoretische
Konzepte nähert, ist praktisch nicht umsetzbar, weil ein solches Vorgehen eher
eine Flut von unzusammenhängenden Beschreibungen und Einzelbeobachtungen
erbringen würde als empirisch begründete Kategorien und Hypothesen. Glaser ver-
sucht diese Problematik mit den Konzepten der theoretischen Sensibilität und der
theoretischen Kodierung zu bewältigen. Theoretische Sensibilität, d. h. die Kompe-
tenz über empirische Phänomene in theoretischen Begriffen zu sprechen, kann sich
allerdings nur auf der Grundlage einer Ausbildung in soziologischen Theorien entwi-
ckeln (vgl. Glaser 1992: 28). Die von Glaser 1978 vorgestellten Kodierfamilien sind al-
lerdings für Nichtsoziologen oder auch für Novizen in der empirischen Sozialfor-
schung wenig hilfreich, die mit der dort vorgelegten eher unsystematischen Aufzäh-
lung von formalen und substanzwissenschaftlichen Begriffen wahrscheinlich kaum et-
was anfangen können. Ein Forscher mit dem notwendigen Hintergrundwissen und
langjähriger Praxis in der Anwendung theoretischer Konzepte auf empirische Phäno-
mene wird jedoch eine solche Liste kaum benötigen.
Demgegenüber wird bei dem von Strauss und Corbin vorgeschlagenen Kodier-
paradigma die Konstruktion eines theoretischen Rahmens expliziert. Damit können
auch Forscher, die wenig erfahren sind in der Anwendung von Theoriewissen auf
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 45

empirische Daten die Methodologie der Grounded Theory nutzen, ohne in Gefahr
zu geraten, in den Daten zu ertrinken. Glasers Methode des theoretischen Kodierens,
bei der Untersucher ad hoc irgendein brauchbar erscheinendes Konzept benutzen,
um Kategorien und ihre Merkmale aus dem Datenmaterial zu entwickeln und bei der
sie darauf angewiesen sind, ad hoc zu dimensionalisieren, ist dahingegen nur für erfah-
rene Forscher überhaupt nutzbar.
Dennoch muss Glasers Vorwurf gegen Strauss und Corbin, durch die Anwen-
dung eines Kodierparadigmas würden den Daten Konzepte aufgezwungen, ernst
genommen werden. Denn ein wesentliches Ziel qualitativer Forschung besteht ja darin,
dass die Deutungsmuster und Handlungsorientierungen der Befragten im For-
schungsprozess zur Geltung kommen, ohne von den theoretischen Konzepten
des Forschers quasi überblendet zu werden. Allerdings handelt es sich bei dem
von Strauss und Corbin vorgeschlagenen allgemeinen handlungstheoretischen
Rahmen keineswegs um ein präzises Hypothesenbündel, sondern um ein
hochgradig allgemeines Konzept, mit dessen Hilfe sich alle möglichen Hand-
lungen theoretisch beschreiben lassen. Letztendlich repräsentiert es zum gro-
ßen Teil nichts anderes als eine Explikation dessen, was sowohl in weiten Tei-
len der Sozialwissenschaften als auch im Alltagssprachgebrauch unter einer in-
tentionalen Handlung verstanden wird. Obwohl Glasers Kritik an Strauss’
und Corbins Kodierparadigma also überzogen scheint, mag sie aber dennoch
unter bestimmten Bedingungen ihre Berechtigung haben. Möglicherweise wür-
den qualitative Sozialforscher, die ihr Datenmaterial nicht mit einer handlungs-
theoretischen und mikrosoziologischen Orientierung, sondern unter einer ma-
krosoziologischen (bspw. systemtheoretischen) Orientierung untersuchen wol-
len, das Kodierparadigma als zu starke theoretische Festlegung und damit als
Konzept empfinden, dass den Daten aufgezwungen wird. Allerdings vertritt auch
Glaser selber eine explizit handlungstheoretische und mikrosoziologische Orientie-
rung: in seiner 1978 erschienenen Monographie „Theoretical Sensitivity“ hat er
etwa besonderen Wert darauf gelegt, dass bei der qualitativen Datenauswer-
tung die kodierten Ereignisse stets in Zusammenhang mit Handlungen der Ak-
teure im Feld stehen sollten. Eine systemtheoretische Perspektive müsste also
im Kontext von Grounded Theory erst noch entwickelt werden (und würde
dann wahrscheinlich zur Formulierung von so etwas wie einem systemtheoretischem
Kodierparadigma führen).
Ein wesentlicher Unterschied zwischen Glasers Konzepten und der von Strauss
und Corbin vorgeschlagenen Vorgehensweise besteht darin, dass Strauss und
Corbin die Verwendung eines bestimmten (handlungs)theoretischen Rahmens und
46 Udo Kelle

dessen Explikation für notwendig halten, während Glaser der Überzeugung


ist, dass nur eine ad hoc Kodierung auf der Basis von implizitem theoreti-
schen Hintergrundwissen einer Methodologie empirisch begründeter Theorie-
bildung angemessen ist. Viele andere Streitpunkte sind demgegenüber – zu-
mindest vordergründig – rhetorischer Natur: So betont Glaser die Bedeu-
tung der Emergenz von theoretischen Konzepten aus dem Datenmaterial, wobei ihn
diese Metapher bis zu grandiosen Wahrheitsansprüchen führt. Aufgabe empi-
rischer Forschung ist es demnach, die soziale Welt so zu beschreiben, wie sie
tatsächlich ist. „In grounded theory (...) when the analyst sorts by theoretical
codes everything fits, as the world is socially integrated and grounded theory
simply catches this integration through emergence.“ (ebd.: 84) Weil hierbei
nicht nur Hypothesen formuliert und weiter erhärtet werden, sondern Tatsa-
chen beschrieben, erübrigt sich jeder Versuch der weiteren Überprüfung: eine
Falsifikation müsste einem solchen Verständnis des Forschungsprozesses zu-
folge überhaupt nicht möglich sein. Dem entspricht der Umstand, dass
Glaser das erkenntnistheoretische Problem einer deskriptiven Unerschöpflichkeit em-
pirischer Phänomene ignoriert. Die Tatsache, dass ein und derselbe Gegenstand
unter (potenziell unendlich vielen) verschiedenen Perspektiven beschrieben
werden kann, wird von ihm rundheraus bestritten: wenn der Untersucher seinen
theoretischen Ballast abwürfe, sei durch das Emergieren sichergestellt, dass nur re-
levante Sachverhalte bemerkt und beschrieben werden. Dies ist tatsächlich bis
ins Detail das aus dem frühen englischen Empirismus stammende Konzept
eines dogmatischen Rechtfertigungsinduktivismus – die etwa von Francis Bacon geäu-
ßerte Überzeugung, dass sich dem Forscher, wenn er sich zuvor von Vorurteilen
und falschen Idolen innerlich gereinigt hat und seinen Geist damit zur tabula rasa
gemacht hat, die Fähigkeit zuteil würde, die empirischen Tatsachen ungehin-
dert zu erfassen (vgl. Chalmers 1989). Weil aber Glaser selber auch an anderer
Stelle deutlich macht, dass theoretische Aussagen nicht einfach von selber aus
dem Datenmaterial entstehen, sondern dass sie durch eine mit theoretischer
Sensibilität geleisteten theoretischen Kodierung, das heißt durch eine Kategorisie-
rung empirischer Phänomene auf der Basis theoretischen Vorwissens, entstehen,
drängt sich der Verdacht auf, dass die Rede vom Emergieren theoretischer Konzepte le-
gitimatorischen Charakter trägt. In diesem Fall würde Glasers Konzept der empirisch
begründeten Theoriebildung weniger eine Methodologie darstellen als das Angebot an
Forscher, ihre Theorien mit Hilfe einer bestimmten Rhetorik zu immunisieren.
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 47

3 Die Unhintergehbarkeit theoretischen Vorwissens


Ein adäquates Modell für das Theorie-Empirie Verhältnis in der empirischen
Sozialforschung muss der Unhintergehbarkeit theoretischen Vorwissens Rechnung
tragen. Neue Theorien können nicht allein aufgrund empirischer Daten ab ovo
entwickelt werden, sondern erfordern eine Verknüpfung zwischen altem Theo-
riewissen und neuer empirischer Evidenz. Gleichzeitig darf jedoch nicht jenes
Motiv sozialwissenschaftlicher Forschungstätigkeit nicht aus den Augen verloren
werden, welches erst Anlass gegeben hat zur Entwicklung qualitativer Methoden: die
qualitative Sozialforschung muss Verfahren zur Verfügung stellen, um Deutungsmus-
ter und Sichtweisen von Akteuren im untersuchten Feld zur Geltung zu bringen, zu
denen der Forscher vor der Sammlung der empirischen Daten keinen Zugang hatte.
Die empirische Sozialforschung muss deshalb eine Methodologie der Entdeckung zur Ver-
fügung stellen, mit deren Hilfe im Forschungsprozess nicht nur Hypothesen geprüft,
sondern auch neue theoretische Konzepte entwickelt werden können.
Die Unhintergehbarkeit theoretischen Vorwissens einerseits und die Notwendig-
keit einer Methodologie empirisch begründeter Theorieentwicklung andererseits
lassen sich nur vereinbaren, wenn die Unterschiede, die zwischen verschiedenen Typen
theoretischen Wissens bestehen und die in der methodologischen Literatur oft vernachlässigt
werden, in die Betrachtung einbezogen werden (vgl. auch Kelle/Kluge 1999: 25-37).
Unter dem Eindruck methodologischer Konzepte experimenteller Forschung wird
nun allerdings in der quantitativ orientierten Methodenliteratur oft ein bestimmter
Typus theoretischer Aussagen mit soziologischer Theorie generell identifiziert: universell
gültige, empirisch gehaltvolle, präzise operationalisierbare Aussagen über Zusammenhänge zwischen be-
stimmten allgemeinen Kategorien bzw. Variablen (etwa in der Form: „Je niedriger das Qualifikations-
niveau des Bildungsabschlusses, desto mehr aversive Einstellungen gegenüber Angehörigen fremder
Ethnien werden geäußert.“) Nun existieren aber in der sozialwissenschaftlichen Theorie-
diskussion zahlreiche Begriffe und Aussagen (oft mit sehr hohem theoretischen
Allgemeinheitsgrad), die etliche dieser Eigenschaften nicht aufweisen. Viele abstrak-
te soziologische Konzepte und allgemeine Aussagen über soziale Phänomene können
nur schwer mit der Realität in Konflikt geraten, das heißt potenziell falsifiziert wer-
den. Hierzu gehören viele jener Aussagen, die im Rahmen von soziologischen „Groß-
theorien“, etwa strukturfunktionalistischer Systemtheorien, entscheidungstheoretischer
Ansätze und anderer Theorien mit großer Geltungsreichweite auf hohem Abstrak-
tionsniveau formuliert werden. Der Mangel an empirischem Gehalt wird dabei in
der Regel umso größer, je universeller der Erklärungsanspruch einer sozialwissen-
schaftlichen Theorie ist. Theorien mit dem Anspruch auf Erklärung von universellen
48 Udo Kelle

sozialen Sachverhalten, die so genannten Grand theories (vgl. Merton 1968), enthalten in
der Regel eine große Anzahl von Kategorien und Annahmen, die nur sehr bedingt
oder überhaupt nicht empirisch überprüfbar sind. Oft handelt es sich hierbei um de-
finitorische („tautologische“) Sätze ohne empirischen Gehalt in der folgenden Art:
Soziale Rollen sind Bündel von Erwartungen, die sich in einer gegebenen Gesellschaft an das
Verhalten der Träger von Positionen knüpfen (Dahrendorff 1964: 25 f.)

Aus dieser Aussage lassen sich nicht ohne weitere Zusatzinformationen empirisch
überprüfbare Hypothesen über konkretes soziales Verhalten ableiten. Hierzu müss-
ten Annahmen darüber getroffen werden, welche Erwartungen in welcher Gesellschaft an
welche Position geknüpft wird. Aber auch Aussagen aus verschiedenen anderen Groß-
theorien, die nicht ohne weiteres als Begriffsdefinitionen erkennbar sind, sind oft weit-
gehend empirisch gehaltlos, d. h. empirisch nicht oder nur eingeschränkt überprüfbar
bzw. falsifizierbar (zu einer Diskussion dieses Problems im Kontext des symbolischen Inter-
aktionismus vgl. Kelle/Kluge 1999: 33, und im Kontext von Rational Choice Ansätzen vgl.
Kelle/Lüdemann 1995). Das bedeutet aber keinesfalls, dass solche Theorien für die
Zwecke empirischer Forschung überflüssig oder unbrauchbar sind; obwohl sich aus
ihnen nicht direkt empirisch prüfbare Hypothesen deduzieren lassen, liefern sie zentra-
le Konzepte und Relevanzgesichtspunkte, ohne deren Hilfe empirisches Material gar
nicht zu ordnen und zu systematisieren wäre.
Jene allgemeinen, abstrakten und empirisch gehaltlosen theoretischen Aussagen, die
oftmals das Grundgerüst von Grand theories in der Soziologie bilden, lassen sich
zwar nur schwer im Rahmen einer quantitativen, hypothetiko-deduktiven For-
schungsstrategie direkt operationalisieren; im Kontext einer theoriegenerierenden,
qualitativen Methodologie lassen sie sich jedoch als Heuristiken zur Konstruktion
von gehaltvollen Konzepten auf der Basis empirischer Daten verwenden, denn erstens
stellen sie dem Forscher oder der Forscherin jene Perspektiven zur Verfügung, durch
die sich soziologisch relevante Phänomene überhaupt erst wahrnehmen und beschrei-
ben lassen, und zweitens sind diese Konzepte gleichzeitig hinreichend „offen“, so dass
die Gefahr verringert wird, dass die Relevanzsetzungen der Befragten durch vorgängige
Forscherhypothesen überblendet werden. Mangel an empirischem Gehalt ist im
Rahmen einer theoriegenerierenden Forschungsstrategie gerade ein Vorzug solcher
heuristisch-analytischer Konzepte, die somit als theoretische Gerüste für die Formu-
lierung von Theorien mittlerer Reichweite dienen können. Aus Großtheorien abgeleite-
te Konzepte fungieren dann zu Beginn der Untersuchung als ein theoretisches Ras-
ter, welches durch empirische Beobachtungen zunehmend aufgefüllt werden kann.
Berücksichtigt man diese Differenzierung zwischen theoretischen Aussagen mit
unterschiedlichem empirischem Gehalt, so reduziert sich die von Barney Glaser be-
Theoretisches Vorwissen und Kategorienbildung in der „Grounded Theory“ 49

gonnene Kontroverse über die Grundlagen der Grounded Theory letztendlich auf
drei Fragen:
1. Sind die verwendeten theoretischen Kategorien und Hypothesen zur Kon-
struktion heuristisch-analytischer Rahmenkonzepte geeignet, oder ist ihr
empirischer Gehalt so groß, dass sie nur für eine hypothetiko-deduktive For-
schungsstrategie geeignet sind? In den Worten von Glaser: Besteht die Ge-
fahr, dass die Konzepte den Daten aufgezwungen werden und die Entwicklung
neuer Kategorien eher behindern als fördern?
2. Soll der heuristisch-analytische Theorierahmen zu Beginn des Forschungs-
prozesses in der Form eines expliziten Kodierparadigmas formuliert wer-
den, oder soll der heuristische Rahmen erst im Prozess der Kodierung suk-
zessive entwickelt werden?
3. Soll der Forscher bei der Konstruktion des heuristisch-analytischen Rah-
mens auf einen einzelnen handlungstheoretischen Ansatz (etwa Strauss’ und
Corbins Kodierparadigma (1990: 99) zurückgreifen oder auf einen großen Fun-
dus von Kodierfamilien (Glaser 1978: 72-80)?
Die Beantwortung dieser Fragen sollte nun abhängig gemacht werden von der kon-
kreten Forschungsfragestellung, dem untersuchten Gegenstandsbereich und den
Fähigkeiten und theoretischen Orientierungen des Forschers. Novizen in der empiri-
schen Sozialforschung etwa sind mit der Aufforderung, einen heuristischen Rahmen ad
hoc während der Datenauswertung zu konstruieren, und dabei zwischen allen möglichen
soziologischen Großtheorien und Kodierfamilien zu wählen, in der Regel überfordert,
während erfahrene und theoretisch belesene Sozialwissenschaftler hier geringere
Schwierigkeiten haben. Andererseits ist Glasers Kritik an der Beschränkung auf ein ein-
zelnes Kodierparadigma, wie es in den Arbeiten von Strauss und Corbin nahe gelegt wird,
sicher nicht völlig unberechtigt. Angesichts der Vielzahl soziologischer Theorien und
Perspektiven wäre die Verfügbarkeit mehrerer unterschiedlicher Kodierparadigmen si-
cher anzustreben – hier eröffnen sich eine ganze Reihe von Möglichkeiten für eine
Weiterentwicklung der Methodologie der Grounded Theory.
Integration qualitativer und quantitativer Methoden

Udo Kelle

Zusammenfassung
Der Beitrag referiert verschiedene in der Literatur vertretene Konzepte der Verknüpfung qualitativer
und quantitativer Verfahren, nämlich einerseits das bereits von Barton und Lazarsfeld vertretene Pha-
senmodell (wobei eine qualitative Studie der Hypothesengenerierung und eine anschließende quantitati-
ve Studie der Hypothesenprüfung dienen soll) und andererseits verschiedene Konzepte der Triangula-
tion (wonach qualitative und quantitative Methoden entweder zur wechselseitigen Validierung oder aber
zur gegenseitigen Ergänzung ihrer Ergebnisse genutzt werden können). Diese Modelle werden oft in
Konkurrenz zueinander gesehen und diskutiert.
Anhand mehrerer empirischer Beispiele soll gezeigt werden, dass jedes dieser bislang formulierten Mo-
delle der Methodenintegration eine (wenn auch beschränkte) Geltung aufweist. Weil qualitative und
quantitative Studien nämlich, wie sich in der Forschungspraxis zeigt, sowohl konvergierende als auch
divergente oder auch komplementäre Ergebnisse zeitigen können, kann ihr Einsatz sowohl zur gegen-
seitigen Überprüfung und Validierung als auch zur Ergänzung von Perspektiven sinnvoll sein. Welche
Funktion der Methodenintegration in einem konkreten Forschungsprojekt zum Tragen kommen muss,
lässt sich keineswegs allein anhand methodologischer Überlegungen bestimmen, sondern erfordert the-
oretische und gegenstandsbezogene Reflektionen.

1 Einleitung
Im Folgenden werde ich einige methodologischen Debatten, welche sich an der
Frage nach der Integration qualitativer und quantitativer Verfahren entzündet ha-
ben, umreißen und dabei auf typische methodologische Probleme der Methodenin-
tegration eingehen.
Hierzu sollen zuerst verschiedene Modelle der Methodenintegration, die in der
Literatur diskutiert werden, dargestellt werden. Ich möchte die Probleme und
Grenzen solcher Konzepte anhand von Beispielen aus der empirischen For-
schungspraxis darstellen und dabei versuchen, deutlich zu machen, warum es einer-
seits schwierig ist, ein allgemeines methodologisches Modell der Methodenintegra-
Integration qualitativer und quantitativer Methoden 51

tion zu formulieren, die Integration qualitativer und quantitativer Verfahren für die
empirische Sozialforschung aber dennoch in vielerlei Hinsicht von zentraler Bedeu-
tung ist.

2 Modelle der Methodenintegration


In methodologischen Schriften zur Methodenintegration (v.a. Denzin 1977, Barton,
Lazarsfeld 1955, 1984, Bryman 1988, Fielding/Fielding 1986, Flick 1991, 1992a,
Mohler 1981, Smith 1987, 1988, Cresswell 1994, Erzberger 1998) lassen sich zwei
grundlegend verschiedene Konzepte unterscheiden:
x Das klassische „Phasenmodell“ der Methodenintegration, welches zuerst
von Barton und Lazarsfeld formuliert wurde: Qualitative Methoden sollen
hierbei der Hypothesengenerierung, quantitative Verfahren der Hypothe-
senprüfung dienen.
x Ein Ansatz, wonach der gemeinsame Einsatz qualitativer und quantitativer
Methoden hilft, denselben Gegenstand aus unterschiedlichen Richtungen
auf unterschiedliche Weise zu beleuchten, und damit zu einem umfassende-
ren und valideren Bild des untersuchten Gegenstandsbereichs zu gelangen
(v.a. Denzin 1977). Zur Kennzeichnung dieses Ansatzes wird oft die Meta-
pher „Triangulation“ gebraucht.

Das klassische Phasenmodell

Das Phasenmodell zur Integration qualitativer und quantitativer Verfahren wurde


bereits in den 1950er Jahren vorgestellt: In einem mittlerweile klassischen Aufsatz
schlugen Lazarsfeld und Barton (1955, 1984) vor, qualitative Studien zur Explora-
tion und Generierung solcher Hypothesen einzusetzen, die anschließend in quanti-
tativen Untersuchungen überprüft werden sollten. Auf diese Weise ließen sich, so
die beiden Autoren, die jeweiligen Stärken der beiden Methodenstränge auf die
beste Weise ins Spiel bringen und deren Schwächen ausgleichen. Als zentrale Stär-
ke qualitativer Verfahren betrachteten Barton und Lazarsfeld dabei, dass sie die
Möglichkeit zur Exploration von bislang theoretisch wenig durchdrungenen Zu-
sammenhängen bieten würden: Qualitative Verfahren ermöglichten es nämlich, ü-
berraschende Beobachtungen zu machen, Sachverhalte zu problematisieren und zu
neuen Erklärungen anzuregen. Was die Validität qualitativer Analysen anging, zeig-
ten beide Autoren allerdings äußerste Skepsis: Qualitative Verfahren seien nicht
52 Udo Kelle

nur relativ unsystematisch und unpräzise, sie verleiteten den Forscher auch dazu,
bei der Analyse komplexer sozialer Situationen „Quasi-Statistiken“ und „Quasi-
Korrelationen“ (Barton/Lazarsfeld 1955, 1984: 70 ff.) zu verwenden, d. h. auf der
Grundlage nur weniger Fälle mit unscharfen Begriffen wie „die meisten ...“ oder
„ein kleiner Teil der ...“ Häufigkeitsaussagen zu formulieren. Nur die klassischen
experimentellen Verfahren, die eine präzise Messung von vorher definierten Va-
riablen zulassen, seien deshalb zur Prüfung von Hypothesen und Theorien geeig-
net. Hypothetiko-deduktive, quantitative Forschung kommt damit dem Verständ-
nis beider Autoren zufolge eine methodologische Dominanz zu, zumindest was
den „context of justification“ (Reichenbach 1983) angeht. Dennoch erlangen in die-
sem Konzept qualitative Methoden eine mehr als marginale Bedeutung im For-
schungsprozess – ihre Bedeutung wird darin gesehen, dem Forscher Hypothesen
zu liefern, zu denen er auf andere Weise nicht gelangen kann. In diesem Punkt
unterscheidet sich der Ansatz von Barton und Lazarsfeld deutlich von jenen hypo-
thetiko-deduktiven Konzepten des Forschungsprozesses, die den „standard view“
in quantitativen Methodenlehrbüchern repräsentieren. Soweit solche Ansätze auf
der Grundlage des Kritischen Rationalismus entstanden sind, ist ihnen die Vorstel-
lung, dass der Vorgang der Hypothesengenerierung in irgendeiner Weise metho-
disch kontrolliert und auf der Grundlage empirischer Daten erfolgen kann oder
soll, prima facie fremd. Zum festen Grundbestand der Popper´schen Wissen-
schaftsauffassung gehört nämlich, folgt man den üblichen Rezeptionslinien, die
Überzeugung, dass es „eine logische, rational nachkonstruierbare Methode, etwas
neues zu entdecken, nicht gibt“, weil „jede Entdeckung (...) eine ’schöpferische In-
tuition’“ (Popper 1989a: 11) darstellt. Der Vorgang der Hypothesenfindung hat
dementsprechend mit „Logik wenig zu tun“ (ebd.). Die Aufstellung von Hypothe-
sen gehorcht keinen methodischen Regeln, es sind „phantastisch kühne“ und „un-
begründete und unbegründbare Antizipationen“. Diese Antizipationen werden „er-
raten“ und erst danach „klar und nüchtern kontrolliert durch methodische Nach-
prüfungen.“ (Popper 1989b: 223).1

1 Eine genauere Analyse von Poppers „Logik der Forschung“ macht allerdings deutlich, dass Poppers
Hinweise zur Hypothesengenerierung und Theoriekonstruktion sich zwei verschiedenen Konzep-
tionen zuordnen, die sich auf den ersten Blick zu widersprechen scheinen. Einerseits stellt er den
Prozess der Theorienentstehung als intuitiven und imaginativen Akt dar, andererseits entwickelt er
ein Konzept „quasi-induktiven Erkenntnisfortschritts“, wonach die Entwicklung neuer Hypothesen,
die Konstruktion neuer und die Veränderung alter Theorien dabei die Beachtung generativer Regeln
erfordert. Diese Regeln beinhalten die Anknüpfung an den Problemen, die bisherige Theorien er-
zeugen, die Beibehaltung des erreichten Standes der theoretischen Aufklärung eines Gegenstandsbe-
reiches, die Bemühung um empirische Gehaltsvermehrung sowie die Vermeidung von Immunisie-
Integration qualitativer und quantitativer Methoden 53

Soweit sich sozialwissenschaftliche Methodenlehrbücher auf solche Positionen


stützen und gleichzeitig ein Phasenmodell der Methodenintegration (ähnlich der
Position von Barton und Lazarsfeld) vertreten (so etwa Friedrichs 1980: 52 ff.,
Mayntz/Holm/Hübner 1969: 93), argumentieren sie den Stellenwert qualitativer
Verfahren im Forschungsprozess betreffend allerdings inkonsistent: Auf der einen
Seite empfehlen sie im „context of discovery“ die Durchführung qualitativer Vor-
studien, auf der anderen Seite halten sie die Methodisierbarkeit des „context of di-
scovery“ für unmöglich und setzen deshalb auch kein Vertrauen in die Gültigkeit
der Ergebnisse solcher Vorstudien. In Methodenlehrbüchern liest sich das dann so:
Qualitative Vorstudien helfen dem Forscher „in mehr oder weniger impressionisti-
scher Form“ durch „Ideen, Gespräche und Explorationen ... das Problem zu struk-
turieren“ (Friedrichs 1980: 52). Autoren, die einerseits betonen, dass eine „unsys-
tematische Form der Datenerhebung“ zu „beliebigen Interpretationen“ (Mayntz/
Holm/Hübner 1969: 93) führen kann, empfehlen andererseits deren Verwendung
zur Hypothesengenerierung. Unter forschungspragmatischen Gesichtspunkten
bleibt dann jedoch unklar, warum Forscher sich dann überhaupt der Mühe unter-
ziehen sollen, Feldbeobachtungen und Interviews durchzuführen, wenn daraus oh-
nehin nur beliebige Hypothesen resultieren und nicht stattdessen am Schreibtisch
auf Intuitionen warten, Hypothesen aus einer Lostrommel ziehen oder Ähnliches.
Tatsächlich hat sich eine solche methodologische Orthodoxie sehr stark von
der Praxis und den Erfordernissen empirischer Sozialforschung entfernt – ein
„quasi-Darwin´sches“ Konzept von Wissenschaftsfortschritt, bei dem unsystema-
tisch beliebige Hypothesen formuliert und danach methodisch kontrolliert über-
prüft werden, müsste zu einer ungeheuren Proliferation von Forschungsprojekten
und falsifizierten Hypothesen führen. Wissenschaftstheoretisch besteht die ent-
scheidende Schwachstelle dieses Ansatzes darin, dass die Frage nach einer (zumin-
dest partiellen) Rationalisierbarkeit und Methodisierbarkeit des „context of disco-
very“ nicht zugelassen wird. Wenn dem Forscher allerdings keinerlei Verfahrens-
vorschriften zur Generierung relevanter Hypothesen zur Verfügung stehen, kön-
nen aber auch die elaboriertesten und raffiniertesten Strategien zur Hypothesentes-
tung leer laufen.
Tatsächlich klafft zwischen der gegenwärtigen wissenschaftstheoretischen Dis-
kussion und Lehrbüchern der empirischen Sozialforschung in der Regel eine Re-

rungsstrategien und ad-hoc-Anpassungen. Popper formuliert also methodologische Regeln für den
Übergang von einer gescheiterten Theorie zu einer Nachfolgerin und zeigt damit auf, dass die Hypo-
thesengenerierung und Theoriekonstruktion zumindest partiell einen rationalen und regelgeleiteten
Prozess darstellt (vgl. Kelle 1994: 144 f.).
54 Udo Kelle

zeptionslücke von bis zu 30 (!) Jahren. In der zeitgenössischen Wissenschaftsphilo-


sophie auch kritisch-rationaler Prägung werden nämlich Fragen der Methodisier-
barkeit und Rationalisierbarkeit des „context of discovery“ und der Stellenwert „ra-
tionaler Heuristiken“ im Forschungsprozess bereits seit längerem lebhaft diskutiert
(Fischer 1983, Dannenberg 1989, ein Überblick über die Diskussion gibt Kelle
1998). Barton und Lazarsfeld tragen der Existenz solcher rationaler Heuristiken
zumindest implizit Rechnung, denn es kann schließlich nur dann sinnvoll sein, eine
qualitative Vorstudie zur Hypothesengenerierung durchzuführen, wenn damit zu-
mindest das Spektrum der möglichen Hypothesen sinnvoll eingeschränkt wird, d. h.
wenn die so entwickelten Hypothesen „beliebigen Hypothesen“ prinzipiell überle-
gen sind.
Hinzu kommt ein Weiteres: Zwischen der ersten Veröffentlichung des Aufsat-
zes von Barton und Lazarsfeld und heute liegen vierzig Jahre intensiver Methoden-
diskussion auch im Bereich qualitativer Verfahren. Zahlreiche Autoren haben sich
in dieser Zeit bemüht, qualitative Methoden als systematische Verfahren metho-
disch kontrollierten Fremdverstehens zu explizieren (etwa Lindesmith 1947/68,
Cressey 1953, 1971, Glaser/Strauss 1967, Glaser 1978, Strauss/Corbin 1990, Mi-
les/Huberman 1994, Oevermann et al. 1979, Gerhardt 1985, 1998, Denzin/Lincoln
1998 um nur einige zu nennen), so dass der Vorwurf von Barton und Lazarsfeld,
qualitative Analyse sei eher „Kunst“ als „Wissenschaft“ (Barton/Lazarsfeld 1955,
1984: 52 f.) sicher dringend einer Neubewertung bedarf.

Die Triangulationsmetapher

Während quantitative Methodiker, soweit sie überhaupt den Einsatz qualitativer


Methoden in Erwägung ziehen, die Integration qualitativer und quantitativer Me-
thoden in der Regel durch das Phasenmodell konzeptualisieren, sprechen qualitati-
ve Methodologen hier häufig von „Triangulation“ (Denzin 1977, Flick 1991, 1992a,
1998, Fielding/Fielding 1986, Lamnek 1988). In der Verwendung dieses Begriffs,
der aus der Navigation oder Landvermessung entlehnt wurde und dort die Be-
stimmung eines Ortes durch Messungen von zwei bekannten Punkten aus be-
zeichnet, kommt die Idee zum Ausdruck, dass qualitative und quantitative Verfah-
ren zwar verschieden aber in bestimmter Hinsicht methodologisch gleichrangig
sind. Interessanterweise entstammt aber auch dieses Konzept aus der Diskussion
um quantitative Methoden. Erste Gedanken hierzu formulierten nämlich Campbell
und Fiske (1959) im Kontext einer Theorie psychologischer Tests. Ergebnisse, die
mit einem Messinstrument erzielt worden sind, sollen durch Messungen mit ande-
Integration qualitativer und quantitativer Methoden 55

ren Instrumenten ergänzt bzw. überprüft werden durch die Erstellung von Korre-
lationsmatrizen, die über den Grad der Messübereinstimmung und der Diskrimi-
nanz zwischen den verschiedenen Methoden Auskunft geben. Zentrales Ziel dabei
ist die Evaluation der Gültigkeit von Testergebnissen, zentrales Kriterium die
Konvergenz der Ergebnisse bzw. der Grad ihrer Übereinstimmung (Camp-
bell/Fiske 1959: 81). In ihren Arbeiten über non-reaktive Messverfahren greifen
Webb und Kollegen (vgl. Webb et al. 1966) diesen Gedanken auf und betonen,
dass Datenerhebung und -auswertung mit unterschiedlichen Methoden die Validi-
tät der Ergebnisse erhöhen können und postulieren: „Ideally, we should like to
converge data from several different data classes, as well as converge with multiple
variants from within a single class“. (Webb et al. 1966: 35). An diese Überlegungen
knüpft 1977 Denzin an, um zugunsten der Integration qualitativer und quantitati-
ver Verfahren zu argumentieren. Methoden besäßen nämlich, so Denzin, jeweils
spezifische Schwächen und Stärken, weshalb eine Hypothese, die eine Serie von
Tests mit unterschiedlichen Testmethoden überlebt habe, valider sei als eine nur
mit einer Methode getestete Hypothese (vgl. Denzin 1977: 308). Methodologische
Triangulation besteht demnach in einem „complex process of playing each method
off against the other so as to maximize the validity of field efforts“ (ebd. 310).
Denzins Konzept ist von verschiedenen Seiten (vgl. v.a. Fielding/Fielding 1986,
Lamnek 1988, Flick 1991) heftig angegriffen worden, weil es das Problem der Reak-
tivität von Forschungsmethoden, welches den Ausgangspunkt der Triangulations-
konzepte von Campbell und Fiske und von Webb und Kollegen bildete, weitge-
hend unberücksichtigt lässt: Unterschiedliche Methoden erfassen nämlich nicht nur
verschiedene Aspekte desselben sozialen Phänomens, sondern jede Methode kons-
tituiert ihren spezifischen Erkenntnisgegenstand. Triangulation durch den Einsatz
unterschiedlicher Erhebungsverfahren sollte deswegen Messartefakte verhindern
und aufdecken. Vor allem Fielding und Fielding weisen darauf hin, dass Methoden
aus unterschiedlichen Theorietraditionen heraus entstanden sind und Prämissen
der jeweiligen Gesellschafts- oder Handlungstheorien in den Forschungsprozess
hineinbringen. Durch ihre Kombination könne man deshalb zwar die „Tiefe“ und
„Weite“ von Ergebnissen, nicht aber deren Validität erhöhen (vgl. Fielding/Fielding
1986: 33).
Diese Kritiken zeigen die Grenzen des Triangulationsbegriffes ebenso wie seine
systematische Ambiguität auf. Denn der Begriff „Position eines Ortes“, klar ver-
ständlich im Kontext von Navigation und Landvermessung, ist in der empirischen
Sozialforschung nicht genau definiert, sondern allenfalls eine vieldeutige Metapher.
56 Udo Kelle

Ist mit der Berechnung der Position eines Ortes durch die Messung von unter-
schiedlichen Punkten aus gemeint, dass
1. mit verschiedenen Methoden dasselbe soziale Phänomen erfasst wird, oder
2. dass hiermit unterschiedliche Aspekte desselben Phänomens oder gar un-
terschiedliche Phänomene erfasst werden, deren Abbildungen sich allenfalls
zu einem einheitlichen (oder zumindest „kaleidoskopartigen“, wie Köckeis-
Stangl 1982 schreibt) Bild ergänzen?
Hinter dieser Unterscheidung steht mehr als ein sprachlicher Kunstgriff, denn nur
dann, wenn sich verschiedene Methoden auf denselben Gegenstand beziehen,
können sie zur wechselseitigen Validierung ihrer Ergebnisse eingesetzt werden,
weil nur in einem solchen Fall unterschiedliche Ergebnisse als Hinweis auf Validi-
tätsprobleme gewertet werden können. Wenn dahingegen verschiedene Methoden
verschiedene Aspekte desselben Gegenstandes oder auch unterschiedliche Gegen-
stände erfassen, so sind unterschiedliche Ergebnisse natürlich zu erwarten, ohne
dass dies den Schluss auf die fehlende Validität dieser Ergebnisse erlaubt.
Beide Verwendungsweisen des Triangulationsbegriffs verwendet Denzin ab-
wechselnd oder auch parallel, ohne zwischen ihnen analytisch zu trennen. Einer-
seits fordert er eine Kombination unterschiedlicher Methoden zum Zweck der ge-
genseitigen Validierung der Ergebnisse. Andererseits weist er darauf hin, dass be-
stimmte Methoden nur für bestimmte Fragestellungen angemessen sind. So er-
scheinen ihm Surveys zur Untersuchung stabiler Handlungsmuster besser als ande-
re Methoden geeignet, erlauben es Verfahren teilnehmender Beobachtung beson-
ders gut, komplexe Formen von Interaktionsprozessen zu erfassen usw. Forschern
empfiehlt er, die ihnen am angemessensten erscheinenden Methoden zuerst einzu-
setzen und sie dann durch kontrastierende Methoden zu ergänzen, um neue rele-
vante Aspekte zu entdecken, die die zuerst eingesetzte Forschungsmethode nicht
zu erfassen vermag.
In einem solchen Fall jedoch wären die verschiedenen eingesetzten For-
schungsmethoden zur wechselseitigen Validierung nur bedingt einsetzbar, weil sie
sich hinsichtlich ihres Gegenstandbereichs zueinander komplementär verhalten
würden. Der Gedanke, dass sich die Gegenstandsbereiche qualitativer und quanti-
tativer Verfahren eher ergänzen als überschneiden, ist seit Beginn des Methoden-
streits um die Bedeutung und Validität qualitativer Sozialforschung immer wieder
geäußert worden (vgl. Burgess 1927). Auch Fielding und Fielding propagieren eine
solche Sichtweise als Alternative zu dem von Denzin formulierten Modell, „bei
dem von einer Realität und einem Gegenstandsverständnis unabhängig von den
Integration qualitativer und quantitativer Methoden 57

jeweiligen methodischen Zugängen ausgegangen wird“ (Flick 1991: 433). Zu ähnli-


chen Überlegungen gelangen schließlich auch Lüders und Reichertz (1986) für die
Kombination unterschiedlicher qualitativer Verfahren. Flick fasst schließlich die
unterschiedlichen Vorschläge, bei der die Komplementarität verschiedener metho-
discher Herangehensweisen betont werden, folgendermaßen zusammen: „Triangu-
lation is less a strategy for validating results and procedures than an alternative to
validation (...) which increases scope, depth and consistency in methodological
proceedings“ (Flick 1998: 230).
Zwei Lesarten der Triangulationsmetapher liegen also vor: Triangulation als
kumulative Validierung von Forschungsergebnissen und Triangulation als Ergän-
zung von Perspektiven, die eine umfassendere Erfassung, Beschreibung und Erklä-
rung eines Gegenstandsbereichs ermöglichen. Welche dieser Lesarten ist für die In-
tegration qualitativer und quantitativer Methoden methodologisch fruchtbarer und
in der Forschungspraxis maßgeblich?
Im Folgenden werde ich die bislang dargestellten und diskutierten methodolo-
gischen Modelle mit Erfahrungen aus der Forschungspraxis kontrastieren. Hierzu
werde ich auf Beispiele aus der soziologischen Lebenslauf- und Biographiefor-
schung zurückgreifen, wo qualitative und quantitative Erhebungs- und Auswer-
tungsverfahren in etlichen Forschungsprojekten parallel eingesetzt wurden.

3 Komplementarität von Forschungsergebnissen: Ein


Beispiel aus der Forschungspraxis
Qualitative Untersuchungen können empirische Phänomene zu Tage fördern, die
mit Hilfe quantitativer Forschungsdesigns allein kaum hätten entdeckt werden
können. Ihre besondere Stärke liegt gerade darin, dass mit ihrer Hilfe subjektive
Sinnsetzungen, „Relevanzhorizonte“ und Handlungsorientierungen der Akteure im
empirischen Material entdeckt werden könnten, über die der Forscher zuvor keine
theoretisch begründeten Annahmen besaß und die er deswegen auch nicht bei der
Konstruktion von Erhebungsinstrumenten berücksichtigen kann (vgl. Kelle 1998:
44 ff.). Aus diesem Grund kann, wenn qualitative und quantitative Methoden in
einem gemeinsamen Untersuchungsdesign miteinander kombiniert werden, die
qualitative Teiluntersuchung helfen, quantitative Befunde zu verstehen und zu er-
klären, wie das folgende Beispiel aus einer Panelstudie über die berufliche Entwick-
lung einer Kohorte junger Fachkräfte (vgl. Heinz 1996, Heinz et al. 1998, Kel-
le/Zinn 1998) zeigt.
58 Udo Kelle

In einer Untersuchung zur beruflichen Entwicklung einer Kohorte junger


Fachkräfte, die im Jahre 1989 eine Ausbildung im dualen System begonnen hat-
ten,22 wurden Angehörige sechs verschiedener Ausbildungsberufe in einer prospek-
tiven Längsschnittstudie mehrfach zur Entwicklung ihrer Erwerbsbiographie be-
fragt. Qualitative und quantitative Verfahren wurden dabei kombiniert. Es wurden
vier standardisierte postalische Befragungen und mit einer Teilstichprobe des quan-
titativen Samples bislang dreimal qualitative Interviews durchgeführt. Das Ziel lag
in der Beschreibung und Erklärung berufsbiographischen Handelns, also solcher
Handlungen, die auf die Gestaltung der beruflichen Biographie gerichtet sind. Be-
reits wenige Jahre nach Abschluss der Ausbildung zeigten sich deutliche berufsspe-
zifische Unterschiede zwischen erwerbsbiographischen Verläufen (Witzel, Hel-
ling/Mönnich 1996) (s. Tab. 1).
Ich möchte mich im Folgenden auf einen bestimmten Aspekt konzentrieren:
Angehörige verschiedener Ausbildungsberufe unterscheiden sich stark hinsichtlich
ihrer weiteren Bildungsbemühungen. Bankkaufleute und Maschinenschlosser zei-
gen eine starke Tendenz, nach ihrer beruflichen Ausbildung weitere Bildungsbe-
mühungen zu unternehmen: 31,9% der Bankkaufleute und 14,1% der Maschinen-
schlosser besuchen nach Beendigung ihrer Berufsausbildung eine (Fach-)Hoch-
schule. Bei den anderen Berufsgruppen ist diese Tendenz weit weniger ausgeprägt.

im gelernten Beruf ausbildungsfremd Schulbesuch FH/Uni


Bankkaufleute (229) 53,7% (123) 9,6% (22) 0,4% (1) 31,9% (73)
Bürokaufleute (319) 60,2% (192) 22,6% (72) 0,3% (1) 6,9% (22)
Maschinenschl. (177) 40,7% (72) 23,2% (41) 10,2% (18) 14,1% (25)
Kfz- Mechaniker (103) 37,9% (39) 37,9% (39) 1,0% (1) 5,8% (6)
Frieseurinnen (80) 42,5% (34) 33,8% (27) 2,5% (2) 1,3% (1)
Einzelhandelskfl. (130) 43,8% (57) 36,2% (47) 0 5,4% (7)
49,8% (517) 23,9% (248) 2,2% (23) 12,9% (134)

Tab. 1: Tätigkeit fünf Jahre nach Abschluss der Berufsausbildung (Zur Erhöhung der Über-
sichtlichkeit wurde die Residualkategorie (Arbeitslosigkeit, Krankheit, Schwangerschaft, Er-
ziehungsurlaub, Haftstrafen, Auslandsaufenthalt, Wehr- oder Zivildienst, Umschulung, Weiter-
und Fortbildung umfassend) weggelassen. Die Zeilenprozente addieren sich deswegen nicht
auf 100%)

2 Die Untersuchung wurde durchgeführt von dem Forschungsprojekt A1 „Statuspassagen in die Er-
werbstätigkeit“ im Sonderforschungsbereich 186 „Statuspassagen und Risikolagen im Lebensver-
lauf“ (beteiligte Wissenschaftler: W.Heinz, A.Witzel, J.Zinn, J.Mierendorrf, H.Schaeper, T.Kühn).
Integration qualitativer und quantitativer Methoden 59

Die unabhängigen Variablen „Schulbildung“ und „Ausbildungsberuf“ sind aller-


dings nur sehr grobe Indikatoren (oder „Proxyvariablen“) für eine ganze Reihe von
sozialstrukturellen Einflüssen und Faktoren, die einen Einfluss auf berufsbiogra-
phische Entscheidungen haben. Die Variable Berufsausbildung dient dabei als ein
Indikator für eine ganze Berufswelt mit ihren spezifischen Arbeitsmarktbedingun-
gen und Aufstiegsmöglichkeiten, die es Angehörigen bestimmter Berufe erleichtert
und es anderen erschwert, in ihrem gelernten Beruf zu verbleiben. Auch die Va-
riable Schulbildung ist nur deswegen relevant, weil sie auf einen spezifischen Hand-
lungskontext mit berufsbiographisch relevanten Opportunitäten und Restriktionen
hinweist, welche bestimmte berufsbiographische Entscheidungen fördern oder er-
schweren. Das bedeutet allerdings auch, dass der statistische Zusammenhang kaum
verständlich ist ohne eine ganze Reihe von Zusatzinformationen, die aus anderen
Quellen als dem eigenen quantitativen Datenmaterial beschafft werden müssen.
Solche Zusatzinformationen, die etwa die generellen Arbeitsmarktbedingungen
betreffen, können die geringe Haltekapazität der gewerblich-technischen Berufe
erklären – viele Kfz-Mechaniker und Friseure sind gezwungen, ihr Berufsfeld bald
nach ihrem Ausbildungsabschluss zu verlassen, weil die Ausbildungsbetriebe weit
über den eigenen Bedarf ausbilden. Andere Zusatzannahmen lassen sich leicht aus
Alltagswissensbeständen gewinnen – so ist die starke Tendenz von Abiturienten,
nach ihrer Lehre ein Studium aufzunehmen, zurückzuführen (1.) auf die Tatsache,
dass das Abitur die Hochschulzugangsberechtigung enthält und (2.) darauf, dass die
Akteure mit einem abgeschlossenem Studium bestimmte Karriere- und Einkom-
menserwartungen verbinden, die einen solchen Weg als besonders attraktiv er-
scheinen lassen. Wie multivariate Analysen zeigen, kann die hohe Bildungsbeteili-
gung der Bankkaufleute vor allem auf die hohe Anzahl von Abiturienten in diesem
Beruf zurückgeführt werden. Für die Fortführung der Bildungskarriere ist die Va-
riable „Schulabschluss“ offensichtlich die entscheidende erklärende Variable: Be-
fragte mit einer (fachgebundenen) Hochschulreife zeigen eine wesentlich höhere
Weiterbildungsneigung als ehemalige Hauptschüler oder Realschüler.
Allerdings trifft dieser Zusammenhang nicht bei den Maschinenschlossern zu:
Verglichen mit den anderen Berufen ist bei den Maschinenschlossern die Weiter-
bildungsneigung unabhängig vom Schulabschluss am größten. Diese Tendenz, das
berufliche Feld zu verlassen und weitere formale Qualifikationen im Bildungssys-
tem zu erwerben, kann auch nicht als Reaktion auf schlechte Arbeitsmarktchancen
im gelernten Beruf zurückgeführt werden. Im Gegensatz zu Kfz-Mechanikern oder
Friseurinnen hatte ein großer Teil der Maschinenschlosser des untersuchten Sam-
ples nach dem Abschluss der Berufsausbildung Übernahmeangebote von ihrem
60 Udo Kelle

Ausbildungsbetrieb erhalten. Wie lässt sich nun die Tendenz der Maschinenschlos-
ser erklären, im Gegensatz zu anderen Berufsgruppen zeitaufwändige Umwege in
Kauf zu nehmen, um Bildungsabschlüsse nachzuholen?
Da die Erklärungskraft der mit den Variablen verbundenen Zusatzannahmen in
diesem Fall erschöpft war, konnte aber aufgrund des Forschungsdesigns jetzt mit
Hilfe der qualitativen Leitfadeninterviews zwei verschiedene Arten von Informa-
tionen gewonnen werden, um dieses auf den ersten Blick überraschende statistische
Faktum zu erklären.
Aufgrund von Informationen über charakteristische berufskulturelle Besonder-
heiten konnte gezeigt werden, dass einerseits Maschinenschlosser, die ihre Ausbil-
dung in speziellen Lehrwerkstätten von Maschinenbaufirmen erhalten hatten, im
Laufe ihrer Berufsausbildung in der Mehrzahl ein ausgeprägtes Facharbeiterbe-
wusstsein entwickelt hatten, andererseits aber deren Aspirationen auf eine qualifi-
zierte Facharbeitertätigkeit nach der Berufsausbildung in der Regel enttäuscht wur-
den, da die Firmen, bedingt durch beschränkte ökonomische Rahmenbedingungen
zu Beginn der 1990er Jahre, nur Arbeitsplatzangebote mit einem eingeschränkten
Qualifikationsprofil anbieten konnten. Dieses Zusammenspiel zwischen einer be-
stimmten Berufskultur auf der einen Seite und einer schwierigen ökonomischen Si-
tuation auf der anderen Seite konnte erklären, warum so viele Maschinenschlosser
ihr berufliches Feld verließen: Bei der Wahl zwischen einer wenig qualifizierten Be-
schäftigung oder der Annahme eines Weiterbildungsangebotes entschieden sich
Mitglieder dieser Berufsgruppe für die Bildungsmaßnahme. Allerdings bleibt hier
die Frage offen, wie die Varianz innerhalb der Gruppe der Maschinenschlosser er-
klärt werden konnte: Aus welchen Gründen hat ein nennenswerter Anteil dieser
Berufsgruppe seine beruflichen Aspirationen den Gegebenheiten angepasst und die
niedrig qualifizierten Tätigkeiten akzeptiert?
Für die Erklärung dieser Varianz diente die zweite Art von Informationen, die
aus dem qualitativen Interviewmaterial gewonnen werden konnte. Durch einen sy-
noptischen Vergleich von Textsegmenten aus den qualitativen Interviews, die sich
u. a. auf berufliche Aspirationen und berufliche Bewertungen bezogen (zur dieser
Methode qualitativer Interviewauswertung vgl. Kelle 1995, Kelle/Kluge 1999),
konnten berufsbiographische Handlungsmuster identifiziert werden, die als „be-
rufsbiographische Gestaltungsmodi“ bezeichnet wurden (Heinz et al. 1998). Die
berufsbiographischen Gestaltungsmodi der Maschinenschlosser teilen sich dabei
auf in Chancenoptimierung und Lohnarbeiterhabitus. Beim Lohnarbeiterhabitus
stehen Verbesserungen von materiellen Bedingungen im gegenwärtigen Betrieb
und auf dem Arbeitsstellenmarkt im Mittelpunkt. Akteure mit diesem Gestal-
Integration qualitativer und quantitativer Methoden 61

tungsmodus verzichten auf weitere Qualifikationsbemühungen und arbeiten niedrig


qualifiziert als Produktionsfacharbeiter (wobei sie ggf. den Betrieb wechseln). Die-
jenigen, die auf der Basis ihrer schulischen Ressourcen die Berufsaufbau-, Fach-
oberschule oder (Fach-)Hochschule besuchen und auf diese Weise neue biographi-
sche Wege erproben, zählen zu den „Chancenoptimierern“ (vgl. dazu ausführlich
Witzel/Helling/Mönnich 1996). Akteure mit diesem Gestaltungsmodus suchen
Herausforderungen in der Arbeit, verbunden mit der Aneignung neuer Qualifika-
tionen und der Formulierung von Karriereaspirationen.

4 Widersprüche zwischen qualitativen und quantitativen


Ergebnissen
Das eben dargestellte Forschungsprojekt ist ein gutes Beispiel für die Komplemen-
tarität von qualitativen und quantitativen Forschungsergebnissen.
Quantitative und qualitative Ergebnisse ergänzen sich oft in spezifischer Weise:
x Quantitative Ergebnisse zeigen Zusammenhänge zwischen Strukturvaria-
blen (Bildung, Schichtzugehörigkeit, Geschlecht etc.) und Handlungsvaria-
blen (Wahl eines Berufs, Heirat etc.).
x Qualitative Ergebnisse helfen, diese Zusammenhänge zu verstehen, indem
sie Informationen über Deutungsleistungen und Präferenzen der Akteure
liefern.
Das Komplementaritätsmodell der Methodenintegration, das von vielen Autoren
vertreten wird, scheint darüber hinaus den Vorteil zu bieten, dass auf dieser
Grundlage eine Art „Burgfrieden“ zwischen qualitativen und quantitativen For-
schern ausgerufen werden könnte, etwa in dem Sinne, dass sich qualitative und
quantitative Forscher um ihre jeweiligen Untersuchungsgebiete kümmern, und von
Zeit zu Zeit zusammenkommen, um ihre sich gegenseitig ergänzenden For-
schungsergebnisse zusammenzufügen. Ganz so einfach wird sich der Streit zwi-
schen qualitativen und quantitativen Methodikern jedoch nicht aus der Welt schaf-
fen lassen, denn in der Forschungspraxis kommen durchaus häufig solche Fälle
vor, in denen sich qualitative und quantitative Forschungsergebnisse weder ergän-
zen noch validieren, sondern sich einfach gegenseitig widersprechen.
Im Prinzip stehen zwei Möglichkeiten zur Verfügung, um mit derartigen In-
konsistenzen umzugehen:
62 Udo Kelle

1. Sie können als Methodenproblem interpretiert und behandelt werden, d. h.


die Forscher gehen davon aus, dass einer der Methodenstränge (oder beide!)
unzuverlässige Ergebnisse erbracht haben.
2. Die sich widersprechenden Ergebnisse können zu berechtigten Zweifeln an
den bisher zugrunde gelegten theoretischen Modellen führen.
Ein Versuch zur Lösung von Widersprüchen zwischen qualitativen und quantitati-
ven Forschungsergebnissen soll im Folgenden anhand eines weiteren Beispiels aus
der Lebenslaufforschung dargestellt werden, anhand einer Studie, die das Zusam-
menspiel zwischen Erwerbsverläufen und Familienbiographien von Frauen mit
Hilfe qualitativer und quantitativer Methoden untersucht hat (vgl. Krüger/Born
1991).
x In einer quantitativen Studie wurden die Lebensverläufe von Frauen aus
fünf Berufsgruppen untersucht. Multivariate Analysen des statistischen Da-
tenmaterials zeigten hierbei, dass der erlernte Erstberuf für diese Frauen ei-
ne Bedeutung für die Gestaltung der Erwerbsbiographie besaß, die unab-
hängig von familiären Ereignissen war.
x In der qualitativen Forschungsphase wurden Interviews mit einer Teilgrup-
pe des quantitativen Samples durchgeführt, um zu erkunden, wie die Be-
fragten die eigene Erwerbsbiographie subjektiv deuten und bewerten. Hier-
bei erklärten die Interviewpartnerinnen den Verlauf ihrer Berufsbiographie
primär mit Ereignissen oder Einflüssen aus dem familiären Bereich.

Die Ergebnisse der beiden Methodenstränge waren damit offensichtlich inkonsis-


tent. In einem ersten Schritt wurden nun verschiedene methodologische Hypothe-
sen geprüft, die dieses Ergebnis erklären könnten, es wurde m.a.W. versucht, Me-
thodenfehler ausfindig zu machen:
1. War die quantitative Stichprobe in irgendeiner Form verzerrt, d. h. nicht re-
präsentativ für die untersuchte Population von Frauen?
2. War das verwendete statistische Modell unzureichend?
3. Wurden die Aussagen der Interviewten in den qualitativen Leitfadeninter-
views einseitig ausgewählt und interpretiert?
Als keine dieser Fragen mit „ja“ beantwortet werden konnte, begannen die For-
scherinnen einige der bisher stillschweigend getroffenen theoretischen Annahmen
in Zweifel zu ziehen. Eine dieser Annahmen besagte, dass der strukturelle Einfluss
des geschlechtsspezifisch segmentierten Arbeitsmarktes von den Betroffenen in
seiner Bedeutung für die eigene Erwerbsbiographie erkannt wird und dann anhand
Integration qualitativer und quantitativer Methoden 63

qualitativer Interviews rekonstruiert werden kann. Diese bislang stillschweigend ge-


troffene Voraussetzung wurde nun einer Revision unterzogen und ein alternatives
theoretisches Konzept zur Erklärung der divergenten qualitativen und quantitati-
ven Ergebnisse entwickelt. Dieses Konzept beruhte auf einer Verbindung von Res-
sourcen- und Arbeitsmarkttheorie: Die Forscherinnen gingen davon aus, dass
Frauen, die eine Berufsausbildung mit guten Arbeitsmarktchancen absolviert ha-
ben, größere Machtressourcen in familiären Aushandlungsprozessen besitzen.
Hiermit stünden diesen Frauen auch bessere Bedingungen für die Gestaltung ihrer
Erwerbskarriere zur Verfügung im Vergleich zu Frauen mit ungünstigeren Ar-
beitsmarktchancen, ohne dass dieser Unterschied von den Akteurinnen immer be-
wusst reflektiert würde. Mit diesem theoretischen Ansatz konnten sowohl der sta-
tistisch bedeutsame Einfluss des Erstberufs auf die Erwerbsbiographie als auch die
subjektiven Relevanzsetzungen der Befragten erklärt werden. Im Lichte neuer the-
oretischer Vorannahmen wurden die zuvor divergenten Ergebnisse zu komplemen-
tären Aussagen.
Inkonsistenzen zwischen den Ergebnissen des qualitativen und quantitativen
Methodenstrangs einer empirischen Studie können also nicht nur Zweifel an der
Validität des methodischen Vorgehens wecken. Ebenso können sie Anlass dazu
geben, zentrale theoretische Konzepte und Forschungsannahmen kritisch zu hin-
terfragen, um sie dann zu modifizieren oder auch ganz aufzugeben.

5 Abschließende Bemerkungen
Das Verhältnis zwischen qualitativen und quantitativen Forschungsergebnissen
kann nicht aufgrund eines einzelnen methodologischen Modells festgelegt werden.
Weder kann davon ausgegangen werden, dass Ergebnisse qualitativer und quantita-
tiver Methoden grundsätzlich übereinstimmen und deswegen zur gegenseitigen Va-
lidierung verwendet werden können, noch davon, dass sich qualitative und quanti-
tative Ergebnisse unter jeweils verschiedenen Bedingungen stets zu einem stimmi-
gen (oder auch „kaleidoskopartigen“, s.o.) Gesamtbild verbinden lassen.
Werden in einem Untersuchungsdesign qualitative und quantitative Verfahren par-
allel eingesetzt, so sind vielmehr grundsätzlich drei Ausgänge möglich:
1. qualitative und quantitative Forschungsergebnisse können übereinstimmen,
2. qualitative und quantitative Forschungsergebnisse können sich komplemen-
tär zueinander verhalten, d. h. sich gegenseitig ergänzen,
64 Udo Kelle

3. qualitative und quantitative Forschungsergebnisse können divergent sein,


d. h. sich gegenseitig widersprechen.
Ein einheitliches Konzept der Methodenintegration, welches qualitativen und
quantitativen Forschungsergebnissen einen bestimmten forschungslogischen oder
theoretischen Status a priori zuweist, lässt sich kaum formulieren.
Der grundlegende Mangel der in der Literatur diskutierten Modelle besteht dar-
in, dass versucht wurde, allgemeine methodologische Regeln zur Methodenintegra-
tion zu formulieren, ohne zu berücksichtigen, dass der jeweilige theoretische Kon-
text des entsprechenden Forschungsprojekts entscheidend ist für die Bewertung
bestimmter Ergebnisse. Die Konstruktion und Anwendung eines multi-
methodischen Designs, bei dem qualitative und quantitative Verfahren parallel ein-
gesetzt und ihre Ergebnisse aufeinander bezogen werden, verlangt aber, dass die
Wahl der methodischen Instrumente in Beziehung gesetzt wird zu theoretischen
Annahmen über die Natur des untersuchten Gegenstandsbereichs.
Das zentrale Ziel eines multimethodischen Designs muss in der theoretischen
Konvergenz qualitativer und quantitativer Forschungsergebnisse bestehen, d. h. der
Integration der Forschungsergebnisse in einen einheitlichen theoretischen Bezugs-
rahmen. Hierzu kann es manchmal notwendig sein, dass qualitative und quantitati-
ve Forschungsergebnisse übereinstimmen, in manchen Fällen wird es sinnvoll sein,
komplementäre Forschungsergebnisse anzustreben. Aber auch divergierende Re-
sultate werden (soweit sie nicht auf Methodenfehler zurückgeführt werden müssen)
in vielen Fällen hilfreich sein, indem sie die Schwachstellen der verwendeten theo-
retischen Ansätze verdeutlichen.
Eines lässt sich jedoch in jedem Fall festhalten: Eine Integration qualitativer
und quantitativer Verfahren wird in vielen Fällen zu valideren Forschungsresultaten
führen. Deshalb ist das fortbestehende Schisma zwischen qualitativer und quantita-
tiver Methodenlehre ein Ärgernis, weil hierdurch der methodologische Fortschritt
der empirischen Sozialforschung und letztendlich auch der theoretische Fortschritt
der Sozialwissenschaften blockiert wird.
II

Beispiele aus der Forschungspraxis


Der Forschungsprozess am Beispiel einer qualitativen
Studie zur bikulturellen Sozialisation

Hildegard Wenzler-Cremer

Zusammenfassung
Wer Daten qualitativ erhebt, stellt in der Regel die Sichtweise und das Erleben der Untersuchungspart-
ner in den Mittelpunkt. Er und sie verzichtet auf eine Strukturierung des Untersuchungsgegenstandes in
Form von Hypothesen, die zu Beginn auf der Grundlage von Theorien formuliert werden. Die Folge ist
eine Fülle von Daten unterschiedlicher Qualität und Dichte, die dann verarbeitet werden müssen. In
diesem Artikel wird der Forschungsprozess einer Untersuchung zur bikulturellen Sozialisation und
Identitätskonstruktion von jungen Frauen aus deutsch-indonesischen Familien rekonstruiert und dabei
schwerpunktmäßig auf die Codierung eingegangen.

1 Die Fragestellung im Forschungsprojekt „Bikulturelle


Sozialisation von deutsch-indonesischen jungen Frauen“
In Deutschland haben 30% der Kinder einen Migrationshintergrund und 16% der
Eheschließungen sind binational. Eine bikulturelle Sozialisation erleben Menschen
x in Familien in denen beide Eltern aus derselben Kultur kommen und jetzt
in einer anderen Kultur leben. Für sie gelten in der Regel innerhalb der Fa-
milie andere Normen und Werte als im gesellschaftlichen Umfeld (Migran-
tenfamilien),
x und solche Familien, in denen die beiden Elternteile aus unterschiedlichen
Kulturen kommen. Für sie verläuft eine unsichtbare Trennungslinie inner-
halb der Familie (bikulturelle Familie).
Im Zentrum dieser Studie stehen junge Frauen, die in deutsch-indonesischen Fami-
lien und damit in einer binationalen Familie mit bedeutsamen kulturellen Unter-
schieden aufgewachsen sind. Die Ausgangsfragestellung ist: Wie erleben junge
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 67

Menschen in Familien, in denen die Eltern aus zwei sehr unterschiedlichen Kultu-
ren kommen, ihre Sozialisation?

2 Datenerhebung
Ich habe 27 themenzentrierte Interviews mit zwei Gruppen von jungen Erwachse-
nen durchgeführt und im Verlauf des Forschungsprozesses eine Eingrenzung nach
Geschlecht und Alter vorgenommen (weiblich, 16-26 Jahre alt). Da anzunehmen
ist, dass die Variablen Alter und Geschlecht für das Erleben der Bikulturalität be-
deutsam sind und einer gesonderten Untersuchung bedürfen, habe ich diese Be-
grenzung vorgenommen. Zudem habe ich zwei Gruppen gebildet hinsichtlich des
Aufenthaltsortes der Familie und der Nationalität der Mutter, so dass die Bedin-
gung „die Mutter lebt in der Migrationssituation, also in der Fremde“ konstant war.

Mutter Indonesierin
die „deutsche“ Gruppe
Familie lebt in Deutschland

Mutter Deutsche
die „indonesische“ Gruppe
Familie lebt in Indonesien

Das selektive Sampling, d. h. die exakte Festlegung von zwei Gruppen nach dem
Kriterium „Mutter in der Fremde“, basierte auf der Annahme, dass die Mütter und
die Umgebungskultur unterschiedliche Einflüsse im Verlauf der Sozialisation dar-
stellen. Allerdings wurde die Erwartung, die beiden Gruppen unterschieden sich
hinsichtlich ihres Erlebens der bikulturellen Situation gravierend, nur teilweise be-
stätigt.
Neben den Interviews hatte ich als weiteres Datenmaterial Interviewprotokolle,
Feldbeobachtungen, Gespräche mit Müttern und Vätern aus bikulturellen Familien,
damit habe ich auch Elemente ethnografischer Feldforschung miteinbezogen.
Die Interviews wurden als Audiodateien in den Computer überspielt und konn-
ten so leichter transkribiert werden, da gleichzeitig die Transkriptions-Word-Datei
und die Audio-Winamp-Datei geöffnet und über die F-Tasten gesteuert werden
konnte (Cremer/Kruse/Wenzler-Cremer 2006). Zudem waren die Interviews wäh-
rend des gesamten Auswertungsprozesses zugänglich und konnten jederzeit abge-
68 Hildegard Wenzler-Cremer

hört werden, so dass Tonfall und andere parasprachliche Eigenheiten auch später
noch herangezogen werden konnten. Die Interviews wurden nach vereinfachten
GAT-Regeln (Selting 1998) transkribiert, da eine differenziertere Transkription für
diese Untersuchung nicht erkenntnissteigernd gewesen wäre.

3 Datenauswertung: Vom Ausschnitt zur Struktur


Meine ursprüngliche Idee narrative Interviews durchzuführen, um die Sinngebung
und Relevanzsetzung ausschließlich den Interviewpartnerinnen zu überlassen,
musste ich modifizieren. Es zeigte sich, dass den Interviewpartnerinnen, besonders
denen, die in Indonesien aufgewachsen sind, das autobiografische Erzählen schwer
fiel. Eine der möglichen Erklärungen ist, dass es in der indonesischen Kultur
normwidrig ist, die eigene Person zu stark in den Mittelpunkt zu stellen, und das
Erzählen über sich selbst wie auch eine intensive Selbstreflexion wenig gebräuch-
lich sind und im Rahmen der schulischen und familiären Sozialisation kaum einge-
übt werden. Deshalb habe ich den Interviewstil der Situation angepasst und das In-
terview stärker themenzentriert geführt. Der Interviewleitfaden, der für den Nach-
frageteil gedacht war, bekam dadurch eine größere Bedeutung als ursprünglich be-
absichtigt, so dass die Themen des Interviews häufig durch meine Fragen initiiert
wurden und weniger durch den Erzählfluss der Interviewpartnerinnen. Das hatte
für die Auswertung zur Folge, dass ein streng sequenzielles Verfahren wie die Text-
analyse (Lucius-Hoene/Deppermann 2002: 109 ff.) nur partiell möglich war, da
längere narrative Sequenzen nur selten vorkamen. Die Gespräche sind eher als
Frage-Antwort-Dialoge zu charakterisieren, denn als eine Gesamterzählung, die
ausschließlich von der Interviewpartnerin gestaltet wird.
Die Auswertung verlief in einem spiralförmigen Prozess des Wechsels von der
detaillierten Analyse einzelner Interviews bzw. Interviewausschnitte, dem „unter
die Lupe nehmen“ hin zu einer generalisierenden und abstrahierenden Betrachtung
des Ganzen aus der Distanz, bei der alle Interviews, die Fragestellung und theoreti-
sches Vorwissen mitbeinbezogen wurden. Dabei stellte die Grounded Theory und
ihre Forderung nach permanentem Vergleich das Rahmenkonzept. Tiefenschärfe
wurde gewonnen durch die textanalytische Bearbeitung ausgewählter Textstellen
(Lucius-Hoene/Deppermann 2002).
In Anlehnung an das MAXQDA-Programm wird für die Benennung von Ka-
tegorien im ersten Durchlauf der Begriff „Code“ verwendet. Ausgehend von den
Daten wurde durch Abstrahierungen und Ausdifferenzierungen sowie aufgrund
theoretischer Sensibilität ein Codebaum bzw. Codesystem entwickelt und Schlüs-
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 69

selkategorien formuliert. In der Terminologie von Strauss und Corbin (1996) wird
dieser Vorgang als axiales Codieren bezeichnet und von Achsenkategorien gespro-
chen. Ich ziehe den Terminus Schlüsselkategorien vor und verstehe darunter die
Kategorien, die auf einem Abstraktionsniveau unterhalb der Suchheuristik (siehe
unten) angesiedelt sind und diese strukturieren. Die folgende Abbildung stellt die
verschiedenen Schritte des Forschungsprozesses in der Form einer Spirale dar.
Besonders eingehen möchte ich in diesem Beitrag auf folgende Auswertungs-
schritte: (a) das Codieren unterstützt durch das MAXQDA-Programm, (b) die Ent-
wicklung der Suchheuristik und (c) die Typenbildung.

1. Sichtung der Inter- 3. Verdichtung des Codebaums, 5. Typenbildung anhand von Ver-
views; Zusammenfas- der Memos sowie von sechs Ein- gleichsdimensionen, die in den vorigen
sung; Mottofindung; In- zelfallanalysen zu einer Suchheu- Schritten erarbeitet wurden. Reduktion
ventarisierung der Haupt- ristik mit drei Säulen auf zwei Hauptdimensionen:
themen, ersten Ideen und x Darstellung der Welten x Zugehörigkeitsgefühl zu einer Kultur
Fragen x Strategien x Nutzung der Ressource Bikulturalität
x Identitätskonstruktion

2. Codieren und Entwicklung eines 4. Durcharbeitung aller Interviews und Diffe-


datenbegründeten Codebaums (MAX- renzierung der Suchheuristik anhand von
qda); Memos schreiben; Bearbeitung textanalytisch ausgewerteten Interviewpas-
des Materials in Auswertungsgruppen, sagen. Vergleich der Interviews auf der Basis
Erarbeitung von Feinanalysen einzel- von textanalytisch ausgewerteten Ausschnit-
ner Textstellen ten und der Codes

Abb. 1: Die Auswertungsspirale (5 Schritte)

Das Gütekriterium der Reliabilität muss in der Qualitativen Sozialforschung trans-


formiert werden in das Kriterium der intersubjektiven Nachvollziehbarkeit, da un-
veränderte Messungen grundsätzlich nicht möglich sind. Die Überprüfbarkeit wur-
de gewährleistet durch eine ausführliche Darlegung und reflexive Dokumentation
der einzelnen Kategorien. Diese wurden expliziert an Hand von Textbeispielen
(202 Belegstellen) aus den Interviews verbunden mit teilweise ausführlichen Fein-
analysen. Zudem wurde die Subjektivität der Forscherin, d. h. ihre Standortgebun-
denheit und ihre Präkonzepte in einem eigenen Kapitel reflektiert. Um die Validität
70 Hildegard Wenzler-Cremer

der Ergebnisse zu gewährleisten, wurden die Feinanalysen und das Codieren in


mehreren Kleingruppen1 vorgenommen.

Das Codieren (Schritt 2)

Das Codieren ist ein zentraler Schritt innerhalb der Datenanalyse. Phänomene, die
sich im Text zeigen, werden identifiziert, benannt und dimensionalisiert. Ziel dieses
Prozesses ist es, zu einer Abstraktion zu kommen, um dann Beziehungen zwischen
den Kategorien zu entdecken und herauszuarbeiten. Die Codes wurden entwickelt:
x Aus dem Datenmaterial heraus, indem Fragen an den Text gestellt und
Textstellen miteinander verglichen wurden. Codes2: Vermitteln zwischen den
Kulturen; Wissen über die andere Kultur; Botschafterin für die mütterliche Kultur. Diese
Codes wurden zusammengefasst unter der Schlüsselkategorie: Bikulturelle Kompetenz.
x Als In-Vivo-Codes, d. h. prägnante Begriffe, die die Interviewpartnerinnen
selbst für bestimmte Phänomene verwenden, werden zu Codes: z. B. ‚aus der
Reihe tanzen’, ein Code, der später subsumiert wurde unter die Schlüsselkate-
gorie Distinguierungsstrategie.
x Aufgrund von theoretischem Vorwissen, das bestimmte Konzepte, die für
diese Fragestellung relevant sind nahe legte. Beispiel: Das Konzept der Kon-
trollüberzeugung und Agency wurde aufgegriffen in der Kategorie Handlungsin-
itiative und Selbstständigkeit und schließlich unter die Säule Identitätskonstruktion
der Suchheuristik subsumiert.
Es gibt keine Verfahrensbeschreibung, viele Codes entstehen durch Intuition und
Abduktion. Anfangs war ich noch ängstlich und zögerlich, blieb nahe am Text und
vergab überwiegend beschreibende Codes, um Fakten zu codieren oder auch um
im Sinne eines Wegweisers bestimmte Textstellen leicht wieder aufzufinden. Erst
allmählich kamen inhaltlich stärker ausdifferenzierte und analysierende Codes hin-

1 Zum einen war ich Mitglied der Online-Offline-Gruppe „Qualitative Sozialforschung“, die im Jahr
2000 von Frau Katja Mruck vom Psychologischen Institut der FU Berlin initiiert wurde. In dieser
Gruppe haben wir in regelmäßigen Chats sowie jährlichen Offline-Treffen Interviewausschnitte co-
diert und zahlreiche methodologische und forschungspraktische Fragen diskutiert. Zum anderen be-
suchte ich regelmäßig das Textanalyseseminar von Frau Prof. Dr. Lucius-Hoene am Psychologi-
schen Institut der Universität Freiburg. Dort wurden Interviewausschnitte textanalytisch interpre-
tiert. Außerdem hatte ich regelmäßige Treffen mit drei anderen Doktorandinnen und einem Kolle-
gen, um das Datenmaterial auszuwerten.
2 Die im Folgenden kursiv gedruckten Begriffe beziehen sich auf Beispiele für Codes und Kategorien
aus der Untersuchung.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 71

zu, die bestimmte Konzepte beinhalten. Beispiel: Die Mutter-Tochter-Beziehung zu


codieren, wann immer sie erwähnt wurde, war leicht, da eindeutig. Dabei habe ich
zu Beginn keinerlei Differenzierung vorgenommen. Erst im Vergleich der ver-
schiedenen Textstellen (Codings) habe ich folgende Formen der Beziehungsgestal-
tung zwischen Mutter und Tochter herausgearbeitet: (a) Unterstützen: Die Mutter
unterstützt die Tochter, damit diese mit ihrer besonderen Situation besser zurecht
kommt; (b) Solidarisieren: die Tochter solidarisiert sich mit der Mutter in einer Kul-
tur, in der die Tochter besser integriert ist als die Mutter; (c) Kritisieren: die Tochter
bemängelt, dass sich die Mutter nicht genügend anpasst; (d) Sich abgrenzen: Die
Tochter nutzt die kulturelle Differenz, um sich von der Mutter abzugrenzen.
Als Beispiel für eine konzeptuelle Codierung ist die Normalisierungsstrategie zur
Gestaltung der bikulturellen Situation zu nennen: Viele der Interviewpartnerinnen
haben betont, dass diese spezielle Situation für sie kein Problem darstellt. Diese
Textstellen habe ich zunächst mit dem Code „Betonung der Normalität“ versehen. Es
zeigt sich dann aber, dass diese Normalisierungsstrategie ganz verschieden ausse-
hen konnte. So wurde von Interviewpartnerinnen der deutschen Gruppe die eigene
Biografie bspw. als typisch deutsche Normalbiografie dargestellt, wenn die Inter-
viewpartnerin daraufhin weist, dass sie „alles mitgemacht habe“ und dadurch nicht
abgewichen sei vom normalen Weg. Eine andere Variante der Normalisierungsstra-
tegie ist es, wenn die Interviewpartnerin betont, dass sie nie einen Unterschied zu
den anderen empfunden habe. Durch die Ausdifferenzierung der Kategorien und
belegt durch feinanalytisch ausgewertete Textstellen habe ich schließlich die Strate-
gie der Normalisierung herausgearbeitet.

4 Unterstützung bei der Codierung und der


Datenauswertung durch MAXQDA
Ein großer Vorteil von MAXQDA ist, dass das Programm es ermöglicht, alle Tex-
te übersichtlich in einer Datei zu speichern. Jedes transkribierte Interview wurde
anonymisiert und als rtf-Datei in das MAXQDA Programm eingebunden. Es wur-
den folgende Gruppen von Textsorten gebildet: (a) Interviewtexte zur Auswertung
(deutsch-indonesische Gruppe und indonesisch-deutsche Gruppe), (b) Interview-
protokolle, (c) Zusammenfassungen und Paraphrasierungen, (d) Interviewtexte, die
nur teilweise ausgewertet wurden (Interviews mit männlichen Interviewpartnern).
Jeder Text kann einzeln oder auch als Gruppe aktiviert werden und ist damit der
Codierung, dem Memoschreiben, aber auch der Suchfunktion zugänglich.
72 Hildegard Wenzler-Cremer

In der Phase des Offenen Codierens entstand beginnend mit einer Codierung
nahe am Text und unter Verwendung beschreibender Kategorien ein weit verästel-
ter Codebaum. Auf der Basis des permanenten Vergleichs wurde der Codebaum
immer wieder überprüft und verändert. „Schubladeninhalte“ (Zuordnungen von
Textstellen zu einem Code) wurden zusammengelegt oder auseinandersortiert; an-
dere „Schubladen“ (Codes) wurden herausgenommen, neu hinzugefügt oder die
Etiketten verändert. Mehrfach wurde Zwischenbilanz gezogen und der vorhandene
Codebaum in den Auswertungsgruppen diskutiert, um so die Beziehungen zwi-
schen den Codes zu rekonstruieren. MAXQDA ermöglichte ein neues Gruppieren
der Codes und gewährleistete die ständige Überprüfung an Textstellen oder dem
ganzen Text. Die Kernkategorien, die aus der Vielzahl von Kategorien entwickelt
wurden, konnten so durch den Vergleich der Codings immer weiter differenziert
werden.
MAXQDA erwies sich als große Unterstützung beim gesamten Datenmanage-
ment, da auf diese Weise alle Interviewtexte, alle sonstigen Texte, die Codings und
die Memos sofort zugänglich sind und auch getrennt abgerufen werden können.
Durch das Text-Retrieval ist es einfach, alle Segmente einer Kategorie zusammen-
zustellen und auf Kontrast oder Ähnlichkeit hin zu vergleichen. Die Memo-
Funktion erlaubt es, auch erste Einfälle und scheinbar verrückte Ideen und Zu-
sammenhänge an bestimmte Textstellen anzuheften, so dass sie später leicht wieder
gefunden werden können. Auch die Ergebnisse und Diskussionen in den Klein-
gruppen habe ich direkt nach der Sitzung in Form von Memos formuliert, so dass
sie an Ort und Stelle zur Verfügung standen. Als besonders wichtig erwiesen sich
die Memos zu einzelnen Codes, da auch dann, wenn bestimmte Codes länger nicht
genutzt wurden, deren Bedeutung wieder erschlossen werden konnte. Bei der Aus-
differenzierung der Suchheuristik (siehe unten) war die Suchfunktion über alle
Textsorten und die Memos ein wesentliches Werkzeug, da auch verloren Geglaub-
tes wieder gefunden werden kann. Außerdem können eventuell nicht oder falsch
codierte Textstellen, die mir als Forscherin vage im Sinn sind, leichter gefunden
und ausgewertet werden. Insgesamt hatte ich bei Abschluss der Arbeit, die Zahlen
änderten sich während der Arbeit ständig, 217 Codes, 2.915 Codings und 1.116
Memos.
Sicherlich habe ich nicht alle Möglichkeiten des Programms ausgeschöpft, be-
sonders bei der Verknüpfung von Memos und Codes hätte ich, aus heutiger Sicht,
systematischer vorgehen können und hätte dadurch Beziehungen zwischen den
Codes schneller wahrnehmen können. Die Weiterentwicklung des Programms
(MAXMaps), die mir allerdings noch nicht zur Verfügung stand, hätte es mir er-
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 73

leichtert, Verknüpfungen zwischen den Kategorien und den drei großen Säulen der
Suchheuristik zu visualisieren.
Es gab auch Versuchungen beim Codieren: (a) Die Anfechtung, die im Thema
liegt: Die polare Anordnung des Themas findet sich auch in manchen Kategorien
wieder, wie z. B. den Strategien, aber auch in der Typenbildung. Dies kann zur Ver-
suchung führen, auf jeden Fall nach einem Gegensatz Ausschau zu halten, diesen
eventuell zu konstruieren, obwohl die Daten dies gar nicht hergeben. (b) Eine An-
fechtung, die in MAXQDA liegt: Die hierarchische Anordnung des Codebaums
verleitet zur theoretischen Generierung von Codes, die nicht aus dem Text entwi-
ckelt werden, sondern in diesen hineingelesen werden. Der Wunsch nach Systema-
tisierung kann zur Benennung von Codes verleiten, um auf diese Weise ein ge-
schlossenes logisches System zu erhalten. (c) Eine Anfechtung, die im Datenmate-
rial liegt: Einen großen Raum nehmen in den Interviews Klischees und Stereotype
über die beiden Kulturen ein, und zwar in den verschiedensten Spielarten: als
Selbstbild, als Fremdbild, als vermutetes Fremdbild, als vermutetes Selbstbild. Das
schlägt sich in den ursprünglichen Fassungen des Codebaums stark nieder. Das
liegt einmal an der Themenstellung, aber es könnte auch sein, dass die Interview-
partnerinnen nach Vertrautem und nach Gemeinsamkeiten mit der Interviewerin
gesucht haben, indem sie die Klischees als geteiltes Wissen unterstellen (Präsuppo-
sitionen). An dieser Stelle war es notwendig, die Fragestellung im Auge zu behalten
und diesen Themenkreis nur als eine Facette im Rahmen der Suchheuristik „Dar-
stellung der Welten“ zu bearbeiten.

Die Entwicklung der Suchheuristik (Schritt 3)

Der Codebaum wurde immer umfangreicher und es wurde in dieser Phase deutlich,
dass eine Eingrenzung und Strukturierung dringend erforderlich war. Angesichts
der vielen verschiedenen Codes galt es den Überblick zu behalten und zu Ergeb-
nissen zu kommen. Ich folgte dem Vorschlag von Kluge/Kelle (1999). Sie empfeh-
len empirisch „gehaltlose“ Suchheuristiken zu verwenden, die erlauben, das Da-
tenmaterial durch eine bestimmte Linse zu betrachten. Es handelt sich dabei um
sensibilisierende theoretische Konzepte von einem solchen Allgemeinheits- und
Abstraktionsgrad, dass eine empirische Überprüfung ohne zusätzliche Annahmen
nicht möglich ist. Sie sind gerade deshalb ideal als Heuristiken bei der Hypothesen-
generierung einsetzbar, da sie als Strukturierungshilfe für das überbordende Da-
tenmaterial genutzt werden können. In ständiger Arbeit am Codebaum und der
Feinanalyse von Textstellen, aber auch durch die Beschäftigung mit methodologi-
74 Hildegard Wenzler-Cremer

schen Konzepten (Kodierparadigma von Strauss und Corbin) und psychologischen


Theorien habe ich eine meinem Datenmaterial angemessene Suchheuristik entwi-
ckelt. Diese besteht aus drei Säulen, die den Forschungsprozess ab diesem Zeit-
punkt leiteten und die gleichzeitig zu einer Begrenzung und genaueren Ausrichtung
der Fragestellung führten.
x Darstellung der Lebenswelten: Wie beschreiben die jungen Frauen ihre bikultu-
relle Situation? Wie sind die beiden Kulturen bei ihnen repräsentiert? Wie
stellen sie die deutsche und die indonesische Lebenswelt dar?
x Strategien zur Gestaltung der bikulturellen Situation: Welche Strategien verwenden
die jungen Frauen zur Gestaltung der bikulturellen Situation? Welche Res-
sourcen nutzen sie, welche Herausforderungen nehmen sie wahr und wie
bewältigen sie diese?
x Identitätskonstruktion: Welchen Einfluss hat die bikulturelle Situation auf die
Identitätsentwicklung der jungen Frauen? Wie lösen die jungen Frauen vor
diesem Hintergrund Aufgaben ihrer Identitätsarbeit wie Auseinanderset-
zung mit der Geschlechtsrolle, Umgestaltung familiärer Beziehungen?
Durch die Verwendung theoretischer Konzepte mit geringem empirischem Gehalt,
hatte ich als Forscherin ein flexibles Werkzeug an der Hand, um empirische Phä-
nomene zu beschreiben (Kelle 2005: 33). Dadurch wurde meine Aufmerksamkeit
bestimmten Phänomenen gegenüber stärker fokussiert, ohne dass den Daten ein
vorab definiertes Kategoriensystem übergestülpt wird. Die Suchheuristik ist so weit
gefasst, dass genügend Offenheit bleibt, um die vorhandenen Codes subsumieren
zu können.

Typenbildung (Schritt 5)

Eine Typologie ist der Versuch, Muster einer sozialen Realität zu identifizieren und
Sinnzusammenhänge sichtbar zu machen (Kluge/Kelle 1999).
Auf der Basis des Codebaums und der Feinanalysen und unter Einbeziehung
theoretischer Konzepte (z. B. Theorie der sozialen Identität (Mummendey/Otten
2002) wurden Vergleichsdimensionen formuliert, die sich auf zwei Hauptdimen-
sionen reduzieren lassen:
x das Gefühl der Zugehörigkeit zu einer Kultur,
x die Nutzung der Ressource Bikulturalität.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 75

Erst in der Zusammenschau der ausdifferenzierten Suchheuristik und den dafür er-
arbeiteten Feinanalysen konnten die Ergebnisse zu Typen verdichtet werden.
Hieraus ergab sich die folgende Typenbildung:

stark Die Verwurzelte… Die Sammlerin…


ist fest verankert in einer der beiden fühlt sich einer der beiden Kulturen
Kulturen und nutzt die andere als stärker verbunden und integriert die
schmückendes Beiwerk, das ihr Le- beiden Angebote zu einer kreoli-
Zugehörigkeit zu einer Kultur

ben bereichert. schen Identität.

Die Heimatlose… Die Pendlerin…


hat eine distanzierte Beziehung zu empfindet eine changierende Zuge-
beiden Kulturen und die Bikulturalität hörigkeit und wechselt ohne Schwie-
empfindet sie nicht als Ressource. rigkeiten zwischen den Kulturen.
Distanzierte Beziehung zu beiden Changierende Zugehörigkeit.
Kulturen.
gering
gering hoch
Nutzung der Ressource Bikulturalität

Abb. 2: Gebildete Typen

Die Verwurzelte lebt dauerhaft in der Kultur des Vaters:3 Sie ist gut integriert, hat
ein stabiles soziales Netz und sie zeichnet ein starkes Gefühl der Zugehörigkeit zur
Umgebungskultur aus. Sie kennt das Herkunftsland der Mutter wenig und be-
herrscht deren Sprache kaum. Häufig idealisiert sie die Kultur der Mutter. Sie ver-
wendet vorrangig die Strategie des Normalisierens und Distinguierens. Die Bi-
kulturalität spielt im Alltag eine geringe Rolle. Die Verwurzelte sieht die Gefahr,
dass die Kultur der Mutter als zweite Wurzel verloren geht.
Der Pendlerin stehen beide Kulturen als Optionen zur Verfügung. Sie kann sich
mühelos in beiden bewegen. Die Unterschiede sind ihr bewusst. Sie kann auch die
Außenperspektive einnehmen und kritische Distanz wahren. Die Kultur, die den
Alltag prägt, wird zum Hintergrund, vor dem die andere Kultur zur prägnanten Fi-
gur werden kann. Das führt zu einer changierenden Identität. Ihre vorrangige Stra-
tegie ist, sich anzupassen und umzuschalten. Sie zeigt eine hohe Flexibilität. Dies

3 Aufgrund der vorab vorgenommenen Gruppenbildung sind alle Interviewpartnerinnen in der Kultur
des Vaters aufgewachsen, aber die Verankerung in dieser ist unterschiedlich stark.
76 Hildegard Wenzler-Cremer

kann jedoch mit dem Gefühl fehlender Zugehörigkeit und Heimatlosigkeit bzw.
einer Sehnsucht nach der jeweils nicht präsenten Kultur einhergehen. Gefühle der
Ambivalenz sind ihr vertraut.
Die Sammlerin lebt überwiegend in der Kultur des Vaters. Es besteht eine gute
und enge Beziehung zur Mutter. Sie setzt sich mit der Kultur der Mutter intensiv
auseinander und kann beide Sprachen. Sie orientiert sich auch an den Werten und
Normen der mütterlichen Kultur. Sie entwickelt eine kreolische Identität, in der sie
Elemente beider Kulturen integriert und zu etwas Neuem mischt. Sie verwendet
alle Strategien.
Die Heimatlose ist ein weitgehend theoretisch generierter Typus. Auch wenn in
einer Reihe von Interviews Gefühle der Entwurzelung, Zerrissenheit und Heimat-
losigkeit berichtet werden, ist dies bei den meisten Interviewpartnerinnen nicht die
dominierende Erfahrung. Ein Grund für das weitgehende Fehlen dieses Typus ist
die Zuordnung der Interviewpartnerinnen zur „deutschen“ und „indonesischen“
Gruppe. Eine Mutter, für die die Lage in der Fremde unerträglich ist, wird das
Land bereits in der Kindheit der Interviewpartnerin verlassen, damit entfiele die
Voraussetzung für die Zuordnung zu einer der Untersuchungsgruppe. Die wenigen
Interviewpartnerinnen, die ich diesem Typus zugeordnet habe, sind in keiner der
beiden Kulturen verwurzelt und haben keine Möglichkeiten zum Pendeln oder zu
einer strategischen Wahl. Die Beziehung zum Vater ist schwierig oder sie mussten
häufig das Umfeld wechseln.

Kritische Anmerkungen zur Typenbildung

Der Wunsch nach Strukturierung und Systematisierung, der der Typenbildung zu-
grunde liegt, ist immer eine Vereinfachung der Realität. Folgende Gesichtspunkte
sollten deshalb im Blick behalten werden:
x Formuliert werden Idealtypen, aber die meisten Interviewpartnerinnen ent-
sprechen empirischen Mischtypen, da sie sich nur tendenziell einem Typus
zuordnen lassen und meist auch Elemente der anderen Typen enthalten.
x Die obige Typenbildung unterstellt bei den Dimensionen dichotome Merk-
malsausprägungen, was die Gefahr einer Polarisierung in sich birgt. Mögli-
che Zwischenstufen werden damit nicht zum Ausdruck gebracht.
x Typen sind Festschreibungen und Etikettierungen und lassen die Prozess-
haftigkeit des Geschehens außer Acht. Die Zuordnung zu einem Typus ist
eine Momentaufnahme.
Der Forschungsprozess am Beispiel einer qualitativen Studie zur bikulturellen Sozialisation 77

x Der Typus der Heimatlosen ist ein weitgehend theoretisch generierter Typ,
der sich im Datenmaterial allenfalls ansatzweise finden lässt.

5 Ausblick
Die Typenbildung ist eine Form, Ergebnisse zu strukturieren, zu reduzieren und
damit die Situation von bikulturellen Frauen prägnant zu beschreiben und zu ver-
stehen. Selbstverständlich ist der Forschungsprozess damit nicht abgeschlossen.
Vielmehr müssen jetzt die aus dem Datenmaterial zu entnehmenden Schutz- und
Risikofaktoren für die Gestaltung einer bikulturellen Situation weiter untersucht
werden. Eine weitere Möglichkeit läge darin, narrative Interviews mit anderen be-
troffen Gruppen (Variationen nach Alter, Geschlecht, Nation bzw. Kultur) zu füh-
ren. Es wäre auch denkbar, auf der Basis dieser Ergebnisse einen Fragebogen zu
entwickeln, um damit Menschen, die eine bikulturelle Sozialisation erfahren haben
zu befragen. Eine solche Datenerhebung könnte auch ausgeweitet werden auf die
Gruppe der Menschen mit Migrationshintergrund, die ebenfalls bikulturell soziali-
siert sind.
Die Zahl der Menschen, die mit zwei Kulturen aufwachsen, nimmt zu und da-
mit gewinnt das Thema der bikulturellen Sozialisation an Relevanz. Es ist wichtig
die speziellen Herausforderungen und Chancen, die in der bikulturellen Situation
liegen zu kennen, um die Chancen nutzen und eventuellen Schwierigkeiten begeg-
nen zu können.
Qualitative Evaluation – Versuch einer
Abkürzungsstrategie

Stefan Rädiker, Claus Stefer

Zusammenfassung
Quantitative Evaluation ist ein weit verbreitetes Verfahren zur Bewertung von universitären Lehrveran-
staltungen, während qualitative Evaluation in diesem Feld kaum zur Anwendung kommt. Offenbar exis-
tieren Vorbehalte, die sich nicht zuletzt auf den für eine qualitative Untersuchung vermuteten großen
Zeitaufwand und auf die weniger strukturierte und in ihren Instrumentarien weniger festgelegte Vorge-
hensweise. Das Projekt Qualitative Evaluation in 100 Stunden – Quick and Clean stellte den Versuch dar, im
Rahmen knapper zeitlicher Ressourcen (100 Stunden) eine methodisch saubere qualitative Evaluation
einer Lehrveranstaltung durchzuführen. Das gesamte Vorgehen wurde ausführlich dokumentiert und zu
einer Schritt-für-Schritt-Beschreibung verdichtet. Dieser Artikel erläutert primär das methodische Vor-
gehen im Projekt und stellt die computergestützte Vorgehensweise nachvollziehbar dar.

1 Hintergründe des Projekts


Evaluationen von Lehrveranstaltungen finden an deutschen Universitäten seit eini-
gen Jahren in großer Zahl statt, in der Regel mittels Fragebögen, deren Items un-
terschiedlichste Aspekte von Lehrveranstaltungen und Lernprozessen fokussieren.
An der Philipps-Universität Marburg wird diese Form der Evaluation als zentrale
Dienstleistung angeboten: Die Studierenden füllen gegen Ende einer Lehrveranstal-
tung einen zweiseitigen Fragebogen aus, auf dem sie zu unterschiedlichen The-
menbereichen Zustimmung oder Ablehnung äußern können. Das Ergebnis der
Evaluation wird den Lehrenden in Form von automatisch erzeugten statistischen
Kennziffern und Grafiken zugänglich gemacht. Auf diese Art erhalten Lehrende
einen Einblick in die Bewertungen von Studierenden ihrer Veranstaltung.
Eine solche quantitative Evaluation lässt jedoch eine Reihe von Fragen unbe-
antwortet, von denen uns zwei zentral erscheinen: Erstens ist fraglich, inwieweit
die mitunter sehr unterschiedlichen Veranstaltungen direkt miteinander verglichen
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 79

werden können. Lassen sich etwa Evaluationsergebnisse der Vorlesung „Recht der
internationalen Organisationen“ unmittelbar mit denen der Veranstaltung „Einfüh-
rung in die Filmanalyse“ vergleichen? Zweitens ist der Dozent hinsichtlich der In-
terpretation der Ergebnisse letztlich auf Vermutungen angewiesen. Weshalb wird
etwa das Tempo der Veranstaltung als zu hoch bewertet? Liegt es an nicht ausrei-
chenden Erläuterungen? Fehlen Grundlagen, die nicht Gegenstand der Veranstal-
tung sind? Oder ist das Interesse der Studierenden an der Thematik so gering, dass
die Motivation zu selbstständigem Lernen fehlt?
Diese unbeantworteten Fragen veranlassten uns dazu, eine computergestützte
qualitative Evaluation durchzuführen, die auch mit einem abgekürzten Verfahren
gute Resultate liefert. Bei dem Projekt Qualitative Evaluation in 100 Stunden – Quick
and Clean handelt es sich um das Experiment, durch eine vom Arbeitsaufwand her
überschaubare, methodisch saubere qualitative Evaluation einen inhaltlichen
Mehrwert in Ergänzung zur üblichen quantitativen Evaluation zu erarbeiten. Als
Evaluationsgegenstand wählten wir eine Lehrveranstaltung aus, die nicht nur auf
vorgegebenen Skalen bewertet, sondern für die eine fundierte Grundlage für eine Ver-
besserung geschaffen werden sollte. Wir erhofften uns ein besseres Verständnis für
die Antworten in ihrem jeweiligen Kontext, also z. B. etwas über Motivationen,
Lern- und Arbeitsstile oder persönliche Ambitionen zu erfahren. Darüber hinaus
sollten die Erfahrungen und Ergebnisse in einer Form festgehalten werden, die an-
deren Interessierten als Inspiration, aber auch Ermutigung zur Durchführung eige-
ner computergestützter qualitativer Evaluationen dienlich sein kann.
Zentrale Rahmenbedingung für das Projekt stellte die Begrenzung der Projekt-
dauer auf 100 Arbeitsstunden für alle Mitarbeiter des Projektteams dar. Innerhalb
des Projektteams, das aus den zwei Autoren sowie zwei weiteren Wissenschaftlern
und drei studentischen Mitarbeitern bestand, wurden die zu erledigenden Arbeiten
nach inhaltlichen Gesichtspunkten aufgeteilt.

2 Sieben Schritte der qualitativen Evaluation


Die Durchführung unseres Evaluationsprojektes lässt sich in sieben einzelne, auf-
einander aufbauende Schritte unterteilen, die jeweils eine zentrale Phase des Eva-
luationsprozesses repräsentieren. Im Folgenden wird beschrieben, wie wir im Pro-
80 Stefan Rädiker, Claus Stefer

jektteam in den einzelnen Phasen, vorgegangen sind und welche Rolle die compu-
terunterstützte Auswertung in diesem Prozess hatte.1

Schritt 1: Evaluationsgegenstand und Evaluationsziele festlegen

Als Gegenstand unserer Evaluation wählten wir die Vorlesung „Einführung in die
sozialwissenschaftliche Statistik“, die am Institut für Erziehungswissenschaft der
Philipps-Universität Marburg in jedem Wintersemester angeboten wird und auf die
Vermittlung grundlegender Kenntnisse der sozialwissenschaftlichen Statistik ab-
zielt. Zum Kanon dieser im Grundstudium verpflichtenden Veranstaltung gehören
neben der eigentlichen Vorlesung eine ergänzende Übung, in der Aufgaben selbst-
ständig bearbeitet werden, sowie durch studentische Hilfskräfte betreute Tutorien.
Um einen zum Abschluss des Grundstudiums erforderlichen Leistungsnachweis zu
erwerben, muss am Ende des Semesters eine Klausur bestanden werden.
Unser Evaluationsvorhaben enthielt Elemente summativer und formativer Eva-
luation: Hinsichtlich der untersuchten Lehrveranstaltung im Wintersemester
2005/06 handelt es sich um eine summative Evaluation, welche am Ende der Ver-
anstaltung durchgeführt wird und ein zusammenfassendes Bild zeichnet. Betrachtet
man die evaluierte Veranstaltung hingegen als jährlich wiederkehrendes Pro-
gramm2, das durch die Evaluation verbessert werden soll, so handelt es sich um ei-
ne formative Evaluation.
Nach der Bestimmung des Evaluationsgegenstandes galt es festzulegen, was
durch die Evaluation erreicht werden soll, welchen roten Faden die computerge-
stützte Auswertung und Analyse verfolgen sollte, wozu Beschreibung und Bewer-
tung letztlich beitragen und welche Fragen sie beantworten sollten. In unserer
Arbeitsgruppe haben wir die drei nachfolgenden Evaluationsziele erarbeitet, die auf
unterschiedlichen Ebenen angesiedelt sind:
1. Lernerebene: Beantwortung konkreter Fragen, die sich auf die evaluierte
Lehrveranstaltung aus Lernersicht und das individuelle Lernverhalten der
Studierenden beziehen, etwa zu Eingangsvoraussetzungen, zum Teilnahme-
verlauf, zum betriebenen Lernaufwand oder zu Klausurerwartungen.

1 Die Zeitplanung, welche diesen Schritten zugrunde liegt, sowie eine Checkliste, die bei der Durch-
führung eigener qualitativer Evaluationen unterstützt, sind in Kuckartz et al. (2007) enthalten.
2 Vgl. zum Begriff „Programm“: Glossar wirkungsorientierte Evaluation, Univation-Institut für Eva-
luation Dr. Beywl & Associates GmbH, Köln 2004, www.univation.org/glossar
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 81

2. Veranstaltungsebene: Optimierung der Lehrveranstaltung für zukünftige


Semester, d. h. Steigerung der Qualität durch Sammlung und Systematisie-
rung der Kritik und einer Überprüfung auf Realisierbarkeit.
3. Methodenebene: Verbesserung der Evaluation, d. h. Ermittlung von Vor-
und Nachteilen qualitativer Evaluation und Erweiterung der bisherigen
Evaluation.3

Schritt 2: Interviewleitfaden und Kurzfragebogen entwickeln

Als Datenerhebungsmethode entschieden wir uns ausgehend von den festgelegten


Zielen für die Durchführung von face-to-face Interviews. Anstatt weniger ausführ-
licher Interviews, mit deren Hilfe sich eher die Tiefe einzelner Fälle erkunden ließe,
favorisierten wir mehrere kürzere Interviews, um in der Tendenz die Breite der
Einstellungen der Befragten zu erfassen. Wir befragten zehn Studierende, was ei-
nem Anteil von etwas mehr als 5% der Veranstaltungsteilnehmenden entsprach.
Aus der insgesamt für die Evaluation zur Verfügung stehenden Zeit und der An-
zahl von zehn zu führenden Interviews ergab sich – unter Berücksichtigung der für
die Analyse der Daten erforderlichen Zeit – eine angestrebte Dauer von ca. zehn
Minuten pro Interview.
Für die Durchführung der Interviews entwickelten wir einen Leitfaden, der sich
in vier Teile gliederte, welche die zentralen Bereiche unseres Erkenntnisinteresses
widerspiegelten und den ersten beiden Evaluationszielen zuzuordnen sind.4
Zusätzlich zum Interviewleitfaden entwickelten wir einen standardisierten
Kurzfragebogen. Solch ein ergänzender Fragebogen eignet sich besonders zur
schnellen Erfassung von Daten, deren Umsetzung als offene Frage keinen Mehr-
wert für die Ziele der Untersuchung bringen würde. So integrierten wir in diesen
Fragebogen etwa eine Frage nach der Mathematiknote im Abitur oder die Auffor-
derung zur Bewertung der Statistikveranstaltungen anhand einer Notenskala.
Der standardisierte Kurzfragebogen umfasste schließlich acht Fragen zu Alter,
Studiengang, Fachsemester, Teilnahmeverlauf und Abiturnote in Mathematik auf
einer DIN A4-Seite. Die Interviewpartner füllten den Bogen vor der Durchfüh-

3 Dieser dritte Punkt geht über die klassische Zieldefinition von Evaluation hinaus und ist der Metho-
denforschung zuzuordnen. Durch ihn erhält die Studie einen Doppelcharakter, der bei Evaluationen
in der Praxis üblicherweise nicht anzutreffen ist.
4 Bzgl. des zweiten Evaluationsziels, der Optimierung der Lehrveranstaltung, ist anzumerken, dass
sich Erkenntnisse hierzu auch direkt aus den Interviewteilen ergeben, die dem ersten Evaluationsziel
zuzuordnen sind.
82 Stefan Rädiker, Claus Stefer

rung des eigentlichen Interviews aus, sodass dieser auch einer inhaltlichen Vorbe-
reitung der Befragten auf die Themen des anstehenden Interviews diente und zu
einer ersten Reflexion des Themenkomplexes anregte.

Frage Präzisierungshinweise
1. Teilnahmeverlauf und Lernformen
Bitte beschreiben Sie, wie eine typische Statistik- z. B. Vorlesung, Übung, Tutorium, Arbeitsgruppen
woche bei Ihnen aussieht.
Was besuchen Sie dafür?
Was lesen Sie dafür?
Wen treffen Sie dafür?
2.Persönliche Gefühle und Einstellungen gegenüber der sozialwissenschaftlichen Statistik
Wie fühlen Sie sich dabei? Positive oder negative Einstellung gegenüber Sta-
Hat sich das im Laufe des Semesters verändert tistik, Angst vor dem Thema, zu viel Stoff
und wenn ja, wie?
3. Subjektive Bewertung der Veranstaltungen und Verbesserungsvorschläge
Wie beurteilen Sie rückwirkend die Veranstaltun- Alle Veranstaltungen abfragen: Vorlesung, Übung
gen? und das Tutorium.
Welche Verbesserungswünsche oder Anregungen Bitte nur umsetzbare und realisierbare Wünsche.
haben Sie?
4. Abschließende Klausur
Beschreiben Sie bitte, wie Sie sich auf die Klausur Mit der Gruppe oder alleine, Probeklausur, Litera-
vorbereitet haben. tur, Geschwister usw.
Welche Note erwarten Sie in der Klausur?

Abb. 1: Interviewleitfaden

Schritt 3: Interviews durchführen, aufnehmen und transkribieren

Die Befragung führten wir eine Woche vor der semesterabschließenden Klausur
durch. Für jedes Interview waren incl. Begrüßung, Aufklärung der Befragten über
die Studie und ihre Ziele, Ausfüllen des Kurzfragebogens vor dem eigentlichen In-
terview max. 15 Minuten veranschlagt.
Die Aufzeichnung der Interviews wurde nach dem Ausfüllen des Fragebogens
begonnen und erfolgte mit Hilfe digitaler Diktiergeräte5. Die Transkription wurde

5 Informationen über den Einsatz digitaler Aufnahmegeräte in Wissenschaft und Forschung finden
sich unter www.audiotranskription.de.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 83

von den Interviewern selbst nach vorher festgelegten, einfachen Regeln durchge-
führt. Wir einigten uns beispielsweise darauf
x Sprache und Interpunktion zu glätten, d. h. an das Schriftdeutsch anzunä-
hern,
x Angaben, die Rückschlüsse auf eine bestimmte Person ermöglichten, nach
vereinbarten Regeln zu anonymisieren,
x Interviewer und Befragte durch I und B zu kennzeichnen sowie
x Sprecherwechsel durch eine Leerzeile (zweimaliges Drücken der Enter-
Taste) hervorzuheben.
Ein Auszug aus einem von uns erzeugten Transkript hat folgendes Erscheinungs-
bild:

B7: Ich habe, also ich habe so eine Lerngruppe mit meinem Freund. Das heißt, ich erkläre ihm alles zwei-
mal und dann sitzt es bei mir auch. Und dann noch, ja, habe ich mich noch mal mit, mit einem aus meiner
Arbeitsgruppe da von Statistikgruppe getroffen.
I: Und wie, wie fühlst du dich dabei? Also, hast du positive oder negative Einstellungen gegenüber der Sta-
tistik oder (...)
B7: Ich mag das ganz gerne. Hätte ich am Anfang auch nicht gedacht, aber ich mochte auch Mathe, und
deshalb finde ich das ganz okay.
I: Und hat sich das im Laufe des Semesters verändert? (B7: Ja!) Und wenn ja, wie? (B7, 8-11)

Abb. 2: Beispiel für ein Transkript

Die Zeit für die Transkription variiert in der Regel zwischen dem Vier- bis Achtfa-
chen der eigentlichen Interviewlänge, in unserem Fall lag sie bei etwa 1:6. Für die
schnelle und einfache Transkription der Audiodateien empfiehlt sich ebenso wie
für die spätere Auswertung der Daten eine geeignete Software. Als ideal für diesen
Arbeitsschritt haben sich unserer Erfahrung nach die Programme f4 (PC) oder Ex-
press Scribe (Mac) herausgestellt. Im Programm f4 konnten wir die Wiedergabe
entweder per Maus, Tastenkombination oder mit einem Fußschalter steuern und
direkt in das vorhandene Textfenster schreiben. Nach der Fertigstellung des Tran-
skriptes haben wir jedes Interview als RTF-Datei gespeichert, und zwar mit seinem
jeweiligen Kennnamen (z. B. B1, B2 usw.) als Dateibezeichnung.
Die Transkripte wurden anschließend in MAXQDA importiert. Zu jedem Text
wurde ein Memo verfasst, in dem der Interviewer und relevante Kontextinforma-
tionen festgehalten wurden. Schließlich wurden die Daten des Kurzfragebogens
(Alter, Geschlecht, letzte Mathenote etc.) als Variablen in MAXQDA eingegeben,
wodurch sie uns für die Analyse direkt zur Verfügung standen.
84 Stefan Rädiker, Claus Stefer

Schritt 4: Daten erkunden und fallweise darstellen

Den Einstieg in die eigentliche Arbeit am Material bildete die Erkundung der
Daten. Durch das Lesen der Transkripte – direkt am Monitor in MAXQDA oder
auf Papier – verschafften wir uns einen Überblick über die Interviews. Auf Grund-
lage dieser persönlichen fallweisen Erkundung erstellten wir für jeden Fall ein so
genanntes Case Summary, in dem die wesentlichen Merkmale eines Interviews in
Stichpunkten zusammengefasst und das mit einem plakativen, die befragte Person
charakterisierenden Kurztitel versehen war:

B1: Die positiv Eingestellte ohne Ambitionen


- Empfindet das Tutorium nur ab der Mitte des Semesters interessant.
- Die Übungen und das Tutorium sind am besten, aber am Schluss zu voll.
- Das Tutorium als Ersatz für die eigene Vor- und Nachbereitung.
- Empfindet die Grundstruktur der Vorlesung gut. Daraus resultiert ein guter Lerneffekt.
- Sie hat keine eigene Arbeitsgruppe (eher mit Freundin).
- Wunsch nach kleinerer Arbeitsgruppe.
- Hat nichts zusätzlich gelesen, findet aber selbst gemachte Notizen gut.
- Die Probeklausur war gut und Bestehen genügt ihr.

Abb. 3: Case Summary

Zu dieser fallweisen Auswertung zogen wir auch die Daten der standardisierten
Kurzfragebögen heran, verglichen und kontrastierten Probanden miteinander, um
Ähnlichkeiten oder Unterschiede herauszustellen, und suchten nach Adjektiven,
mit deren Hilfe die Befragten beschrieben und Gefühlslagen interpretiert wurden
(„Ich denke, B3 fühlt sich überfordert.“). Am Ende dieser Phase hatten alle
Teammitglieder plastische, durch die Diskussion rückversicherte Bilder der Inter-
views im Kopf, die wir als Memos direkt in MAXQDA zu jedem Interview spei-
cherten, um bei der späteren Auswertung unmittelbar darauf zurückgreifen zu kön-
nen.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 85

Abb. 4: Case Summary als Memo in MAXQDA

Schritt 5: Das Kategoriensystem erstellen und die Interviews codieren

Um eine Basis für die Erstellung des Kategoriensystem zu schaffen, überlegte sich
jeder Mitarbeiter unter Berücksichtigung der Evaluationsziele fünf Kategorienvor-
schläge, die hinsichtlich der Zielsetzung der Evaluation ergiebig und gleichzeitig
gut auf das Material anwendbar sein sollten. Die individuellen Vorschläge führten
wir anhand der folgenden Kriterien zu einem gemeinsamen Kategoriensystem zu-
sammen:
x Das Kategoriensystem sollte nicht zu feingliedrig und nicht zu umfangreich
sein.
x Die Kategorien müssen trennscharf sein.
x Die Kategorien müssen im direkten Bezug zu den Zielen der Evaluation
stehen.
Das so entstandene, erste Kategoriensystem testeten wir, indem wir es Zeile-für-
Zeile auf zwei sich in Inhalt und Länge möglichst stark unterscheidende Interviews
anwendeten. Diese Überprüfung gestattete, noch immer vorhandene Kategorien-
überlappungen aufzulösen und einige sich doppelnde (Sub-) Kategorien zu einer
86 Stefan Rädiker, Claus Stefer

zusammenzufassen bzw. zu entfernen, um den o.g. Kriterien, also letztlich dem


Anspruch an Praxistauglichkeit, Genüge zu leisten. Nach diesem Prozess lag das
fertige Kategoriensystem vor:
x Individuelle Voraussetzungen und Vorerfahrungen
x Lernverlauf
– Teilnahmeverlauf an den Veranstaltungen
– Lernen außerhalb der Veranstaltungen
– Erwartung Klausurnote
x Bewertung von Veranstaltung und Inhalt
x Verbesserungsvorschläge
x Motivlage
Um den Codierprozess und sein Ergebnis zu vereinheitlichen, legten wir anhand
zweier zentraler Codierregeln fest, wie beim Zuordnen von Textstellen zu Katego-
rien vorzugehen sei.
Erstens einigten wir uns darauf, immer Sinneinheiten und zwar mindestens einen Satz, am besten
einen Absatz, bei Bedarf auch mehrere Absätze einem bestimmten Code zuzuordnen.
Dieses Vorgehen erleichtert beim späteren Auswerten, insbesondere beim Text-
Retrieval die Erfassung von Sinnzusammenhängen, da Kontextinformationen un-
mittelbar verfügbar sind, z. B. im MAXQDA-Fenster „Liste der Codings“.
Zweitens vereinbarten wir, gleiche Fakten in einem Interview nur einmal zu codieren, d. h. sie
nicht zu codieren, wenn sie in einem späteren Interviewabschnitt nochmals auftauchen.
Wenn ein Befragter beispielsweise zu Beginn des Interviews erzählte, dass er nicht
am Tutorium teilgenommen hat, und er am Ende des Interviews dies noch noch
einmal wiederholte, wurde das zweite Vorkommen nicht codiert.
Die eigentliche Codierung der Interviews erfolgte in Teamarbeit, die wir auf die
computergestützte Arbeit mit MAXQDA zuschnitten: Als Erstes wiesen wir jedem
Interview ein Zweierteam für die Codierarbeit zu. Jeder Codierer codierte zunächst
allein und glich die Codezuordnungen anschließend mit seinem Codierpartner ab.
Diese Arbeitsweise gestattet es, bei hoher Güte der letztendlichen Codierungen
dennoch schnell voran zu kommen. Konkret ließ sich dieses Vorgehen in MAX-
QDA folgendermaßen umsetzen:
1. In der zentralen Projektdatei gaben wir das Kategoriensystem in das Fenster
„Code System“ ein.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 87

2. Der Codebaum wurde zweimal kopiert und unterschiedlich eingefärbt, so


dass jeder Codierer in einem eigenen farbigen Codebaum arbeiten konnte.

blau

rot

grün

Abb. 5: Kategoriensystem der Zweierteams

3. Alle Codierer erhielten eine Kopie der zentralen Datei und codierten die ih-
nen zugewiesenen Interviews in der ihnen zugewiesenen Farbe.
4. Mit der Teamworkfunktion von MAXQDA transferierten die jeweiligen
Codierpartner ihre Codierungen zum gemeinsamen Abgleich in eine ge-
meinsame Datei.
5. Durch die unterschiedlichen Farben war im „Text Browser“ von MAX-
QDA sofort sichtbar, wo Codierungen übereinstimmten und wo Einigung
nötig war. Die letztendlichen Codierungen hielten die Teams im grünen
„Ursprungs“-Codebaum fest.
6. Nur diese endgültigen „grünen Codebäume“ wurden jeweils exportiert und
in der zentralen Datei über „Teamwork Import“ vereint.
88 Stefan Rädiker, Claus Stefer

Schritt 6: Kategorienbasiert auswerten und Evaluationsbericht erstellen

Den Beginn der kategorienbasierten Auswertung bildete die Sichtung der Textstel-
len jeder einzelnen Kategorie. In MAXQDA ließen wir uns die einer Kategorie zu-
geordneten Textteile im Fenster „Liste der Codings“ anzeigen und verschafften
uns so einen ersten Überblick. Alles Wichtige konnte notiert, beschrieben und ggf.
interpretiert werden.

Abb. 6: Übersicht über die codierten Textstellen im Fenster „Liste der Codings“

Für die weitere Auswertung des Materials und das Schreiben des Auswertungstex-
tes – in unserem Fall ein Evaluationsbericht – haben sich verschiedene Strategien
bewährt:
x Zunächst ist es wichtig, beim gesamten Auswertungsprozess das Ziel der E-
valuation stets im Blick zu behalten.
x Zur Systematisierung, z. B. der gemachten Verbesserungsvorschläge, und
bei Kategorien mit sehr vielen zugeordneten Textstellen bietet es sich an,
Subkategorien zu bilden. In diesen können jeweils thematisch zusammenhän-
gende Codings gruppiert werden.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 89

Abb. 7: Der Code „Bewertung von Veranstaltung und Inhalt“ mit Subkategorien

x Für manche Kategorien hat es sich als hilfreich erwiesen, Daten durch den
Einsatz von Tabellen zu vergleichen, in denen in jeder Zeile ein Fall dargestellt
wird (Abb. 8). Auf diese Weise erhält man nicht nur einen guten Überblick,
es lassen sich auch über Kategorien hinweg Vergleiche ziehen und dadurch
Annahmen äußern, etwa bzgl. des Zusammenhangs von Literaturverwen-
dung, Lerngruppe und von den Befragten prognostizierter Klausurnote.

Literaturverwendung Lerngruppe erwartete Klau-


surnote
B1 nur Reader, keine weitere Literatur nein, nur Nachfrage bei Hauptsache be-
Freundin zur Klausurvorbe- stehen
reitung
B2 Bortz komplett durchgearbeitet wenig: nur einmal so, einmal keine 1, eher 3
zur Klausurvorbereitung
B3 k.A., vermutlich keine weitere Literatur ja, zur Klausurvorbereitung Hauptsache be-
stehen, alles bes-
sere ist gut
B4 Bortz gemeinsam in Lerngruppe rumge- ja, während des gesamten Hauptsache be-
reicht Semesters stehen, 3 wäre
schön
B5 keine weitere Literatur ja, unregelmäßig 3
B6 Bortz wird gelesen und zum Nachschla- ja, vor allem zur Klausurvor- 3
gen benutzt, v.a. zur Klausurvorberei- bereitung
tung, Diekmann auch
B7 Bortz wird gelegentlich gelesen, z. B. zur ja, mit Freund 2
Klausurvorbereitung
B8 keine weitere Literatur ja, zur Klausurvorbereitung 2-3 wäre schön,
aber Hauptsache
bestehen
B9 k.A., vermutlich keine weitere Literatur ja, zur Klausurvorbereitung 2-3
B10 keine weiterführende Literatur ja, zur Klausurvorbereitung 2-3

Abb. 8: Tabellen als Auswertungshilfe


90 Stefan Rädiker, Claus Stefer

x Die Ergebnisse des Kurzfragebogens sind über die Variablenfunktion in MAX-


QDA verfügbar und können zum Vergleich und zur Illustration der Aussa-
gen herangezogen werden, aber auch, um Zusammenhängen auf die Spur
zu kommen.
x Grafiken und Abbildungen empfehlen sich, wenn Zusammenhänge verdeut-
licht oder Gedankengänge und Auswertungen illustriert werden sollen.
Hierfür bietet sich beispielsweise MAXMaps, das Grafiktool von MAX-
QDA, an.

Abb. 9: Visualisierung von Zuordnungen zu Kategorien und Unterkategorien mit


MAXMaps

Eine Frage, die bei der Auswertung häufig auftritt, ist die nach der Nennung von
Häufigkeiten. Wir halten quantifizierende Aussagen, die Mehr- oder Minderheiten
verdeutlichen, auch im Rahmen einer qualitativen Evaluation für sinnvoll. Ob ein
Aspekt von nur einer Person oder von drei Vierteln der Befragten genannt wurde,
macht etwa bei Verbesserungswünschen einen deutlichen Unterschied. Auch Inter-
pretationen sind notwendig, wenn nicht nur auf einer rein beschreibenden Ebene
agiert werden soll. Die Spanne der Interpretation reicht dabei von abstrahierenden
Beschreibungen der Textstellen bis zu detaillierten Deutungen. Wir haben etwa die
Textstellen einer Kategorie beschrieben und interpretativ in einen größeren Rah-
men aus unserem Erfahrungswissen, den Evaluationszielen, bereits bekannten
Wünschen und Problemen etc. eingeordnet.
Qualitative Evaluation – Versuch einer Abkürzungsstrategie 91

Schritt 7: Ergebnisse rückmelden, Evaluationsbericht abschließen

Den Abschluss der Evaluation bildete ein Feedbacktreffen mit dem Veranstal-
tungsleiter der Vorlesung, bei dem die Ergebnisse der Evaluation vorgestellt und
diskutiert wurden. Auf diese Weise konnten Verbesserungsvorschläge, Ideen, sons-
tige Anmerkungen und das vorhandene Praxiswissen mit den erhobenen Daten
kombiniert und fundierte Handlungsmöglichkeiten erarbeitet werden.

3 Resümee
Der Mehrwert, den wir durch die qualitative gegenüber einer üblichen quantitativen
Evaluation erzielt haben, lässt sich in verschiedene Einzelaspekte unterteilen, von
denen wir einige zentrale herausgreifen wollen:
x Fallorientierung: Durch den beinahe automatischen Kontextbezug werden
z. B. Emotionen deutlich oder Ähnlichkeiten zwischen Personen fallen auf,
man hat es mit „lebendigen“ Fällen zu tun, die geradezu plastisch vor einem
stehen.
x Kontexte und Hintergründe: Die Einbettung der Aussagen in einen Kontext ist
sehr stark, wodurch sich Vorder- und Hintergründe voneinander abheben,
was etwa für das Verständnis einer Aussage von großer Bedeutung sein
kann.
x Vermeiden von Fehlschlüssen und Missinterpretationen: Durch die Einbettung der
Aussagen erhält man als Forscher mehr Interpretationshinweise als bei der
quantitativen Vorgehensweise, bei der Gründe und Motive für die spezifi-
schen Aussagen im Dunkeln bleiben. Dadurch verringert sich die Gefahr
von Fehlschlüssen.
x Komplexität und Ganzheitlichkeit: Die Befragten haben die Möglichkeit, sich
differenziert, sogar widersprüchlich zu äußern, die Antworten beschränken
sich nicht auf ein starres 4er- oder 5er-Bewertungssystem. Auch kann der
Interviewer die Qualität eines Interviews direkt beurteilen, so wird bei-
spielsweise relativ schnell deutlich, ob die befragte Person sich authentisch
verhalten hat.
Insgesamt ist unser Resümee eindeutig: Eine qualitative Evaluation lässt sich auch
in einem knapp bemessenen Zeitrahmen bewerkstelligen und die Zugewinne, die
durch sie erreicht werden, sind erheblich. Dabei spielt die Verwendung von geeig-
neter Software eine bedeutende Rolle und es sind konkret drei Punkte, die wir be-
92 Stefan Rädiker, Claus Stefer

züglich der Anwendung von MAXQDA in unserem Projekt herausstellen möch-


ten:
Erstens ist es nicht vorstellbar, dass ohne Computerunterstützung vergleichbar
hochwertige und vielfältige Ergebnisse ermittelbar sind, wenn ein so knapp bemes-
sener Zeitrahmen von 100 Stunden zur Verfügung steht. Die computerunterstützte
Auswertung spart Zeit bei gleichzeitiger hochwertiger Vorgehensweise – sie ist
„quick and clean“.
Zweitens ermöglicht MAXQDA die Arbeit mit Memos und Variablen. So
konnten wir Informationen zu den einzelnen Fällen, wie z. B. die Case Summarys
und auch die Ergebnisse aus dem Kurzfragebogen in MAXQDA speichern und
konnten auf diese unmittelbar zugreifen.
Und dritttens sind die Teamwork-Funktionen hervorzuheben. Dadurch wurde
es z. B. sehr leicht möglich, in unserem großen Team von sieben Personen parallel
an den gleichen Interviews zu arbeiten.
Abschließend möchten wir noch festhalten, dass das hier beschriebene Vorge-
hen sicher ohne größere Schwierigkeiten auf andere Evaluationsgegenstände ähnli-
chen Umfangs übertragen werden kann; vielleicht sogar auch auf qualitative For-
schungsprojekte allgemein anwendbar ist.
Schulische Qualitätsprogramme – arbeitsökonomisch,
kurzfristig und objektiv analysieren

Peter Herrgesell

Zusammenfassung
Der Einsatz von Textanalysesystemen findet nahezu ausschließlich im Rahmen von Forschungsprojek-
ten statt. Mit der verpflichtenden Einführung von Qualitätsprogrammen in Rheinland-Pfalz erhielt die
Schulaufsicht die neue Aufgabe, eine große Anzahl umfangreicher Textvorlagen auszuwerten. Damit
verbunden wurde auch der Auftrag, die Schulen als pädagogische Schulaufsicht bei der Qualitätssiche-
rung und -entwicklung (Hofmann 2001) zu beraten und kritisch zu begleiten.
An einer Auswahl von 26 Qualitätsprogrammen und ihren Fortschreibungen wird aufgezeigt, wie durch
den Einsatz von MAXQDA eine Evaluation objektiver und gleichzeitig zeitsparender erfolgen kann.
Die relativ einfache Handhabung des Programms wird an praxisrelevanten Beispielen zur Aufbereitung
von Texten vor dem Einlesen in MAXQDA und der Dokumentenanalyse unter Einsatz der Funktionen
Textsuche, Gewichtung und Variablen beschrieben. Abschließend wird vorgestellt, wie die Ergebnisse
systematischen Vorgehens für schulbezogene Rückmeldungen, Abstimmungen und Beratungen, aber
auch für resultierende Planungen durch Schulaufsicht und Fortbildungsinstitute eingesetzt werden kön-
nen.

1 Schulische Qualitätsprogramme – wie arbeitsökonomisch


evaluieren und objektiv bewerten?

Qualitätsprogramme in Rheinland-Pfalz

In einer 1999 erschienenen Zeitung des Ministeriums für Bildung, Wissenschaft


und Weiterbildung Rheinland-Pfalz wurden Eltern, Lehrer und die Öffentlichkeit
über eine „Qualitätsmanagementoffensive” des Landes informiert. „Die Schule der
Zukunft soll sich als eine lernfähige Organisationseinheit begreifen, die sich be-
wusst eigene Ziele setzt und ein Schulprofil entwickelt. Gleichwohl muss sie die
94 Peter Herrgesell

vom Staat vorgegebenen Standards von Bildungsanforderungen und die Vergleich-


barkeit der Bildungsabschlüsse sicherstellen.” (MBWW 1999: 2).
Der Antinomie von Selbstständigkeit und Rechenschaftspflicht wurde auch bei
der im September 2002 erfolgten Verpflichtung der rheinland-pfälzischen Schulen
zur Entwicklung und Vereinbarung eines eigenen Qualitätsprogramms Rechnung
getragen. Der neue Begriff des Qualitätsprogramms sollte in Abgrenzung zu den
umfassenden Schulprogrammen anderer Bundesländer die Arbeit der Schulen auf
den Bereich der Unterrichtsentwicklung fokussieren. Den Schulen wurde durch die
Ministerin für Bildung, Frauen und Jugend erläutert, „dass ein Qualitätsprogramm
nicht ein umfangreiches Schulprogramm oder Schulprofil ist, sondern dass es dar-
um geht, einen innerschulischen Konsens über einige wesentliche pädagogische
und fachlich-didaktische Ziele der unterrichtsbezogenen Qualitätsentwicklung kurz
und präzise zu beschreiben.“ (MBFJ 2002).
Zur Rechenschaftspflicht der Schulen gehörte erstmals am Ende des Schuljah-
res 2002/2003 die Vorlage eines Qualitätsprogramms bei der Schulaufsicht. Dessen
Fortschreibung musste im Herbst 2005 beschlossen und weitergeleitet werden. Im
Abstand von jeweils zwei Jahren sollen diese Programme nach deren jeweiligen
schulinternen Evaluation weiterentwickelt werden. Die Aufgaben der Schulaufsicht
wurden im gleichen Schreiben festgelegt:
„Beratungsfunktion und Aufsichtsfunktion der Schulaufsicht stehen in engem
Wechselspiel und sind bezogen auf die Qualitätsprogramme wahrzunehmen. Die
dafür erforderlichen Kriterien werden im Dialog zwischen Schulaufsicht, Schulen
und dem Ministerium für Bildung, Frauen und Forschung erarbeitet.” (MBFJ 2002:
9).
Die Referenten der Schulaufsicht erhielten den Auftrag, kurzfristig nach Ein-
gang der Qualitätsprogramme dem MBFJ eine „Schnellmeldung“ in Form eines
vorgegebenen Dokumentationsbogens vorzulegen. Die Schulen sollten bis zum
Ende des Kalenderjahres 2003 eine erste Rückmeldung erhalten und weiterhin bei
der Qualitätsprogrammarbeit beraten und kritisch begleitet werden (ADD 2003).
Die angekündigten gemeinsamen Kriterien (s.o.) lagen für diese Rückmeldungen
nicht vor. Ohne gemeinsame Vorstellung dessen, was unter unterrichtsbezogener
Qualitätsentwicklung zu verstehen ist, war eine objektive Bewertung nicht möglich.
Ohne Vereinbarung von Kategorien und Kriterien kann eine landesweite Zusam-
menfassung der Rückmeldungen aus verschiedenen Standorten, Referaten und
durch unterschiedliche Referenten nicht objektiv und vergleichbar sein. Vor einer
zukünftigen weitergehenden Auswertung müssen auch für praxisorientierte Analy-
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 95

sen (z. B. der Beratung dienenden Interpretationen) die Grundlagen für mehr Ob-
jektivität und Transparenz geschaffen und berücksichtigt werden.
Auch die inzwischen abgeschlossenen Rückmeldegespräche („Dialoggesprä-
che“) mit den Schulleitungen und Steuergruppen der Schulen zu den Fortschrei-
bungen der Qualitätsprogramme wurden überwiegend von den jeweiligen subjekti-
ven Einschätzungen der zuständigen Referenten bestimmt.
Mit der im November 2005 erfolgten Einrichtung einer Agentur für Qualitäts-
sicherung, Evaluation und Selbstständigkeit von Schulen (AQS) in Rheinland-Pfalz
gewinnt der Einsatz empirischer Methoden der Datenerhebung und Auswertung
mit dem Ziel der praktischen Bedeutsamkeit deutlich an Gewicht. Die erklärte Ab-
sicht, sowohl quantitative wie qualitative Erhebungsmethoden zu nutzen, wird bei
der vorgesehenen Dokumentenanalyse (u. a. Qualitätsprogramme und deren Fort-
schreibungen) bei ca. 1.600 Schulen ohne den Einsatz eines computergestützten
Textanalysesystems kaum die selbst beschlossenen Grundsätze der Professionalität
in der Durchführung, Transparenz in den Verfahren und Nachvollziehbarkeit der
Ergebnisse (AQS 2006) erreichen können.
Mit nachvollziehbaren Evaluationsverfahren wird die zukünftige Aufgabe der
Schulaufsicht, mit der Einzelschule auf der Grundlage des AQS-Berichts Zielver-
einbarungen zu treffen, voraussichtlich erhöhte Akzeptanz und Wirkung erreichen
können.
Vor diesem Hintergrund erwuchs bei den jetzt durchgeführten Auswertungen
die interessante Aufgabe, auf der Basis der Auftragsbeschreibung des MBFJ für die
Schulen selbst die erforderlichen Kategorien und Indikatoren zu bestimmen. Bei
der Analyse der vorgelegten Qualitätsprogramme und Fortschreibungen mit MAX-
QDA wurden die im Schreiben des MBFJ (MBFJ 2002) enthaltenen Kategorien ex-
trahiert, angewandt, hinterfragt und ergänzt. In den nächsten Jahren wird eine
Orientierung an den von der AQS nach einer Pilotphase festgelegten Bereichen
und Kriterien erfolgen können.
Mein Einsatz von MAXQDA hatte vier Zielsetzungen: Die Evaluation der
Qualitätsprogramme der Einzelschulen, die kritische Hinterfragung der Auftrags-
formulierung, die Erprobung, in welchem Maße bei ähnlichen Aufgabenstellungen
praxisbezogener Dokumentenauswertungen Zeiteinsparungen bei gleichzeitig deut-
lich erhöhter Validität, Objektivität und Reliabilität möglich sind und viertens, ins-
besondere die transparente und dialogische Abstimmung der Ergebnisse mit den
Schulen.
96 Peter Herrgesell

Datengrundlage und Untersuchungsmethode

Wie im ersten Kapitel bereits beschrieben, hatten die Schulen die Pflicht, die von
ihnen erarbeiteten Qualitätsprogramme der Schulaufsicht vorzulegen. Die vorge-
legten Dokumente einer Schulart bildeten die Datengrundlage für zusammenfas-
sende Rückmeldungen an das MBFJ und für die Beratung dieser Schulen. Einbe-
zogen in die Analyse wurden von mir 26 Qualitätsprogramme und deren Fort-
schreibungen. Viele Qualitätsprogramme aller Schularten sind durch deren Veröf-
fentlichung im Internet als Erweiterung der Datenbasis für weitergehende Untersu-
chungen zugänglich.
Eine Auswertung der Qualitätsprogramme zu schulaufsichtlichen Zwecken
steht nicht unter dem Anspruch wissenschaftlichen Erkenntnisgewinns. Ein zu-
sammenfassendes Paraphrasieren, eine Bedeutungszuweisung und Häufigkeitsaus-
zählung wird meist beschränkt auf den Aspekt praxisbezogener Zwecke erfolgen.
Dabei ist die Transparenz und Reproduzierbarkeit bisher meist unsystematischer
Praxisarbeit i.d.R. nicht gegeben; gleiche Texte können in den verschiedenen Abtei-
lungen, Referaten und durch die einzelnen Referenten unterschiedlich interpretiert
werden, d. h. dass die Objektivität solcher Ergebnisse sehr eingeschränkt ist. Zu-
sätzlich muss damit gerechnet werden, dass der Umfang des zu lesenden und zu
interpretierenden Materials (pro Referent mussten je nach Schulart kurzfristig bis
zu 60 Qualitätsprogramme gelesen und ausgewertet werden) eine sorgfältige Aus-
einandersetzung deutlich erschwert.
Nach mehrjährigem Einsatz der Programme winMAX und MAXQDA lag es
nahe, die dort gegebenen Möglichkeiten zur schnelleren und gleichzeitig systemati-
scheren Textanalyse einzusetzen – in der Erstauswertung als Rückmeldungs- und
Beratungsgrundlage ohne tiefgehenden Theorieanspruch.
Die qualitative Inhaltsanalyse erfolgte in Anlehnung an das Ablaufmodell zu-
sammenfassender Inhaltsanalyse Mayrings (Mayring 1995: 56) in Verknüpfung mit
dem durch Lamnek wiedergegebenen inhaltsanalytischen Auswertungsmodell
Mühlfelds (Lamnek 1993: 205 ff.).
Gerade die gestuften, praktischen Handlungsanweisungen für Textinterpreta-
tionen Mühlfelds (Lamnek 1993: 207) erscheinen mir geeignet, Verständnis und
Akzeptanz eines Analysevorschlags bei den vorwiegend praxisorientierten Schul-
aufsichtspersonen zu erreichen. Hier eine zweckgerichtete Anpassung:
Stufe 1: Erstes Durchlesen aller Texte, Übertragung von grafischen Ablaufsche-
mata und Tabellen in Textform. Formatieren und Einlesen der Dateien in
das MAXQDA-Projekt.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 97

Stufe 2: Beim zweiten Durchlesen wird der Text in das Kategorienschema einge-
ordnet, wobei dieses zugleich erweitert wird.
Stufe 3: Erneutes, drittes Durchlesen des mit Codierungen markierten Textes,
Gewichtung besonderer Codings, Kopplung logisch zusammenpassender
Codings.
Stufe 4: Erstellen von Text- und Codememos, die den Prozess der Verarbeitung
darstellen.
Stufe 5: Erstellung der Auswertung mit Textausschnitten, Filtern nach Gewich-
tung. Zugleich viertes Durchlesen des Textes.
Stufe 6: Zusammenstellung des Auswertungstextes zur Präsentation, ergänzt mit
interpretatorischen Fragestellungen.

2 Dokumentenanalyse mit MAXQDA – Darstellung


ausgewählter Arbeitsschritte

Vorbereitung der vorgelegten Dokumente (Word-Dateien) zur


Textübernahme in MAXQDA

Die von den Schulen vorgelegten Qualitätsprogramme bestehen im Unterschied zu


den Transkripten von Interviews o.ä. nicht aus reinen Textdarstellungen, sondern
enthalten auch Grafiken und mehrspaltige Tabellen. Um die Bearbeitung mit
MAXQDA zu ermöglichen, muss eine Umformatierung und Bearbeitung so erfol-
gen, dass die darin enthaltenen Informationen weitestgehend erhalten bleiben.

Umformen mehrspaltiger Tabellen


Mit der Auswahl bis zu siebenspaltiger Tabellen wurde in verschiedenen Qualitäts-
programmen versucht, die geplanten Vorhaben der Schulen sehr kompakt über-
sichtlich darzustellen. Als Druckrichtung wurde dementsprechend das DIN-A4-
Querformat gewählt.
Weder diese Formatvorlage noch die mehrspaltigen Tabellen lassen sich auf
dem MAXQDA-Bildschirm sinnvoll darstellen. Eine Umformung in das Textfor-
mat ist vor dem Einlesen der Dateien hilfreich.
Die in das Textformat umgewandelten Tabellen konnten nach dem Einlesen in das
MAXQDA-Projekt unter Anwendung der Editierfunktion durch Voranstellen der
Spaltenüberschriften ergänzt werden. Der komplette Tabellentext wurde farblich
gegenüber dem sonstigen Text abgehoben.
98 Peter Herrgesell

Abb. 1: Ausschnitt aus der Tabelle eines Qualitätsprogramms

Beschreibung grafischer Ablaufdiagramme durch Texte


Einzelne Bereiche der vorgelegten Qualitätsprogramme wurden statt in Textform
als Grafiken oder Ablaufdiagramme gestaltet. Diese können nicht unmittelbar in
MAXQDA bearbeitet werden.

Abb. 2: Zeitliche Umsetzung geplanter Projekte

Mit der Übertragung in einen Text muss ein Informationsverlust in Kauf genom-
men werden. In einem Textmemo wird die Art der Grafik beschrieben und die
Fundstelle benannt. Zusätzlich wurde durch die Auswahl kursiver Schriftzeichen
die eigene Textproduktion von den Originaltexten abgehoben.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 99

Abb. 3: Textübertragung der in Abb. 2 wiedergegebenen Grafik

Die Textelemente der grafischen Darstellung konnten in diesem Fall unverändert


übernommen werden.

Erstellung des Codesystems

Grundlage der ersten Kategorieneingabe waren die durch das MBFJ vorgegebenen
„Pflichtaufgaben“, welche in den Qualitätsprogrammen bearbeitet werden sollten
(ADD 2003).

Einzelpunkte Anzahl der Schulen


Kooperation im Kollegium
Kooperation mit Eltern
Lesekompetenz als Basiskompetenz
Mathematische Kompetenzen
Naturwissenschaftliche Kompetenzen
Ergebnisse aus Vergleichsstudien und Modellversuchen
Fördernder Unterricht/Umgang mit Heterogenität
Kinder und Jugendliche mit Migrationshintergrund
Sonderpädagogische Förderung
Weiterentwicklung der Grundschule/Rahmenplanarbeit
Kooperation mit den Elementarbereichen
Kooperation im Kontext von Übergängen/Orientierungsstufenarbeit
Berufsorientierung

Abb. 4: Rückmelderaster des MBFJ


100 Peter Herrgesell

In einem durch die Schulaufsichtsreferenten zu beantwortenden Fragebogen wur-


den u. a. zusätzlich zu dieser tabellarischen Auflistung quantitative Angaben zu den
pädagogischen Schwerpunkten der Schulen und zur Bearbeitung der Bereiche
Fortbildung und Evaluation angefordert.
Während der Analyse der vorgelegten Qualitätsprogramme zeigte sich, dass mit
dem vorgegebenen Kriterienraster der Bereich der Unterrichtsentwicklung (z. B. in
den Bereichen pädagogischer Schulentwicklung und eigenverantwortlicher Unter-
richtsmethoden) nur begrenzt erfasst werden konnte. Daher wurden entsprechende
Kategorien („Unterrichtsentwicklung/Pädagogische Schulentwicklung“ und „Kon-
krete Vorhaben außerhalb der Vorhaben“) ergänzt.

Abb. 5: Codiersystem auf der Basis der ministeriellen Vorgaben

In einem ersten Durchgang wurde versucht, die zu den Codierungen passenden


Textstellen den Unterkategorien „konkret“ und „diffus“ zuzuordnen. Eine Diffe-
renzierung, die sich bei weiteren Durchläufen als zu grob erwies. Die im über-
nächsten Kapitel beschriebene Gewichtung der Codings erwies sich als geeignete
Maßnahme, die vorhandenen Daten so zu verdichten, dass daraus auf den erfor-
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 101

derlichen Handlungsbedarf (Wahrnehmung der Beratungsfunktion von Schulauf-


sicht) geschlossen werden konnte.

Codierungen mit Hilfe der logischen Suchfunktion

Im Unterschied zu wissenschaftlichen Untersuchungen besteht für die Rückmel-


dungen nach politischen Entscheidungen ein hoher Zeitdruck, um erste an den
Vorgaben orientierte Ergebnisse veröffentlichen zu können. Nach Übernahme der
als Word-Dateien übermittelten Qualitätsprogramme und der vorgegebenen Kate-
gorien in das MAXQDA-Projekt ließen sich in kurzer Zeit die wesentlichen Inhal-
te, aber auch zugehörigen Häufigkeitsverteilungen ermitteln. Voraussetzungen da-
für war eine gezielte und begrenzte Auswahl an Begriffen für die logische Verknüp-
fung.
Eine der Pflichtaufgaben in allen Qualitätsprogrammen war die Erstellung eines
schulbezogenen Fortbildungskonzeptes:
„Eine zielgerichtete, auf die Einzelschule bezogene Fortbildung der Lehrkräfte ist im Prozess
der Qualitätsentwicklung wichtig. Das Qualitätsprogramm muss daher auch eine kurz- und
mittelfristige Fortbildungsplanung im Hinblick auf die festgelegten Schwerpunkte für die jewei-
lige Schule enthalten. Fortbildung soll verstärkt nachfrageorientiert und schulintern erfolgen.“
(MBFJ 2002).

Eine schnelle Rückmeldung der in den Qualitätsprogrammen enthaltenen Fortbil-


dungswünsche durch die Schulaufsicht sollte den Fortbildungsinstituten die Pla-
nung abnehmerorientierter Fortbildungen ermöglichen. Am Beispiel dieser Katego-
rie wird im Folgenden der Einsatz der logischen Suchfunktion wiedergegeben. Die
Ergebnisse dieser computerunterstützten Analyse wurden abschließend mit den in
herkömmlicher Arbeitsweise aus den gleichen Qualitätsprogrammen durch einen
Zweitbearbeiter zusammengestellten Daten verglichen.
Gesucht wurde in 26 Texten mit ca. 340 Seiten (RTF-Format, einzeilig). Der
Suchdurchlauf und das automatische Codieren dauerten für alle Dokumente zu-
sammen kaum mehr als eine Minute. Je nach Auswahl und Anzahl der Suchbegriffe
erforderte das Nachbearbeiten durch Löschen und Festlegen neuer Codierungsab-
schnitte aber bis zu drei Stunden.
Zu Beginn der Textsuche mit MAXQDA wurden die mit der Oder-Funktion
verknüpften Suchbegriffe möglichst umfassend aus dem eigenen Erfahrungs-
hintergrund zusammengestellt. Die Liste umfasste die Begriffe: Fortbildung, Wei-
terbildung, Seminare, Workshop, Training, Klausurtage, Qualifizierung, Schulung,
Studientag, EFWI, IFB, ILF. Die Funktionen „Nur ganze Wörter“ und
102 Peter Herrgesell

„Groß-/Kleinschreibung beachten“ wurden bewusst nicht gewählt. Allein der Um-


stand, dass die Buchstabenkombination „ILF“ Bestandteil vieler Wörter ist, führte
zu einer Codierung von mehr als 500 Textstellen und damit einer unverwertbaren
Textsuche. Nach dem Weglassen dieser Abkürzung für eines der rheinland-
pfälzischen Fortbildungsinstitute reduzierte sich die Anzahl codierter Textstellen
schon auf 197. Auch diese Anzahl schien mir bei 26 untersuchten Programmen
noch zu hoch. Da ein Retrieval durch die gleichzeitige Textdarstellung beim Ankli-
cken eines Codings relativ schnell zu bewältigen war, führte ich die Nachbearbei-
tung mit dem Ziel durch, einen systematischeren Ansatz für weitere logische Co-
dierungen zu suchen. Von den automatisch codierten 197 Textblöcken blieben bei
dieser Vorgehensweise 54 Codings übrig.
Erkennbar wurde bei dieser Methode, dass eine größere Anzahl an Codings
durch das Auseinanderreißen von Sinnzusammenhängen entstand, vor allem dann,
wenn in aufeinanderfolgenden Abschnitten jeweils einer der vorgegebenen Such-
begriffe enthalten war. Die Veränderung der Suchoption „± Absatz“ auf ± 1 er-
brachte eine deutliche Verbesserung. Das Ergebnis der logischen Textsuche war
aber auch durch eine Anzahl von Begriffen verfälscht worden, welche vorwiegend
mit beschriebenen Schüleraktivitäten verbunden waren (Training, Schulung, Klau-
surtage u. a.). Die Begriffsauswahl musste auf einer systematischeren Basis erfolgen.
Eine Zufallsauswahl von sechs Qualitätsprogrammen wurde auf die in ihnen ent-
haltenen Textstellen zur Fortbildungsplanung untersucht und diese wurden einem
eigenen Code zugeordnet. Die erhaltenen Codings fügte ich zusammen als RTF-
Text in die Textliste des Projekts ein und codierte die enthaltenen Fortbildungsbe-
griffe: Es zeigte sich, dass in jeder der sinnvollen Fortbildungsplanungen wenigs-
tens einer der Begriffe Fortbildung, Weiterbildung, Seminar und Studientag vor-
kam. Mit der Beschränkung auf vier Begriffe wurden immer noch 101 Textblöcke
gefunden, die aber alle im Zusammenhang mit Fortbildungsmaßnahmen standen.
Die weitere Entscheidung, welche Angaben sich auf frühere Aktivitäten bezogen,
was unspezifische Absichtserklärungen waren u.ä. konnte nur noch durch die
Auswertenden beurteilt werden.
In einer anschließenden Phase wurden die nach diesem Suchlauf manuell auf 54
Textblöcke reduzierten Planungen daraufhin untersucht, ob sie den Kriterien der
ministeriellen Vorgabe entsprachen. In eine neue Subkategorie „Konzeption“ wur-
den die ausgewählten Codings übertragen. Ein Memo an diesem Code sollte zur
Trennschärfe beitragen: „Das Qualitätsprogramm muss eine kurz- und mittelfristi-
ge Fortbildungsplanung im Hinblick auf die festgelegten Schwerpunkte für die je-
weilige Schule enthalten.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 103

Bei dieser Codierung ist wesentlich, dass nur Textstellen aufgenommen werden,
die eine Fortbildungskonzeption erkennen lassen, welche gleichzeitig im Zusam-
menhang mit Entwicklungsschwerpunkten der Schule stehen.
So zugeordnet, blieben von den ursprünglich 54 Codings noch 16 übrig, welche
in unterschiedlichem Maße der Vorgabe angenähert waren. Durch die Ergänzung
von Gewichtungsfaktoren ließ sich die Zahl der vollständig zutreffenden Codings
weiter reduzieren. Übrig blieben lediglich vier Schulen, die eine konkrete Fortbil-
dungsplanung im oben genannten Sinne entwickelt hatten. Hier ein Beispiel, wel-
ches den Vorgaben sehr nahe kommt:

Gewicht: 100
Position: 104 - 107
Code: Eschmann\Fortbildung\Konzeption
Fortbildung im PSE-Programm
Für das Schuljahr 2002/03 liegt der Schwerpunkt der Fortbildung innerhalb des Programms.
Der Ist-Bestand besteht darin, dass alle Kolleginnen und Kollegen das Methodentraining durchlaufen haben
und in mindestens einem Workshop beteiligt waren.
Im Schuljahr 2002/03 werden alle Lehrpersonen ein Teamtraining und ein Kommunikationstraining durch-
laufen. Die geplanten Workshops sind im Jahresplan ausgewiesen. Im Juni 2003 wird ein Workshoptag mit
gegenseitigen Hospitationsmöglichkeiten stattfinden. Weil durch diese Fortbildung Unterrichtsausfall un-
vermeidbar ist, werden weitere Fortbildungen zurückgestellt (Ausnahme: Gewaltprävention, Lehrergesund-
heit).

Abb. 6: Codierbeispiel einer positiven Fortbildungskonzeption

Das so kriterienorientiert erzielte Ergebnis lag weit unter den auf herkömmliche
Art ermittelten und an das MBFJ weitergemeldeten Zahlen. Auch dort wurden
schon die schulinterne Fortbildungsplanung und Evaluation als die Bereiche be-
nannt, die vielfach in den Qualitätsprogrammen nicht berücksichtigt wurden. Die
zu hohen Rückmeldezahlen sind damit erklärbar, dass ähnlich wie beim ersten Co-
dierdurchlauf alle Fortbildungsangaben (ob Einzelfortbildung, ob Fortbildungs-
maßnahmen in der Vergangenheit u.ä.) mitgezählt wurden.
Das Summieren von Schulen mit Fortbildungskonzeption, Einzelfortbildungen,
Evaluationskonzepten u.ä. wird vor allem bei größeren Datenmengen durch die
Einrichtung entsprechender Textvariablen erleichtert. Durch Darstellung der ge-
wichteten Codings (als tragfähige Arbeitsbasis definierte ich alle Codings mit Ge-
wichtungsfaktoren zwischen 60 und 100) wurde unmittelbar erkennbar, bei wel-
chen Schulen eine Konzeption oder ein Einzelbereich beschrieben waren. In der
gleichzeitig eingeblendeten Variablenmatrix (welche um diese beiden Variablen er-
weitert wurde) konnte mit der Eingabe einer „1“ die entsprechende Zuordnung er-
104 Peter Herrgesell

folgen. Nach der Übertragung der Variablenmatrix in Excel waren noch lediglich
die Spaltensummen zu bilden. Zu den vier Schulen mit Fortbildungskonzeption
kamen noch elf Schulen mit Angaben zu Einzelfortbildungen hinzu. Die Summe
beider Zahlen entsprach annähernd der auf herkömmliche Weise ermittelten Zahl,
welche eindeutig nahezu alle Angaben zur Fortbildung, ohne Abwägung, ob eine
Entsprechung zum vorgegebenen Kriterium vorhanden war, enthielt.
Ein Vergleich des mit MAXQDA erzielten Ergebnisses mit den dokumentier-
ten und auf die zuletzt genannte Weise entstandenen Angaben bestätigt die Not-
wendigkeit systematischen kriterienorientierten Analysierens.

Gewichtungsfaktoren zur erweiterten Differenzierung innerhalb einzelner


Kategorien

In beiden vorausgehenden Kapiteln wurde schon erkennbar, dass die Gewichtung


von Codings bei meiner Auswertung der Qualitätsprogramme eine große Bedeu-
tung hatte.
Um die Ausrichtung an dem weitgehend auftragsorientierten Kategoriensys-
tems zu erhalten, schien eine Ausdifferenzierung der einzelnen Codes in mehrere
Subcodes nicht sehr hilfreich. Schon die anfangs versuchte Zuordnung von Text-
stellen zu den Subkategorien „konkret“ und „diffus“ erwies sich als wenig hilfreich.
Unter anderem zeigte sich, dass die Bewertung durch zwei Codierer (in einer an-
fänglichen Versuchsphase arbeitete eine Lehrkraft parallel an der Auswertung)
nicht ausreichend übereinstimmte. Mit der Definition von Gewichtungsfaktoren
entfiel die Notwendigkeit, bei der Zuordnung von Textblöcken zu einer Kategorie
schon gleichzeitig über deren Ausprägung zu entscheiden. Die Gewichtungskrite-
rien entstammten einer den Schulen vor der Erstellung der Qualitätsprogramme
zugesandten Vorgabe, zu jedem Entwicklungsziel konkrete Maßnahmen, Zeiträu-
me der Umsetzung, Evaluationskriterien und Zuständigkeiten zu benennen.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 105

Gewichtung

100 Klare Zielformulierung + Zeitpunkt der Zielerreichung + eindeutige


Evaluationskriterien + geeignete Evaluationsmethoden + Verantwortli-
che sind benannt
80 Klare Zielformulierung + Zeitpunkt der Zielerreichung + diffuse Eva-
luationsangaben oder -ankündigungen + Verantwortliche
60 Klare Zielformulierung + Zeitpunkt der Zielerreichung + Verantwortli-
che/Evaluationsangaben fehlen völlig oder sind zu pauschal
55 Klare Zielformulierungen
50 Allgemeine Zielangaben + Zeiträume + allgemeine Verantwortungsüber-
tragung (an Fachkonferenz, alle, ...)/Evaluationsangaben fehlen völlig
oder sind zu pauschal
40 Allgemeine Zielangaben + Zeiträume
20 Globale Zielvorstellungen ohne Umsetzungsplanungen + Verantwortli-
che sind benannt
10 Früher erfolgte Maßnahmen
5 Ebene, die nicht zur QP-Ebene passt (z. B. Evaluationsgleichsetzung mit
Klassenarbeitsergebnissen)
Abb. 7: Kriterien zur Definition der Gewichtungsfaktoren

In einem weiteren Datendurchgang anhand der ausgewählten Codings konnte auf


der Basis der in einem Memo festgehaltenen Definitionen der jeweilige Gewich-
tungsfaktor verändert werden. Die gewählten Gewichtungskriterien erwiesen sich
als brauchbar und führten zu weitgehend übereinstimmenden Bewertungen beider
Codierer. Während der Arbeit zeigte sich, dass der gegebene Orientierungsrahmen
hilfreich war, im konkreten Einzelfall aber vom Gewichtungsfaktor 80 abwärts die
vorgenommene Auflistung der Kriterien zugunsten der Anzahl erreichter Teilbe-
reiche ersetzt werden musste.
Den Schulen wurde durch die Zusendung aller sie betreffenden Codings mit
Gewichtungen zwischen 60 und 100 rückgemeldet, welche Bereiche besonders für
die kurzfristige Umsetzung geeignet sein könnten.

Ausgewählte Textstellen aus den Qualitätsprogrammen als Grundlage


schulbezogener Beratung

Die Erarbeitung schuleigener Schulprogramme und Qualitätsprogramme wurde


vor dem Hintergrund der durch die Schulpolitik aufgenommenen pädagogischen
Diskussion über gute Schulen (Tillmann 1994), Schulentwicklung (Fend 1998,
106 Peter Herrgesell

Kempfert/Rolff 2000) und Ergebnissen internationaler Vergleichsuntersuchungen


(List 1998, Baumert et al. 2002) veranlasst. Die entscheidende Erkenntnis, dass sich
gute Schulen nicht verordnen lassen, sondern sich jeweils von innen heraus entwi-
ckeln müssen, hatte zur erweiterten Übertragung von Freiräumen und Verantwor-
tungen auf die Schulen geführt. Wenn aber Schulen ihr eigenes Qualitätsprogramm
erstellen sollten, muss die folgende Begleitung und Beratung durch die Schulauf-
sicht auch diese Ausgangslage berücksichtigen. Für die internen Evaluationen und
Optimierungen der schuleigenen Programme müssen wiederum die gestaltenden
Kollegien selbst verantwortlich sein. Schulische Beratung muss sich daher eng an
den Textvorlagen der Schulen orientieren. Bei den von mir betreuten Schulen bot
es sich daher an, eine Rücksendung der schuleigenen Texte in Form der gewichte-
ten Codings vorzunehmen. Die Auflistung der Codings wurde jeweils durch kurze
Kommentare und Fragestellungen ergänzt. Damit war eine schulspezifische Basis
für die anschließenden Gespräche mit den Steuergruppen, Schulleitungen und
Konferenzen gegeben, welche bei den bisher durchgeführten Gesprächen positiv
aufgenommen wurde.
Hier ein Beispiel eines an die Auflistung der gewichteten Codings angefügten
Kommentars:
„Die Ziele erfordern eine anspruchsvolle und arbeitsintensive Umsetzung.
Ist in Teilbereichen eine Reduzierung (bezogen auf den Zeitraum 2 Jahre) erforderlich?
Sind die Arbeitsschritte, -zeiten und Verantwortlichkeiten für jeden Betroffenen erkennbar?
Ist die Verbindlichkeit eindeutig geregelt?
Sind die Kriterien für die jeweilige Evaluation festgelegt?
Welche Evaluationsmethoden passen?”

Diese Fragestellungen verwiesen die Schule auf das eigene Programm zurück und
sollten durch die Kollegien selbst geprüft und beantwortet werden.

Dialoggespräche mit den Schulen unter Einbezug von MAXQDA

Die Dialoggespräche mit den aus fünf bis zehn Personen zusammengesetzten
Steuerungsteams wurden unmittelbar an den Texten der von den Schulen einge-
reichten Fortschreibungen der Qualitätsprogramme orientiert. Die Projektion des
MAXQDA-Bildschirms mit einem Beamer erwies sich für den Gesprächsablauf
und -austausch als deutliche Verbesserung gegenüber der beim ersten Durchlauf an
den ausgedruckten Texten, Codierungen und Memos ausgerichteten Diskussion.
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 107

Abb. 8: MAXQDA-Textscreen mit einem Ausschnitt aus einer MAXMap

Über die gleichzeitige Verfügbarkeit des jeweiligen Textes hinaus konnten im Bild
alle vorhandenen Informationen durch Anklicken der jeweiligen Funktion einge-
blendet werden (u. a. Gewichtungsfaktor und Memoinhalt). Sehr hilfreich bei der
Gesprächsstrukturierung war das Visualisierungstool MAXMaps. Die interaktive
Arbeitsweise ermöglichte unmittelbar den Zugriff vom Kriterium (Codewort) auf
die codierte Textstelle. Gleichzeitig konnte die in einem Memo festgehaltene An-
merkung oder Frage des Beraters eingeblendet werden.

Abb. 9: Einfügen von Ergänzungen im Memo


108 Peter Herrgesell

Die auf dieser Basis geführten Dialoggespräche führten zu gemeinsam erarbeiteten


Ergänzungen und Veränderungen in den Qualitätsprogrammen. Die entsprechen-
den Textveränderungen wurden entweder mit anderer Schriftfarbe unter Nutzung
der Editierfunktion unmittelbar in den Text oder als Antworten in den Memos ein-
gefügt.
Eine nachträgliche Protokollierung der vorgenommenen Anpassungen wurde
somit überflüssig.

3 Resümee
Die praxisorientierte Analyse von 26 Qualitätsprogrammen und deren Fortschrei-
bungen zeigte, dass sich bei deutlicher Zeitersparnis treffsicherere Aussagen aus
den Dokumenten entnehmen lassen, als dies beim alltäglichen Texterlesen möglich
ist. Der Vergleich mit den vor der Computeranalyse schriftlich fixierten Aussagen
des herkömmlichen Vorgehens wies nach, dass beim unsystematischen Vorgehen
im Einzelfall Schulen selbst Merkmale zugeschrieben wurden, welche in deren Tex-
ten nicht vorhanden waren.
Der Zwang zur Systematik, zur Orientierung an klar definierten Kriterien er-
höhte die Gültigkeit der getroffenen Auswahlen. Die Ergebnisse wurden für die
Autoren der Qualitätsprogramme transparent und überprüfbar.
Die gleichzeitige Bewertung der Hälfte der Programme durch zwei Codierer
zeigte, dass im Unterschied zur herkömmlichen Erstbeurteilung eine hohe Über-
einstimmung der Bewertungen erreicht wurde; d. h., dass die Objektivität der
Rückmeldungen deutlich gesteigert werden konnte.
Beim Einsatz der beschriebenen MAXQDA-Funktionen wurde erkennbar, dass
der zusätzliche Zeitaufwand bei einer größeren Dokumentanzahl deutlich hinter
der Zuwachszahl an Daten zurückbleibt, die Zeiteinsparung nimmt bei größeren
Textzahlen weiter zu.
Bei bis mehr als 50 auszuwertenden Programmen pro Schulaufsichtreferenten,
zwischen 400 und 600 für jeden der drei Schulabteilungsstandorte in Rheinland-
Pfalz könnte der Einsatz von MAXQDA relativ kurzfristig objektive, valide und
reliable Aussagen und Zahlen zur Verfügung stellen. Voraussetzung dafür wäre pro
Standort die zeitweise Beauftragung von wenigstens zwei in das Programm einge-
arbeiteten Codierern und die vorherige Abstimmung gemeinsamer Kriterien. Die
im Aufbau befindliche Agentur für Qualitätssicherung, Evaluation und Selbstän-
digkeit von Schulen könnte – entsprechend ihrer Zielsetzung – in Zukunft diese
Aufgabe übernehmen. Auf der Basis der für die Referentinnen und Referenten als
Schulische Qualitätsprogramme – arbeitsökonomisch, kurzfristig und objektiv analysieren 109

Serviceleistung komprimierten und aufbereiteten Daten stünde diesen mehr Zeit


für den wesentlichen Beratungsprozess in der Schule und anschließende Zielver-
einbarungen zur Verfügung.
Das vorgestellte Beispiel der aus dieser begrenzten Analyse hervorgehenden
Quote von lediglich einem Siebtel der Schulen, welche ein Fortbildungskonzept
vorlegen konnten, weist einen Handlungsbedarf im Bereich der Fortbildungsange-
bote auf. Nachfrageorientierte Angebote der Institute können aber erst dann sinn-
voll zusammengestellt werden, wenn in den Schulen die Kompetenzen für entspre-
chende Planungen geschaffen werden. Ein entsprechendes Fortbildungsangebot
kann als Voraussetzung für eine breit angelegte Erarbeitung eigener Konzepte ein-
geschätzt werden.
Ähnliche Konsequenzen könnten aus den Ergebnissen der übrigen Qualitätsbe-
reiche herausgelesen werden.
Schulberatung und weitreichende Planungen benötigen eine verlässliche
Datenbasis – die computerunterstützte Textanalyse könnte wesentlich dazu beizu-
tragen.
Stille Post – Eine computergestützte qualitative
Inhaltsanalyse „Serieller Reproduktionen“
– Ein Werkstattbericht –

Torsten Koch

Zusammenfassung
Im Rahmen eines Forschungslernseminars am Institut für Soziologie und Sozialpsychologie der Univer-
sität Hannover wurde in Anlehnung an das von Bartlett entwickelte Verfahren der seriellen Reproduk-
tion der Frage nachgegangen, wie die vorwiegend studentischen Versuchspersonen eine Zeitzeugener-
zählung zum Thema Kriegsende des II. Weltkriegs nacherzählen, welche Erinnerungseinheiten sie auf-
greifen oder weglassen, welche Passagen verändert werden. Theoretischer Hintergrund ist Frederic C.
Bartletts Konzept der kulturellen Schemata und des rekonstruktiven Gedächtnisses. Die mittels compu-
tergestützter qualitativer Inhaltsanalyse gewonnenen Ergebnisse zeigen, welche Ungenauigkeit bei der
seriellen Reproduktion von sinnvollem Material auftreten können. Die Studie belegt, dass konfliktbela-
dene Passagen motiviert ausgelassen, de- und rekontextualisert und zu völlig neuen Erzählungen ange-
ordnet werden. Stereotype überlagern die Erinnerung und beeinflussen die Genauigkeit der Rekonstruk-
tion.

1 Einleitung
Eine zentrale Frage der Gedächtnisforschung ist, wie Menschen bedeutungstra-
gende Inhalte (Input) organisieren, interpretieren und aufbewahren. Es wird dabei
davon ausgegangen, dass die Form und die Inhalte, an die man sich erinnert, auch
dadurch bestimmt werden, welches Wissen man hat und wer man ist. Erinnerung
kann durch Erzählung lebendig gehalten werden.
Geschichtenerzählen erfüllt diese Funktion und gilt als eine wichtige Form
menschlicher Kommunikation. Geschichten sind mehr als nur Aneinanderreihun-
gen verschiedener Bilder, die durch deskriptive Passagen miteinander verbunden
sind. Sie sind ebenso Transmitter für Botschaften und Lehren intentionaler und
nichtintentionaler Art, die deren Erzähler weitergeben. Sie können als wechselseiti-
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 111

ge Interaktionsakte zwischen einem spezifischen Sprecher und einem spezifischen


Zuhörer verstanden werden. Räumliche Gemeinsamkeiten und Konkretisierungen
ergeben sich, wenn beide Personen gemeinsame Vorstellungen teilen und diese ü-
ber im Gedächtnis repräsentierte Objekte, Ereignisse etc. zurückgeben können.
Ziel der vorliegenden Studie ist es, die inner- und intergenerationelle Kommu-
nikation und Erinnerungen zum Thema Nationalsozialismus theoriebasiert anhand
von seriellen Reproduktionen zu explorieren. Das erhobene Material wurde – ana-
log zu der Untersuchung der Forschungsgruppe „Tradierung von Geschichtsbe-
wusstsein“ – sowohl hermeneutisch-feinanalytisch als auch qualitativ-
inhaltsanalytisch ausgewertet, wobei in diesem Aufsatz lediglich einige illustrative
Textbeispiele und Befunde der inhaltsanalytischen Auswertung vorgestellt werden.

2 Theoretischer Hintergrund
Bereits in den zwanziger Jahren des letzten Jahrhunderts hat der britische Psycho-
loge Frederic C. Bartlett die Bedeutung kultureller Schemata für die Speicherung
und den Abruf von Erinnerungen belegt. Bartlett fasst seine Idee im Begriff des
„rekonstruktiven Gedächtnis“ zusammen. Gemeint ist damit nicht, dass encodier-
te, gespeicherte Engramme beim Prozess des Abrufens gefunden und decodiert
werden, sondern vielmehr, dass jeder Gedächtnisinhalt im Moment des Sich-
Erinnerns durch einen aktiven Konstruktionsprozess erneut aufgebaut wird. Die
im Gehirn angelegten neuronalen Netze stellen Muster dar, die als ein Korrelat sol-
cher Schemata verstanden werden können (vgl. Greuel et al. 1998: 40 ff.).
In seinem wohl bekanntesten Experiment lässt Bartlett den Versuchspersonen
– seine Studentinnen und Studenten – eine exotische Geschichte vorlegen, die sie
lesen und anschließend nacherzählen sollen. Dabei kommen zwei unterschiedliche
Settings zur Anwendung: In der ersten Variante – ein dem Kinderspiel „Stille Post“
ähnliches Prozedere – werden die Versuchspersonen aufgefordert, die Geschichte
an eine zweite Person weiterzuerzählen, die sie wiederum an eine Dritte weiter-
erzählt. Dieses Vorgehen bezeichnet Bartlett als „serielle Reproduktion“ (Serial
Reproduction). In der zweiten Variante, der „wiederholten Reproduktion“ (Repea-
ted Reproduction), wurde jeweils dieselbe Versuchsperson aufgefordert, in ver-
schiedenen Zeitabständen die Geschichte erneut zu erzählen. Die Geschichte, die
Bartlett einsetzt, entstammt dem Untersuchungsmaterial des Anthropologen Franz
Boas, ein Indianermärchen mit dem Titel „The War of the Ghost“ (Bartlett 1997:
65). Die Geschehensabläufe dieser Erzählung unterscheiden sich deutlich von
denen abendländischer Traditionen. Besonders deutlich wird das an den Namen,
112 Torsten Koch

Objekten und Akteuren, die den Lesern ebenso fremd waren wie der Plot der Ge-
schichte. In beiden Forschungssettings war die Erinnerung der Versuchspersonen
sehr ungenau. Die Geschichten, die die Versuchspersonen nacherzählten, unter-
schieden sich oft beträchtlich von der Erzählung, die ihnen ursprünglich präsen-
tiert worden war.
Bartletts Aufzeichnungen ergaben, dass im Falle der wiederholten Reproduk-
tion bereits bei der zweiten Wiedergabe nach 20 Stunden signifikante Abweichun-
gen vorzufinden waren. Er fand heraus, dass Individuen ein ihnen präsentiertes
Material in einer für sie bedeutungsvollen Weise uminterpretieren. Einzelheiten
werden so verändert, dass sie besser zum Hintergrund der Versuchsperson und der
Bewertung anhand ihres Weltwissens passen (Assimilation). Weiterhin stellte er
fest, dass die Geschichten vereinfacht (leveling), einige Details jedoch hervorgeho-
ben und überbetont (sharpening) werden (vgl. Zimbardo 1995: 337). Insgesamt
werden die Nacherzählungen in ihrem narrativen Stil moderner, logischer und er-
halten kohärentere Strukturen (vgl. Welzer 2002: 145). Nach einer Reihe solcher
Reproduktionen bildet sich eine stabile Kernstruktur heraus, die dieselbe Richtung
behält, wenn die Versuchsperson – zum Teil nach Jahren – erneut gebeten wird,
die Geschichte nachzuerzählen.
Zusammengefasst zeigen Bartletts Studien das Bestreben der Versuchsperso-
nen, die Geschichten mit eigenem Sinn zu versehen, ein Vorgang, den Bartlett als
„Effort after Meaning“ (Bartlett 1997: 20) bezeichnet, und für den Welzer den Be-
griff „Sinnmachen“ (Welzer 2002: 145) vorschlägt. Bartlett schlussfolgert daraus,
dass vorhandene kulturelle Schemata Wahrnehmung und Erinnerung derart prä-
gen, dass Fremdes unbemerkt zu Eigenem gemacht wird. Mit anderen Worten, es
werden in den Nacherzählungen merkwürdige und für den Leser unlogische As-
pekte ausgelassen und zugleich werden all jene Merkmale, die den Akteuren unbe-
kannt sind (wie z. B. Kanus) aus dem fremden in das eigene kulturelle Schema im-
portiert.
Bartlett hat in seinen seriellen Reproduktionen eine Erzählung aus einer frem-
den Kultur verwandt, die er zur Nacherzählung westlich geprägten Probanden vor-
legte. In gewisser Weise verhält es sich mit den Geschichten, die über die Zeit des
Nationalsozialismus erzählen, ähnlich. Sie berichten von Erlebnissen aus einer an-
deren Epoche, einer anderen Gesellschaft. Diese Berichte werden von den Ange-
hörigen der Nachfolgegenerationen immer aufgrund der Erfahrung ihrer eigenen
Kultur und Zeit interpretiert.
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 113

3 Methode
Middleton und Edwards (1990: 24 ff.) haben darauf hingewiesen, dass die soziokul-
turelle Dimension in Bartletts Untersuchungen regelmäßig vernachlässigt wird. Ih-
rem Eindruck nach ist das Verfahren der seriellen Reproduktion zu wenig an sozia-
ler Kommunikation des Alltags orientiert. Bartlett untersucht in seinem experimen-
tellen Setting den Output von einer Versuchsperson zum Input der nächsten Ver-
suchsperson. Dieser lineare Prozess der Weitergabe von Erinnerungen ermöglicht
dem Forscher, die Beziehungen von In- und Output und die dazwischen liegenden
Abweichungen zu betrachten. Die Abweichungen bilden die Basis für Schlussfolge-
rungen über den Prozess des Sich-Erinnerns. Der soziale Einfluss wird zu sehr in
einer Richtung untersucht und ist eben entgegen den Situationen des alltäglichen
Sprechens nicht interaktiv ausgerichtet. Die Versuchspersonen haben keine Mög-
lichkeit, miteinander in Wechselbeziehung zu treten. Edwards und Middleton
schlagen deshalb vor, ein Untersuchungsdesign zu entwickeln, das es den Ver-
suchspersonen ermöglicht, miteinander zu reden, sich gemeinsam zu entwerfen.
Die hier vorgestellte Studie greift die Überlegungen von Middleton und Edwards
auf und nimmt im wesentlichen folgende zwei Veränderungen vor:
x Es ist den Versuchspersonen gestattet, Rückfragen an den Erzähler zu rich-
ten. Dadurch wird eine stärkere Interaktivität erreicht, die der Situation des
alltäglichen Sprechens näher kommt.
x Die Versuchspersonen werden mit einer Ausgangserzählung konfrontiert,
die aus ihrem eigenen Kulturkreis stammt und die ihnen zumindest in Tei-
len auch aus familialen Gesprächen bekannt sein dürfte.
114 Torsten Koch

[BK 1] Dass es zu Ende ging, [BK 2] sagt uns nicht nur das näher kommende Artille-
riefeuer, [BK 3]sondern auch die Tatsache, dass die ansehnlichen Damen im Haus ne-
benan, die noch vor kurzem allerlei hohen SS-Besuch gehabt hatten, weiße Bettlaken
aus den Fenstern hängten. [BK 4] Zur gleichen Zeit (das erfuhren wir erst später) hatte
der preußisch-aufrechte Offizier aus dem Ersten Weltkrieg ein paar Häuser weiter zu-
erst seine Frau, dann sich selbst erschossen.
[BK 5] Dann kamen die ersten sowjetischen Soldaten den Süntelsteig herauf, zwei jun-
ge Offiziere aus Leningrad, die deutsch sprachen und uns hoffen ließen. [BK 6] Lange
währten die Hoffnungen nicht. Ein paar Stunden später gingen wir mit Drahtscheren
daran, Lücken in die Gartenzäune zu schneiden, damit die Frauen fliehen konnten,
wenn an der Vordertür sowjetischen Soldaten Einlass begehrten. Die Angst ging um,
und Willkür herrschte. [BK 7] Ein Sowjetsoldat hoch zu Ross sah eine schluchzende
Frau, der ein anderer Soldat gerade ihr Fahrrad weggenommen hatte; ihn packte das
Mitleid und er gab der ratlosen Frau sein Pferd.
[BK 8] Manche machten sich auf zu den Geschäften im U-Bahnhof Onkel Toms Hüt-
te, deren Eigentümer das Weite gesucht hatte. [BK 9] Was nicht niet-und nagelfest war,
und zuweilen auch das, wurde geplündert; nur in dem Buchladen war ich fast allein
und holte mir vom Regal ein halbes Dutzend Rütten & Löhningen-Bände mit romanti-
scher Lyrik, die ich noch heute besitze – wenn das das richtige Wort für gestohlenes
Gut ist ...
[BK 10] Gerüchte kamen auf, ohne dass irgend jemand ihren Ursprung kannte. [BK1]
Mein Freund und ich folgten ihnen in ein SS-Warenlager, wo wir einen halben Zentner
rohes Fleisch auf eine Holztrage luden und nach Hause schleppten, [BK 12] wo meine
Mutter es dann im Waschkessel unten im Keller kochte, damit es sich hielte.
(Dahrendorf 1995: 11-12)

Abb. 1: Redeauszug Ralf Dahrendorf

Datenerhebung

Die Versuchspersonen1 wurden aus verschiedenen Seminaren der Erwachsenbil-


dung und aus Studierenden des Forschungslernseminars „Einführung in die quali-
tative Sozialforschung“2 am Institut für Soziologie und Sozialpsychologie der Uni-

1 Für ihre engagierte Mitarbeit bedanke ich mich bei den TutorInnen Jelena Jaunzeme, Michaela
Nack, Kevy-Ellen Meuser, Christian Schankat, Arne Steveling, Andreas Glöde und bei allen Studie-
renden, die im Rahmen ihrer Forschungslernprojekte an der Erhebung und Auswertung beteiligt
waren.
2 Das praktische Vorgehen qualitativer Sozialforschung ist zu großen Teilen ein prozedurales Wissen,
das den Studierenden anhand praktischer Übungen – wie dem hier dargestellten Vorgehen – vermit-
telt werden kann.
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 115

versität Hannover rekrutiert. Die Erhebung fand entweder in den jeweiligen Semi-
narräumen der Bildungseinrichtung statt oder in den Räumen des Instituts. Erste
Erhebungen wurden bereits 1999 durchgeführt. Die Datenerhebung erfolgte in
Form eines Qualitativen Experiments (Kleining 1986), das eine hohe interne Vali-
dität gewährleistet.
Zum Ablauf der Erhebung: Den Versuchspersonen wird vom Versuchsleiter
eine kurze Erzählung über das Kriegsende in Berlin vorgelesen. Für die seriellen
Reproduktionen wurde als Ausgangserzählung ein Auszug aus einem Bericht von
Ralf Dahrendorf (1995) gewählt, der einem Vortrag – gehalten aus Anlass des 50.
Jahrestags des Kriegsendes – entstammt. Die Erzählung setzt sich aus mehreren
Erinnerungseinheiten zusammen. Der Text wurde ausgewählt, weil er in Anleh-
nung an das Kategorienschema des Forschungsprojekts „Tradierung von Ge-
schichtsbewusstsein“ (Welzer et al. 2002) Erinnerungseinheiten enthielt, die für
gewöhnlich auch in Erzählungen von Zeitzeugen über die NS-Zeit vorkommen,
und weil es aufgrund der Anzahl der Erinnerungseinheit zwar möglich sein sollte,
viele aber nicht detailliert alle Erinnerungseinheiten wiedergeben zu können, son-
dern auswählen zu müssen. Unmittelbar danach werden die Versuchpersonen
(Vpn) aufgefordert, die Geschichte einer anderen Person weiterzuerzählen, diese
erzählt sie dann einer dritten Person usw. Die letzte Person einer Kette spricht ihre
Version ohne Anwesenheit eines Zuhörers auf Band. Jede Versuchsperson hat zu-
sätzlich die Geschichte noch einmal aufgeschrieben. Es entstehen Dreierketten von
Nacherzählungen, die sowohl in mündlicher als auch in schriftlicher Fassung vor-
liegen. Ergänzend notierten die Versuchspersonen einige soziodemographische
Daten wie Alter und Geschlecht auf ihren Erhebungskarten. Die Aufzeichnung er-
folgt durch die Versuchspersonen. Der Versuchsleiter ist bei der Reproduktion
nicht anwesend. Die in schriftlich- und mündlicher Form vorliegenden Nacherzäh-
lungen werden transkribiert. Die Verschriftungsregeln sind ein Kompromiss zwi-
schen Genauigkeit und Lesbarkeit des Interviewmaterials.
116 Torsten Koch

Abb. 2: Die Verwendung unterschiedlicher Farbcodierungen hat sich beim Codiervorgang als
sehr hilfreich erwiesen.

Qualitative Inhaltsanalyse

Bei der systematischen Textanalyse handelt es sich um eine computergestützte qua-


litative Inhaltsanalyse nach Mayring (2000). Die Bearbeitung erfolgte unter Zuhil-
fenahme des Textanalyseprogramms MAXQDA (Kuckartz 1999).
Die Auswertungskategorien wurden am Material entwickelt. Diese induktive
Kategorienbildung geht zurück auf die Feinanalyse der Ausgangserzählung, anhand
derer bestimmt wurde, welche im Material vorgefundenen Aspekte bei der Auswer-
tung berücksichtigt werden sollten. Anschließend wurde das Datenmaterial in klei-
neren Auswertungsgruppen anhand eines Codierleitfadens durchgearbeitet.3

3 Die Analyse wurde von mehreren Personen unter tutorieller Anleitung durchgeführt. Die Aufgabe
des Tutors bestand unter anderem darin, die Ergebnisse der Codierer zu überprüfen. Forschungs-
praktisch bedeutet das, dass vor der Datenübertragung in MAXQDA Checks durchgeführt wurden.
Bei Unstimmigkeiten entscheiden dann Experten (Arbeitsgruppe aus Tutoren und Dozent), wie wei-
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 117

Eine Einzelfallanalyse der Ausgangserzählung im Rahmen einer studentischen


Projektgruppe ergab, dass sich die Geschichte in vier Themenbereiche gliedert, die
sich wie folgt benennen lassen: Kriegsende (Absatz 1), Einmarsch sowjetischer
Soldaten (Absatz 2), Plünderungen (Absatz 3) und Organisieren (Absatz 4). Diese
vier Hauptkategorien können wiederum in 12 Basiskategorien (BK) untergliedert
werden. Das so entstandene Kategorienschema wurde auf das erhobene Material
übertragen. Die Haupt- und Basiskategorien bleiben im weiteren Verlauf der Ana-
lyse unverändert. Die Feinanalyse findet unterhalb der 12 Basiskategorien statt.
Datenerhebung und Datenauswertung liefen parallel ab. Mit einem Basiscorpus
von fünf Ketten von je drei Personen begann im Anschluss an die Transkription
der mündlichen und schriftlichen Nacherzählungen die Übertragung der Texte in
MAXQDA, so dass bereits zu einem frühen Zeitpunkt erste Auswertungen vorge-
nommen werden konnten. Fanden sich zu einem späteren Zeitpunkt neue Auswer-
tungsperspektiven, wurden für diese neue Feinkategorien mit entsprechenden Co-
dier- und Abgrenzungsregeln aufgestellt und in einem erneuten Auswertungsschritt
auf das bereits codierte Datenmaterial übertragen. Dieser erneute Überarbeitungs-
schritt erfolgte, nachdem ca. 50% des derzeit in die Analyse eingeflossenen Da-
tenmaterials ausgewertet wurde (vgl. Mayring 2000). Ein Auswechseln der Anker-
beispiele war nicht erforderlich, weil aufgrund des Forschungsdesigns immer die
Ausgangssequenz als Beleg angegeben wurde. Abschließend erfolgte der endgültige
Materialdurchlauf. Dieses Vorgehen, das erst aufgrund der computergestützten Da-
tenanalyse möglich wurde, hat den großen Vorteil, dass neue Feinkategorien, die
bisher nicht aufgetreten waren, in ein bereits bestehendes Kategorienschema inte-
griert werden konnten. Zugleich wurden die neu entwickelten als auch die bereits
vorhandenen Kategorien in einer Rückkopplungsschleife (Mayring 2000) einer Re-
liabilitätsprüfung unterzogen. Teilweise wurden bei diesem Schritt die Feinkatego-
rien zusammengefasst, umbenannt oder die Codierregeln modifiziert.
In Verbindung von qualitativen und quantitativen Analyseverfahren wurden die
Codierungen einer Häufigkeitsauszählung unterzogen, die einerseits ein präzises
Beschreiben der Daten auf einer quantitativen Ebene ermöglichte und andererseits
sicherstellte, dass die Interpretation der Daten auch im Zentrum des erhobenen
Materials stattfand und nicht etwa solche Sequenzen in den Mittelpunkt rückte, die
zwar besonders eindrücklich waren, jedoch in der Gesamtperspektive des Daten-
materials eher an der Peripherie lagen. Mit anderen Worten, die deskriptive statisti-

ter zu verfahren ist. Gegebenenfalls wurden so die Codierregeln erweitert oder ergänzt, neue Kate-
gorien gebildet oder eine Kategoriendifferenzierung vorgenommen.
118 Torsten Koch

sche Datenanalyse durch simple Häufigkeitszählungen und Kreuztabulationen er-


möglichte einen objektivierenden Fokus in Bezug auf die inhaltsanalytische Be-
schreibung (vgl. Mayring 2001). Im fortlaufenden Analyseprozess wurden weitere
Variabeln, die sich anhand der Analyse ergeben haben, ergänzt. Ein Beispiel dafür
sind Variablen, die angeben, ob jemand über ein Thema spricht oder nicht. Erste
quantitative Datenanalysen sind direkt in MAXQDA möglich. Nach Abschluss der
qualitativen Inhaltsanalyse wurden die soziodemographischen Daten und die Co-
deworthäufigkeiten in SPSS übertragen. Diese Form der deskriptiven Datenanalyse
lieferte kategoriale Daten; das heißt, die Daten schließen sich nur logisch aus (di-
chotome Werte). So lassen sich Häufigkeiten der Ausprägungen, typische Konfigu-
rationen, Abhängigkeiten etc. untersuchen. Auch kleinere statistische Operationen
wurden auf diesem Datenniveau möglich (vgl. Mayring 1994: 17).
Die Auswertungseinheit bilden die transkribierten schriftlichen (78) und münd-
lichen (54) „seriellen Reproduktionen“ einer Person. Der zu analysierende Fall
kann je nach Fragestellung eine Dreierkette oder eine einzelne Person sein. So las-
sen sich z. B. die jeweils erste Person einer Kette bezüglich der Genauigkeit ihrer
Erinnerung miteinander vergleichen oder es kann anhand der Ketten die kommu-
nikative inner- und intergenerationelle Tradierung untersucht werden. Dadurch
lässt sich zeigen, welche Themen aufgegriffen werden, ob die Erzählreihenfolge der
Ausgangserzählung eingehalten wird, welche Teile nicht oder seltener weitererzählt
werden und welche Erinnerungseinheiten aufgenommen oder modifiziert werden.
Auf der Grundlage der deskriptiven Datenanalyse lassen sich Arbeitshypothesen
formulieren, die dann inhaltlich am Material überprüft werden (vgl. Mayring 2000).
Doppelcodierungen sind nicht zugelassen, so dass für jede schriftliche und mündli-
che Fassung maximal 12 Sequenzen codiert werden können (maximal 24 Codings
pro Person). Dieses Vorgehen ermöglicht es, genaue Aussagen darüber zu treffen,
welche Erinnerungseinheiten der Ausgangserzählung aufgenommen werden. Die
Codiereinheiten mussten möglichst kurz gefasst werden, da Nacherzählungen stark
von der Ursprungsgeschichte abweichen können. Aus diesem Grund wurden die
12 Basiskategorien (BK) in kurze Erinnerungseinheiten unterteilt und generell-
abstrakt beschrieben.
Beispiele für Erinnerungseinheiten:
x Erzählte Zeit: „dass es zu Ende ging“ (es = der Krieg)
x Objekte: „weiße Bettlaken“
x Aktionen: „aus dem Fenster hängen“
x Akteure: „ansehnliche Damen“
x Orte der Handlung: „im Haus nebenan“
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 119

Stichprobe

Das Sample umfasst derzeit 78 Personen. Davon sind 78,2% (61) Personen Frauen
und 21,8% (17) Männer. Sie waren zum Zeitpunkt der Erhebung im Mittel 27 Jahre
alt. Die Standardabweichung beträgt 9 Jahre und der Modalwert liegt bei 21 Jahren.
Die jüngste Versuchsperson ist 20 Jahre alt, die älteste 58. Die Altersklasse der 20 –
24 Jährigen umfasst 70% der Befragten. Bei 54 Versuchspersonen handelt es sich
um Studierende und bei 24 Personen um Erwerbstätige. Insgesamt liegen z. Z. 132
verschriftete Texte vor, davon sind 78 schriftliche (s) und 54 mündliche (m) Re-
produktionen.

4 Ergebnisse
Absolut wurden 910 Sequenzen codiert. Davon entfallen 536 Codings auf die 78
Schriftfassungen und 374 Codings auf die 54 mündlichen Fassungen. Durch-
schnittlich gibt jede Versuchsperson sieben (Modalwert: 8) von maximal 12 mögli-
chen Erinnerungseinheiten wieder. In insgesamt 33 Fällen (25%) wird die Erzähl-
reihenfolge der vier Hauptthemen eingehalten bzw. es werden alle vier Blöcke er-
wähnt. 24 thematisch vollständige Replikationen liegen in der Schriftfassung vor
und neun in der mündlichen.
Eine geschlechtspezifische Analyse anhand der absoluten Häufigkeiten der Co-
dings in den vier Hauptkategorien zeigt, dass Männer (17) sich quantitativ in den
schriftlichen Nacherzählungen etwas besser erinnern (60% der möglichen Erinne-
rungseinheiten) als in den mündlichen Nacherzählungen (50%). Die weiblichen
Versuchspersonen erreichen sowohl in der schriftlichen wie in der mündlichen
Fassung leicht höhere Werte, die bei rund 60% liegen. Thematisch gibt es in ein-
zelnen Kategorien vereinzelt geschlechtsspezifische Unterschiede.
In der Hauptkategorie II „Einmarsch sowjetischer Soldaten“ ist auffallend, dass
die häufig wiederholte Passage über die Flucht vor den Sowjetsoldaten öfter von
Männern (80%) als von Frauen (70%) nacherzählt wird. In der Hauptkategorie III
„Plündern“ berichten etwas über 90% der Frauen von der Plünderung des Buchla-
dens, während dies weniger als die Hälfte der Männer tun. In dem letzten Ab-
schnitt über das „Organisieren“ werden die Gerüchte nur von Frauen (4 Vpn.) er-
wähnt und sie sprechen häufiger (80%) von der Erzählung über das SS-Warenlager
als Männer (60%) es tun.
120 Torsten Koch

Durchmischen und Auslassen von Geschichten

Häufig werden gerade solche Geschichten miteinander verzahnt (vgl. Metzger


1982), die sich in besonderer Weise ähneln, d. h. wenn die handelnden Akteure
Gemeinsamkeiten aufweisen oder vergleichbare Aktionen dargestellt werden. Eine
23-jährige Frau erzählt folgende Geschichte:
„Die rote Armee kam und besetzte das Haus. Es wurde mit einem Drahtmesser ein Loch in
den Zaun geschnitten, damit die Bewohner des Hauses flüchten konnten. Der Nachbar, ein
Feldwebel, hatte sich vorher in seinem Haus erhängt“ (G45 P1s)4.

In dieser kurzen Passage werden Erinnerungseinheiten aus der ersten, zweiten und
dritten Hauptkategorie zu einer neuen Geschichte angeordnet. Der Akteur wird
von einem aufrechtem preußischem Offizier zu einem Feldwebel, nicht mehr die
Frauen fliehen vor den sowjetischen Soldaten, sondern die Bewohner des Hauses
und der erweiterte Selbstmord durch Erschießen wird zum Selbstmord durch Er-
hängen. Durch das Austauschen des Akteurs, durch Modifizieren von Handlungen
und durch die Umstellung der Erzählreihenfolge ergibt sich eine vereinfachte und
eindeutigere Erzählung. Die Erinnerungseinheit in der Ausgangserzählung (BK 4)
lässt bei genauer Betrachtung viele Fragen offen, die von den Versuchspersonen
gedeutet werden müssen, um nacherzählt werden zu können.
Betrachtet man das Durchmischen und Auslassen der Geschichten aus Bartletts
Perspektive der aktiven Erinnerungsrekonstruktion, lässt sich ganz allgemein sagen,
dass sich die erinnerten Texte durch einige Besonderheiten auszeichnen, die auch
anhand dieses Datenmaterials festgestellt werden konnten. Nacherzählungen sind
meist kürzer als Zeitzeugenberichte und häufig auch verständlicher und eindeutiger
als die Originale. Im folgenden Beispiel wird eine Erinnerungseinheit aus der ersten
mit einer aus der dritten Hauptkategorie vermischt: „Der Nachbar war ein Haupt-
mann und ist schon vorher abgehauen zur Haltestelle ‚Onkel Toms Hütte‘„ (G45
P3s, männlich, 21 Jahre).
Häufig werden auch bestimmte Perspektiven aus den Erzählungen ausgewählt
und daran fädelt sich die Nacherzählung auf. Diese Wahrnehmung des Rezipienten
muss deshalb nicht auf der intentionalen Ebene der Ausgangserzählung angelegt
sein, sondern kann unbeabsichtigt weitergegeben werden. Ein weiterer wichtiger
Aspekt: Die wiedergegebenen Erzählungen werden der persönlichen Einstellung
des Sprechers angepasst. Konträre Aussagen zur eigenen Einstellung können im

4 Die Kürzel bezeichnen die jeweilige Gruppe, die Erhebungsreihenfolge und die vorliegende Form
der Nacherzählung (schriftlich oder mündlich).
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 121

Extremfall zum Weglassen der Erinnerungseinheit führen. Das trifft besonders auf
die Basiskategorie (BK4) „erweiterter Selbstmord“ zu, die die mit Abstand am häu-
figsten ausgelassene Erinnerungseinheit ist. Lediglich 11 Personen (21 Codings)
greifen die Basiskategorie in ihren Nacherzählungen auf.
Allgemein lässt sich sagen, dass die Nacherzählungen dieser Basiskategorie zum
Teil entkonkretisiert werden, indem der Ort (irgendwo) und/oder der Akteur (ei-
ner) durch Platzhalter ersetzt werden. Welzer et al. (2002) bezeichnen diese Form
der Kommunikation als „Leeres Sprechen“. „Irgendwo in der Nachbarschaft wur-
de jemand erschossen“ (G21 P2m, männlich, 23 Jahre).

Stereotype

Die Ausgangserzählung greift ein gängiges Erzählmuster über Sowjetische Soldaten


auf: „Russen“ sind diejenigen, vor denen man Angst haben musste, vor denen man
sich versteckte oder floh. Niethammer (1990) hat darauf hingewiesen, dass „Rus-
sen“ als Opfer der Nationalsozialistischen Gewaltherrschaft in den Erinnerungen
der Deutschen kaum vorkommen. Es sind diejenigen, vor denen man zu Recht
Angst hatte, wie sich in Erzählungen immer wieder bestätigt (vgl. Welzer et al.
2002: 141). Wie selbstverständlich werden „die Russen“ mit Plünderungen, Mord,
Vergewaltigung etc. in Verbindung gebracht.
Die Ausgangserzählung selbst ist doppeldeutig und entspricht einer gängigen
Unterteilung in Zeitzeugenberichten in „gute und schlechte Russen“. Da gibt es
einerseits den Typus des sowjetischen Soldaten, der Fahrräder und Frauen verlang-
te und der als primitiv dargestellt wird. Kontrastiert wird dieser Typus mit dem kul-
tivierten Offizier, der deutsch sprach und der die Ausschreitungen seiner Kamera-
den verabscheute und unterband (vgl. dazu auch Grossmann 1995: 117). Beide Ty-
pen sind in der Ausgangserzählung mehrfach angelegt. Einem eher positiven Rus-
senbild entsprechen die zwei deutschsprechenden Offiziere aus Leningrad und ein
Sowjetsoldat, der – wenn auch in etwas naiver Geste – einer (deutschen) Frau, der
das Fahrrad gestohlen wurde, sein Pferd schenkt. Die Kehrseite der Medaille wird
durch die an der Haustür Einlass begehrenden Sowjetsoldaten und den fahrrad-
stehlenden (sowjetischen) Soldaten entworfen.
In der Kategorie „Einmarsch sowjetischer Soldaten“ wurden insgesamt 253 Se-
quenzen in drei Basiskategorien (5 – 7) codiert. Davon 191 aus den schriftlichen
und 142 aus den mündlichen Reproduktionen. 12 Personen berichten in 25 codier-
ten Sequenzen eher wertneutral vom Einmarsch der sowjetischen Armee (Basiska-
tegorie: Hoffnung), 26 Personen (49 Codings) greifen die Doppeldeutigkeit der
122 Torsten Koch

Ausgangserzählung auf und 13 Personen (19 Codings) berichten ausschließlich ne-


gativ über den Einmarsch der sowjetischen Soldaten. Das kann sich u. a. dadurch
äußern, dass Erinnerungssequenzen in den Kontext des Plünderns verlagert wer-
den: „Die Russen sind einmarschiert und plündern“ (G13 P2s, weiblich, 58 Jahre).
Oder wie das folgende Beispiel zeigt, wird ein generelles Stereotyp bemüht, das in
der Ausgangserzählung nicht angelegt ist: „Russen sind eingefallen, haben Frauen
und Kinder misshandelt und missbraucht“ (G44 P2s, weiblich, 29 Jahre).
Weitere 11 Personen berichten nicht negativ von sowjetischen Soldaten. Es las-
sen sich drei Formen der positiven Darstellung unterscheiden.
1. In einer Variante wird der erste Teil der Erinnerungseinheit – das Stehlen
des Fahrrads – ausgelassen, so dass nur die positive Aussage erhalten bleibt:
„Ein Russischer Soldat reitet auf einem Pferd, trifft eine Frau und schenkt
ihr das Pferd“ (G20 P3s, weibl., 23 Jahre).
2. In der zweiten Variante wird der Akteur entkonkretisiert: „Einer Frau, der
man das Rad wegnahm, schenkte ein russischer Soldat sein Pferd, da er Mit-
leid mit ihr hatte“ (G6 P1s, weibl. 39 Jahre).
3. In der dritten Variante schließlich werden sowjetische Soldaten entgegen
der Darstellung in der Ursprungsgeschichte als sympathische, bisweilen
hilfsbereite Akteure dargestellt: „Ja [.] dann die, die Bewohner des Dorfes
haben äh Hoffnung bekommen, weil die paar Soldaten aus sowjetische Ar-
mee gekommen sind. Und ich glaub, die Deutschen haben gesagt, das is ja
alles ok so“ (G44 P1m, weibl., 23 Jahre).
Bei genauerer Analyse zeigt sich, dass positive Aussagen ausschließlich von Studie-
renden (8 Personen) aus osteuropäischen Staaten gemacht werden.5 Daten über die
Staatsangehörigkeit wurden anfänglich nicht systematisch erhoben. In einem Pro-
zess der Rekonstruktion anhand der Tonbänder (sprachliche Auffälligkeiten) und
in Rücksprache mit den TutorInnen bestätigt sich die Vermutung. Das Weiter-
erzählen folgt erinnerungskulturellen Normen und tradierten Schemata6, wobei be-
sonders bemerkenswert ist, dass Stereotype ein überpersonales Eigenleben zu ha-

5 Derzeit arbeitet eine Projektgruppe daran, ausschließlich in Deutschland studierende Kommilitonin-


nen aus osteuropäischen Ländern zu erheben, um die Daten einem interkulturellen Vergleich zu
unterziehen.
6 Taylor/Crocker (1981) unterscheiden drei Arten von Schemata, die bei der sozialen Wahrnehmung
relevant sind: Person-Schemata (z. B. prototypische Konzeptionen Eindrücke von Personen, Selbst-
schemata), Rollen-Schemata (z. B. Gruppenstereotype) und Ereignisschemata (z. B. sog. Skripte).
Stille Post – Eine computergestützte qualitative Inhaltsanalyse „Serieller Reproduktionen“ 123

ben scheinen. Sie kommen in den Nacherzählungen auch dann vor, wenn sie ur-
sprünglich gar nicht oder nur andeutungsweise vorhanden waren.

De- und Rekontextualisierung

Bei den Themen „Organisieren“ und „Plünderungen“ fallen bei 53 Personen die
Nacherzählungen eher neutral und bei 25 Personen deutlich negativ aus. Das
macht sich an Begriffen wie „stehlen“ fest. „Organisieren“ steht umgangssprach-
lich für etwas, das auf nicht ganz rechtmäßige Weise den Besitzer wechselt. Mit
dem Begriff des „Organisierens“ kann einerseits schlicht Diebstahl aber ebenso
Übervorteilung bei Geschäften, oder das Sich-Erschleichen von Eigentum gemeint
sein. In jedem Fall wird eine andere Person ausgetrickst und übervorteilt. Meist
handelt es sich dabei um lustige Geschichten, die die Pfiffigkeit ihres Erzählers
zum Ausdruck bringen sollen. Insbesondere in der unmittelbaren Nachkriegszeit
hat der Begriff aufgrund der anarchischen Gegebenheiten Hochkonjunktur (vgl.
Lehmann, 1987: 54 f.).
In Alltagserzählungen steht demgegenüber häufig der Begriff des „Plünderns“.
Er bezeichnet eher die Aktivitäten der fremden Wir-Gruppe, die durch einen au-
ßenstehenden Beobachter geschildert werden. Während es in Erzählungen über das
Organisieren wie selbstverständlich kein Mitleid mit den Opfern gibt, ermöglichen
Erzählungen über Plünderungen, sich von der negativen Bezugsgruppe abzugren-
zen. Das Freund-Feind-Schema ist fester Bestandteil solcher Erzählungen. Padover
(1999), ein Offizier der Abteilung psychologische Kriegsführung, der 1944 mit den
amerikanischen Truppen Richtung Deutschland vorstieß und dessen Auftrag es
war, die besiegten Deutschen zu befragen, weist darauf hin, dass die Deutschen
sich ständig bei den Alliierten über die „Ostarbeiter“ beklagt haben, weil diese steh-
len und plündern würden. In einem Bericht an das Hauptquartier weist er darauf
hin, dass sich die geschundenen Polen und Russen nur das Allernötigste nahmen.
„Die eigentlichen Plünderungen gingen auf das Konto amerikanischer Soldaten
und deutscher Zivilisten“ (Padover 1999: 283).
14 Personen (25 Codings) vollziehen die Trennung zwischen Organisieren und
Plünderung nicht nach und sprechen von Diebstahl. 35 Personen (59 Codings)
bleiben mit ihren Nacherzählungen im Wortlaut dicht an der Ausgangserzählung
und sprechen z. B. von „mitnehmen“. 10 Personen (neun Frauen und ein Mann)
verlagern den Ort der Handlung in eine der Gegenwart vergleichbareren Situation
und sprechen vom Einkaufen (15 Codings): „Auf dem Weg kamen wir an einem
124 Torsten Koch

Warenhaus vorbei. Meine Mutter war/nahm etwas Fleisch mit“ (Gruppe 18 P2s,
weibl, 25 Jahre).

5 Fazit
Geschichten werden in den Gesprächen nicht einfach eins zu eins nacherzählt, sie
sind keine starren Konstrukte, sondern erfahren durch das Erzählen und Bewerten
Veränderungen und werden schließlich zu eigenen Geschichten. Mehrdeutigkeiten
der Ursprungserzählung werden in den Nacherzählungen aufgehoben, neue An-
ordnungen getroffen, Strukturen gebildet und Bedeutungen neu zugewiesen. All
dies sind motivierte Prozesse, die sich anhand der vier nachstehenden Befunde zu-
sammenfassen lassen:
1. Problematische, widersprüchliche Inhalte werden in der Nacherzählung
weggelassen: solche Inhalte, die sich nur schwer mit dem Bild von der eige-
nen Wir-Gruppe vereinbaren lassen, werden häufig nicht mehr erinnert.
2. Die Nacherzählungen werden de- oder rekontextualisiert: Geschichten wer-
den in den Nacherzählungen aus dem Rahmen der NS-Zeit herausgenom-
men und anschließend auf dem Hintergrund der eigenen Erfahrung der
Gegenwart interpretiert und in den Rahmen anderer, meist unverfängliche-
rer Zusammenhänge nacherzählt.
3. Die Geschichten werden miteinander vermischt und zu neuen logischen
Gebilden verbunden: Häufig werden ähnliche Geschichten miteinander
vermischt, d. h. wenn z. B. die handelnden Akteure sich ähneln oder ver-
gleichbare Aktionen dargestellt werden. Eine exakte Rekonstruktion gelingt
dann oft nur schwer.
4. Stereotype Vorstellungen führen zu verzerrten Nacherzählungen: Fest ge-
fügte Stereotype führen zu Nacherzählungen, die den Ursprungserzählun-
gen positiv und negativ entgegenstehen können.
Replikationen von Bartletts Untersuchungen scheinen unter anderem deshalb loh-
nend, weil sie zeigen, dass die narrative Reproduktion kein kognitiver Vorgang ist.
Mit Hilfe der Erhebungstechnik des Qualitativen Experiments bzw. mit themen-
zentrierten seriellen Reproduktionen lässt sich eine neue Perspektive auf den Vor-
gang der Tradierung eröffnen, der in engen biographischen, identitätsbezogenen
Kontexten, wie z. B. Familiengesprächen, so nicht untersucht werden kann.
Der Nationalsozialismus im familialen Dialog.
Qualitative Inhaltsanalyse von
Drei-Generationen-Interviews mit MAXQDA

Olaf Jensen

Zusammenfassung
Qualitative Studien haben den Nachteil, aufgrund der recht arbeits- und zeitintensiven hermeneutischen
Analyse von verbalen Daten meist nur relativ kleine Fallzahlen auswerten zu können. Soll aber eine grö-
ßere Zahl von Interviews vergleichend ausgewertet werden, ist es notwendig, hermeneutische Verfahren
mit etwas ökonomischeren Methoden zu kombinieren. Hier wird eine Verfahrensweise vorgestellt, die
die Vorteile einer hermeneutischen Feinanalyse mit den Vorzügen der computergestützten Qualitativen
Inhaltsanalyse verbindet. Basierend auf induktiv generierten Kategorien wurde eine qualitative Studie,
bestehend aus 182 Interviews mit den Angehörigen von 40 ost- und westdeutschen Familien zu ihrem
kommunikativen Umgang mit der Zeit des Nationalsozialismus, nach eindeutig definierten Kriterien mit
Hilfe von MAXQDA inhaltsanalytisch ausgewertet.
Das Ergebnis der qualitativen und quantitativen Auswertungsschritte sind fünf Strukturmerkmale des
intergenerationellen Sprechens über die NS-Vergangenheit – Opferschaft, Rechtfertigung, Distanzie-
rung, Faszination und Heldentum, die das Sprechen der interviewten Familienangehörigen kennzeich-
nen und die hier in Auszügen vorgestellt werden.

1 Einleitung
Die vorliegende Analyse der Strukturmerkmale des intergenerationellen Sprechens
über die nationalsozialistische Vergangenheit in 40 deutschen Familien entstand im
Rahmen eines Forschungsprojektes am Psychologischen Institut der Universität
Hannover. Hier wurde im Rahmen einer qualitativen Mehrgeānerationenstudie von
1997 bis 2000 untersucht, wie die nationalsozialistische Vergangenheit im Bewusst-
sein und im Unbewussten der Deutschen fortwirkt. Anhand von Einzel- und Fami-
126 Olaf Jensen

liengesprächen ging das Projekt „Tradierung von Geschichtsbewusstsein“1 der Fra-


ge nach, was „ganz normale“2 Deutsche aus der NS-Vergangenheit erinnern, wie
sie daārüber sprechen und was davon auf dem Wege kommunikativer Tradierung
an die Kinder- und Enkelgenerationen weitergegeben wird.
Ausgehend von der These, dass nicht nur die Zeitzeugengeneration, sondern
auch die Nachfolgegenerationen über kulturelle und kommunikative Tradierungs-
prozesse vielfältig an die Zeit des Nationalsozialismus gebunden sind, untersuchte
die Forschungsgruppe mit Hilfe von qualitativen Interviews die Weitergabe von
Erinnerungsbeständen und Deutungsmustern, wobei die Angehörigen von 40 Fa-
milien aus den alten und den neuen Bundesländern sowohl einzeln als auch ge-
meinsam nach erlebten und überlieferten Geschichten aus der nationalsozialisti-
schen Vergangenheit gefragt wurden. Ziel der Untersuchung war herauszuarbeiten,
wie im familialen Umfeld über Nationalsozialismus, Krieg und Holocaust gespro-
chen wird und was sich jenseits der Bildungsinstitutionen für Deutungsmuster über
diese Zeit gebildet haben. Für die Auswertung wurde eine Methodenkombination
aus induktiver Kategorienbildung und Qualitativer Inhaltsanalyse mit MAXQDA
(Kuckartz 1996, 1999) gewählt, da die Analyse der intergenerationellen Tradierung
nicht in Form von Einzelfallstudien auf Basis einiger weniger Interviews erfolgen,
sondern eine für qualitative Studien recht große Stichprobe von 182 Interviews
vergleichend ausgewertet werden sollte.
Bei den nachfolgend vorgestellten Ergebnissen dieser Analyse handelt es sich
um fünf sogenannte Tradierungstypen, die die Strukturmerkmale des intergenera-
tionellen Sprechens, also die Form der sprachlichen Weitergabe der NS-
Vergangenheit von der Zeitzeugen-, über die Kinder-, bis zur Enkelgeneration be-
inhalten. Dabei wurden die kleinen und großen weitererzählten Geschichten, An-
ekdoten, Bemerkungen oder Kommentare der Interviewten im Rahmen einer Qua-
litativen Inhaltsanalyse mit dem Computerprogramm MAXQDA den fünf vorher
in Einzelfallanalysen generierten Strukturmerkmalen „Distanzierung“, „Faszina-
tion“, „Heldentum“, „Opferschaft“ und „Rechtfertigung“ zugeordnet.

1 Das von der VolkswagenStiftung geförderte Projekt wurde geleitet von Prof. Dr. Harald Welzer,
MitarbeiterInnen waren Sabine Moller, Karoline Tschuggnall, Olaf Jensen, Torsten Koch und Erika
Rothärmel.
2 „Normal“ heißt hier, dass es explizit darum ging, keine Familien von „Tätern des Nationalsozialis-
mus“ im juristischen Sinne zu interviewen. Es muss aber festgestellt werden, dass die männlichen
Zeitzeugen in zwei Familien durchaus unter diese Kategorie fallen.
Der Nationalsozialismus im familialen Dialog 127

2 Material der Untersuchung


Die ausgewertete Stichprobe umfasst 40 Familien bzw. 182 Einzelinterviews und
Familiengespräche. Die Rekrutierung der Familien fand überwiegend nach dem
„Schneeball“-Verfahren statt. Voāraussetzung für die Teilnahme war, dass ein Zeit-
zeuge des Nationalsozialismus (möglichst aus den Jahrgängen 1910 bis 1925) und
auch die Angehörigen der Kinder- bzw. Enkelgeneration zum Gespräch bereit wa-
ren.3 Die biographischen Interviews fanden bei den Interviewten zu Hause statt
und wurden auf Tonband aufgenommen. Sie wurden ohne Leitfaden durchgeführt,
wobei der Fokus auf die Zeit des Nationalsozialismus gerichtet war, denn die
Interviews sollten möglichst offen und „alltagsnah“ sein. Sie wurden durch allge-
meine Fragen eingeleitet wie: „Sie haben einen Teil Ihres Lebens (Kindheit/Ju-
gend/junger Erwachsener) in der Zeit des Nationalsozialismus gelebt. Gibt es prä-
gnante Erlebnisse aus der NS-Zeit, an die Sie sich noch besonders erinnern?“
(Zeitzeugen) bzw. „Gibt es prägnante Geschichten aus der NS-Zeit, die dir Eltern
oder Großeltern erzählt haben?“ (Kinder- und Enkelgeneration).
Die Familiengespräche wurden grundreizbasiert durchgeführt und orientierten
sich an dem von Friedrich Pollock 1955 entwickelten Verfahren der Gruppendis-
kussion (Pollock 1955, Lamnek 1995, Mangold 1960).4 Von den aufgezeichneten
Interviews wurden Transkripte angefertigt, wobei die verwendeten Verschriftungs-
regeln sämtliche sprachliche und wichtige nichtāsprachliche Äußerungen (z. B. Ges-
ten) dokumentieren (Jensen 2004a, vgl. Flick 1998: 192). Selbstverständlich sind al-
le verwendeten Namen im Zusammenhang mit den dokumentierten Interviews er-
funden, Namen von großen Städten oder Namen von öffentlich bekannten Perso-
nen sind nicht verändert.

3 34 Fälle sind dokumentiert, in denen die Interviews wegen der fehlenden Bereitschaft eines Genera-
tionsangehörigen und trotz anfänglicher Zusage nicht zustande kamen.
4 Der zu Beginn des Familiengesprächs per Videorekorder eingespielte Film von ca. 10 Minuten be-
steht aus 13 Sequenzen ohne Ton. Die meisten Sequenzen sind Amateuraufnahmen z. B. über einen
BDM-Rapport, die Hochzeit eines SS-Mannes in Uniform oder spielende Kindern in Soldatenuni-
form (vgl. Welzer et al. 2002: 211 ff., Jensen 2004a). Ziel war dabei, die Beteiligten mit möglichst
nicht determiniertem visuellen Material über den Nationalsozialismus zu einer Diskussion anzure-
gen.
128 Olaf Jensen

Stichprobenbeschreibung

Die Herkunft der 30 west- und 10 ostdeutschen Familien wird anhand des Wohn-
ortes der Angehörigen der Zeitzeugengeneration definiert. Die Generationeneintei-
lung ist genealogisch angelegt, d. h. die einzelnen Interviewpartner werden nicht in
Hinblick auf ihren Geburtsjahrgang Generationen zugeordnet, sondern aufgrund
ihrer Stellung innerhalb der Familie. Die Generationen und Geschlechter verteilen
sich wie folgt:

Geschlecht
weiblich männlich Gesamt
Generation Zeitzeugen 31 17 48
Kinder 25 25 50
Enkel 19 25 44
Gesamt 75 67 142

Tab. 1: Zusammensetzung der Stichprobe

Von den 48 interviewten Zeitzeugen sind 31 weiblich und durch die Jahrgänge von
1906 bis 1933 vertreten, 17 Zeitzeugen sind männlich und gehören ebenfalls den
Jahrgängen von 1906 bis 1933 an. Das durchschnittliche Alter der Zeitzeugen zum
Erhebungszeitraum lag damit bei ca. 80 Jahren. Die Angehörigen der Kindergene-
ration teilen sich in 25 Frauen in den Jahrgängen von 1934 bis 1967 und 25 Män-
ner, verteilt auf die Jahrgänge von 1933 bis 1964; das Durchschnittsalter zum Zeit-
punkt des Interviews betrug 46 Jahre. Die Enkelgeneration ist in dieser Studie
durch 19 weibliche (1966 – 1986) und 25 männliche (1954 – 1985) Enkel vertreten.
Sie waren zum Zeitpunkt der Interviews durchschnittlich 23 Jahre alt.
Die Erwerbs- bzw. Bildungsstruktur der gesamten Stichprobe liegt insgesamt
im gehobenen Qualifikationsbereich. Besonders Kinder- und Enkelgeneration zäh-
len überwiegend zur Gruppe der Angestellten bzw. zu Schülern und Studenten.
Die Interviews wurden von acht weiblichen und fünf männlichen Interviewern
durchgeführt. Die Interviewerinnen führten Interviews mit 24 Familien durch und
gehören den Jahrgängen 1964 bis 1976 an, die Interviewer machten Interviews mit
16 Familien und zählen zu den Jahrgängen von 1958 bis 1969.
Der Nationalsozialismus im familialen Dialog 129

3 Auswertungsmethoden

Grounded Theory und Hermeneutische Dialoganalyse

Qualitative Studien haben in der Regel den Nachteil, aufgrund der arbeitsā- und
zeitintensiven hermeneutischen Analyse verbaler Daten nur kleine Fallzahlen aus-
werten zu können. Mit der hier gewählten Methodenkombination aus induktiver
Kategorienbildung und computergestützter Qualitativer Inhaltsanalyse mit MAX-
QDA können aber die Stärken einer detaillierten hermeneutischen Analyse mit den
Vorteilen des inhaltsanalytischen Vorgehens kombiniert werden, was die Auswer-
tung einer recht großen Stichprobe ermöglichte.
Die Erhebung und Auswertung der Untersuchung ist orientiert am offenen, in-
duktiven und vergleichenden, sehr eng am Datenmaterial operierenden Stil der
Grounded Theory (Glaser/Strauss 1998, Strauss 1987, Strauss/Corbin 1990), wo-
bei die Kategorienbildung mit Hilfe der Hermeneutischen Dialoganalyse (Welzer
1993, 1998) erfolgte und anschließend in das regelgeleiteten Vorgehen der Qualita-
tiven Inhaltsanalyse nach Mayring (1990, 1997) mündete, um nach eindeutig defi-
nierten Kategorien die gesamte Stichprobe inhaltsanalytisch zu bearbeiten. Diese
Methodenkombination ist bereits an anderer Stelle ausführlich dargestellt worden
(Jensen 2000, 2004a, 2004b).
Für die induktive Kategorienbildung im Rahmen der Grounded Theory wurde
die Hermeneutische Dialoganalyse von Welzer (1990, 1993, 1995, 1998) verwendet.
Zwar wird im Rahmen der Grounded Theory grundsätzlich induktiv vorgegangen,
die Kategorien werden also direkt aus dem Material generiert, jedoch vernachlässigt
sie die für die hier vorliegende Fragestellung maßgeblichen Interaktionsprozesse,
die zwischen den Interview- bzw. Gesprächsteilnehmern stattfinden (vgl. Jensen
2000, Jensen/Welzer 2003). Die Analyse dieser Interaktionsprozesse ist deshalb
notwendig, weil es weder den Zeitzeugen der NS-Zeit möglich ist, unabhängig von
gesellschaftlicher Bewertung und Entwicklung über ihr Leben im Nationalsozialis-
mus zu berichten, noch können die Angehörigen der Nachfolgegenerationen wie
auch die Interviewerinnen und Interviewer mit diesen Erzählungen situativ nicht-
normativ umgehen (vgl. Watzlawick et al. 1974).
Die Hermeneutische Dialoganalyse lässt sich als eine pragmatische Weiterent-
wicklung der Objektiven Hermeneutik (Oevermann et al. 1979) beschreiben. Bei
dieser Analysemethode wird sich sowohl an das Gruppenprinzip als auch an das
Prinzip der sequenziellen Interpretation gehalten, kein Interakt wird demnach im
Lichte zeitlich nachfolgender Interakte interpretiert. Außerdem wird die von Oe-
130 Olaf Jensen

vermann et al. als „weniger wichtig“ (1979: 399) bezeichnete Ebene 4 zum zentra-
len Bestandteil der Analyse: Hier geht es um die Klärung der Funktion eines Inter-
akts in der Verteilung der Interaktionsrollen. Dabei werden die entstandenen Paar-
sequenzen des Gesprächs, d. h. die pragmatische Ebene der Kommunikation analy-
siert. Dies sind die zentralen Stellen, an denen deutlich wird, welche Motive hinter
dem Interakt stehen. Gerade die situativ gegebenen Beiträge beider bzw. aller
Interakteure – auch die der Interviewerinnen und Interviewer – stehen also bei die-
ser Analyse im Zentrum. Der Vorteil eines solchen Vorgehens ist, dass sich die
Interpretation eines Interakts auch damit validieren lässt, wie der nächste Sprecher
auf diesen reagiert; wie die Äußerung also von den Beteiligten aufgenommen bzw.
interpretiert wird (vgl. Jensen 2004b).

Ergebnisse der induktiven Kategorienbildung


Mit Hilfe dieses Verfahrens wurden im Rahmen einer kleinen Pilotstudie (Welzer et
al. 1997) und der Hauptuntersuchung induktiv die hier untersuchten Struktur-
merkmale des intergenerationellen Sprechens generiert und definiert,5 bevor im
Rahmen der Qualitativen Inhaltsanalyse die gesamte Stichprobe der Hauptuntersu-
chung anhand dieser (Ober-) Kategorien bearbeitet wurde. Diese Kategorien sind
folgende fünf Tradierungstypen, die die Strukturmerkmale des intergenerationellen
Sprechens über den Nationalsozialismus in den interviewten deutschen Familien
beinhalten: Distanzierung, Faszination, Heldentum, Opferschaft und Rechtferti-
gung.
Im Strukturmerkmal „Distanzierung“ ist aufgehoben, wie unbeteiligt die Zeit-
zeugen am NS-Regime nach Meinung der jeweils Interviewten schon während der
NS-Zeit gewesen sind, beispielsweise, weil sie „auf dem Land“ gelebt haben oder
weil sie sich über Protagonisten des Regimes lustig machten („wir sachten nur im-
mer Goldfasan“). Dies führt in der Interaktion dazu, dass sich die Gesprächsteil-
nehmer der verschiedenen Generationen gemeinsam auf einer abstrakten und NS-
kritischen Kommunikationsebene begegnen, was zwar eine positive Gesprächsat-
mosphäre erzeugt, das Sprechen z. B. über individuelle Verantwortung aber kaum
zulässt.
Der Typ „Faszination“ beinhaltet all jene Äußerungen, die deutlich machen,
dass es für die Zeitzeugen durchaus faszinierende, also positive Aspekte im NS-

5 Diese Überprüfung bzw. Präzisierung der Pilotstudie durch die Hauptstudie hatte zur Folge, dass
der Tradierungstyp „Heldentum“ notwendig, ein anderes Strukturmerkmal („Überwältigung“) auf-
grund mangelnder Präsenz hingegen fallen gelassen wurde (vgl. Jensen 2004a).
Der Nationalsozialismus im familialen Dialog 131

Regime gab (und gibt) und auch die Angehörigen der Nachfolgegenerationen Teil-
aspekte dieses Regimes noch immer gutheißen. Besonders die Frühphase des Na-
tionalsozialismus mit Institutionen wie den NS-Jugendorganisationen, die mit einer
„schönen Jugend“ assoziiert werden, machen hier die ambivalente Einschätzung
deutlich, die z.T. noch heute das Bild des „Dritten Reiches“ bestimmt.
Das Strukturmerkmal Heroisierung bzw. „Heldentum“ wiederum umfasst alle
Äußerungen, in denen die Zeitzeugen als handelnde Subjekte präsentiert werden,
indem sie sich z. B. gegen Vorgesetzte auflehnten, den „Hitlergruß“ vermieden
oder Verfolgten des Regimes halfen. Dieses Sprechen steht dabei zumeist im Wi-
derspruch zum häufigen Rechtfertigungsdiskurs, der die Zeitzeugen als kaum ge-
sellschaftlich handlungsfähig und lediglich aufgrund politischer Zwänge handelnd
darstellt. Bemerkenswert ist in diesem Tradierungstyp zudem, dass von den Nach-
folgegenerationen häufig auch entlegendste Anhaltspunkte genutzt werden, um
ihre Eltern bzw. Großeltern als in irgendeiner Weise widerständig darzustellen.
Oftmals entpuppt sich z. B. die häufig von den Zeitzeugen erklärte „Hilfe für Ju-
den“ lediglich als ein „nicht Melden“ der jüdischen Nachbarn.
Der Typ „Opferschaft“ beinhaltet dabei allgemein die Betonung der Bedro-
hung bzw. des Leidens der Zeitzeugen unter Nationalsozialismus, Krieg und
Nachkriegszeit – durch die Zeitzeugen selbst oder durch die Nachfolgegeneratio-
nen („Hunger“, „keine Arbeit“, „wären ja sonst auch ins KZ gekommen“). Hier
fällt besonders das Phänomen der sog. Wechselrahmung (Welzer et al. 2002: 81 ff.)
auf, in der die nicht-jüdischen Zeitzeugen ihre Leidensgeschichten in einen Erzähl-
kontext stellen, der den Darstellungen des Holocaust entstammt. Durch das Buch
„Der Brand“ von Jörg Friedrich (2002) über die alliierten Bombenangriffe auf
deutsche Städte, das aufgrund der verwendeten Begriffe (z. B. Städte als „Vernich-
tungsräume“, „Keller arbeiten wie Krematorien“) äußerst kritisch zu betrachten ist,
trat dieser Aspekt unlängst auch in der öffentlichen Diskussion hervor (vgl. z. B.
Hans Ulrich Wehler in der Süddeutsche Zeitung vom 14.12.2002).
Das fünfte Merkmal ist der Typ „Rechtfertigung“. Dieser umfasst das entlas-
tende bzw. legitimierende Sprechen über das Verhalten der Zeitzeugen („sie muss-
ten ja“, oder „haben nichts gewusst“). Bei diesem Strukturmerkmal wird besonders
deutlich, wie stark die intergenerationellen Gespräche von unausgesprochenen
Vorannahmen und unterstellten Vorwürfen geprägt sind. Hier sind es vor allem die
Zeitzeugen, die ihre Erlebnisse aus der NS-Zeit fast immer mit einem Rechtferti-
gungsdiskurs kombinieren.
132 Olaf Jensen

Qualitative Inhaltsanalyse mit MAXQDA

Aufgrund der Einzelfallanalysen stand für die oben genannten Tradierungstypen


ein Raster zur Verfügung, das aus den theoretischen Definitionen der Struktur-
merkmale und Ankerbeispielen bestand und die Basis für den Codierleitfaden bil-
dete. Anhand des Codierleitfadens wurden mit MAXQDA (Kuckartz 1999) syste-
matisch die weiteren Familien bzw. Interviews analysiert und Textsegmente den
Tradierungstypen zugeordnet. Dabei wurde das Kategoriensystem z.T. modifiziert,
Subkategorien (Subcodeworte) eingefügt und weitere Ankerbeispiele gesammelt
und in die entsprechenden Memofelder des Haupt- bzw. Subcodewortes kopiert.
In regelmäßigen „Schleifen“ erfolgte eine Überarbeitung des Kategoriensystems
(vgl. Mayring 1997: 42 ff.). Die Codierergebnisse der Tradierungstypen wurden in
regelmäßigen Abständen qualitativ validiert, d. h. sie wurden in den Sitzungen der
Forschungsgruppe dargestellt und diskutiert. Zudem wurde stichpunktartig die In-
tercoderreliabilität mit dem Computerprogramm „Intercod“6 (Müller-Benedict
1998) berechnet.7
Während des Codiervorganges in MAXQDA wird die zu codierende Inter-
viewpassage mit den bereits codierten Textsequenzen des selben Textes (hier: in-
nerhalb eines Interviews), wie auch mit denen aus anderen Texten (hier: intra- und
interfamilial) der gleichen Kategorie verglichen. Dieses Vergleichen der zugeordne-
ten Ereignisse bzw. Sequenzen führt zu einer (vorläufigen) Definition der theoreti-
schen Eigenschaften und Dimensionen der jeweiligen Kategorie bzw. zu deren
Erweiterung (vgl. Strauss 1987: 21 f.).
MAXQDA bietet hier die Möglichkeit, die im Rahmen dieses Codiervorganges
und der späteren Analyse notwendigen Daten direkt den Personen bzw. Interviews
zuzuordnen. So können die Ankerbeispiele für die Codierung direkt bei der jeweili-
gen Kategorie abgelegt werden und sind somit jederzeit zugänglich. Außerdem sind
die wichtigsten demographischen Daten mit den Interviews der jeweiligen Perso-
nen verknüpft, sodass sie sich jederzeit einsehen lassen. Ebenso sind umfangreiche
Memoranden zu Interviewpassagen (z. B. mit historischen Hintergrundinformatio-

6 Das Rechenprogramm „Intercod“ von Müller-Benedict berücksichtigt bei der Berechnung von Scott
neben möglichen zufälligen Übereinstimmungen (Müller-Benedict 1998, vgl. Merten 1983: 304 f.)
auch, dass bei der Codierung von großen Textmengen mit vielen Kategorien von verschiedenen Co-
dierern alle Kategorien prinzipiell zur Verfügung stehen und auch die Nichtauswahl einer Kategorie
eine bewusste Entscheidung der Codierer ist (Müller-Benedict 1998). Bei der Berechnung von Co-
hen und entsprechenden Operationen in SPSS bleiben diese Fälle ausgespart, was zu unpräziseren
höheren Kappa-Werten führt.
7 Mein besonderer Dank gilt hier Torsten Koch (vgl. auch seinen Beitrag in diesem Band).
Der Nationalsozialismus im familialen Dialog 133

nen), Personen und Kategorien angefertigt worden, wodurch schon während der
Analyse erste theoretische Überlegungen festgehalten worden sind, die in die späte-
re Auswertung einfließen konnten.
Das Codieren der Interviews mit MAXQDA ist dabei ganz ähnlich dem tradi-
tionellen Codieren mit dem Textmarker (siehe Abb. 1): Das Interview der Stich-
probe (links oben) wird am Bildschirm gelesen (rechtes Fenster), während das
Codewortsystem (links unten) immer sichtbar ist. Bei der Analyse wird jede Text-
sequenz danach befragt, ob sie zu einem Haupt- oder Subcodewort – dem Katego-
riensystem – entsprechend der zugrunde liegenden Definition und dem zugehöri-
gen Ankerbeispiel passt bzw. ob für diese Textsequenz ein neues (Sub-) Codewort
eingefügt werden soll. Dann wird die Textsequenz mit der Maus markiert und dem
Codewort zugeordnet.

Abb. 1: Screenshot des Codiervorganges in MAXQDA

Nach einer solchen Analyse aller Interviewtexte und mehrmaliger Überarbeitung


des Kategoriensystems war eine umfangreiche Liste von Subcodeworten unter den
Hauptkategorien – den fünf Tradierungstypen – das Ergebnis. MAXQDA ermög-
134 Olaf Jensen

licht nun, nach diesem „selektiven“ inhaltsanalytischen Codierdurchlauf, die so de-


tailliert erfassten und strukturierten Interviewsequenzen weiteren qualitativen und
quantitativen Analysen zu unterziehen.
Da in MAXQDA die Codierungen automatisch gezählt werden (siehe Abb. 1),
können die Häufigkeiten der Code- und Subcodeworte jederzeit einer explorativen
und heuristischen Analyse unterzogen werden, um Strukturen und Schwerpunkte
in den Interviews herauszuarbeiten (vgl. Kuckartz 1999: 119). Diese Schwerpunkte
können in Form der zugehörigen Textsegmente über gezieltes „Aktivieren“ von
Codeworten und Interviews in MAXQDA relativ elegant verfolgt werden, indem
nur die Textsegmente „sichtbar“ gemacht werden, die unter den jeweiligen Aus-
wertungsgesichtspunkten von Interesse sind – aktuell und noch Jahre nach Ab-
schluss der Untersuchung. So wurde die Analyse des hier vorliegenden Drei-
Generationen-Materials z. B. entlang der Kategorie, der Generation (Zeitzeugen-,
Kinder- oder Enkelgeneration) oder der Familien (bzw. vielen Kombinationen)
durchgeführt, ohne dass das Datenmaterial jeweils neu organisiert werden musste.

Ergebnisse der Qualitativen Inhaltsanalyse


Exemplarisch wollen wir hier in aller Kürze das häufigste der fünf Strukturmerk-
male, den Tradierungstyp Opferschaft, eingehender betrachten. Auf Basis des Da-
tenarchivs in MAXQDA lassen sich die Ergebnisse des Codierens der 182 Inter-
views folgendermaßen Beschreiben:
Der Komplex Opferschaft ist in 57 Unterkategorien gegliedert und umfasst die
detaillierten Schilderungen der Interviewten in Bezug auf die Lebensverhältnisse
vor 1933, die Zeit des Nationalsozialismus und des Krieges sowie der Nachkriegs-
zeit. Die befragten Zeitzeugen positionieren sich hier selbst als „Opfer der Ver-
hältnisse“ – unabhängig davon, ob es sich bei ihren Erlebnissen „objektiv“ um
Leidens- oder Verlustsituationen handelt, was meist kaum noch abschließend ge-
klärt werden kann. Entscheidend ist, dass sie es im Gespräch für nötig halten, sich
in dieser Weise zu äußern (vgl. Welzer 2000). Für die Angehörigen der Nachfolge-
generationen gilt dies ebenfalls, wobei aus ihren Äußerungen hervorgeht, dass sie
die Selbstpositionierung der Zeitzeugen teilen, deren Opferstatus also innerhalb der
Familie kommunikativ weitergegeben worden ist und nun abermals in den Gesprä-
chen an die Interviewerinnen und Interviewer weitergegeben wurde.
Der Tradierungstyp Opferschaft kommt in allen 40 Familien bzw. in 163 der
182 Interviews vor. d. h. in 44 Zeitzeugen-, 48 Kinder-, 36 Enkel- und 35 Familien-
gesprächen. Unter dieser Kategorie sind mit 1130 Segmenten die mit Abstand
meisten Textstellen codiert. Die Zeitzeugen sind mit 404 Segmenten dabei am
Der Nationalsozialismus im familialen Dialog 135

stärksten vertreten. In den Gruppengesprächen wird an 364 Stellen über den Op-
ferstatus der Zeitzeugen gesprochen, davon an 286 Stellen durch die Zeitzeugen,
an 173 durch die Kindergeneration und an 32 Stellen durch die Enkelgeneration.
Die Interviewer finden sich hier in 57 Textstellen. Innerhalb des Typs Opferschaft
liegt der thematische Schwerpunkt des Sprechens bei
1. der empfundenen Armut und Not der Zeitzeugen ab 1944 (426 Segmente),
besonders durch die herannahende Rote Armee (130 Segmente) und im Zu-
sammenhang mit Flucht und Vertreibung (93),
2. den Belastungen durch den Krieg (311 Segmente), besonders an der „Hei-
matfront“ (156) und erlittenen Verwundungen bzw. Todesfällen (77),
3. der empfundenen Opferschaft der Zeitzeugen durch Bedrohung oder Un-
terdrückung durch das politische System des Nationalsozialismus (268), be-
sonders der Angst vor eigener Deportation in ein Konzentrationslager (83),
konkreten Verfolgungs- bzw. Tötungssituationen (51) und dem Leiden un-
ter Drill und Befehl (62).
Die EDV-gestützte Auswertung mit MAXQDA hat dabei den Vorteil, bei der
Analyse des Kategorien- bzw. Codewortsystems lediglich einen „Mausklick“ von
den codierten Textsegmenten und den Ursprungstexten entfernt zu sein. Ein
Fragmentieren des Materials, wie bei der klassischen „Cut-and-Paste“-Methode,
findet nicht statt. Dadurch kann zu jedem Zeitpunkt geprüft werden, was sich qua-
litativ hinter den Zahlen „verbirgt“.
Auf Grundlage der codierten und ausgezählten Textstellen lassen sich also um-
fangreiche Aussagen über die Struktur der gesamten Stichprobe tätigen. Für den
Typ Opferschaft bedeutet das z. B., dass die Zeitzeugen den Focus auf ihre Leiden
durch Krieg und Bombenangriffe legen, bevor sie auf die Konsequenzen der sich
abzeichnenden Niederlage in Form der Flucht vor der Roten Armee und der dro-
henden Gefangenschaft zu sprechen kommen. Bei den Nachfolgegenerationen
zeichnet sich der zweite Aspekt deutlicher ab, der Schwerpunkt hat sich auf die
Leidenszeit der Zeitzeugen ab ca. 1944 verlagert, besonders die Flucht vor „dem
Russen“ mit all ihren Implikationen steht hier im Mittelpunkt. Bei der Kindergene-
ration hat zudem der Hunger bzw. die Nahrungsbeschaffung zum Ende des Krie-
ges einen starken Eindruck hinterlassen. Die Opferempfindung der Zeitzeugen
bzgl. der eigenen Bedrohung im Nationalsozialismus durch die Konzentrationsla-
136 Olaf Jensen

ger oder den militärischen Drill bildet den dritten großen Bereich des Opfer-
schaftsdiskurses.8

„Die haben halt auf freiem Feld übernachtet und jeden Morgen sind immer weniger
aufgestanden.“
Am Beispiel der Familie Pfeffer9 soll hier noch einmal im Zusammenhang gezeigt
werden, wie sich der Tradierungstyp Opferschaft in den Gesprächen über drei Ge-
nerationen darstellt. Von dieser Familie wurden der Zeitzeuge August Pfeffer, ge-
boren 1927 und Landwirt, während des Nationalsozialismus in der HJ, der
NSDAP, im Reichsarbeitsdienst und später als junger Soldat in der Wehrmacht bei
der Artillerie interviewt, seine Tochter Jutta Trapp, geboren 1957 und Bankkauf-
frau, sowie deren Tochter Paula, Jahrgang 1980, zum Zeitpunkt der Interviews
Schülerin.
Im Einzel- und Gruppengespräch sind für August Pfeffer das Ende des Krie-
ges, der Weg in die russische Gefangenschaft und die damit verbundenen Entbeh-
rungen die Kernthemen seiner Erzählungen. Nach einer kurzen Zeit beim Reichs-
arbeitsdienst (RAD) kam Herr Pfeffer im August 1944 zur Artillerie und erlebt in
den folgenden Monaten das Ende des Krieges im Umkreis von Berlin und an der
Elbe. Irgendwo an der Elbe kam er schließlich in russische Gefangenschaft. Aus-
führlich schildert er den Weg ins russische Gefangenenlager (F27Z, 479–87)10.
In der folgenden Interviewsequenz lässt er den bisherigen Verlauf noch mal Revue
passieren:
August P.: „Wir hatten ja in/en ganzen Mai durch nur draußen gelegen in/in’ner, äh, großen
Wiese irgendwo manchmal im Wasser und manchmal und ham morgens gegenseitich hochge-
holfen, so steifgelegen und sind dann in Graudenz, äh, am 23. Juli Abend verladen. . Und dann
wussten wir ja auch die nächsten paar Wochen ungefähr/jedenfalls im Lager nacher hatten wa
dann wieder en Datum. Am 5./am 3. September sind wa ausgeladen. .. Da in Könichsberch.
Kam dann in ein Fort . so, en, en, vor [Dönhoff] ... und ham da in den alten Kasematten gele-
jen, die vor 300 Jahren gebaut warn oder vor 200 Jahren nech . . „ (F27Z, 501–509).

8 Eine solche Darstellung und Analyse der Ergebnisse des Codierens in MAXQDA liegt für alle hier
untersuchten Tradierungstypen vor. Diese wird durch eine umfangreiche Präsentation von Inter-
viewsequenzen ergänzt, die die Gemeinsamkeiten und Unterschiede der drei Generationen im Spre-
chen über die NS-Vergangenheit deutlich machen (Jensen 2004a).
9 Alle Namen sind pseudonymisiert.
10 Die Quellenangabe zu den Interviews enthält hier F27 für Familie Nr. 27 und die Abkürzung Z für
Zeitzeugengeneration (bzw. G für Gruppen- bzw. Familiengespräch, K für Kindergeneration und E
für Enkelgeneration). Danach folgt die Zeilenangabe im Interview.
Der Nationalsozialismus im familialen Dialog 137

Herr Pfeffer blickt an dieser Stelle noch einmal auf die ersten vier Wochen der Ge-
fangenschaft und den Weg nach Russland zurück. Dabei ergänzt er, dass die Ge-
fangenen bis dahin immer im Freien campieren mussten. Obwohl es Sommer war,
beschreibt er diesen Umstand als schwierig, da die Wiesen, auf denen z.T. campiert
wurde, teilweise unter Wasser standen. Jedenfalls merkt er an, dass die Gefangenen
sich morgens beim Aufstehen gegenseitig hochhelfen mussten, weil sie „steifgele-
gen“ waren. Diese kleine Ergänzung des Zeitzeugen wird uns gleich noch beschäf-
tigen.
Im Einzelinterview von Jutta Trapp, der Tochter von Herrn Pfeffer, findet sich
allerdings nur wenig zur Gefangenschaft des Vaters. Von ihrer Mutter weiß sie,
dass über diese Zeit nicht gerne gesprochen wurde:
Jutta Trapp: „Meine Mutter hat/die hat dann gesagt, dass das ’ne schlimme Zeit gewesen wäre
und dass man da eben so nich drüber spricht. . Das war’s eigentlich.“
Interv.: „Ja, dann . . war dann die Mutter da so die erste Person, die/“
Jutta Trapp: „Nein. Das kam alles eigentlich viel später. Also zu Hause wurde nich drüber ge-
sprochen. . Und wie ich dann meinen Mann kennen lernte. Das wars, na ja, da muss doch
schon irgendwas gewesen sein. Ich wusste zumindest, dass Papa in russischer Gefangenschaft
war (Interv.: Hm). Aber was [unv], das wusst’ ich nich (hm). . „ (F27K, 32–41).

Die Tochter hielt sich, wie es scheint, innerhalb der eigenen Familie an ein „Frage-
verbot“, das sie von der Mutter übernommen hat. Die Teilbereiche der Erinnerun-
gen, über die der Zeitzeuge nicht sprechen wollte, wurden so auf seine gesamten
Erlebnisse ausgeweitet mit dem Ergebnis, dass die Tochter nach eigener Aussage
überhaupt nicht mehr danach fragte und erst viel später darauf zurückkam. Trotz-
dem bemerkt Frau Trapp aber schon während ihrer Beschreibung dieser Situation,
dass in ihrer Familie durchaus über diese Zeit geredet worden sein muss („Da muss
schon irgendwas gewesen sein“), denn sie wusste zumindest, dass ihr Vater in rus-
sischer Gefangenschaft gewesen war. Später erzählt sie noch einige Einzelheiten
über die Rückkehr des „verhungerten“ Vaters aus der Gefangenschaft (F27K, 409–
434).
Eine ähnliche Position vermittelt die Enkelin Paula in ihrem Interview. Auch
sie ist der Meinung, über all diese Dinge wäre innerhalb der Familie nicht gespro-
chen worden – und sie selbst hatte sogar direkt Angst, ihren Großvater danach zu
fragen:
„Weil ich auch immer Angst davor hatte, [...] dass er vielleicht Böse auf mich
is“ (F27E, 4–7). Ein Grund für diese Furcht war, dass Paula von ihrer Großmutter
erfahren hatte, dass der Großvater mit schweren Alpträumen aus der Gefangen-
schaft zurückkam: „ja [das] er im Schlaf geredet hat und so um sich geschlagen hat
138 Olaf Jensen

und so was alles und das hatte se irgendwann mal erzählt und von daher hatte ich
immer Angst ihn irgendwie anzureden“ (F27E, 4–31).
Trotzdem findet auch bei Familienangehörigen, die fest der Meinung sind, über
den Nationalsozialismus, den Krieg oder den Holocaust überhaupt nicht gespro-
chen zu haben, eine deutliche kommunikative Tradierung statt. Das Gespräch zwi-
schen Interviewerin und Enkelin schreitet fort und Paula erzählt nun erstaunli-
cherweise doch noch Einzelheiten, die sie von der Gefangenschaft des Großvaters
kennt:
Interv.: „Was weißt du denn, ähm, jetzt aus Erzählungen von ’ner Oma oder deinen Eltern?“
Paula Trapp: „Also ich weiß, dass er ja halt vier Jahre in russischer Gefangenschaft war und
dass er danach . ja wieder zurückgekommen is. Ja und dann hier eigentlich angefangen hat so .
ja ne Existenz aufzubauen. Ja das einzigste, was/was ich weiß, das is halt, dass er als er gefan-
gengenommen wurde diesen Weg nach Moskau machen (Interv.: hm) musste. Und . dass . ja,
dass er halt morgens, also die ham halt auf freiem Feld übernachtet und ja jeden Morgen sind
halt immer weniger aufgestanden. Das weiß ich aber nich von ihm. Das weiß ich jetzt von
meiner Mutter (hm). ich denke mal, dass sie das irgendwie von meiner Oma oder meinem Papa
hat. Und das is das einzigste, was ich von ihm weiß“ (F27E, 88–98).

Wir erinnern uns an die Geschichte von August Pfeffer und seinen „steifgelege-
nen“ Kameraden. Die Enkelin erzählt hier nun eine Version, die über ihre Mutter
bei ihr angekommen ist. Sie weist ausdrücklich darauf hin, diese Informationen
nicht von ihrem Großvater bekommen zu haben. Auch wenn Herr Pfeffer durch-
aus erzählt hat, dass Gefangene auf diesem „Weg nach Moskau“, wie es die Enke-
lin nennt, getötet wurden: von Kameraden, die das Campieren auf den Wiesen im
Mai 1945 nicht überlebten, erzählt er im Interview nichts. Wie bei dem Kinderge-
burtstagspiel „Stille Post“ hat sich also hier in einem bestimmten Detail die Ge-
schichte des Zeitzeugen beim kommunikativen Durchlauf durch die Familie verän-
dert. Der Opferstatus des Großvaters wird dadurch deutlich verstärkt.

Quantitative Analysen
Um eine strukturelle Analyse der gesamten Stichprobe durchzuführen, ist es sehr
hilfreich, die Häufigkeiten der codierten Textsegmente zu untersuchen. Durch den
Export der Matrix der Codeworthäufigkeiten (bzw. der gewünschten Kombination
aus Texten und Codeworten) aus MAXQDA und dem Einlesen dieser Matrix in
ein Tabellenkalkulationsprogramm (z. B. MS Excel) lässt sich recht einfach eine
Tabelle erstellen, die die Verteilung der codierten Textsegmente auf die hier ausge-
werteten Interviews zeigt:
Der Nationalsozialismus im familialen Dialog 139

Tradierungstyp Anzahl Text- Segmente in in Interviews in Interviews in Familien-


segmente Zeitzeugen- Kindergen. Enkelgen. gesprächen
Interv.
Opferschaft 1.130 (100%) 404 (36%) 248 (22%) 114 (10%) 364 (32%)
Rechtfertigung 605 (100%) 188 (31%) 96 (16%) 56 (9%) 265 (44%)
Distanzierung 484 (100%) 211 (44%) 58 (12%) 30 (6%) 185 (38%)
Faszination 374 (100%) 159 (42%) 55 (15%) 36 (10%) 124 (33%)
Heldentum 306 (100%) 142 (46%) 51 (17%) 30 (10%) 83 (27%)
Textsegmente 2.899 (100%) 1.104 (38%) 508 (18%) 266 (9%) 1.021 (35%)
Gesamt

Tab. 2: Verteilung der codierten Textsegmente auf die Interviews (Ranking)

Die Tabelle zeigt, dass sich anhand der Häufigkeiten der codierten Textsegmente
der Tradierungstypen und ihrer prozentualen Verteilung auf die verschiedenen In-
terviews bzw. Generationen allgemeine Aussagen über die Struktur des empiri-
schen Materials treffen lassen. Die Tradierungstypen sind hier bereits der Häufig-
keit nach geordnet und zur besseren Übersicht ohne die Subcodeworte dargestellt.
Wir sehen, dass unter dem Typ Opferschaft mit 1.130 Textstellen die mit Abstand
größte Zahl codiert wurde. Zudem lässt sich ablesen, dass sich dieses Struktur-
merkmal vor allem in den Zeitzeugeninterviews (36% der Textsegmente dieses
Tradierungstyps) und den Familiengesprächen (32%) ausmachen lässt.
Im Gegensatz dazu finden sich die meisten Segmente des Tradierungstyps
Rechtfertigung in den Familiengesprächen (44%), was daārauf hinweist, dass dieses
Strukturmerkmal des intergenerationellen Sprechens vor allem in actu stattfindet,
also wenn die Familien bzw. die drei Generationen zusammensitzen.
Der Typ Distanzierung findet sich wiederum vornehmlich in den Zeitzeugen-
gesprächen (44%), was darauf hindeutet, dass die Zeitzeugen sich vor allem gegen-
über den Interviewern als lediglich distanzierte Beobachter des nationalsozialisti-
schen Regimes positionieren. In den Familiengesprächen ist dieser Typ ebenfalls
noch stark vertreten (38%), d. h. auch gegenüber (oder gemeinsam mit) den Fami-
lienangehörigen findet ein hohes Maß an Distanzierung vom Nationalsozialismus
statt.
Ähnliches gilt auch noch für den Typ Faszination. Hier ist aber bemerkenswert,
wie die Prozentwerte der Kinder- und Enkelgeneration wieder ansteigen. In ihren
Einzelinterviews finden sich also vermehrt Textstellen, die ihre Faszination für be-
stimmte Elemente der NS-Herrschaft zum Ausdruck bringen.
Das Strukturmerkmal Heldentum ist mit 306 Textsegmenten, verglichen mit
dem Typ Opferschaft nicht mehr so stark im Material vorhanden. Trotzdem ist
140 Olaf Jensen

seine prozentuale Verteilung über die Generationen recht interessant. Die meisten
Textsegmente finden sich wieder in den Interviews mit den Zeitzeugen des Natio-
nalsozialismus (46%). Auch die nachfolgenden Generationen sprechen in ihren
Einzelinterviews, gemessen am Gesamtvolumen der unter diesem Typ codierten
Textstellen, noch recht häufig über die „Heldentaten“ ihrer Eltern bzw. Großeltern
(17% bzw. 10% der Textsegmente). Im Gegensatz zu den anderen Tradierungsty-
pen werden diese aber in den Familiengesprächen deutlich weniger thematisiert, als
dies bei den anderen Typen der Fall war.
Über die absolute Häufigkeit der Textsegmente hinaus ist von Interesse, auf
wie viele Interviewte sich die codierten Textsegmente jeweils verteilen, da es ja
durchaus Mehrfachnennungen zu den einzelnen Strukturmerkmalen geben kann.
Dies kann in MAXQDA auch manuell ausgezählt werden, besser aber ist, die Ma-
trix der Häufigkeiten in ein Statistikprogramm (hier SPSS) zu importieren und die
absoluten Häufigkeiten der Codeworte in dichotome Werte (1/0) für vorhan-
den/nicht vorhanden umzucodieren. Über entsprechende Zusammenfassungen
und Auswahloperationen der Daten lässt sich anschließend sichtbar machen, wie
viele Interviewte sich jeweils hinter den codierten Segmenten verbergen (Tab. 3):

Tradierungstyp Textsegmente
Gesamt Zeitzeugen Kinder Enkel
Segmente (n=48/100%) Segmente (n=50/100%) Segmente (n=44/100%)
Opferschaft 1.130 404 44 (92%) 248 48 (96%) 114 36 (82%)
Rechtfertigung 605 188 37 (77%) 96 30 (60%) 56 23 (52%)
Distanzierung 484 211 39 (81%) 58 20 (40%) 30 19 (43%)
Faszination 374 159 34 (71%) 55 27 (54%) 36 17 (37%)
Heldentum 306 142 31 (65%) 51 26 (52%) 30 16 (36%)
Textsegmente 2.899 1.104 508 266
Gesamt

Tab. 3: Verteilung der codierten Textsegmente auf die Interviewten (ohne Familiengespräche)

Bis auf wenige Abweichungen wird hier das bisherige Ranking der Tradierungsty-
pen bestätigt. Für die Zeitzeugengeneration bleibt es bei der Reihenfolge der Tra-
dierungstypen, wie sie sich anhand der Häufigkeit der Textsegmente dargestellt hat
(vgl. Tab. 2).
Der Tradierungstyp Opferschaft tritt bei 44 der 48 Zeitzeugen auf, der Typ
Distanzierung am zweithäufigsten bei 39 Zeitzeugen, gefolgt vom Typ Rechtferti-
Der Nationalsozialismus im familialen Dialog 141

gung (37), Faszination (34) und Heldentum (31). Bei der Kinder- und bei der En-
kelgeneration ändern sich jeweils die Rangfolgen ab dem dritten Platz.
Bei der Kindergeneration folgt auf Opferschaft (48 von 50 Interviewten) und
Rechtfertigung (30) nun der Typ Faszination (27) vor Heldentum (26). Der Typ
Distanzierung tritt noch bei 20 Angehörigen dieser Generation auf, obwohl hier
die drittmeisten Textsegmente codiert wurden. Hier verbergen sich also Mehrfach-
nennungen. Bei der Enkelgeneration rückt der Tradierungstyp Distanzierung inter-
essanterweise einen Platz auf. Statt bisher an vierter Stelle, steht er hier nun nach
Opferschaft (36 der 44 Enkel) und Rechtfertigung (23) mit 19 Enkeln an dritter
Position. Faszination (17) und Heldentum (16) sind entsprechend nach hinten ge-
rückt.11
Die leichten Veränderungen bei den fallbasierten Häufigkeiten der Codeworte
haben gezeigt, dass es durchaus sinnvoll ist, die absoluten Häufigkeiten aus MAX-
QDA auf diese Weise zu überprüfen bzw. zu ergänzen, um fallbezogene Aussagen
treffen-, bzw. die Stichprobe noch genauer beschreiben zu können.

4 Abschließende Bemerkungen
Die dargestellten qualitativen und quantitativen Analysen der vorliegenden Mehr-
generationen-Interviews zum Nationalsozialismus sind der Versuch, die Stichprobe
von 182 Interviews anhand der Häufigkeit der fünf Tradierungstypen, die die
Struktur und den Inhalt der intergenerationellen Kommunikation beschreiben, ex-
emplarisch darzustellen. Dies musste an dieser Stelle notwendig fragmentarisch
bleiben und auf Beispiele aus den Interviews musste weitgehend verzichtet werden.
Es sollte aber deutlich geworden sein, wie gewinnbringend der Einsatz eines Text-
analysesystems wie MAXQDA für die Auswertung von verbalem Datenmaterial
sein kann. Da qualitative Studien in der Regel aufgrund der arbeitsā- und zeitinten-
siven hermeneutischen Analyse verbaler Daten nur kleine Fallzahlen auswerten
können, besteht mit der Kombination aus hermeneutischen und EDV-basierten
inhaltsanalytischen Verfahren die Möglichkeit, qualitative Forschung auf größere
Fallzahlen zu stützen und neben Einzelfallanalysen auch breiter angelegte struktu-
relle Betrachtungen des Datenmaterials vorzunehmen.
Im Rahmen der hier vorgestellten Methodenkombination aus induktiver Kate-
gorienbildung und anschließender Qualitativer Inhaltsanalyse ermöglicht ein

11 Eine entsprechende Aufschlüsselung wurde auch für die Familiengespräche erstellt, um den Anteil,
den die einzelnen Generationen jeweils haben, sichtbar zu machen.
142 Olaf Jensen

Hilfsmittel wie MAXQDA, eine recht große Zahl Interviews in einer akzeptablen
Zeit systematisch und methodisch kontrolliert auszuwerten. Der computergestützte
Auswertungsprozess ist dabei um einiges kreativer und flexibler, da z. B. die Code-
worte jederzeit variiert oder ausdifferenziert werden können, wenn es im Laufe der
Codierarbeit notwendig erscheint. Ebenso können sie im Zuge der Überarbeitung
des Codewortschemas wieder zusammengefasst werden, falls sie zu detailliert gera-
ten sind. Möglichkeiten wie diese fördern im Analyseprozess die besonders von der
Grounded Theory geforderte potenzielle Offenheit gegenüber dem Datenmaterial,
da es keine große Mühe macht, zusätzliche „Phänomene“ erst einmal zu codieren,
um im weiteren Verlauf der Analyse zu entscheiden, welche Perspektiven weiter
untersucht werden sollen. Dies verhindert zudem ein starres Festhalten an vorher
(oftmals theoretisch) entwickelten Kategorienschemata, die dem Datenmaterial
womöglich nicht gerecht werden. Zwar birgt dies die Gefahr, dass die Auswertung
deutlich komplexer gerät, als geplant, dafür stehen aber mit den vielen Zähl-, Aus-
wahl-, Such-, Sortier-, Import- und Exportfunktionen sehr viele Hilfsmittel bereit,
die die Analyse erleichtern.
Besonders für die Auswertung der hier vorgestellten Mehrgenerationenstudie
hat sich dieses Verfahren als sehr hilfreich erwiesen, da es ermöglichte, viele unter-
schiedliche Betrachtungsebenen des Materials ausschöpfen zu können, die bei rei-
ner „Papierarbeit“ nicht leistbar gewesen wären. Neben der Gliederung der Kom-
munikationsstruktur mit Hilfe der dargestellten fünf Tradierungstypen konnte
durch eine große Zahl von Subkategorien immer auch erfasst werden, was inhalt-
lich über Nationalsozialismus, Krieg, Holocaust und Nachkriegszeit innerhalb der
Familien erzählt wird. Dadurch konnten die drei Generationen horizontal und ver-
tikal nach Form und Inhalt der Kommunikation miteinander verglichen werden.
Schließlich war es auch möglich, die Interviews der jeweiligen Familie komplett zu
betrachten, miteinander zu vergleichen und einzelne Familien entsprechend ihrer
Kommunikationsstruktur exemplarisch darzustellen.
Zwar konnten bei dieser Auswertung nicht alle Aspekte, die in den Interviews
vorhanden sind, einer intensiven Analyse unterzogen werden, da im Mittelāpunkt
die Überprüfung und Ausarbeitung der bereits vorhandenen Tradierungstypen
stand. Im Rahmen des Forschungsprojektes, in dem diese Analyse erfolgte, liegen
aber bereits eine Reihe von Ergebnissen vor, an die hier angeschlossen wird und
die zusammengenommen ein detailliertes und differenziertes Bild des intergenera-
tionellen Sprechens über die nationalsozialistische Vergangenheit in Deutschland
ergeben (vgl. Welzer et al. 2002, Moller 2003, Jensen 2004a).
Neue Datenquellen für die Sozialforschung: Analyse
von Internetdaten

Thorsten Dresing, Udo Kuckartz

Zusammenfassung
Das Internet stellt für die Sozialwissenschaften eine ergiebige Datenquelle dar. Der Beitrag stellt die ver-
schiedenen Formen von Internetdaten (u. a. Chat, Foren und Mailinglisten) und ihre Charakteristika wie
etwa Materialumfang und Zugänglichkeit der Daten dar. Zudem werden die Aufbereitungsmöglichkei-
ten für die computergestützte Analyse diskutiert. Das konkrete Auswertungsbeispiel beschreibt die
theoriegeleitete Inhaltsanalyse der Forenbeiträge eines universitären Onlineseminars. Ziel der Untersu-
chung war es, festzustellen ob der zu Beginn der Veranstaltung anhand eines Fragebogens festgestellte
Lerntyp jedes Teilnehmenden auch beim virtuellen Austausch der Personen im Onlineforum bevorzugt
wird oder ob er sich ändert. Detailliert beschrieben sind die Schritte von der Datenerhebung und
Datenvorbereitung, dem Datenimport in MAXQDA , dem Codieren des Textmaterials nach einem Ka-
tegoriensystem bis hin zur Visualisierung der Codeüberschneidungen im Code-Relations-Browser.

1 Das Internet als Datenquelle


Internet und Multimedia haben seit Mitte der 1990er Jahre nicht nur die Welt ver-
ändert, sie stellen auch eine Herausforderung für die empirische Sozialforschung
dar. Das Internet bringt neue Methoden und Datenarten hervor, wie etwa die On-
line-Befragung, die in der ersten Hälfte der 1990er Jahre noch völlig unbekannt war
und erst langsam in die Methodenlehrbücher Eingang findet (so bei Atteslander
2003). Die Veränderungen durch das Internet betreffen die Methoden der Sozial-
forschung auf vielfältige Weise, nicht nur im Bereich von quantitativer Online-
Forschung, sondern auch im Bereich der qualitativen Sozialforschung und der hier
zur Debatte stehenden computergestützten Auswertung qualitativer Daten. Der
Fortschritt der Speichertechnik hat es mit sich gebracht, dass heute eine Fülle von
Texten online (zumeist kostenlos) zur Verfügung steht. Zu nennen sind Zeitungen
und Zeitschriften, wissenschaftliche Fachzeitschriften, aber auch Diskussions- und
144 Thorsten Dresing, Udo Kuckartz

Meinungsforen. Diese sind natürlich für die Kommunikations- und Medienfor-


schung von Interesse, aber durchaus auch für die Politikwissenschaft, die Sozial-
und Erziehungswissenschaften.
Dieser Beitrag beleuchtet nicht das gesamte Problemfeld „Internet als Daten-
quelle der Sozialwissenschaften“, sondern befasst sich mit der engeren Fragestel-
lung, welche Möglichkeiten bestehen, Internetdaten mit den Mitteln der computer-
gestützten qualitativen Datenanalyse auszuwerten. Auch dies ist noch ein recht
neues Feld, denn wenn man ein beliebiges QDA-Programm und seine schriftliche
Beschreibung zur Hand nimmt, findet man dort meist eine längere Liste von
Datenarten, für deren Analyse das Programm als geeignet erklärt wird (beispiels-
weise Feldnotizen, Interviewtranskripte, Beobachtungsprotokolle etc.), während in-
ternetspezifische Daten kaum Erwähnung finden. Das ist aber weniger etwaigen
mangelnden Fähigkeiten von QDA-Software geschuldet, als vielmehr in der bisher
noch marginalen Praxis und in immer noch fehlenden Beschreibungen des Aus-
wertungsprozesses in der Methodenliteratur begründet. Internetdaten sind aber
zweifellos von großem Interesse für die Sozialforschung, sie bieten hervorragende
Zugänge zu sozialen Beziehungen und Deutungen und sind zudem meist ohne
größere Erhebungskosten zu beschaffen. Im Folgenden wollen wir zunächst unter-
suchen, welche neuen Formen von Daten mit dem Internet verbunden sind, also
Datentypen identifizieren, die es in dieser Form vor der Existenz des Internets
nicht gab.

2 Datenarten, Zugänglichkeit, Merkmale


Welche für die Sozialforschung interessanten Daten sind eigentlich im Internet ver-
fügbar? Zu nennen sind hier u. a. Chat, Foren, Online-Konferenzen, Mailing-Listen
und ganz allgemein Webseiten. Tab. 1 gibt einen Überblick über diese fünf Daten-
arten unter dem Blickwinkel computergestützter Auswertung.
Überwiegend handelt es sich um Textdaten bzw. es ist der Text, den man aus-
werten will, während in der Datenquelle enthaltene Bilder oder Grafiken weniger
von Interesse sind. Häufig stehen zu den Texten zusätzliche Informationen zur
Verfügung, die Aufschluss über die Herkunft des Textes, den Textproduzent und
das Erzeugungsdatum geben. Diese Rahmendaten stellen bei Internetdaten durch-
aus ein Problem dar.
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 145

Material Art des Materials Formatierung Bild, Grafik, Attachments

Medium
Chat Transkript der Chatsitzung, Bei Text-Export bleibt Textfor- Bilder und Grafiken spielen
Inhalt meist nur vollständig matierung erhalten, meist ist keine Rolle; Emoticons
wenn man selbst im Chat keine Korrektur nötig. werden eventuell nicht über-
anwesend ist Export: sehr tragen
leicht bei HTML Chat bis un-
möglich bei Java Chat (je
nach Art der Chat-
Applikation)
Foren Alle zugänglichen Forenbei- Bei Export mittels markieren Bleiben erhalten, wenn man
träge Export: sehr leicht bei und kopieren werden u.U. stö- nicht Exportvariante
eigenem Forum, mittel bis rende Tabellen, Buttons und „Druckansicht“ wählt
arbeitsaufwändig bei fremden Links mitübertragen, evtl. ist
Foren, weil jedes Forenthe- viel Zeitaufwand für die Korrek-
ma einzeln markiert und ko- tur nötig. Tipp: Forenfunktion
piert werden muss. Unmög- „Druckansicht“ o.ä. nutzen,
lich bei passwortgeschützten diese stellen Forentexte ohne
Forenbereichen. Grafikformatierung und Rah-
mentabellen dar.
Online-Konferenzen Abstracts als PDF-, Word- Fußnoten und Seitenzahlen in Grafiken, Diagramme und
oder HTML-Datei, Forenbei- PDF-Datei werden beim Export Bilder bleiben erhalten.
träge der Teilnehmenden, zu MAXQDA in den Text ein- Tipp: Eventuell auch mit
Rundmails, Infos Export: So- gebaut, eventuell korrekturbe- Screenshot probieren
fern zugänglich, sehr leichter dürftig (DRUCK Taste auf der Tas-
Export der PDFs, Word- und tatur und STRG+V in Word
HTML-Daten zum Einfügen)
Mailinglisten Sammlung von E-Mails Ex- Möglicherweise gehen HTML Grafiken oder Attachments
port: Sehr leichter Export Formatierung verloren. werden über Outlook nicht
aller E-Mails eines Outlook mit exportiert
Ordners mit der Outlookex-
portfunktion als CSV-Datei.
Webseiten Alle Webseiten des Internet Viel Formatierungsarbeit wenn Bilder und Grafiken bleiben
Export: aufwändig, weil jede man nur einzelne Textpassa- bei Export über Word erhal-
Webseite einzeln aufgerufen, gen benötigt, Formatierung ten
markiert und kopiert werden sieht in Word und MAXQDA
muss anders aus, als im Webbrow-
ser

Tab. 1: Übersicht über Datenarten im Internet

Die folgende Tabelle zeigt, dass häufig kaum Informationen über die Textprodu-
zenten vorhanden sind bzw. dass die verfügbaren Informationen nicht zuverlässig
sind. Dies gilt trotz der Pflicht zum Impressum vor allem für Webseiten, hier ist
eine verallgemeinernde Betrachtung über die Zuverlässigkeit und Authentizität der
Daten schlichtweg nicht möglich.
146 Thorsten Dresing, Udo Kuckartz

Umfang der Texte Rahmendaten


Chat sehr kurze Mitteilungen, aber häufig nicht vorhanden (Nicknames)
u.U. insgesamt sehr lange bzw. unzuverlässig
Chatprotokolle
Foren meist nur kurze Mitteilungen, häufig nicht vorhanden, anders bei On-
aber bei dem Forentyp „On- lineseminaren
lineseminar“ auch lange Ein-
zelbeiträge
Online-Konferenzen im Durchschnitt eher längere ja
Beiträge
Mailinglisten mittlere Länge, manchmal ja
werden auch längere Texte
verfasst
Webseite sehr unterschiedlich, u.U. nur rudimentär, es besteht eine Impres-
auch lange Texte sumspflicht für die gesamte Webseite

Tab. 2: Materialumfang von Internetdaten und Rahmendaten

Im Falle von Mailinglisten und Online-Konferenzen ist die Situation vergleichswei-


se unproblematischer, denn üblicherweise verlangen Mailinglisten eine Anmeldung
der Diskussionsteilnehmer und die Beiträge sind – jedenfalls überwiegend – sach-
bezogen und nicht anonym. Solche Mailinglisten sind erheblichen Konjunkturen
unterworfen: Eine Zeit lang ist es ruhig, dann entfaltet sich wieder eine intensivere
Diskussion, dann kehrt die Ruhe zurück, mitunter kommen kleine Anfragen, die
von Mitgliedern beantwortet werden und plötzlich startet wieder eine Diskussions-
runde. Hier lässt sich Internetkommunikation in ihrem Ablauf und hinsichtlich
ihrer Charakteristika hervorragend untersuchen. Das gleiche gilt auch für Foren,
die eine Anmeldung erfordern, prototypisch für Foren im Rahmen von Onlinese-
minaren. Eine computergestützte Analyse kann hier folgende Fragen an das Mate-
rial stellen:
x Was sind die Themen der Diskussion?
x Welche Themen erzeugen die meiste Resonanz, d. h. weisen sehr viele Bei-
träge und viele Diskutanten in kurzen Zeiträumen auf?
x Gibt es Faktoren, durch welche die Diskussion angeheizt wird, z. B. Emo-
tionalität der Diskussion, Grenzüberschreitungen von Diskussionsteilneh-
mern?
x Welche Argumente werden von den Diskutanten benutzt?
x Welchen Modellen folgt die Diskussion, z. B. einem Impulsmodell (nach
einem starken Anstoß flacht die Aufmerksamkeitskurve stetig ab)?
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 147

x Welche Diskussionsteilnehmer tauchen bei welchen Themen immer wieder


auf?
x Welche Art von Kommunikation entwickelt sich? Werden wirklich neue
Inhalte und Themen diskutiert oder sind periodische Wiederholungen zu
registrieren?
Das Problem der Identifikation der Textproduzenten stellt sich insbesondere für
Foren und Chats. So kann sich in einem Chat jede Person als 22-jährige, politisch
engagierte englische Medizinstudentin bezeichnen, ohne dass eine Möglichkeit be-
stünde, dies nachzuprüfen. Diese Unsicherheit stellt ein Problem dar, aber sie stellt
den Informationstyp Internetdaten nicht prinzipiell in Frage. Natürlich bleibt es
höchst spannend, etwa das Diskussionsforum zur Shell-Jugendstudie zu analysie-
ren, die Diskussion in den Foren 1000fragen.de oder die von der Zeitschrift „Die
Zeit“1 initiierte Online-Umfrage „Was ist deutsch?“ zu verfolgen und auszuwerten,
auch unter der Voraussetzung, dass man nicht weiß, ob die diskutierenden Perso-
nen die sind, die sie vorgeben zu sein.

3 Zur Auswertung von Internetforen und Diskussionslisten


Auswertungstechnisch stellen Foren und Chats keine großen Probleme dar. Die
Aufbereitung der Texte und der Auswertungsprozess lassen sich schematisiert fol-
gendermaßen darstellen.

1 In der Zeitschrift „Die Zeit“ wird wie folgt zur Beteiligung an dieser Diskussion aufgerufen: „Was
bedeutet es für Sie, deutsch zu sein? Schicken Sie uns Ihre Erinnerungen, Erfahrungen und Gedan-
ken. Zeit.de veröffentlicht ausgewählte Einsendungen. Außerdem wertet das Institut für Medienwis-
senschaft der Ruhr-Universität Bochum Ihre Einsendungen im Rahmen einer Dissertation aus.“
148 Thorsten Dresing, Udo Kuckartz

Beschaffung der Texte aus dem Netz

Aufbereitung der Texte für das QDA-Programm

Entwicklung eines Kategoriensystems


deduktiv oder induktiv

Codieren der Daten Rahmendaten

Text-Retrieval Code-Häufigkeiten

Interpretation

Abb. 1: Workflow bei der Analyse von Internetdaten

Relativ einfach gestaltet sich die Forenauswertung bei den bereits erwähnten Foren
der Shell-Jugendstudie und der Umfrage „Was ist deutsch“ der Zeitschrift „Die
Zeit“, bei denen sich die Diskussionsbeiträge zusammen mit einigen Rahmendaten
hintereinander in einer Datei befinden.
Bei der Aufbereitung der Texte muss als erstes entschieden werden, ob man
den gesamten Textkorpus als einen Text behandeln oder ob man die Beiträge ge-
sondert als Einzeltexte auswerten möchte. Wählt man die zweite Variante, erhält
man im QDA-Programm folglich so viele Primärtexte wie es Beiträge im Forum
gibt. Eine allgemeingültige Regel, mit deren Hilfe man diese Entscheidung treffen
könnte, existiert nicht, vielmehr kommt es darauf an, welche Art von Fragen man
an das Datenmaterial stellen möchte. Im Falle der Shell-Jugendstudie kann etwa ge-
fragt werden:
x Wie viele Beiträge gibt es überhaupt in einem bestimmten Zeitraum?
x Wie alt sind die Personen, die sich beteiligen? Gibt es Unterschiede nach
Geschlecht (bei der Lektüre fällt bspw. auf, dass es häufig Schulklassen
sind, die sich im Unterricht mit der Studie beschäftigen)? Zu beachten sind
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 149

natürlich die oben gemachten Vorbehalte bzgl. der Zuverlässigkeiten dieser


Angaben.
x Ist die Meinung zur Studie eher positiv oder eher negativ?
x Welche Themen interessieren besonders und tauchen häufig im Forum auf?
Hier interessieren sowohl qualitative und quantitative Informationen.
x Was wird an der Studie kritisiert und was wird gelobt?
x Welche Art der Kommunikation findet statt? Nehmen Beiträge aufeinander
Bezug?
x Entspannt sich eine dem Anspruch der Studie angemessene Diskussion?
Viele dieser Fragen können durchaus auch dann bearbeitet werden, wenn die Ge-
samtheit aller Beiträge als ein einziger Textkorpus behandelt wird. Anders sieht es
für die ersten beiden Fragen aus. Hier ist man an Informationen über einzelne Bei-
träge und Auszählungen interessiert, so dass man die Beiträge zweckmäßigerweise
im QDA-Programm auch als gesonderte Texte behandelt. Die Differenzierung
einzelner Texte ist mit zusätzlicher Arbeit bei der Datenaufbereitung verbunden,
doch ist dies meist eine lohnende Investition, denn wenn jeder Forenbeitrag im
QDA-Programm als Text behandelt wird, besteht bei der späteren Analyse die
Möglichkeit, auch fallbasiert das gemeinsame Vorkommen von Kategorien zu
überprüfen und entsprechende Häufigkeitsauszählungen bezogen auf die Zahl der
Beiträge im Forum vorzunehmen.
Bei den beiden erwähnten Foren ist die Datenaufbereitung deshalb relativ ein-
fach, weil die Beiträge hintereinander in einer Datei vorliegen, anders sieht es aus,
wenn jeder einzelne Beitrag („Thread“) zum Lesen angeklickt werden muss, und
deshalb nicht alle Beiträge zusammen markiert und kopiert werden können. Auch
hier gibt es allerdings technische Lösungen, wie im unten dargestellten Beispiel
ausgeführt wird. Um die sequenzielle Ordnung der Texte bei der Analyse weiterhin
zur Verfügung zu haben, ist es empfehlenswert, die Texte sequentiell zu nummerie-
ren und diese Nummer als Textname zu benutzen.
Jede qualitative Analyse beginnt mit dem sorgfältigen Durchlesen des Materials.
Dies gilt selbstverständlich auch für Internetdaten. Im Fall des Forums der Shell-
Jugendstudie fällt bei der ersten Lektüre bereits auf, dass die Diskussionsbeiträge –
bis auf wenige Ausnahmen – eher kurz sind. Die Texte ähneln den Eintragungen
im Besucherbuch einer Museumsausstellung. Mitunter haben Beiträge einen eher
provokativen und wenig sachlichen Inhalt. Diskussionen im eigentlichen Sinne
kommen nur selten zustande. Man ist gut beraten bereits vor Beginn der eigentli-
chen systematischen Auswertung, d. h. nach Lektüre der Texte bzw. bei sehr vielen
Texten einer Auswahl derselben, forschungsleitende Fragen zu formulieren, die
150 Thorsten Dresing, Udo Kuckartz

man an das vorliegende Material stellt. Aus der Perspektive dieser Fragen lässt sich
dann ein Analyseprozess konzipieren, der durchaus auch zirkuläre Elemente ent-
halten kann.
Der erste Schritt des Auswertungsprozesses besteht in der Datenbeschaffung
aus dem Netz, d. h. im Fall der Jugendstudie im Kopieren der Daten im Internet-
Browser und Einfügen in eine Word-Textdatei (oder eine andere Textverarbei-
tungssoftware), ggf. sind Copyright-Vermerke zu respektieren.
Im zweiten Schritt werden die Daten (d. h. die Word-Datei) für die Auswertung
vorbereitet. Hat man sich dafür entschieden, die Beiträge in Form einzelner Texte
zu analysieren, muss das Textmaterial entweder in entsprechend viele Einzeldateien
aufgeteilt werden oder man nutzt entsprechende Features der QDA-Software.
MAXQDA offeriert mit dem Textpreprozessor eine solche Möglichkeit, diese Art
der Textvorbereitung vorzunehmen. Fügt man vor jedem Text eine Zeile mit dem
Schlüsselwort „#TEXT“ ein, so wird dies als Anfang eines neuen Forenbeitrags
interpretiert und ein neuer Text in der Liste der Texte erzeugt. Eine sequenzielle
Text-Identifikationsnummer wird automatisch eingefügt. Auch lassen sich Passa-
gen des Textes bereits vorab codieren, indem zu Beginn der jeweiligen Textpassage
eine Zeile eingefügt wird, die das Schlüsselwort „#CODE“ und den Code enthält,
der zugeordnet werden soll (z. B. „#CODEkategorie-abc“). Das Ende des zu co-
dierenden Abschnitts wird durch eine Zeile mit dem Schlüsselwort
„#ENDCODE“ festgelegt. Dies kann z. B. wie bei dem unten dargestellten Bei-
spiel der Auswertung der Forenbeiträge eines Online-Seminars dazu genutzt wer-
den, um vorab den Autor bzw. die Autorin eines Beitrags zu codieren. Bei einem
einfach gestalteten Forum wie dem der Jugendstudie ist dies nicht erforderlich,
man kann sofort mit der Codierung der Beiträge beginnen. In diesem Fall haben
wir ein induktives Vorgehen gewählt und haben auf der Basis einer Satz-für-Satz
Analyse Kategorien gebildet. Für die Kategorien Lob und Kritik sahen die Subka-
tegorien wie folgt aus:
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 151

Kritik Lob
Kritik allgemein (bin enttäuscht) Gefallen allgemein (gut-okay-gefällt mir)
Sprache interessante Studie
bestimmtes Thema fehlt gute Darstellung
Studie ist langweilig gute Webseite
Resultate sind nichts Neues wichtige Sache
Studie ist praxisfern sonstiges
zu viel Statistik
Geld vergeudet
wenig übersichtlich
Fragebogen fehlt
sonstiges

Tab. 3: Induktiv gebildete Subkategorien zu den Hauptkategorien „Lob“ und „Kritik“

Die Ergebnisse der Auswertung sollen hier nur schlaglichtartig beleuchtet werden:
Die Analyse der Codehäufigkeiten zeigte, dass deutlich mehr Lob als Kritik ausge-
sprochen wurde. Mehrheitlich handelt es sich dabei um unspezifisches Lob im Stile
von „Die Studie gefällt mir gut“, „Studie ist okay“ oder „Tolle Studie“. Auch die
zweithäufigste Form des Lobs („Die Studie ist interessant“) verbleibt im Allgemei-
nen, aber es gibt nur wenige Rückmeldungen, in denen gesagt wird, was genau man
interessant findet. Auffällig häufig finden sich Selbstdarstellungen der Autoren in
den Meinungsäußerungen, meist handelt es sich dabei um Mitteilungen des Sinns
und Zwecks der eigenen Arbeit bzw. der Gründe für das eigene Interesse an der
Studie. Der Hauptkritikpunkt betrifft die Sprache der Studie, die als zu wissen-
schaftlich und schwer verständlich empfunden wird. Sehr häufig wird auch mo-
niert, dass ein bestimmtes Thema, das man als wichtig beurteilt, in der Studie nicht
oder zu wenig berücksichtigt ist. Weitere Kritikpunkte sind eher allgemeiner Natur:
Die Studie sei langweilig, praxisfern oder enthalte schlichtweg nichts Neues. Die
von MAXQDA erstellte Matrix Texte mal Codes ermöglicht weitere statistische
Auswertungen, etwa die Untersuchung der wechselseitigen Kontingenzen der Ka-
tegorien.
Eine Auswertung von Foren wie dem der Jugendstudie ist computergestützt
recht einfach zu bewerkstelligen. In vertretbarem Zeitaufwand lässt sich ein guter
Überblick gewinnen, der für die Autoren ein gutes Feedback darstellt und wertvolle
Hinweise – nicht nur in Form von Häufigkeitsverteilungen, sondern auch in Form
von einzelnen Beiträgen – geben kann. Die Auswertung ist explorativ und ohne
einengenden Theoriebezug. Bei dem im Folgenden ausführlich dargestellten Bei-
152 Thorsten Dresing, Udo Kuckartz

spiel verhält es sich anders. Dort ist der Auswertungsprozess wesentlich aufwändi-
ger und von vornherein auf eine Theorie bezogen.

4 Inhaltsanalyse eines Internetforums – ein Beispiel


Das folgende Beispiel bezieht sich auf die Auswertung der Forenbeiträge eines On-
lineseminars, das seit dem Sommersemester 2003 regelmäßig an der Philipps-
Universität Marburg am Fachbereich Erziehungswissenschaften durchgeführt wird.
Das vorliegende Datenmaterial stammt aus einem Kooperationsseminar von Stu-
dentInnen der Wirtschaftswissenschaften der Universität Kassel und StudentInnen
der Erziehungswissenschaften der Universität Marburg. In dem Onlineseminar ha-
ben sich die Teilnehmenden in Kleingruppen kooperativen, problemorientierten
Aufgaben in jeweils zweiwöchigen Themenblocks gewidmet. Die Kleingruppen
wurden zuvor anhand der Ergebnisse eines Lernstiltests nach Kolb (1984, 1999)
gebildet. Ort der Veranstaltung war eine netzbasierte Lernplattform mit einem
Diskussionsforum als zentraler Ort des kooperativen Austausches. Im Diskus-
sionsforum wurden von allen Teilnehmenden zu jedem Themenblock viele Beiträ-
ge geschrieben. Diese Beiträge sind das Basismaterial für die Untersuchung.
Ziel der Untersuchung war es, festzustellen ob der zu Beginn der Veranstaltung
anhand eines Fragebogens festgestellte Lerntyp jedes Teilnehmenden auch beim
netzbasierten Austausch der Personen im Forum präferiert wird oder ob er sich
ändert. Kolb beschreibt basierend auf den Theorien von Lewin, Dewey und Piaget
seine Vorstellung von erfahrungsorientiertem Lernen. Lernen wird als ein zirkulä-
rer Prozess verstanden, der sich für Kolb aus den individuell unterschiedlich stark
präferierten Lernstilen der „konkreten Erfahrung“, des „reflektierenden Beobach-
ten“, der „abstrakten Begriffsbildung“ und schließlich des „aktiven Experimentie-
ren“ zusammensetzt. Für die Forenanalyse wurden die Lernstile operationalisiert,
um die jeweiligen Textbeiträge der Teilnehmenden entsprechend zuzuordnen. Die
Satz-für-Satz Codierung aller Forenbeiträge in MAXQDA lieferte dann das
Datenmaterial, welches den Vergleich mit der Fragebogenanalyse möglich machte.

Forenbeiträge für die Auswertung mit MAXQDA

Jede Analyse der entstandenen Netzwerke, Diskussionen und Beitragsfäden in


einem Onlineforum steht vor der Aufgabe, das Datenmaterial für die Auswertung
aufzubereiten. Basis für die wissenschaftliche Auswertung sind die von den Forent-
eilnehmern erzeugten Textbeiträge. Im hier analysierten Onlineseminar wurde die
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 153

kostenlose Onlinelernplattform i-study (www.i-study.de) verwendet, die auf der


Forensoftware PHPBB2 basiert. In einem Forum gibt es in der Regel individuell
festlegbare Forenrubriken (z. B. „Plenumsdiskussion“, „Seminarinformationen“,
etc.). Jeder Forenrubrik können beliebig viele einzelne Diskussionen, auch Threads
genannt, beigefügt werden. Im nachfolgenden Bild sieht man einen Ausschnitt des
Gruppenforums der Gruppe „Helden wie wir“ des Onlineseminars im WS
2003/04, die sich hier ausgetauscht und kooperativ gearbeitet hat. Man erkennt,
wer der Autor eines Themas ist, wie viele Antworten es zum jeweiligen Thema be-
reits gibt und wie oft ein Beitrag aufgerufen wurde. Beispielweise wurde das Thema
„Aktuelle Aufgabe“ von „Grumsch“ initiiert, hat 78 Antworten und wurde 1.650
Mal aufgerufen, also ein sehr aktiver Thread in dieser Gruppe.

Abb. 2: Überblick der Diskussionsthemen der Gruppe „Helden wie wir“ im Forum des Online-
seminars im Wintersemester 2003/04

Wenn man jetzt in eines der dargestellten Themen hineingeht, so kann man die
Gruppendiskussion, die dort stattgefunden hat, nachāvollziehen. Im nachfolgenden
Bild sieht man einen Ausschnitt aus dem Thread „Themenblock 6…“. Die Person
„tiede“ legt eine Idee zur Gestaltung der aktuellen Aufgabe dar. Aus Platzmangel
sind die darauf folgenden Antworten hier nicht gelistet. Neben dem Inhalt der
Diskussion ist es auch interessant, die Uhrzeit der jeweiligen Antworterstellung zu

2 PHPBB (www.phpbb.de) ist ein reines Online-Diskussionsforum und kostenlos verfügbar. Es be-
sitzt eine große Entwicklergemeinde mit über 10.000 Teilnehmern, ist einfach zu bedienen und den-
noch komplex im Funktionsumfang und kann aktuell mit etwa 200.000 Userbeiträgen aufwarten.
Darüber hinaus ist es in über 21 Sprachen verfügbar und kann recht einfach angepasst werden. Ad-
ministratoren benötigen als technische Voraussetzung nur einen Webspace, der PHP unterstützt
und eine MySQL-Datenbank zur Verfügung hat. Weitere Informationen zur verfügbaren Adaption
des im Onlineseminar verwendeten Forums finden Sie unter www.textanalyse.com.
154 Thorsten Dresing, Udo Kuckartz

betrachten. Unsere Aufgabe war es nun, diese Diskussionen so aufzubereiten, dass


man sie einfach zu MAXQDA transferieren kann, um sie dort analysieren zu kön-
nen.

Abb. 3: Auszug aus einer Diskussion der Gruppe „Helden wie wir“ im Forum des Onlinesemi-
nars im Wintersemester 2003/04

Das Datenmaterial mit dem Preprozessor für MAXQDA aufbereiten

Es ist möglich, bei allen über einen Browser zugänglichen Forenbeiträgen und
Webseiten das dort enthaltene Textmaterial zu exportieren, indem man den ge-
wünschten Text markiert, kopiert, ihn in Word oder einem ähnlichen Textverarbei-
tungsprogramm wieder einfügt und als *.rtf Datei abspeichert. Diese Vorgehens-
weise ist aber mit sehr viel Arbeit verbunden, da man diese Schritte für jeden ein-
zelnen Thread eines Forums durchführen und dabei eventuelle Fehlformatierungen
in Word korrigieren muss (eingefügte und störende Tabellen, Grafikelemente, die
nicht gebraucht werden, Personenzuordnungen korrigieren etc.). In einem stark
genutzten Forum, wie unserem Onlineseminar, waren mehr als 290 einzelne
Threads einzulesen. Um diesen zeitlichen und technischen Schwierigkeiten zu ent-
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 155

gehen, haben wir einen Forenpreprozessor genutzt. Der Forenpreprozessor3 be-


schleunigt und vereinfacht den Export der geschriebenen Beiträge enorm. Voraus-
setzung ist allerdings, dass man Administrator des entsprechenden Forums oder
Onlineseminars ist.
Der Forenpreprozessor erzeugt eine mit spezifischen Steuerzeichen versehene
HTML-Datei (siehe Abb. 4) in der alle Forenbeiträge und Antworten des gesamten
Forums in einer sinnvollen Formatierung enthalten sind (in unserem Fall sind das
etwa 1.000 DIN A4 Seiten). Im Folgenden sieht man zunächst den strukturellen
Aufbau dieser Datei:
#TEXT [ThemenID]_[Forumname]_[Themenname]
#CODE [Benutzername]
Forum: [Forumname]
Titel: [Themenname]
Datum: [Datum]
Uhrzeit: [Uhrzeit]
[Text]
#ENDCODE

Und hier sieht man den Auszug aus der HTML-Ausgabedatei:

Abb. 4: Der Forenpreprozessor

3 Das dazu notwendige Tool kann kostenlos genutzt werden und ist unter
www.phpbb.de/topic54220.html erhältlich (weitere Informationen auch auf www.textanalyse.com).
156 Thorsten Dresing, Udo Kuckartz

Anhand dieser HTML-Datei kann man alle Forenbeiträge in MAXQDA differen-


ziert und vorcodiert einlesen. Jeder Thread des Forums wird dann ein eigenständi-
ger Text und jeder Textbeitrag in einem Thread wird zur entsprechenden Person,
also dem Autor codiert. So kann man z. B. leicht alle Beiträge einer bestimmten
Person auflisten, ohne dabei störende Nebengespräche durchlesen zu müssen. Im
Kategoriensystem befinden sich demnach alle Autoren. Zusätzlich wird zu jedem
Beitrag wurde auch das Datum und die Uhrzeit der Erstellung festgehalten.
Eigene Vorgehensweise:
1. Überspielen der Zusatzdatei des Forenpreprozessors in das Hauptverzeich-
nis des gewünschten PHPBB-Forums (mit den Administratorenrechten des
entsprechenden Forums bzw. FTP-Zugang zum Server).
2. Aufrufen der Forenpreprozessordatei mit einem Browser.
3. Markieren aller gewünschten Zeilen (mit STRG+A kann alles auf einmal
markiert werden) und kopieren (mit STRG+C).
4. Mit STRG+V den kopierten Inhalt einfügen, Worddatei als Dateityp *.rtf
an einem beliebigen Ort speichern und Word schließen.
5. MAXQDA öffnen, eine neue Textgruppen erzeugen, mit der rechten Maus-
taste auf diese Textgruppe klicken und den Befehl „Text-Preprozessor“
(nicht „Text einfügen“!) auswählen.
6. Den Speicherort und die entsprechende *.rtf Datei auswählen und bestäti-
gen.
7. Fertig – je nach Textumfang kann das Einlesen einige Zeit in Anspruch
nehmen.
Links oben im Fenster „Liste der Texte“ ist jeder Thread als einzelner Text aufge-
führt. Links unten im Fenster „Liste der Codes“ sind alle Autoren als einzelne
Codes gelistet und im rechten Fenster „Textbrowser“ kann man einen gewünsch-
ten Text durchlesen und sieht, dass er bereits nach Autor codiert ist.
Der Preprozessor in MAXQDA ist natürlich auch für andere Datenquellen, wie
Onlinefragebögen oder Internetseiten nutzbar. Wichtig und allen Datenquellen
gemeinsam ist dabei nur die Art der Aufbereitung des Datenmaterials durch
Steuerzeichen. Mit dem Steuerzeichen „#TEXT“ wird ein neuer Text angekündigt
und mit „#CODE“ und „#ENDCODE“ eine bestimmte Textpassage zur Codie-
rung markiert. So lassen sich beispielsweise bei Onlinefragebögen, die in einer
Datenbank gespeichert sind sehr leicht alle Antworten vorcodiert in MAXQDA
einlesen. Diese Vorgehen spart vor allem dann sehr viel zeit, wenn ihr datenmateri-
al bereits in einer Datenbank vorliegt und für sie verfügbar ist.
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 157

Lernen mit Stil – Quantifizierende Auswertung der Forenbeiträge mit


MAXQDA

Die konkrete Umsetzung des Onlineseminars beinhaltet das Zusammenspiel meh-


rerer Teiltätigkeiten, wie die konkrete und direkte Auseinandersetzung der Lernen-
den mit einem „authentischen Lerngegenstand“, die Reflexion, den Ausbau des
Wissensnetzes durch abstrakte Begriffsbildung und die Anwendung theoretischen
Wissens bei der Planung weiterer, konkreter Auseinandersetzungen mit demselben
Lerngegenstand. Diese Teiltätigkeiten des Lernens stellen die Hauptelemente der
Theorie erfahrungsorientierten Lernens von Kolb (1984) dar. Lernen wird von
Kolb als ein zirkulärer Prozess verstanden, der sich durch folgende Phasen um-
schreiben lässt: In der Auseinandersetzung mit dem konkreten Lerngegenstand
findet die konkrete Erfahrung (KE) statt, die weiterhin als Grundlage reflexiven
Beobachtens (RB) dient, was zum Aufbau oder zur Veränderung bestehender Wis-
sensstrukturen bzw. zur abstrakten Begriffsbildung (AB) führt. Abstrakte Konzepte
können in weiteren, konkreten Situationen angewendet werden, dadurch werden
diese beim aktiven Experimentieren (AE) überprüft – und der Kreis schließt sich.
Diese vier Phasen bezeichnet Kolb als die Lernstile einer Person. Aus den präfe-
rierten Lernstilen einer Person ergibt sich der Lerntyp (z. B. „Akkomodierer“,
wenn konkrete Erfahrung und aktives Experimentieren überwiegen).

Abb. 5: Lernstile und -typen nach Kolb


158 Thorsten Dresing, Udo Kuckartz

Je nachdem, welche Lernstrategien bzw. welche Lernphasen und damit Lernstile


dauerhaft präferiert werden, spricht Kolb (1984) von vier Lerntypen: dem diver-
genten, assimilativen, konvergenten und akkomodativen Lerntyp. Aus den Werten
des zu Beginn der Lehrveranstaltung ausgefüllten Fragebogens (Kolb 1999) wird
der Lernstil einer Person ersichtlich. In beschriebenem Fall (vgl. Dresing 2006)
ging es nun um die Fragestellung, ob sich der anhand des Fragebogens festgestellte
Lerntyp der Onlineseminarteilnehmer auch in der im Diskussionsforum festgehal-
tenen schriftlichen Arbeit wieder finden lässt. Vermutet wurde ein möglicher Zu-
sammenhang von Onlinelernsituation, präferiertem Lernstil und Lernerfolg.
Um die jeweiligen Lernstile einer Person, bspw. „konkrete Erfahrung“, auch in
den Forenbeiträgen erfassbar zu machen, wurden die Lernstile auf Basis der von
Kolb genannten Typindikatoren basierend auf dem analytischen Modell von Schä-
fer (Schäfer 2004) operationalisiert und in einem Codierschema mit Codierregeln
verbunden, um später die Forenbeiträgen entsprechend codieren zu können.
„Konkrete Erfahrung“ beinhaltet bspw. nach der Codedefinition das Beziehen auf
persönliche Erfahrungen und Ausdrücken von Gefühlen (z. B. Emoticons), das
Einbringen von neuen Ideen, die auf Vorwissen (Material von außen) beruhen,
Mitteilungen, die persönliches Interesse an Personen zeigen, persönliche Mitteilun-
gen und schließlich das Nachfragen nach der persönlichen Meinung anderer. Jeder
Lernstil ist dabei in jeweils vier bis sechs weitere Subkategorien aufgeteilt, die sich
wie folgt zusammensetzen:
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 159

Abb. 6: Kategoriensystem der Lernstile in MAXQDA

Nach Abschluss der Zuordnung aller Forenbeiträge konnte nun die absolute Häu-
figkeit der Codierungen differenziert nach dem zugeordneten Stil und den vorab
codierten Personen ermittelt werden. Alle Forenbeiträge sind durch den Preprozes-
sorvorgang nach Personen codiert worden. Zudem sind alle Beiträge manuell auch
nach dem oben beschrieben Lernstil codiert. Sucht man nun gezielt nach den
Codeüberschneidungen, z. B. Lernstil KE und Person Bo, lassen sich für uns wich-
tige Aussagen gewinnen, wie bspw. „44 codierte Segmente4 zu ‚konkreter Erfah-
rung’ sind auch der Person ‚Bo’ zugeordnet“. Die Information über die absolute
Häufigkeit der Codeüberschneidungen liefert der Code-Relation Browser in MAX-
QDA.

4 Ein codiertes Segment war in unserem Fall immer ein Satz. 30 Segmente bedeuten hier also 30 Sätze
in den Forenbeiträgen. KE=44 ermittelt sich bspw. aus 12 mal KE/1, 22 mal KE/2, 8 mal KE/3
und 2 mal KE/4.
160 Thorsten Dresing, Udo Kuckartz

Abb. 7: Ergebnisse des Code-Relations Browsers

Über diese Aussagen ist es möglich, den Lernstil und -typ einer Person wie sie ihn
auf der Lernplattform im Forum angewendet hat, zu bestimmen. Der „Code-
Relation-Browser“ in MAXQDA hilft dabei und liefert eine visuelle Darstellung
von Codeüberschneidungen. Diese visuelle Darstellung, die ähnlich einer Tabelle
aufgebaut ist, listet alle (aktivierten) Codes in der Zeile und Spalte. In den jeweili-
gen Schnittpunkten wird die absolute Häufigkeit der Überschneidungen der jewei-
ligen Codes als farbiger Kasten dargestellt, der je nach absoluter Häufigkeit seine
Größe und Farbe verändert (siehe Abb. 7). Je mehr Überschneidungen der zugehö-
rigen Codes, desto größer der Kasten. Auf den ersten Blick erkennt man in Abb. 8
zunächst einmal, wo es viele oder wenige Überschneidungen gibt. Ferner erkennt
man bspw., dass viele Textstellen sowohl der Person „Irschlin“ (Codewort „Ir-
schlin“ in der Spalte), als auch dem Lernstil der konkreten Erfahrung zugeordnet
wurden (großes Rechteck bei „Irschlin“ und „Konkrete Erfahrung - KE-3“). Diese
Datenansicht, die die Häufigkeit der Codeüberschneidungen visuell darstellt, lässt
sich auch als Datenmatrix exportieren und in EXCEL oder SPSS importieren, um
weitere Berechnungen vorzunehmen.
Neue Datenquellen für die Sozialforschung: Analyse von Internetdaten 161

So kann man durch einfaches Ablesen erkennen, in wie vielen Segmenten (in
unserem Fall Sätzen) der Person „Bo“, sich für uns konkrete Erfahrung widerspie-
gelt (hier 44). Mittels dieser Daten konnte der Lernstil errechnet werden, den die
Person „Bo“ in der kooperativen Onlinearbeit angewendet hat. Mittels Umwand-
lung5 wurden die vorliegenden Daten von Fragebogen und Auszählungen der Co-
dierungen verglichen.
Bei neun von fünfzehn Personen wird in der Forenanalyse ein anderer Lerntyp
als durch den Fragebogen vor Seminarbeginn festgestellt. Dies spricht eher für ein
gemischtes und uneinheitliches Bild. Schaut man sich die Daten aber genauer an,
so wird interessanterweise ein nahezu einheitliches Bild der Veränderung bei allen
untersuchten Teilnehmenden sichtbar. 14 von 15 Teilnehmenden zeigen auf der Y-
Achse, also der Dimension mit den Lernstilpolen konkrete Erfahrung und abstrak-
te Begriffsbildung, eine sehr deutliche Verschiebung in Richtung konkreter Erfah-
rung. Die Stärke der Verschiebung liegt immerhin zwischen 25% und 50% der Ge-
samtspanne, also einem beträchtlich großen Wert. Der problemorientierte Lernan-
satz, der im Seminarmodell verfolgt wurde, und der Projektcharakter der Aufgaben
in den Themenblöcken kann sicher als eine wichtige Ursache dafür gewertet wer-
den. Der Lernstil ist nach Kolb kein feststehender Wert, sondern bezeichnet nur
eine grundlegende Präferenz, die je nach Situation auch anpassbar ist. In den Lern-
einheiten vor allem die aktive Anwendung und Umsetzung in der Arbeitsgruppe
gefördert. Allerdings würde in diesem Fall die Vermutung nahe liegen, dass sich
eine ähnliche Veränderung des Lernstils auch auf der zweiten Dimension vollzieht,
nämlich zugunsten des aktiven Experimentierens im Gegensatz zum reflektiven
Beobachten. Diese These wird aber von dem vorliegenden Datenmaterial nicht ge-
stützt. Also gibt es vermutlich weitere Faktoren, die eine so deutliche Veränderung
zugunsten der konkreten Erfahrung bewirkt haben. Konkrete Erfahrung bezieht
sich nach der Operationalisierung Schäfers (2004) auf den Ausdruck von Gefühlen,
eigenen Erfahrungen, das Bekunden von Interesse an anderen Gruppenmitgliedern
und das Nachfragen nach der persönlichen Meinung anderer. Unbestritten ist, dass
die Onlinesituation eine mangelnde soziale Präsenz mit sich bringt. Die verstärkte
Äußerung konkreter Erfahrungen könnte also auch als ein Versuch gesehen wer-
den, wichtige Funktionen für eine verbesserte soziale Repräsentation der einzelnen
Person auf der netzbasierten Lernplattform zu übernehmen und somit zusätzliche

5 Mit der Berechnung für X = (AE-RB)/(AE+RB) und Y= (AB-KE)/(AB+KE), erhält man einen
Wert zwischen -1 und +1, wobei AE für die absolute Häufigkeit von „aktiver Erfahrung“ steht usw.
Auf dieser Basis sind die Ergebnisse des Fragebogens und der Forenbeitragsauswertung vergleich-
bar.
162 Thorsten Dresing, Udo Kuckartz

Anknüpfungspunkte für eine Vernetzung der Arbeitsgruppe zu schaffen und für


ein gutes Gruppenklima zu sorgen. Die Verschiebung zu konkreter Erfahrung hät-
te also ihre Ursachen in einer Kompensationsleistung mangelnder Kommunika-
tionskanäle und mangelnder sozialer Repräsentanz in der Onlinekooperation (vgl.
Dresing 2006).
Durch die Auswertung mit MAXQDA wurde diese Form der Analyse wesent-
lich vereinfacht und dadurch zeitlich überhaupt erst möglich. Denn je größer das
auszuwertende Datenmaterial, umso mehr vereinfacht und beschleunigt MAX-
QDA die damit verbundene Auswertung und erhöht die Übersicht und Navigier-
barkeit im Datenmaterial. Internetdaten eignen sich durch ihre bereits vorhandene
Digitalisierung im besonderen Maße für eine Auswertung mit MAXQDA.

5 Ausblick
Internetdaten lassen sich schon heute sehr gut mit QDA-Software auswerten. Es
ist davon auszugehen, dass das Internet in Zukunft als Datenquelle noch an Bedeu-
tung zunehmen wird. Methoden zur Auswertung von Onlineforen oder qualitati-
ven Online-Befragungen stellen deshalb vermutlich wachsende Felder sozialwis-
senschaftlicher Forschungsmethoden dar. Es lassen sich problemlos die gebräuch-
lichen Varianten qualitativer Analysen durchführen, z. B. thematisches Codieren,
zusammenfassende Inhaltsanalyse, Theorie generierendes Codieren im Stile der
Gounded Theory oder, wie im ausführlichen Beispiel dieses Beitrags dargelegt,
Theorie orientiertes Codieren (hier auf der Grundlage einer Theorie der Lernstile).
Als besonders nützlich erweisen sich dabei die durch QDA-Software gegebenen
Möglichkeiten zu visuellen Darstellungen, nicht nur des Kategoriensystems und
seiner Struktur, sondern auch der Codierungen pro Dokument und der Über-
schneidungen von Codes. In dieser Richtung, d. h. der besseren Visualisierung von
Koinzidenzen und Zusammenhängen von Codes, ist QDA-Software erweiterbar
und verbesserungsfähig.
1000 Fragen zur Bioethik –
Qualitative Analyse eines Onlineforums unter
Einsatz der quantitativen Software MAXDictio

Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

Zusammenfassung
Das Internetforum „1000fragen.de“ bietet eine Plattform für alle Interessierten, ihre Meinungen zu Bio-
ethik zu äußern, auszutauschen und zu diskutieren. Der vorliegende Artikel stellt ausgewählte Ergebnis-
se einer Analyse der Forumsbeiträge vor, wobei ein Fokus auf der Diskursanalyse liegt. Zwar hat das
Forschungsprojekt insbesondere die qualitative Auswertung im Blick, doch präsentieren die Autoren
hier ihr methodisches Vorgehen bei einer quantiativen Analyse mit der Unterstützung durch das Pro-
grammmodul MAXDictio. An eine Beschreibung, wie die umfangreiche Datenmenge für die computer-
gestützte Bearbeitung aufbereitet wurde, schließt sich die Vorstellung von drei Strategien bei der quanta-
tiven Inhaltsanalyse an: eine diktionärsbasierte Wortschatzanalyse, der Vergleich von Männern und
Frauen sowie eine Faktorenanalyse der Diktionärswörter.

1 Forschungsfragen und Forschungsrahmen


Die kontroverse gesellschaftliche Debatte über Bioethik findet vorzugsweise in
wissenschaftlichen Zusammenhängen und politischen Gremien, in Talkshows und
den Printmedien statt. Wissenschaft und Medien dominieren ein Thema, mit dem
sich auch Laien, etwa im Zusammenhang mit vorgeburtlicher Diagnostik, künstli-
cher Befruchtung oder Sterbehilfe auseinandersetzen müssen. Die Empfehlung der
Enquetekommission „Recht und Ethik der modernen Medizin“, die Bevölkerung
an der Diskussion zu beteiligen (Deutscher Bundestag 2002: 179 ff.), wird, wenn
überhaupt, im Rahmen von Umfragen oder Bürgerkonferenzen berücksichtigt.
Diese Formen der Beteiligung reproduzieren in der Regel den wissenschaftlich-
rational geprägten Zugang zum Thema (vgl. Waldschmidt et al. 2006b: 68 ff.). Was
aber passiert, wenn die Bevölkerung die Möglichkeit erhält, sich ungeschminkt und
ungefiltert zu bioethischen Problemstellungen zu äußern?
164 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

Mit dem Internetforum „1000fragen.de“ führte die private Förderorganisation


Aktion Mensch von 2002 bis 2006 ein soziales Experiment durch: Fast vier Jahre
lang konnte jede Person eigene Fragen zur Bioethik in die Onlineplattform einge-
ben und die Beiträge Anderer kommentieren. Im Ergebnis wurden über 12.000
Fragen und mehr als 50.000 Kommentare gesammelt. Der Großteil dieses in seiner
Vielfältigkeit und Vielschichtigkeit einzigartigen Materials bildet die Grundlage für
die empirische Untersuchung, aus der in diesem Beitrag ein Ausschnitt vorgestellt
wird.1
Das Ziel der Studie ist, anhand der Analyse der Internetkommunikation über
Bioethik einen Beitrag zur Diskurstheorie nach Foucault (1990) und Link (1999;
2005) zu leisten. Eine Annahme unserer Forschungsarbeit ist: Wenn sich Muster
und Regelmäßigkeiten in der diskursiven Praxis des Internetforums entdecken las-
sen, ließe sich „Alltag“ als diskursanalytischer Gegenstand konstruieren.
Auf methodischer Ebene wird mit der Untersuchung Neuland insofern betre-
ten, als die Einbeziehung eines so umfangreichen Textkorpus in eine Untersuchung
mit überwiegend explorativer Fragestellung bislang unüblich ist. Allerdings stieg
insbesondere durch den Einsatz ständig weiter entwickelter Software in den letzten
Jahren der Materialumfang in qualitativen Studien generell. Insofern steht das For-
schungsprojekt wahrscheinlich am Anfang einer künftigen Entwicklung und ver-
spricht neue Erkenntnisse nicht nur in inhaltlicher Hinsicht, sondern auch für die
Weiterentwicklung der empirischen Sozialforschung. In diesem Beitrag soll insbe-
sondere die Integration quantitativer Arbeitsschritte in einen ansonsten primär qua-
litativ-interpretativen Forschungsansatz thematisiert werden. Dabei kam das Pro-
gramm MAXQDA mit dem Modul MAXDictio zum Einsatz. Während MAX-
QDA für die Analyse qualitativer Daten entwickelt wurde, dient MAXDictio der
Wortschatzanalyse, Diktionärserstellung und quantitativen Inhaltsanalyse.

2 Forschungsgegenstand: Das Internetforum 1000fragen.de


Das Internetforum 1000fragen.de wurde, flankiert durch eine begleitende Öffent-
lichkeitskampagne der Aktion Mensch, im Oktober 2002 eröffnet. Im Oktober 2004
veränderte der Projektträger die Akzente der Website: Prominente übernahmen

1 Die Studie unter Leitung von Prof. Dr. Anne Waldschmidt (Universität zu Köln, Soziologie in der
Heilpädagogik, Sozialpolitik und Sozialmanagement) wurde von Aktion Mensch finanziell gefördert
(Laufzeit: 2004 bis 2007).
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 165

nun „Patenschaften“ für ausgesuchte Fragen und stellten den Besucher/-innen der
Internetseiten ihre Stellungnahmen zur Diskussion.
Mit der Festlegung auf eine Summe von 10.000 Fragen und den dazu gehörigen
34.611 Kommentaren wurde dem Interesse des Auftraggebers, eine Totalerhebung
durchzuführen, im Rahmen des praktisch Möglichen entsprochen.2 Im Sommer
2006 fand eine Erweiterung des Korpus um 78 Fragen mit Stellungnahmen promi-
nenter Paten und die daraufhin abgegebenen 20.585 Kommentare statt.
Die Daten wurden uns von den Betreibern des Internetforums in Form von
Excel-Dateien übermittelt. Ein Datensatz enthielt außer dem Text der Frage bzw.
des Kommentars eine ID-Nummer, freiwillige persönliche Angaben (Name und
Wohnort) der User, den Zeitpunkt des Eintrags und eine der vorgegebenen The-
menkategorien, denen die Teilnehmer/-innen ihre Beiträge zuordnen mussten.

ID Thema Frage VN NN Ort Datum


16288 Gentechnik #TEXT Ändert man seine Einstel- A. K. Duisburg 28.05.2004
lung zur Gentechnik, wenn 20:40
man selbst, oder sein eige-
nes Kind eine Krankheit be-
kommt, die evtl. mittels Gen-
technik zu bekämpfen wäre?

Tab. 1: Beispiel eines Datensatzes der Fragen

Für das Einlesen vieler kurzer Texte wurde der Preprozessor von MAXQDA be-
nutzt, der innerhalb eines Dokuments Textanfänge durch das Trennzeichen
„#TEXT“ erkennen kann. Vor der Konvertierung der Excel-Datei in ein rtf-
Dokument wurde vor dem Textfeld der Fragen eine Spalte eingefügt, die nur das
Trennzeichen enthielt (s. Tab. 1). Beim Einlesen generierte MAXQDA automa-
tisch eine Datei mit 10.000 Texten, die jeweils eine Frage enthielten. Für die Analy-
se ganzer Diskussionsfäden („Threads“) wurden mit Hilfe der Sortierfunktion in
der Excel-Ausgangsdatei jedem Fragetext die Kommentare mit identischer Fragen-
ID (s. Tab. 2) beigefügt. Der Einlesevorgang ergab somit eine weitere Datei mit
ebenfalls 10.000 Texten, die das komplette Material beinhaltete.

2 Nicht untersucht werden die von den Moderatoren/-innen gefilterten Beiträge, die aufgrund der
Verletzung von Teilnahmeregeln nicht veröffentlicht wurden.
166 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

Fragen- ID Kommentar VN NN Ort Datum


ID
16288 47546 Ich könnte wetten, dass man das dann tut, zu- M. H. 29.05.2004
mindest spätestens dann, wenn wirklich Thera- 18:48
pien auf Gentechnik-Ebene entwickelt wurden.
Die Mutter will ich dann sehen, die ihr Kind an
Krebs sterben sieht und ihm dann die Gen-
Therapie verweigert. Aber das ist ja noch alles
Zukunftsmusik, bis jetzt ist eine Gentechnik-
Therapie noch nicht möglich.

Tab. 2: Beispiel eines Datensatzes der Kommentare

Soweit zur Aufbereitung der Daten für die Analyse. Um das anschließend entwi-
ckelte Methodendesign nachvollziehen zu können, ist ein kurzer Abriss methodo-
logischer Überlegungen erforderlich. Die Methodologie der Studie folgt dem An-
satz der Diskursforschung, die sowohl quantitative als auch interpretative Metho-
den zulässt (Keller 2005, Keller et al. 2005). Aus der Sicht dieser Theorie stellt der
Forschungsgegenstand, also das untersuchte Internetforum, ein „diskursives Ereig-
nis“ im zivilgesellschaftlichen Interdiskurs dar.3
Was die Diskursanalyse von anderen Arten der Textanalyse unterscheidet, ist
ihr spezifischer Blick auf die Dokumente: Ihr zufolge kommt der Redeweise, d. h.
der diskursiven Praxis ein bedeutender Stellenwert bei der Konstituierung von Ge-
sellschaft zu. Für diese Funktion ist nicht der subjektive Sinn maßgeblich, den Ak-
teure ihren Äußerungen geben, sondern die anonymen und nicht intentionalen
Umstände, unter denen sie zustande kommen. Es geht um die Herausarbeitung ei-
ner Systematizität dessen, was im Feld der verstreuten Äußerungen faktisch sagbar
und denkbar ist. Die Kernfrage der Diskursanalyse lautet daher: „Wie kommt es,
daß eine bestimmte Aussage erschienen ist und keine andere an ihrer Stelle?“ (Fou-
cault 1990: 42)
Die diskursanalytische Perspektive wird unserem Gegenstand insofern gerecht,
als aus ihrer Sicht die Anonymität der Beiträge im Internet kein Problem für das
methodische Vorgehen darstellt. Vielmehr gilt: Die Rekonstruktion konsistenter
Sinnstrukturen (im Sinne über-individueller Wissensordnungen) kann erst im stän-
digen Vergleich einer größeren Anzahl von Texten erreicht werden. Das scheinbare
Chaos der verstreuten Äußerungen bildet den Ausgangspunkt jeder Diskursanalyse.
Nach Link (1999: 152) ist jeder Diskurs „idealiter als großer Haufen von Aussagen
definiert, die nur in ihm und durch ihn möglich sind und die zusätzlich als eine be-

3 Näheres zur methodologischen Ausrichtung des Projektes in Waldschmidt et al. (2006a).


1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 167

stimmte Verteilung und Streuung strukturiert sind.“ Die Diskursanalyse kann also
als Typisierungsprozess aufgefasst werden, der Ordnung in einen bestimmten
„Haufen“ von Sprechakten bringt. Folglich wird die Struktur diskursiver Praktiken
erst im Prozess der Materialbearbeitung als solche identifiziert, z. B. im Bereich der
Formation der Begriffe: Spricht ein Teilnehmer vom „Embryo“ oder vom „Zell-
haufen“? Verwendet eine Teilnehmerin medizinische Terminologie, zitiert sie die
Bibel oder lässt sie eigene Erfahrungen in ihren Kommentar einfließen? Dabei
spielt es keine Rolle, wer die Autoren/-innen der einzelnen Äußerungen sind; es
kommt nur auf die Regelmäßigkeiten und Muster in der Verwendung von Begrif-
fen und Begriffsfamilien an. Die diskurstheoretische Analyse geht somit den Weg
des abduktiven Schließens (Seipel/Riecker 2003: 62): Von den beobachtbaren For-
mationen wird induktiv auf die zugrunde liegende Diskurs- oder Wissensordnung
geschlossen. Die so gewonnenen Strukturannahmen müssen wiederum am Material
überprüft werden. Um ein Bild aus Foucaults (1990) methodologischem Haupt-
werk zu benutzen: Die Forscher/-innen graben wie Archäologen die Oberfläche
auf, um zu den tiefer liegenden Schichten der untersuchten Macht-Wissen-
Formation zu gelangen.

3 Methodendesign
Die generelle methodische Orientierung unser Studie war durch den Materialkor-
pus vorgegeben: Da es sich um ein Konglomerat von sprachlichen Äußerungen
handelte, konnte es nur um eine Inhaltsanalyse gehen. Eine Reflexion verschiede-
ner möglicher Herangehensweisen unter der Vorgabe, Material und Theorie mög-
lichst gerecht zu werden, führte zu einer Kombination von qualitativem und quan-
titativem Methodeneinsatz. Das angewandte Methodendesign ließ sich in vier Pha-
sen einteilen:
Phase 1: In dieser explorativen Phase kam es darauf an, mit dem umfangreichen
und unübersichtlichen Material vertraut zu werden. Eine Reduktion der
Komplexität konnte zunächst durch Zählen und Messen erreicht werden.
Phase 2: In dieser Kernphase des Projekts sollten Konturen von Diskursordnun-
gen im Internetforum identifiziert werden. Die Auswertungstätigkeit be-
stand im Wesentlichen aus dem Kategorisieren und Systematisieren von
Äußerungen des Internetforums. Die Codiertechnik orientierte sich am
offenen Codieren der Grounded Theory, war allerdings durch den „dis-
168 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

kursanalytischen Blick“ stärker inhaltlich und formal vorgeprägt als im


Rahmen dieses Ansatzes ansonsten üblich.
Phase 3: Diese Phase diente der Engführung der Analysetätigkeit auf eine Schlüs-
selkategorie der vorangegangenen Phase: „Wissensform“ mit den Ausprä-
gungen „Alltagswissen“ und „Spezialwissen“. Das zunächst nur grob um-
rissene Konzept der Wissensform wurde mit Rückgriff auf Postulate der
Theoriearbeit operationalisiert und durch systematisches Codieren an ver-
schiedenen Stichproben aus dem Material überprüft und ergänzt.
Phase 4: Nach der Engführung folgte wieder eine Phase der Ausdifferenzierung.
Einzelanalysen thematisierten ausgewählte Aspekte der diskursiven Praxis:
die Konstruktion von Menschenbildern am Beispiel der Klon-Metapher,
die Ethik der Selbstbestimmung und Grenzziehungen zwischen Normali-
tät und Behinderung. Gleichzeitig wurden in weiteren Arbeitsschritten die
Ergebnisse zum Alltags- und Spezialwissen validiert und theoretisch abge-
leitete Hypothesen überprüft.
Aus dieser Beschreibung wird ersichtlich, dass der Kern der Projektarbeit in der
qualitativen Analyse der Forumsbeiträge lag. Dennoch ließen sich einzelne quanti-
tative Arbeitsschritte in der ersten und letzten Phase gut in das Gesamtkonzept in-
tegrieren.

4 Drei Beispiele für den Einsatz von MAXDictio


Die hier vorgestellten Ergebnisse stellen nur einen Ausschnitt aus der umfangrei-
chen Analysearbeit dar. Beispielhaft sollen typische Anwendungen des Moduls
MAXDictio illustriert werden, um – im Rückgriff auf die Darstellung des Gesamt-
konzepts – zum Nachdenken über die sinnvolle Einbettung quantitativer Metho-
den in einen dem qualitativen Paradigma verpflichteten Forschungsprozess anzure-
gen.

Wortschatzanalyse mit Hilfe eines Diktionärs


Zu Beginn des Projekts stand das Vertrautwerden mit dem Material im Vorder-
grund. Die Komplexität tausender Einzelbeiträge sollte reduziert, ein Überblick
gewonnen werden. Die Grundannahme, dass die diskursive Praxis im Internetfo-
rum Regelmäßigkeiten aufweist, ließ noch keine Hypothesen für inhaltliche Be-
schränkungen zu.
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 169

Daher verfolgte der erste Arbeitsschritt mit MAXDictio eine induktive Logik:
Über eine einfache Auszählung von Wörtern wollten wir zu einem Diktionär ge-
langen, das die am häufigsten genannten sinntragenden Wörter aus den 10.000 Fra-
gen zusammenfasste. Grundlage dieser ersten Wortschatzanalyse war die von
MAXDictio automatisch erstellte „Liste der Worthäufigkeiten“. Nach einem ersten
Durchlauf wurden die nicht sinntragenden Wörter und Zeichenfolgen (Artikel,
Präpositionen, Konjunktionen, Zahlen etc.) in eine Stoppliste transferiert und so-
mit von allen weiteren Zählvorgängen ausgeschlossen. Die so bereinigte Liste der
Worthäufigkeiten ergab im Ergebnis eine Verteilung mit auffälligen Häufungen
zentraler Begriffe wie „Mensch“, „Leben“, „Kind“, „Recht“. In dieser Häufigkeits-
liste waren semantisch gleiche bzw. ähnliche Wörter (z. B. „Mensch“ und „Men-
schen“) noch in verschiedene Kategorien einsortiert und demzufolge gesondert
ausgezählt worden. Um dieser Verzerrung entgegen zu wirken, wurde im nächsten
Schritt ein Diktionär erstellt, das Wortstämme und verwandte Wörter zu Lemmata
zusammenfasste. Die Zusammenstellung erfolgte nach strengen Regeln: Nur ge-
meinsame Wortstämme oder eindeutige Oberbegriffe bei Hauptwörtern bildeten
einen Diktionärseintrag. Das Lemma „Abtreibung“ bestand beispielsweise aus den
Zeichenfolgen *abtreibung*, *abtreiben*, *abgetrieben*, *abbruch*, *abort*; das
Lemma „Gefühle – Leiden“ aus: *schmerz*, *qual*, *quälen*, leid, *leiden* *litt*,
*leidest*, *leidet*.4 Die anschließende Häufigkeitszählung der Diktionärswörter5
listete pro Lemma die Summe der Einzelnennungen der jeweiligen Unterbegriffe
auf; im Ergebnis wurde wiederum eine Komplexitätsreduktion des Wortschatzes
erzielt.
Die quantitative Wortschatzanalyse der 10.000 Fragen kam zu dem überra-
schenden Resultat, dass sich aus dem sehr umfangreichen Material einige wenige
Schlüsselbegriffe heraus kristallisieren ließen. Allein das Lemma „Mensch“ wurde
fast 5.000 Mal genannt, „Leben“ verzeichnete über 2.000 Einträge, „Tod/Sterben“
kam 1.000 Mal in den Fragen vor. Neben diesen Einzelbegriffen fanden sich in der
Spitzengruppe (mindestens über 1.000 Nennungen) noch Sammelbegriffe wie
„Familie“ und formale Kategorien wie „W-Fragen“, „Bewertung“ und „Ge-/Ver-

4 Ein * vor und nach dem Suchbegriff bedeutet, dass die Zeichenfolge auch als Wortbestandteil ge-
zählt wurde. Die Suchfunktion differenzierte nicht nach Groß- und Kleinschreibung, da viele User
im Internetforum ausschließlich Kleinschreibung verwendeten.
5 Dazu muss im Programm die Funktion „MAXDictio > Nur Diktionär-Worte zählen“ eingeschaltet
werden.
170 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

bote“. Mit 500 bis rund 1.000 Nennungen kam weiteren 16 Lemmata eine beson-
dere Bedeutung im Internetforum zu.6
Dass in einem Forum zur Bioethik über den Menschen, das Leben und das
Sterben geredet wird, ist nicht weiter verwunderlich. Allerdings ist der deutliche
Abstand dieser drei Schlüsselbegriffe zu den anderen herausgefilterten Lemmata
bemerkenswert. Das Beispiel veranschaulicht, wie eine simple Auszählung Denkan-
stöße für die qualitative Arbeit erzeugen kann: So wurden wir vor der Codierphase
für die Frage sensibilisiert, ob die User möglicherweise intuitiv Bioethik mit der
philosophischen Frage „Was ist der Mensch?“ verknüpften. Wird im alltagsweltlich
geprägten Internetdiskurs um ein neues, das Wissen aus den Biotechnologien inte-
grierendes Menschenbild gerungen?
Neben diesen Interpretationsversuchen diente die Zählung der in den 10.000
Fragen benutzten Wörter außerdem der Orientierung bei späteren Auswahlent-
scheidungen. Die Häufigkeit der Lemmata half abzuschätzen, ob es sich bei be-
stimmten Begriffen um ein geläufiges, viel diskutiertes Topos oder eher um ein
„Orchideenthema“ handelte.7

Einbeziehung einer externen Variablen

Das nächste Anwendungsbeispiel für MAXDictio diente einer Hypothesenüber-


prüfung, verfolgte also eine deduktive Logik. Anhand der aus der Nennung des
Vornamens abgeleiteten externen Variable „Geschlecht der User“ wurden die Teil-
stichproben männlicher und weiblicher User überprüft, ob sie sich hinsichtlich des
benutzten Wortschatzes unterschieden.
Zu diesem Zweck wurde auf der Grundlage der 10.000 Fragen (ohne Kom-
mentare) und des oben beschriebenen Diktionärs die Häufigkeit der Nennung
eines jeden Lemmas nach Geschlecht getrennt erfasst. Während bei den meistge-
nannten Begriffen kein Unterschied zwischen männlichen und weiblichen Usern
festzustellen war, ergab sich bei anderen Wörtern tatsächlich, dass diese überpro-
portional häufig von Frauen oder Männern benutzt wurden.

6 Diese sind: Wissenschaft/Forschung, Behinderung, Krankheit, Klonen, Recht & Gesetz, Gene,
Körper, Perfektion, Natur, Religion, Ethik, Technologie, Medizin, Gefühle-Glück Liebe Freude,
Fragen, Entscheidung.
7 Zwei der drei Einzelstudien aus Phase 4 bezogen sich auf Lemmata, die unter den „Top 20“ zu fin-
den waren: „Behinderung“ und „Klon“ (vgl. Fußnote 6).
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 171

Rangliste nach Frauenanteil Rangliste nach Männeranteil


Rang Lemma Rang Lemma
1 Individualität 1 Evolutionstheorie
2 Wissen 2 Produktion
3 Gefühle – Angst 3 Nutzen
4 Künstlichkeit 4 Unsterblichkeit
5 Töten 5 Sicherheit
6 Perfektion 6 Person
7 Gesundheit 7 Fehler
8 Katalog 8 Verantwortung
9 Baby 9 Verbesserung
10 Frau 10 Technologie
11 Familie 11 Ethik

Tab. 3: Ranglisten der Lemmata nach Frauen-/Männeranteil

Tab. 3 zeigt nicht das von Frauen/Männern insgesamt bevorzugte Vokabular, son-
dern nur die Lemmata mit den größten Geschlechtsunterschieden. Diejenigen in
der ersten Spalte weisen einen besonders hohen, die in der zweiten Spalte einen be-
sonders niedrigen Frauenanteil auf. Das Zählergebnis muss allerdings vorsichtig
interpretiert werden, da es sich um reine Wortnennungen handelt, ohne den Sinn-
gehalt oder Kontext einbezogen zu haben. Außerdem bezieht sich das Ergebnis
nur auf rund die Hälfte der Fragesteller (n=4.676), da den anonymen Beiträgen
keine Geschlechtsvariable zugewiesen werden konnte. Dennoch fällt auf, dass eini-
ge der typischerweise von Männern verwendeten Begriffe zum gängigen männli-
chen Geschlechtsstereotyp passen: Die Wortnennungen „Produktion“, „Nutzen“,
„Verbesserung“, „Technologie“ können einem technisch-rational-ökonomischen
Bedeutungsfeld zugeordnet werden. Auf der anderen Seite passen die Wörter „Ba-
by“, „Frau“, „Familie“, die von weiblichen Usern auffallend häufig benutzt werden,
zur weiblichen Geschlechtsnorm. Die Lemmata mit dem höchsten Frauenanteil,
„Individualität“ und „Wissen“, sind jedoch kaum in dieser Weise zu interpretieren.
Nicht zuletzt aufgrund der Virtualität der Namensnennungen in der Internet-
kommunikation wurde die geschlechtsspezifische Perspektive in den folgenden
Analysephasen wieder aufgegeben. Eine nicht zu unterschätzende Konsequenz die-
ses quantitativen Arbeitsschritts war jedoch das Aufzeigen eines möglichen gender
bias für spätere Befunde. Sollte sich im weiteren Verlauf der Untersuchung bei-
spielsweise die Semantik der Evolutionstheorie als mächtige Metapher im zivilge-
172 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

sellschaftlichen Interdiskurs herausstellen, könnte dank dieser quantitativen Aus-


wertung berücksichtigt werden, dass sie überwiegend von männlichen Usern be-
nutzt wurde.

Faktorenanalyse der Diktionärswörter

Das dritte Anwendungsbeispiel hatte abermals explorativen Charakter: Es zielte


darauf ab, häufig verwendete Kombinationen von Begriffen in den Threads aufzu-
spüren. Mit Hilfe der Faktorenanalyse (Bortz 2005: 511-563), einem statistischen
Verfahren zur Reduktion von Dimensionen, konnten solche Kombinationen er-
mittelt werden.
In unserem Fall ordnete die Faktorenanalyse die 140 Lemmata aus dem Diktio-
när in Gruppen ein. Basiskriterien für die Gruppierung waren das gemeinsame
Vorkommen mehrerer Begriffe in einem Thread und die Trennschärfe zu anderen
Begriffsgruppen. Wie gut ein einzelnes Lemma dann zu einer Wortgruppe (dem
„Faktor“) passte, wurde durch die korrelative Beziehung unter den Lemmata, die
so genannte Faktorladung veranschaulicht. Einen Faktor kann man sich dabei em-
pirisch als „besten Repräsentanten“ einer Variablengruppe vorstellen, hier als einen
Oberbegriff für die in ihm enthaltenen Wortkombinationen. Die Interpretation
eines jeden Faktors, also die „Namensgebung“, war durch die Faktorenanalyse
nicht vorgegeben und musste aufgrund theoretischer Erwägungen erfolgen.
Unter der Vorgabe, dass ein Faktor einen größeren Anteil der Varianz als die in
ihm enthaltenen Einzelvariablen erklären musste, wurden 20 Faktoren errechnet.
Eine sinnvolle Interpretation dieser Faktoren konnte in den meisten Fällen nicht
geleistet werden; dennoch wies das explorative statistische Verfahren auf einige
kohärente Diskussionsverläufe hin (vgl. Tab. 4).
Einen Faktor, der die Wortkombination Sterbehilfe, Hilfe, Medizin, Tod, Lei-
den, Willen/Selbstbestimmung, Entscheidung und Euthanasie beinhaltet, interpre-
tierten wir als Diskursstrang „Entscheidungen am Lebensende“. Das Ergebnis der
Faktorenanalyse ergab somit ein Themenfeld, das einer im Internetforum bereits
vorhandenen Vorgabe entsprach.
Darüber hinaus enthielt die Faktorenanalyse Hinweise auf Diskussionsstränge,
die quer zu den vorgegebenen Themen verliefen: So ließ sich die Kombination von
Wörtern wie Selektion, Evolution, Gene und Natur als ein neues Thema „Evolu-
tionstheorie“ interpretieren. Dieser Diskursstrang sollte in den interpretativen Ar-
beitsschritten noch eine Rolle spielen. Ähnlich verhielt es sich mit dem Thema
„Philosophisch-religiöse Grundwertediskussion“, das ebenfalls als Ergebnis der
1000 Fragen zur Bioethik – Qualitative Analyse eines Onlineforums 173

Faktorenanalyse ausgemacht werden konnte. In anderen Fällen erwies sich die In-
terpretation einzelner Faktoren als schwierig. Die Grenzen dieses rein auf Zähler-
gebnissen beruhenden Verfahrens zeigten Faktoren mit über 20 Einträgen auf, die
von uns nicht mehr zu sinnvollen Kategorien zusammengefasst werden konnten.

Entscheidungen am Lebensende
Diktionärseintrag Faktorladung
Sterbehilfe 0,93
Hilfe 0,90
Medizin 0,70
Tod 0,48
Leiden 0,35
Willen/Selbstbestimmung 0,34
Entscheidung 0,32
Euthanasie 0,32
Evolutionstheorie
Diktionärseintrag Faktorladung
Selektion 0,62
Evolution 0,61
Gene 0,48
Natur 0,40
Philosophisch-religiöse Grundwertediskussion
Diktionärseintrag Faktorladung
Sinn 0,91
Liebe/Glück 0,64
Fragen 0,59
Leben 0,59
Religion 0,39
Tab. 4: Interpretationen ausgewählter Ergebnisse aus der Faktorenanalyse

Im Ergebnis gelang es mit der quantitativen Datenexploration anhand der Fakto-


renanalyse, vorher nicht sichtbare Diskursstränge aufzuspüren, die in der qualitati-
ven Phase gezielt bearbeitet werden konnten. Ähnlich wie die einfache Auszählung
der Diktionärswörter erwies sich dieses multivariate Verfahren als geeignet, Aus-
wahlentscheidungen für weitere Analysen zu erleichtern – ein notwendiger Arbeits-
schritt angesichts begrenzter Zeit und Ressourcen.
174 Miguel Tamayo Korte, Anne Waldschmidt, Sibel Dalman-Eken, Anne Klein

5 Forschungspraktische Erfahrungen mit der


Analysesoftware
Entscheidend für die Praktikabilität der Analysesoftware MAXQDA ist aus unserer
Sicht ihre „Teamfähigkeit“ – zumal für größere Forschungsprojekte.8 Unter dem
Aspekt der Qualitätssicherung ist es nicht sinnvoll, die Arbeitsteilung so zu gestal-
ten, dass jedes Teammitglied einen separaten Bereich des Korpus bearbeitet. Viel-
mehr stellt sich die Tauglichkeit von Codierregeln erst dann heraus, wenn mehrere
Codierer am selben Material unabhängig voneinander zum selben Ergebnis kom-
men (Intercoderreliabilität). Für die Arbeitsphasen qualitativen Codierens haben
wir auf die bewährte Export-/Import-Funktion in MAXQDA zurückgreifen kön-
nen, die das gleichzeitige Arbeiten am selben Text ermöglicht.
Bei der Planung von quantitativen Analysen und Diktionären, wie sie in diesem
Beitrag vorgestellt wurden, ist zu berücksichtigen, dass die Bearbeitung nur nach-
einander bzw. gemeinsam in Gruppenarbeit erfolgen kann. Beim Erstellen unseres
Diktionärs haben wir das Ergebnis der Reihe nach weitergegeben und von allen
überprüfen lassen; das Veto eines Teammitglieds hatte die Löschung oder eine
Neudefinition von Diktionärseinträgen zur Folge. Unsere Erfahrung zeigt, dass die
zeitliche Projektplanung möglichst frühzeitig auf die Teamabsprachen abgestimmt
werden sollte. Ingesamt hat sich aber die Planung quantitativer Arbeitsschritte als
unproblematisch erwiesen, da ein klassischer standardisierter Auswertungsplan
dank der Vorhersehbarkeit des Aufwandes gut kalkulierbar ist.
Als angenehme Arbeitserleichterung haben wir die Integration der Funktionen
von MAXDictio in MAXQDA erlebt. Die explorative quantitative Datenanalyse
führt im Idealfall zu Hypothesen, die auch bei der Erstellung des Codebaums für
die qualitative Arbeit eine Rolle spielen. Ohne das Programm wechseln zu müssen,
können die entsprechenden Codes eingerichtet und mit Memos versehen werden.
Die Textbasis jedes Diktionärseintrags kann über den Index der Fundstellen direkt
im Textbrowser aufgerufen und bei Bedarf auch mit der Funktion „automatisches
Codieren“ in den Codebaum transferiert werden.

8 Das Projektteam umfasst neben der Projektleiterin eine wissenschaftliche Mitarbeiterin, einen wis-
senschaftlichen Mitarbeiter sowie vier Hilfskräfte (in Teilzeit; Gesamtaufwand ohne Projektleiterin:
76h/Woche).
III

Fragen der Qualität


Qualitätssicherung in der qualitativen Forschung

Ines Steinke

Zusammenfassung
Dieser Beitrag diskutiert, welche Bewertungskriterien für qualitative Forschung adäquat sind. Dazu wird
zunächst das Verhältnis der Gütekriterien der quantitativen Forschung zu Bewertungskriterien der quali-
tativen Forschung beschrieben. Im Anschluss werden übergeordnete Kriterien vorgestellt, die für die
Qualitätssicherung qualitativer wie auch quantitativer Forschung geeignet sind. Abschließend werden
Vorschläge zu zentralen Qualitätskriterien in der qualitativen Forschung formuliert.

1 Einleitung
Wer empirische Forschung betreibt, steht nicht nur vor der Aufgabe, ein Untersu-
chungsdesign aufzusetzen, die Daten zu erheben und auszuwerten und einen Ab-
schlussbericht zu schreiben. Die Forscher stehen auch vor der Frage, an Hand wel-
cher Kriterien sie die Qualität und Wissenschaftlichkeit ihrer Studie festmachen. In
der quantitativen Forschung haben sich als Qualitäts- bzw. Bewertungskriterien die
bekannten Gütekriterien Objektivität, Reliabilität und Validität über Jahrzehnte
hinweg etabliert. In der qualitativen Forschung hingegen herrscht zur Frage der
Güte- bzw. Bewertungskriterien weniger Einigkeit. Das Thema ist hier vergleichs-
weise jung. Die Ansätze sind eher skizziert als tatsächlich ausgearbeitet (Lüders
2004, 635).

2 Klassische Gütekriterien in der qualitativen Forschung


Nachfolgend werden drei unterschiedliche Rollen diskutiert, die herkömmliche Gü-
tekriterien der quantitativen Forschung für Bewertungsstandards der qualitativen
Forschung spielen.
Qualitätssicherung in der qualitativen Forschung 177

Klassische Gütekriterien als geeignete Kriterien für die qualitative


Forschung

Nahe liegend wäre, qualitative Forschung anhand der klassischen Gütekriterien zu


bewerten. Diese Kriterien wurden ursprünglich in der klassischen Testtheorie ent-
wickelt. Sie werden auch in der quantitativen und experimentellen Forschung ein-
gesetzt und stetig verfeinert. Dabei handelt es sich um die Gütekriterien Objektivi-
tät, Reliabilität und Validität (vgl. u. a. Bortz/Döring 2003, Lienert 1969, Lienert/
Raatz 1994, Campbell 1957, Campbell/Stanley 1963, Gadenne 1984).
Diese Position birgt zwei Nachteile:
1. Die erkenntnistheoretische und methodologische Basis für die Gütekrite-
rien aus Testtheorie und quantitativer Forschung differiert von der für qua-
litative Forschung (zur Erkenntnistheorie und Methodologie qualitativer
Forschung vgl. Steinke 1999: 15 ff., Flick 2004a). Wird qualitative For-
schung unter Bezug auf die Kriterien der quantitativen Methoden bzw.
Testtheorie bewertet, wird sie im Vergleich zur quantitativen in der Regel
schlechter abschneiden. Sie wird nur dort vergleichbar gut sein, wo sich die
methodologischen bzw. erkenntnistheoretischen Voraussetzungen beider
Forschungstraditionen überlagern. Dies ist jedoch nur in Bezug auf einige
Kriterien und dort auf einer sehr abstrakten Ebene gegeben. Dazu ein Bei-
spiel: Die Forderung nach Repräsentativität, d. h. nach Verallgemeinerbar-
keit der Ergebnisse bzw. der Darstellung der Grenzen der Verallgemeine-
rung ist auch in der qualitativen Forschung angebracht. Nicht umsetzen las-
sen sich jedoch die dazugehörigen Prüfverfahren. Diese beinhalten Manipu-
lationen der unabhängigen Variablen, indem Zufallsauswahlen aus offenen
Populationen, Variationen von situativen Bedingungen und unterschiedliche
Operationalisierungen der Variablen vorgenommen werden. Die Prüfpro-
zeduren basieren auf dem Konzept von abhängiger und unabhängiger Va-
riable, welches nicht auf qualitative Forschung übertragbar ist. Es verlangt
eine Komplexitätsreduktion der Untersuchungssituation und damit eine
Entfernung vom Alltag der Untersuchten, die in der qualitativen Forschung
nicht angemessen ist.
2. Viele Gütekriterien bzw. Verfahren zur Prüfung der Güte sind nicht auf
qualitative Forschung übertragbar (z. B. Objektivität, Retest-Reliabilität,
Split-Half-Technik, interne Validität). Ein Beispiel zur Illustration (für wei-
tere Beispiele vgl. Steinke 1999: 131-204): Objektivität als intersubjektive
Übereinstimmung zwischen verschiedenen Untersuchern ist in der qualita-
178 Ines Steinke

tiven Forschung kaum realisierbar. So ist eine Durchführungsobjektivität,


d. h. eine Konkordanz zwischen unterschiedlichen Forschern in der empiri-
schen Erhebung nicht herstellbar, da die Erhebungssituation in der qualita-
tiven Forschung kaum standardisierbar ist. Sie zeichnet sich z. B. im Inter-
view gerade durch vielfältige Interaktionen zwischen Untersuchtem und
Forscher aus. Den Reaktionen der Befragten wird ein weiter Spielraum ge-
lassen. Bei Beobachtungen werden die Beobachtungskategorien eher offen
gehalten. Eine zu große Standardisierung der Erhebung würde zentralen
Prinzipen qualitativer Forschung zuwider laufen. Es würde das Prinzip der
Offenheit (Hoffmann-Riem 1980) gefährden: Subjektive Bedeutungen und
Relevanzsetzungen der Untersuchungspartner, die sich nicht mit den theo-
retischen Vorannahmen decken und daher nicht in das Erhebungsverfahren
eingeflossen sind (z. B. in Form von Interviewfragen oder Beobachtungska-
tegorien) kämen möglicherweise nicht zum Ausdruck. Damit würde viel Po-
tenzial der qualitativen Forschung geopfert. Der Forschungsgegenstand
würde verkürzt erfasst.
Dies bedeutet nicht, dass Kriterien der quantitativen Forschung überhaupt nicht als
Orientierung für die Formulierung von Standards für die Bewertung qualitativer
Forschung geeignet sind. Wichtig ist zu prüfen, inwiefern sich die jeweiligen Krite-
rien und Prüfverfahren mit den epistemologischen und methodologischen Charak-
teristika qualitativer Forschung vereinbaren lassen.
Einige grundsätzliche Ideen und Ansätze der Gütekriterien quantitativer For-
schung sind auf qualitative Forschung übertragbar (vgl. Abschnitt „Kriterien für
qualitative und quantitative Forschung“). Für die Anwendung dieser übergreifen-
den Ansätze in der qualitativen Forschung muss jedoch deren Operationalisierung
in Übereinstimmung mit den Charakteristika qualitativer Forschung erfolgen. Da-
mit ist ein Weg skizziert, auf welcher Basis Bewertungskriterien für qualitative For-
schung entwickelt werden können (vgl. Abschnitt „Bewertungskriterien qualitativer
Forschung“).

Validität als angemessenes Gütekriterium für qualitative Forschung

Neben dem oben skizzierten wird ein weiterer Weg diskutiert, um Kriterien für
qualitative Methoden zu definieren. Die Kriterien Objektivität und Reliabilität wer-
den verworfen. Lediglich das Validitätskonzept wird aufrecht erhalten (z. B. Lege-
Qualitätssicherung in der qualitativen Forschung 179

wie 1987, Kvale 1989, Altheide/Johnson 1994). Dabei wird unter Validität sehr
unterschiedliches verstanden (vgl. Wolcott 1990: 126).

Kommunikative Validierung
Ein prominentes Beispiel für Validität in der qualitativen Forschung ist die kom-
munikative Validierung (z. B. Abels et al. 1977, Scheele/Groeben 1988, Kvale
1995). Dabei legt der Forscher sein Verständnis des Untersuchten bzw. seine In-
terpretationen dem Untersuchungspartner vor. Gemeinsam diskutieren sie dann
über die Gültigkeit des Vorgelegten.

Triangulation und „Mixed Methods“


In den 1970er Jahren entstand ein weiterer Diskussionsansatz der Validierung: die
Technik der Triangulation (vgl. auch Denzin 1978, 1989, Denzin/Lincoln 1994,
Lamnek 1988, Marotzki 1994, Flick 2004b). Diese Technik soll Verkürzungen
kompensieren, die entstehen, wenn in einer Studie nur eine Datensorte zum Einsatz
kommt, nur ein Forscher Daten erhebt und auswertet, nur eine Methode angewen-
det wird oder nur eine Theorie einfließt. Denzin (1978, 1989) diskutiert vier Basis-
typen der Triangulation: (1) Die Daten-Triangulation besteht in der Nutzung ver-
schiedener Datenquellen innerhalb einer Untersuchung (z. B. Beobachtungsdaten
und Interviewdaten). (2) Die Untersucher-Triangulation stellt sich her über den
Einbezug verschiedener Forscher und verdeutlicht die jeweiligen Verzerrungen
durch die Person des Forschers. (3) Mit Theorie-Triangulation ist die Anwendung
multipler Theorien und Hypothesen auf den Untersuchungsgegenstand gemeint.
(4) Bei der Methoden-Triangulation werden verschiedene Methoden auf einen Un-
tersuchungsgegenstand angewendet. Eine parallele Entwicklung zum Ansatz der
Methoden-Triangulation wird in den letzten Jahren unter dem Namen „Mixed Met-
hods“ diskutiert (vgl. z. B. Tashakkori 1998; Tashakkori/Teddlie 2003; Creswell
2003). Im Vordergrund steht dabei die Kombination von quantitativen und qualita-
tiven Methoden. Die Kombinationen erfolgen zumeist aus pragmatischen Erwä-
gungen, d. h. die methodologischen Voraussetzungen für die Verbindung beider
Forschungslinien oder der Verschränkung von qualitativer und quantitativer For-
schung innerhalb eines Forschungsdesigns werden kaum diskutiert (Flick 2004b:
69). Der Beitrag von Triangulation (und auf der Methodenebene von „Mixed Met-
hods“) für die Qualitätssicherung qualitativer Forschung besteht darin, dass Daten
oder Ergebnisse, die mit einer bestimmten Methode, Datensorte, durch einen be-
stimmten Forscher oder eine zugrunde gelegt Theorie entstehen, durch die Hinzu-
nahmen weiterer Daten, Theorien, Methoden oder Forscher überprüft werden
180 Ines Steinke

können. Zugleich dienen sie infolge der vielgestaltigen Perspektiven auf den Unter-
suchungsgegenstand der „Erweiterung der Erkenntnismöglichkeiten“ (Flick 2004b:
98). Dadurch kann Triangulation zur Generalisierung von Ergebnissen (dem klassi-
schen Kriterium der externen Validität) beitragen (Flick 2004b: 99).

Klassische Gütekriterien sind gänzlich ungeeignet für qualitative Forschung

Ein dritter Weg zur Entwicklung von Bewertungskriterien konzentriert sich aus-
schließlich auf die zentralen Kennzeichen qualitativer Forschung sowie deren me-
thodologische und epistemologische Voraussetzungen. Diesen Weg sind zahlreiche
Autoren gegangen wie z. B. Richardson (1994) mit der Forderung nach „Mixed
Genres“ beim Schreiben von Forschungstexten; Mishler (1990) und Guba/Lincoln
(1989) mit dem Kriterium der Vertrauenswürdigkeit; Guba/Lincoln (1989) mit der
katalytischen Validität. Sie distanzieren sich von den klassischen Gütekriterien als
einer Art „Einheitskriterien“ und Orientierungsrahmen und formulieren stattdes-
sen Kriterien eigens für qualitative Methoden. Dafür steht z. B. das Kriterium der
Authentizität (vgl. Guba/Lincoln 1989: 245 ff., Manning 1997). Geprüft wird hier,
inwiefern der Forscher sorgfältig mit den von den Untersuchungspartnern geäußer-
ten Aussagen oder gezeigten Verhaltensweisen umgeht. Diese sollen nicht nur sen-
sibel erhoben werden, auch die Interpretation der Daten soll den in den Daten
transportierten Werten und Relevanzsetzungen der Untersuchten gerecht werden.

3 Kriterienvorschläge
Nachfolgend werden zunächst Kriterien vorgestellt, die auf jegliche empirische So-
zialforschung ungeachtet der Forschungstradition anwendbar sind. Im Anschluss
werden Kriterien, die speziell für die Bewertung qualitativer Studien angemessen
sind, beschrieben. Dabei handelt es sich teilweise um Operationalisierungen der
oben angeführten Kriterien unter Rekurs auf die Besonderheiten qualitativer For-
schung.

Kriterien für qualitative und quantitative Forschung

Einige Kriterien sind auf quantitative wie qualitative Forschung anwendbar:


1. Nutzen der Studie: Die Fragestellung sollte relevant sein. Die entwickelte
Theorie und der Forschungsbericht sollten in Inhalt und Darstellung zur
Qualitätssicherung in der qualitativen Forschung 181

Problemlösung bzw. Wissensentwicklung beitragen (ausführlicher dazu vgl.


Steinke 1999: 192; für die Evaluationsforschung vgl. Widmer 2004: 93 f.).
2. Angemessenheit der Methodenwahl: Passend zum Untersuchungsgegen-
stand und zur Fragestellung sind geeignete Methoden und Samplingstrate-
gien auszuwählen.
3. Dokumentation des methodischen Vorgehens (ausführlicher dazu vgl.
Steinke 1999: 144 und 158). Dies ist eine Voraussetzung dafür, dass andere
Forscher die Untersuchung nachvollziehen und bewerten können.
4. Kritische Prüfungen der im Forschungsprozess generierten Theorie mittels
Falsifikation (ausführlicher dazu vgl. Steinke 1999: 183).
5. Absicherung der (externen) Validität, d. h. der Verallgemeinerbarkeit der
untersuchten Sachverhalte (ausführlicher dazu vgl. Steinke 1999: 171).
6. Ethisches Vorgehen: Respekt gegenüber den Untersuchungspartnern (Elli-
ott et al. 1999: 220; für die Evaluationsforschung vgl. Widmer 2004: 95 f.)

Bewertungskriterien qualitativer Forschung

Im Folgenden werden einzelne Qualitätskriterien für qualitative Forschung be-


schrieben (ausführlichere Darstellungen zu den einzelnen Kriterien vgl. Steinke
1999, 2004).

Indikation der Methoden


Mit diesem Kriterium wird die Angemessenheit (Indikation) der Methodenwahl
geprüft. Es handelt sich um ein Kriterium für quantitative und qualitative Metho-
den (vgl. Abschnitt „Klassische Gütekriterien sind gänzlich ungeeignet“). Es ist zu
prüfen, ob die Methoden dem Untersuchungsgegenstand gerecht werden. Zur Ab-
sicherung dieses Bewertungskriteriums in der qualitativen Forschung gibt es fol-
gende untergeordnete Kriterien:
x Wurde mit den Methoden und deren Umsetzung den Äußerungen und Be-
deutungssetzungen des Untersuchten hinsichtlich des Untersuchungsgegen-
standes ausreichend Spielraum eingeräumt? Geprüft wird, inwiefern die
subjektiven Perspektiven und Relevanzsetzungen sowie Handlungsweisen
der Untersuchten nicht zu stark durch methodische Strukturen einge-
schränkt werden.
x Negatives Beispiel: Ein Interviewleitfaden wird starr angewendet, d. h. die
Fragereihenfolge wird nicht dem Gesprächsfluss angepasst oder überra-
182 Ines Steinke

schend auftretende Themen, die zur Erhellung des Untersuchungsgegen-


standes beitragen könnten, aber nicht vorab bedacht wurden, werden im
Interview nicht verfolgt (z. B. durch Erzählen lassen oder Nachfragen).
x Positives Beispiel: Ins Feld gehen. Wenn es für den Untersuchungsgegen-
stand interessant erscheint, kann der Interviewer vom Interviewleitfaden
abweichen und zusätzlichen Themen Raum geben. Im Auswertungsprozess
wurde nicht vorschnell die subjektive Perspektive des Untersuchten unter
theoretische Vorannahmen subsummiert.
x Besteht ein Arbeitsbündnis zwischen Forscher und Informant?
Es ist zu überprüfen, ob die Interaktion zwischen Forscher und Untersu-
chungspartner von einem geringen Machtgefälle zwischen beiden Parteien,
Offenheit, Vertrauen und Arbeitsbereitschaft gekennzeichnet ist.
x Negatives Beispiel: Die befragte Person antwortet sozial erwünscht, weil die
Vertrauensbasis fehlt. Dieser Fall wäre dann aus der Studie auszuschließen.
x Positives Beispiel: Im Interview gibt es zahlreiche Hinweise auf ein gelun-
genes Arbeitsbündnis, z. B. der Interviewte spricht frei über sehr persönli-
che Themen, es werden keine einsilbigen, ausweichenden oder sehr allge-
mein gehaltenen Antworten gegeben, die Atmosphäre erscheint stimmig,
der Blickkontakt ist angemessen etc.
x Wurden gegenstandsangemessene Methoden ausgewählt oder entwickelt?
Anhaltspunkte zur Klärung dieser Frage auf der Ebene der Datenerhebung
gibt Tab. 1.

Verfahren Indikation/Anwendungsbereich
Fokussiertes Interview Analyse von subjektiven Bedeutungen
Halbstandardisiertes Interview Rekonstruktion subjektiver Theorien
Problemorientiertes Interview biographisch oder gesellschaftlich relevante Probleme
Experteninterview Rekonstruktion von Expertenwissen
Ethnographisches Interview Analyse offener Felder im Rahmen von Feldforschung
Narratives Interview Analyse biographischer Verläufe
Episodisches Interview Rekonstruktion von Routinen, Wandel und Situationen im Alltag
Gruppendiskussion Meinungs- und Einstellungsforschung
Gemeinsames Erzählen Familienforschung

Tab. 1 aus Flick 2004a: 190 f.

Für Auswertungsverfahren gibt Tab. 2 einige Orientierungspunkte.


Qualitätssicherung in der qualitativen Forschung 183

Verfahren Indikation/Anwendungsbereich
Theoretisches Kodieren Theoriebildung in allen möglichen inhaltlichen Bereichen
Thematisches Kodieren Vergleichen von Gruppen
Qualitative Inhaltsanalyse Bearbeitung großer Datenmenge in verschiedensten inhaltlichen Fel-
dern
Konversationsanalyse formale Analyse von Alltags- und institutionellen Gesprächen
Diskursanalyse inhaltliche Analyse von Alltagsgesprächen und anderen Diskursen
Narrative Analysen Biographieforschung
Objektive Hermeneutik Aufdeckung von „objektiven“ Strukturen, anwendbar auf Texte und
Bilder

Tab. 2 aus Flick 2004a: 310 f.

x Sind die Methoden co-indiziert? Neben der Angemessenheit von Erhe-


bungs- und Auswertungsmethoden ist zu prüfen, inwiefern die in der Studie
zur Anwendung kommenden Erhebungs- und Auswertungsmethoden zu-
einander passen
Negatives Beispiel: Erhebung mittels narrativem Interview und Auswertung
mittels Inhaltsanalyse. Das narrative Interview liefert Daten, die kaum über
verschiedene Fälle hinweg vergleichbar sind und sich ohne interpretative
Zwischenschritte Kategorien, die in der Inhaltsanalyse verwendet werden,
zuordnen lassen.
Positives Beispiel: Narratives Interview und Objektive Hermeneutik werden
kombiniert.
x Darüber hinaus ist die Indikation von Samplingstrategien und Trans-
kriptionsregeln zu prüfen (vgl. dazu Steinke 1999: 218 ff.).

Empirische Verankerung
Es ist abzusichern, dass die Ergebnisse der empirischen Studie kein Wildwuchs o-
der frei erfunden, sondern in den Daten begründet sind. Dazu gibt es verschiedene
Möglichkeiten:
x Gibt es hinreichende Textbelege für die entwickelte Theorie?
Negatives Beispiel: Es lassen sich keine Belege in den Daten finden.
Positives Beispiel: Mehrere Belege können für die Theorie in den Daten an-
geführt werden.
x Wurde explizit nach negativen Fällen Gegenbeispielen und alternativen Les-
arten bzw. Interpretationen gesucht? Wurde versucht, die Theorie zu wider-
legen? Falsifikationen sollten als Teilelemente des Forschungsprozesses ein-
184 Ines Steinke

gebaut werden. Zumeist ist es empfehlenswert, Falsifikationen im bereits


fortgeschrittenen Stadium der Theorieentwicklung anzuwenden.
Negatives Beispiel: Es wurde im Datenmaterial nur nach Bestätigungen der
Hypothesen bzw. entstehenden Theorie gesucht. In das Sampling sind nur
Fälle eingegangen von denen angenommen wurde, dass sie die Hypothe-
sen/entstehenden Theorien erhärten.
Positives Beispiel: Für Hypothesen bzw. vorläufige Erklärungen des Unter-
suchungsphänomens wurden Gegenbeispiele im Datenmaterial gesucht und
überprüft. Zu den Hypothesen/emergierenden Theorien zum Untersu-
chungsgegenstand wurden negative Fälle in das Sampling aufgenommen
und empirisch überprüft.
x Wurde adäquat mit negativen, d. h. der Theorie widersprechenden, Fällen
umgegangen?
Negatives Beispiel: Negative Fälle werden verschwiegen.
Positives Beispiel: Die Theorie wurde so modifiziert, dass auch der negative
Fall damit erklärt werden kann oder aber die Theorie wird in ihrer Gültig-
keit angesichts des negativen Falls eingeschränkt (d. h. der negative Fall wird
aus dem Untersuchungsphänomen ausgeschlossen).
x Wurden die Ergebnisse kommunikativ validiert? Kommunikative Validie-
rung („member check“ im englischen Sprachraum, vgl. Lincoln/Guba 1985:
314) kann insofern für die Überprüfung des Theorie-Empirie-Verhältnisses
eingesetzt werden, als hier eine Rückbindung der entwickelten Theorie über
den Untersuchungsgegenstand an die untersuchten Personen, d. h. deren
Sichtweisen, Deutungen und Relevanzsetzungen erfolgt. Dieses Verfahren
ist dann sinnvoll, wenn es um die Beschreibung der Welt durch die Augen
der Untersuchten und die Kopplung der Interpretationsprozesse an die
Eigenperspektive der Untersuchten geht (Terhart 1981: 772) und wenn die
theoretische Praxis eine mit den Interpretierten gemeinsame Praxis vorbe-
reiten soll (vgl. Klüver 1979: 75).
Negatives Beispiel: Anwendung der kommunikativen Validierung auf im
Forschungsprozess generierte Theorien, die jenseits der Zustimmungsfä-
higkeit durch die Untersuchten liegen. Dies ist bei einem hohen Abstrak-
tionsgrad der Theorien gegeben. Auch bei Verfahren wie der Objektiven
Hermeneutik, mit dem objektive Strukturen herausgearbeitet werden, die
jenseits des Subjektiv-Intentionalen liegen, wäre kommunikative Validierung
nicht sinnvoll.
Qualitätssicherung in der qualitativen Forschung 185

Positives Beispiel: Einsatz der kommunikativen Validierung in der Aktions-


und Handlungsforschung oder in bestimmten Feldern der Evaluationsfor-
schung, bei welcher der berufliche Alltag der Untersuchten auf Basis der
Forschungsergebnisse optimiert werden soll.

Verallgemeinerbarkeit
Mit diesem gemeinsamen Kriterium quantitativer und qualitativer Forschung wird
thematisiert, inwiefern die Theorie, die im Forschungsprozess entwickelt wurde,
auf andere Kontexte (Personen, Situationen, Bedingungen) transferierbar ist. An-
ders ausgedrückt wird geprüft, wofür die Analyseergebnisse repräsentativ sind. Es
geht um das Aufzeigen der Grenzen der Gültigkeit der generierten Theorie. Für die
qualitative Forschungstradition gibt es folgende Vorgehensweisen:
x Dichte Beschreibungen („thick description“), ein Konzept, das für die Eth-
nographie von Geertz (1983, 1988) entwickelt wurde, wird von Seale (1999,
108) sowie Lincoln/Guba (1985: 316) als eine Möglichkeit beschrieben, das
Problem der Verallgemeinerbarkeit in der qualitativen Forschung zu lösen.
Sehr detaillierte (dichte) Beschreibungen der Fallstudie(n) sollen dem Leser
ermöglichen, seine eigenen Schlussfolgerungen darüber zu ziehen, inwiefern
die Ergebnisse auf einen anderen Kontext übertragbar sind.
x Die zwei folgenden Techniken haben zum Ziel, die Ereignisse und Bedin-
gungen zu identifizieren, die das Phänomen hervorrufen bzw. es modifizie-
ren. Dabei sollen die Kontexte (Personen, Situationen, Bedingungen), die
nur zufällig in der Theorie enthalten waren, herausgefiltert und aus der
Theorie ausgeschlossen werden. Ergebnis ist eine im Vergleich zur dichten
Beschreibung „schlanke“ Theorie. Damit dürfte die Transferierbarkeit der
Ergebnisse besser einschätzbar sein.
a) Nachdem im Forschungsprozess eine (vorläufige) Theorie über den Un-
tersuchungsgegenstand entwickelt wurde, wird ein Gedankenexperiment
durchgeführt (in Anlehnung an Weber 1930 und Gerhardt 1986). Dabei
werden die vorliegenden Fälle daraufhin analysiert, welche Elemente, Ursa-
chen und Bedingungen letztlich essentiell sind, d. h. für das Hervorbringen
der vorläufigen Theorie ausreichend sind.
b) Es werden Fälle gesucht, die maximal und minimal verschieden zur gene-
rierten Theorie sind (Fallkontrastierung). Das kontrastierende Vergleichen
der Fälle ermöglicht eine Identifikation der Elemente, die gleichartige Fälle
miteinander teilen und so eine Selektion der relevanten Elemente (Bedin-
gungen, Interaktionen, Situationen, Ereignisse etc.)
186 Ines Steinke

x Die Technik der Triangulation (s. o.) als bewusster Mix von Methoden,
Theorien, Forschern und Datenquellen lässt sich auch hier einordnen. Eine
Variante der Methodentriangulation bzw. „Mixed Methods“ ist die Über-
führung der qualitativen Daten über dimensionale Analysen in quantitative
Daten (Variablen und Werte), was sich technisch sehr effizient mit entspre-
chender Software für qualitative Datenanalysen wie z. B. MAXQDA umset-
zen lässt. Über die so gewonnenen quantitativen Daten lässt sich die Reprä-
sentativität der qualitativen Ergebnisse statistisch absichern. Sofern die kriti-
schen Fallzahlen in der qualitativen Analyse nicht erreicht wurden, wäre,
ggf. unter Einsatz standardisierter Verfahren, eine größere Stichprobe zu
untersuchen.
Negatives Beispiel: Es werden im Abschlußbericht keine Angaben zur Ver-
allgemeinerbarkeit der Theorie getroffen. Zudem werden die Untersu-
chungskontexte nicht genau beschrieben.
Positives Beispiel: Mehrere der genannten Techniken werden eingesetzt
(z. B. Gedankenexperiment und Fallkontrastierung).

Intersubjektive Nachvollziehbarkeit
Mit der Herstellung der intersubjektiven Nachvollziehbarkeit der Studie wird die
Voraussetzung für die Bewertung der Forschung durch Dritte geschaffen. Dazu
dient in erster Linie die Dokumentation des Vorgehens, was ein für qualitative und
quantitative Forschung übergreifendes Kriterium ist (s. o.).
x Es sind die in der Studie realisierten Methoden für Erhebung und Auswer-
tung, Samplingstrategien, Transkriptionsregeln, methodische Entscheidun-
gen, zugrunde liegende Daten und Bewertungskriterien zu dokumentieren.
Die Dokumentation der Theoriegenerierung aus den Daten wird erleichtert,
wenn softwarebasierte Auswertungsmethoden wie z. B. ATLAS.ti oder
MAXQDA verwendet werden.
x Zu dokumentieren ist auch das theoretische Vorverständnis. Dies kann z. B.
dadurch erfolgen, dass der Forscher vor dem Start der empirischen Erhe-
bung die vermuteten Ergebnisse formuliert.
Negatives Beispiel: Forschungsergebnisse werden dem Leser als plausibel
dargestellt indem sich der „Autor als glaubwürdige Autorität“ inszeniert
(Lüders 2004: 634). Auf Nachvollziehbarkeit oder andere Kriterien wird
verzichtet.
Qualitätssicherung in der qualitativen Forschung 187

Positives Beispiel: Methoden, Sampling und die Begründungen für die Ent-
scheidungen, die Daten (zumindest auszugsweise) und die in der Studie
umgesetzten Bewertungskriterien werden dokumentiert.

4 Fazit

Qualitative Forschung bedarf spezifischer Bewertungskriterien. Dabei kann durch-


aus eine Orientierung an Kriterien der quantitativen Forschung erfolgen. Jedoch ist
deren Übertragbarkeit auf qualitative Methoden zu prüfen. Darüber hinaus sollten
stets Kriterien entwickelt und angewendet werden, die den Eigenheiten qualitativer
Forschung gerecht werden. Zentrale Bewertungskriterien für qualitative Forschung
sind die Indikation der methodischen Vorgehensweise, die empirische Verankerung
der gewonnenen Theorie in den Daten, das Aufzeigen der Verallgemeinerbarkeit
der Ergebnisse und die Herstellung Intersubjektiver Nachvollziehbarkeit. In einer
konkreten Studie ist je nach Fragestellung, Untersuchungsgegenstand und einge-
setzten Methoden zu entscheiden, welche Kriterien angemessen sind.
Zur Qualität qualitativer Forschung –
Diskurse und Ansätze

Uwe Flick

Zusammenfassung
Angesichts des derzeitig steigenden Interesses an qualitativer Forschung in Drittmittel-, Ausbildungs-
und Publikationskontexten wird die Frage nach der Qualität qualitativer Forschung mit wachsender
Dringlichkeit gestellt. Im folgenden Beitrag sollen die unterschiedlichen Wege, auf denen eine Antwort
gesucht wird, diskutiert werden. Es zeigt sich dabei, dass zunehmend Checklisten für die Bewertung
qualitativer Forschung, Anträge und Artikel entwickelt werden, die jedoch nicht ungeteilte Zustimmung
finden. Auch die Entwicklung von Kriterien bzw. die Anwendung der traditionell in der quantitativen
Forschung verbindlichen Kriterien ist in der qualitativen Forschung nicht unumstritten. Die Forderung
nach neuen, methodenangemessenen Kriterien hat zwar eine Vielzahl von Vorschlägen zur Folge ge-
habt, die jedoch weit entfernt sind von einer allgemeinen Akzeptanz und auch von einer pragmatischen
Handhabbarkeit im Sinne von Grenzwertbestimmungen zwischen guter und weniger guter qualitativer
Forschung. Da zunehmend in Frage gestellt wird, ob das Wesen guter qualitativer Forschung überhaupt
mit Kriterien bestimmt werden kann, werden abschließend zwei Strategien diskutiert, die die Qualität
qualitativer Forschung auf der Ebene des Forschungsprozesses zu bestimmen suchen.

1 Einleitung
Qualitative Forschung befindet sich in vielen Kontexten in einem starken Auf-
schwung. So sind z. B. in der deutschen Soziologie Bemühungen, qualitative For-
schung im Curriculum für die Methodenausbildung zu verankern, von einem ge-
wissen Erfolg gekennzeichnet. Die Deutsche Gesellschaft für Soziologie hat ein
Rahmenpapier verabschiedet und veröffentlicht, in dem qualitative und quantitative
Methoden ihren Platz und ihren Anteil finden – auch wenn die quantitativen Me-
thoden umfangreicher berücksichtigt werden (vgl. Rehberg 2003). Inwieweit dies
an den Fakultäten und Instituten letztlich umgesetzt wird, bleibt abzuwarten. In der
Psychologie in England bspw. wird ein ausreichender Anteil an qualitativer Metho-
dik zunehmend von der Fachgesellschaft (British Psychological Society) und dem
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 189

Pendant zur Deutschen Forschungsgemeinschaft, dem ESRC für die Anerkennung


von Studiengängen vorausgesetzt. Beides sind neben anderen Beispielen Indikato-
ren für die zunehmende Etablierung qualitativer Forschung.
Jedoch steht die qualitative Forschung nach wie vor unter einem starken Legi-
timationsdruck, wie etwa die heftige Debatte um die Gründung einer eigenen Sek-
tion „Methoden der qualitativen Sozialforschung“ in der Deutschen Gesellschaft
für Soziologie im Jahre 2003 gezeigt hat. Diese Diskussion macht sich gern an der
Frage fest, ob die qualitative Forschung eigentlich über Standards verfügt, nach de-
nen sich die Wissenschaftlichkeit der Forschung und ihrer Ergebnisse bestimmen
lässt. Tagungen zur Frage der „Validität qualitativer Forschung“ (Krom-
rey/Hoffmeyer-Zlotnik/Kelle 2000), die die (quantitativ orientierte) Sektion „Me-
thoden der Empirischen Sozialforschung“ der DGS organisiert hat, zielten auf die
Klärung dieser Frage ab. Auch intern wird die Frage nach der Beurteilung qualitati-
ver Forschung und ihrer Ergebnisse zunehmend gestellt, wie sich an der steigenden
Anzahl an Publikationen zu diesem Thema zeigt. Da jedoch die Antwort auf diese
Frage sich bislang nicht konsensuell und eindeutig abzeichnet, soll im Folgenden
der Stand der Diskussion anhand der verschiedenen Diskussionslinien dargestellt
werden. Dabei ist die zentrale Frage, inwieweit es der qualitativen Forschung ge-
lingt, einen eigenen, internen, gleichzeitig aber weitgehend geteilten Diskurs über
Forschungsqualität zu etablieren, um darüber einerseits zu vermeiden, dass ihr ex-
terne Diskurse aufgenötigt werden, und anderseits daraus handhabbare und intern
wie extern akzeptierte Ansätze des praktischen Qualitätsmanagements in der For-
schung zu entwickeln.

2 Qualitätssicherung als Herausforderung qualitativer


Forschung
Die Frage der Bewertung qualitativer Forschung wird aktuell in dreifacher Hinsicht
relevant: Zum einem für den Forscher, der sein Vorgehen und seine Ergebnisse
überprüfen und absichern möchte; weiterhin für den Abnehmer der Forschung –
der Leser von Veröffentlichungen oder der Auftraggeber, der das Vorgestellte ein-
schätzen und bewerten soll; schließlich stellt sie sich bei der Begutachtung qualita-
tiver Forschung – bei der Beurteilung von Forschungsanträgen und zunehmend in
Peer Review Verfahren von Zeitschriften bei der Beurteilung von Manuskripten.
Im letztgenannten Kontext wird eine wachsende Zahl von Guidelines zur Bewer-
tung von Forschungspapieren (Artikeln, Anträgen etc.) publiziert (vgl. auch Gru-
nenberg in diesem Band): Bei Seale (1999: 189-192) findet sich ein Kriterienkatalog
190 Uwe Flick

der British Sociological Association Medical Sociology, der aus einem Fragenkata-
log zu 20 Bereichen von der Fragestellung über das Vorgehen bei Sampling, Erhe-
bung, Analyse und Darstellung sowie Ethik besteht. Die vorgestellten Leitfragen
sind zwar hilfreich, bei der Beantwortung ist der Anwender des Kataloges jedoch
auf seine eigenen ggf. impliziten Kriterien angewiesen, wenn bspw. im Bereich 19
(Are the results credible and appropriate?) die Frage „do they address the research
question(s)“? (ebd.: 192) beantwortet werden soll.
Ein weiterer Katalog wurde von den National Institutes of Health, Office of
Behavioral and Social Sciences (NIH 2001) für den Bereich Public Health vorge-
legt. Hierbei werden vor allem Designfragen in den Vordergrund gestellt, wobei
auch Fragen der Erhebung und Analyse diesem Bereich zugerechnet werden, sowie
die Frage der Kombination von qualitativer und quantitativer Forschung. Die Er-
läuterung der relevanten Teile eines Forschungsantrags und der Fragen, die dabei
zu beachten sind, ergänzt eine Checklist. Sie enthält Items wie: „Data collection
procedures are fully explained“ (ebd.: 16). Das Ziel ist, den eingeführten Katalog
für quantitative Projekte auf die Besonderheit qualitativer Anträge hin zu modifi-
zieren.
Elliot/Fischer/Rennie (1999) haben für die klinische Psychologie einen Katalog
von Guidelines für die Publikation qualitativer Studien vorgelegt. Dieser besteht
aus zwei Bereichen, von denen der erste gleichermaßen für qualitative und quanti-
tative Forschung gelten soll. Der zweite Bereich ist auf die Besonderheiten qualita-
tiver Forschung zugeschnitten. Der erste Teil behandelt Fragen der Angemessen-
heit der Methodenwahl oder der ausreichenden Spezifikation der Methoden. Im
zweiten Teil stehen Fragen der ausreichenden Verankerung von Aussagen in Bei-
spielen, die Kohärenz von Ergebnissen oder die Anwendung von „credibility
checks“ (z. B. Member Checks oder Peer Debriefing, Triangulation etc. – 1999:
229) im Zentrum. Wie die heftige Reaktion von Reicher (2000) verdeutlicht, sind
diese Guidelines trotz ihrer relativ allgemeinen Formulierung nicht unbedingt kon-
sensfähig.
Auf Initiative der Deutschen Forschungsgemeinschaft hat ein Rundgespräch
stattgefunden, das die Entwicklung von Standards und Kriterien zur Beurteilung
qualitativer Forschung(-santräge) in der Erziehungswissenschaft zum Ziel hatte.
Die Autoren der entsprechenden Veröffentlichung (Helsper/Herwartz-Emden/
Terhart 2001) verdeutlichen, dass dabei im wesentlichen eine erste Sichtung von
Diskussionspunkten herausgekommen ist, an welchen Punkten des Forschungs-
prozesses eine qualitätsorientierte Begutachtung ansetzen kann und sollte.
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 191

Insgesamt betrachtet stellen die hier kurz skizzierten Beurteilungskataloge weniger


eine abschließende Antwort auf die Frage nach den angemessenen Kriterien zur
Bewertung qualitativer Forschung dar. Vielmehr verdeutlichen sie die Brisanz der
Frage der Bewertung und zeigen, dass diese zunehmend konkretisiert gestellt wird.
Ebenso zeigen sie, dass auch Antworten von außen an die qualitative Forschung
herangetragen werden, wenn sie diese nicht selbst formuliert.

3 Kriterien oder Strategien der Qualitätssicherung


Die Frage, was die Qualität qualitativer Forschung ausmacht und wie sie generell
oder in bestimmten Bereichen bestimmt werden kann, wird aktuell immer stärker
auf die Tagesordnung gestellt. Einerseits zeigt dies die wachsende Zahl an Publika-
tionen, die sich diesem Thema widmen (z. B. Reichertz 2000, Seale 1999, Steinke
1999, Yardley 2000 – für Überblicke vgl. auch Flick 2002: Kap. 18 und 22). Darin
wird die Notwendigkeit gesehen, dass qualitative Forschung eine Antwort auf diese
Frage finden muss. Andererseits ist jedoch umstritten, wie diese Antwort aussehen
soll: Liegt sie in der Formulierung von Gütekriterien, die idealerweise Grenzwerte
oder Benchmarks zur Unterscheidung von guter und weniger guter Forschung
„mitliefern“? In diesem Fall ist die erste Frage, welche Kriterien hierfür geeignet
sind und die zweite, ob sie für „die“ qualitative Forschung gültig sein sollen oder
für bestimmte Richtungen in der qualitativen Forschung. Wenn Kriterien formu-
liert werden, sollen sie dann für eine Grounded Theory Studie gleichermaßen gel-
ten wie für eine Untersuchung mit dem Ansatz der Objektiven Hermeneutik? Oder
liegt die Qualität bei qualitativer Forschung grundsätzlich jenseits von Kriterien?
Dann ist die Frage, was an die Stelle von Kriterien treten soll und kann.
Im Folgenden wird ein knapper Überblick über die Diskussion zu diesem
Thema gegeben, der sich entlang der gerade skizzierten Fragen und Probleme be-
wegt. Diese Diskussion wird in verschiedenen Zusammenhängen unterschiedlich
akzentuiert. In der deutschsprachigen Soziologie und Psychologie (vgl. Gerhardt
1985, Lüders/Reichertz 1986, Flick 1987) begann in der Mitte der 1980er Jahre
eine Diskussion über mögliche Kriterien. Dies führte jedoch nicht zu einer konti-
nuierlichen Debatte oder allgemeiner akzeptierten Lösungen. Ein ausführlicher
Versuch, aus einer kritischen Diskussion klassischer Kriterien alternative Vorschlä-
ge zur Bewertung qualitativer Forschung abzuleiten, wurde von Steinke (1999) vor-
gelegt.
Während in Deutschland solche Diskussionen häufig von außen an die qualita-
tive Forschung in einer Disziplin herangetragen werden (s.o.), wird im angelsächsi-
192 Uwe Flick

schen Raum dagegen eine ausgedehntere Debatte in der Soziologie und Psycholo-
gie geführt. In England hat bspw. die British Psychological Society festgelegt, dass
qualitative Forschungsmethoden fester Bestandteil von Studiengängen sein soll.
Besonderen Einfluss hat das Buch von Seale (1999), das auch als Einstieg in die
Diskussion gut geeignet ist. In den USA orientierte sich in der Soziologie die Dis-
kussion stärker an der Frage der Legitimation von Forschung an sich und an er-
kenntnistheoretischen Grundlagen, wobei sie gelegentlich ins Metaphyische abzu-
gleiten droht. Hier sind Arbeiten im Kontext der Zeitschrift Qualitative Inquiry
oder der Handbücher von Denzin/Lincoln (1994, 2000) zu nennen. Die Debatte
richtet sich auf die Auseinandersetzung mit klassischen Kriterien wie Reliabilität
und Validität (Angen 2000, Morse 1999a), aber auch auf die Frage der Qualität von
Forschung und ihrer Vermittlung von Forschung und ihrer Ergebnisse in „the
pragmatic world of health care management“ (Peck/Secker 1999), sowie auf die
Frage der Verallgemeinerbarkeit qualitativer Forschung und Forschungsergebnisse
(Morse 1999b).
Diese Diskussionen werden teilweise mit wenig Bezug untereinander geführt.
Beim gegenwärtigen Stand sind konkret-pragmatische Antworten auf die Frage:
„Wie sichere ich die Qualität meiner qualitativen Studie und welche Kriterien kann
ich bzw. muss ich anwenden“ eher schwierig zu finden. Es ist auch noch nicht aus-
zumachen, ob die Frage jemals so einfach gestellt und beantwortet werden kann
und sollte, und ob nicht andere Wege der Qualitätssicherung beschritten werden
sollten (vgl. Flick 2002: Kap. 18 und 22).

4 Grundpositionen der Geltungsbegründung bei qualitativer


Forschung
Seit Mitte der 1980er Jahre wird eine Diskussion zum Thema Geltungsbegründung
in der qualitativen Forschung verstärkt geführt. Darin lassen sich verschiedene
Grundpositionen ausmachen, von denen aus argumentiert wird.

Verwendung der klassischen Kriterien

Ein Ansatz ist, die klassischen Kriterien Reliabilität, Validität und Objektivität auf
qualitative Forschung gleichermaßen anzuwenden oder sie für diesen Gegenstand
zu modifizieren. Kirk und Miller (1986) behandeln Reliabilität und Validität in die-
ser Hinsicht. Dabei wird deutlich, dass die Reliabilität von Daten und Verfahren im
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 193

traditionellen Sinne – als die Stabilität von Daten und Ergebnissen bei mehreren
Erhebungen – für die Bewertung qualitativer Daten eher ungeeignet ist: Die identi-
sche Wiederholung einer Erzählung bei wiederholten narrativen Interviews lässt
eher auf eine „zurechtgelegte“ Version als auf die Verlässlichkeit des Erzählten
schließen.
Validität (vgl. Kvale 1995) wird für die qualitative Forschung häufiger disku-
tiert. Die Frage der Validität lässt sich auch darin zusammenfassen, ob „der For-
scher sieht, was er (...) zu sehen meint“ (Kirk/Miller 1986: 21). Auch bei der Über-
tragung und unmittelbaren Anwendung klassischer Validitätskonzeptionen ergeben
sich Probleme in der qualitativen Forschung. Interne Validität wird etwa erhöht
bzw. sichergestellt, indem ausgeschlossen werden soll, dass andere als die in der
Untersuchungshypothese enthaltenen Variablen den beobachteten Zusammenhang
bestimmen. (z. B. Bortz/Döring 2001: 53). In diesem Verständnis liegen bereits die
Probleme bei der Übertragung auf qualitative Forschung begründet: Die interne
Validität soll durch eine möglichst umfassende Kontrolle der Kontextbedingungen
in der Untersuchung erhöht werden. Dazu dient die weitgehende Standardisierung
der Erhebungs- bzw. Auswertungssituation. Der dafür notwendige Grad an Stan-
dardisierung ist jedoch mit dem größten Teil der gängigen qualitativen Methoden
nicht kompatibel bzw. stellt ihre eigentlichen Stärken in Frage. Ähnlich lässt sich
für die anderen Formen der Validität aufzeigen, warum sie nicht direkt auf qualita-
tive Forschung übertragen werden können (vgl. hierzu Steinke 1999).
Das dritte Kriterium aus dem Kanon der quantitativen Forschung ist die Ob-
jektivität. Hier gibt es kaum Versuche, dieses auf qualitative Forschung anzuwen-
den. Eine Ausnahme ist die Arbeit von Madill et al. (2000). Darin wird jedoch Ob-
jektivität qualitativer Analysen mit der Frage, ob zwei Forscher zu gleichen Ergeb-
nissen bei der Analyse vorliegender qualitativer Daten kommen und damit mit der
„Konsistenz der Bedeutung durch die Triangulation der Ergebnisse zweier unab-
hängiger Forscher“ (2000: 17) gleichgesetzt.
Insgesamt betrachtet wird der Anspruch formuliert, qualitative Forschung müs-
se sich zumindest den Fragen stellen, die mit Konzepten wie Reliabilität und Vali-
dität (z. B. bei Morse 1999a: 717) oder Objektivität (Madill et al. 2000) verknüpft
sind. In der Umsetzung überwiegt jedoch die Modifikation oder Reformulierung
der Konzepte (für eine ausführliche Auseinandersetzung mit der Frage, ob die klas-
sischen Kriterien auf qualitative Forschung übertragbar sind bzw. warum nicht vgl.
Steinke 1999). Generell stellt sich bei der Übertragung der klassischen Kriterien
quantitativer Forschung das Problem, dass deren Umsetzung dort wesentlich auf
der Standardisierung (des Vorgehens, der Methoden und ihrer Anwendung) beruht,
194 Uwe Flick

was sich auf qualitative (bzw. nicht-standardisierte) Forschung aufgrund deren


i.d.R. expliziten Verzichts auf Standardisierung nicht übertragen lässt.

Reformulierung klassischer Kriterien

Vorschläge zur Reformulierung des Reliabilitätskonzeptes im Sinne einer stärker


prozeduralen Konzeption zielen darauf ab, das Zustandekommen der Daten da-
hingehend zu explizieren, dass überprüfbar wird, was Aussage noch des jeweiligen
Subjekts ist und wo die Interpretation des Forscher schon begonnen hat. Hierzu
gehören etwa exakte und einheitliche Vorgaben, wie Interviews oder Gespräche
transkribiert werden sollen (vgl. Kowal/O’Connell 2000) oder die Kennzeichnung
von wörtlich wiedergegebenen Aussagen in Feldnotizen in Abhebung von Zu-
sammenfassungen oder Paraphrasen durch den Forscher. Schließlich soll sich die
Reliabilität im gesamten Prozess durch dessen reflexive Dokumentation erhöhen.
Auch Validität wird reformuliert. Legewie (1987) schlägt eine spezifische Validie-
rung der Interviewsituation ausgehend von den verschiedenen Gel-
tungsāansprüchen in Habermas’ Theorie des kommunikativen Handelns (1981)
vor. Demnach sind als Geltungsansprüche, die ein Sprecher im Interview erhebt,
zu differenzieren (und damit diffeārenziert zu überprüfen), „(a) dass der Inhalt des
Gesagten zutrifft (…); (b) dass das Gesagte in seinem Beziehungsaspekt sozial an-
gemessen ist (...); (c) dass das Gesagte in seinem Selbstdarstellungsaspekt aufrichtig
ist“. Ansatzpunkt für die Validierung biographischer Äußerungen ist die Untersu-
chung der Interāviewsituation daraufhin, inwieweit „die Voraussetzungen nicht-
strategischer Kommunikation“ gegeben waren und „Ziele und Besonderheiten des
Interviews (...) in Form eines mehr oder weniger expliziten (...) „Arbeitsbündnis-
ses“ (...) ausgehandelt werden“ (1987: 145-149).
Zur zentralen Frage wird hier, ob Interviewpartner in der Interviewsituation ei-
nen Anlass hatten, bewusst oder unbewusst eine spezifische, d. h. verfälschende
Version ihrer Erfahrungen zu konstruieren, die sich nicht (oder nur begrenzt) mit
ihren Sichtweisen bzw. dem erzählten Geschehen deckt. Die Interviewsituation
wird nach Hinweisen für solche Verzerrungen untersucht. Dies soll Anhaltspunkte
dafür liefern, welche systeāmatischen Verzerrungen oder Täuschungen Bestandteil
des aus dem Interview entāstandenen Textes sind und inwieweit und wie genau die-
se bei der Interpretation zu beārücksichtigen sind. Dieser prüfende Ansatz des For-
schers lässt sich durch die Einbeziehung der Interviewpartner weiter ausbauen.
Kommunikative Validierung in einem zweiten Termin nach Abschluss des Inter-
views und der Transkription ist hier ein entsprechender Ansatz (vgl. Scheele/Groe-
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 195

ben 1988 für konkrete Vorschläge). Gelegentlich wird die kommunikative Validie-
rung auch in Bezug auf die Ergebnisse der Interpretation von Texten bzw. Daten
diskutiert (etwa bei Heinze 1987). Aufgrund der bei der Konfrontation mit Inter-
pretationen auftretenden ethischen Probleme (vgl. hierzu Köckeis-Stangl 1982) hat
dieses Verständnis kommunikativer Validierung an Bedeutung verloren. Aktueller
greift Baumeler (2003) diese Verwendungsweise der kommunikativen Validierung
im Kontext einer ethnographischen Studie wieder auf und demonstriert in ihrem
Artikel die Probleme, die sich dabei ergeben. Vor einer allgemeineren Anwendung
solcher Strategien sollten Antworten auf zwei Fragen gesucht werden: (1) Wie soll-
te das methodische Vorgehen bei der kommuānikativen Validieārung gestaltet wer-
den, damit es den untersuchten Sachverhalten und der Sicht der Subjekte tat-
sächālich gerecht wird? (2) Wie lässt sich die Frage der Geltungsbegründung jen-
seits der Zustimāmung der Subjekte weitergehend beantāworten? Hierzu sind ande-
re Qualitätsprüfungen notwendig, die eine kommunikative Validierung ergänzen
(vgl. als Überblick Flick 1987).
Mit dem Konzept der Prozeduralen Validierung in der Reformulierung des
Konzepts der Validität geht Mishler (1990) einen Schritt weiter. Sein Vorschlag fo-
kussiert den Prozess der Validierung (statt den Zustand der Validität). Mishler de-
finiert „Validierung als soziale Konstruktion von Wissen“ (1990: 417), durch die
wir „Behauptungen über die „Vertrauenswürdigkeit“ berichteter Beobachtungen,
Interpretationen und Verallgemeinerungen aufstellen und diese bewerten“ (1990:
419). Schließlich lassen sich durch „Validierung, verstanden als der soziale Diskurs,
durch den Vertrauenswürdigkeit hergestellt wird, solche vertrauten Konventionen
wie Reliabilität, Falsifikation und Objektivität“ umgehen. Als empirische Basis für
diesen Diskurs und die Konstruktion von Vertrauenswürdigkeit erörtert Mishler
die Verwendung von Beispielen aus narrativen Studien.
Wolcott (1990: 127-128) formuliert für den Prozess in ethnographischer For-
schung neun Punkte, deren Realisierung der Sicherung von Validität dienen sollen:
(1) Der Forscher soll im Feld weniger selbst reden sondern möglichst viel zu-
hören. Er soll (2) möglichst genaue Aufzeichnungen erstellen und (3) frühzeitig zu
schreiben beginnen, und zwar (4) in einer Form, die es dem Leser seiner Aufzeich-
nungen und Berichte ermöglicht, selbst zu sehen, d. h. soviel an Daten mitzuliefern,
dass Leser ihre eigenen Schlüsse ziehen können und die des Forschers nachvollzie-
hen können. Der Bericht soll möglichst (5) vollständig und (6) offen sein. Der For-
scher soll im Feld oder bei seinen Kollegen (7) Feedback zu seinen Ergebnissen
und Darstellungen suchen. Darstellungen sollen eine Balance (8) zwischen den ver-
schiedenen Aspekten und (9) durch Genauigkeit im Schreiben gekennzeichnet sein.
196 Uwe Flick

Diese Schritte zur Sicherstellung der Validität im Forschungsprozess lassen sich ei-
nerseits als Versuch des sensiblen Agierens im Feld und andererseits als Verlage-
rung des Problems der Validität in der Forschung in den Bereich des Schreibens
über Forschung sehen.
Altheide und Johnson (1998: 291-292) formulieren das Konzept der „Validität-
als-reflexive-Erklärung“. Darin setzen sie Forscher, den Gegenstand und den Pro-
zess der Sinnfindung in Beziehung und machen Validität am Prozess der For-
schung und den verschiedenen Beziehungen fest:
1. Die Beziehung zwischen dem, was beobachtet wird (Verhaltensweisen, Ri-
tuale, Bedeutungen) und den größeren kulturellen, historischen und organi-
satorischen Kontexten, innerhalb derer die Beobachtungen durchgeführt
werden (die Materie);
2. Beziehungen zwischen dem Beobachter, dem bzw. den Beobachteten und
dem Setting (der Beobachter);
3. die Frage der Perspektive (oder der Sichtweise), ob diejenige des Beobach-
ters oder die der Mitglieder des Feldes verwendet werden, um eine Interpre-
tation der ethnographischen Daten anzufertigen (die Interpretation);
4. die Rolle des Lesers im Endprodukt (die Leserschaft) und
5. die Frage des darstellenden rhetorischen oder schriftstellerischen (authorial)
Stiles, der von dem oder den Autoren verwendet wird um eine Beschrei-
bung und/oder Interpretation anzufertigen (der Stil) (Altheide/Johnson
1998: 291-292).
Validierung wird hier unter der Perspektive des gesamten Forschungsprozesses
und der beteiligten Faktoren behandelt. Die Vorschläge bleiben dabei jedoch eher
auf der Ebene der Programmatik, als dass konkrete Kriterien oder Anhaltspunkte
formuliert werden, anhand derer sich einzelne Studien oder Bestandteile davon be-
urteilen lassen. Versuche, Validität und Validierung in der qualitativen Forschung
zu verwenden oder zu reformulieren haben insgesamt betrachtet mit verschiedenen
Problemen zu kämpfen: Formale Analysen des Zustandekommens von Daten in
der Interviewsituation beispielsweise können noch nichts über Inhalte und ihre an-
gemessene Behandlung im weiteren Verlauf der Forschung aussagen. Das Konzept
der kommunikativen Validierung oder Member Checks ist mit dem Problem kon-
frontiert, dass die Zustimmung dort als Kriterium schwierig ist, wo die Sicht des
Subjekts systematisch überschritten wird – in Interpretationen, die ins soziale oder
psychische Unbewusste vordringen wollen oder sich gerade aus der Unterschied-
lichkeit verschiedener subjektiver Sichtweisen ableiten. Entsprechend gab es hierzu
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 197

eine heftige Kritik seitens Vertretern der Objektiven Hermeneutik an solchen An-
sätzen. Insgesamt betrachtet zeichnen sich die behandelten Reformulierungen des
Validitätskonzeptes durch eine gewisse Unschärfe aus. Sie bieten der Forschungs-
praxis durch ihre generelle Problematisierung und Programmatik nicht unbedingt
eine Lösung für die Frage der Geltungsbegründung an. Als gemeinsame Tendenz
bleibt jedoch eine Verlagerung von Validität zur Validierung und von der Beurtei-
lung des einzelnen Schritts oder Bestandteils der Forschung zur Herstellung von
Transparenz über den Forschungsprozess festzuhalten.
Schließlich wird die Anwendung klassischer Kriterien auf qualitative Forschung
in Frage gestellt, da „das ‚Wirklichkeitsverständnis‘„ beider Forschungsrichtungen
dafür „zu unterschiedlich“ (Lüders/Reichertz 1986: 97) sei. Ähnliche Vorbehalte
formulieren schon Glaser und Strauss (1979: 92).
Sie „bezweifeln, ob der Kanon quantitativer Sozialforschung als Kriterium (...)
auf qualitative Forschung (...) anwendbar ist. Die Beurteilungskriterien sollten viel-
mehr auf einer Einschätzung der allgemeinen Merkmale qualitativer Sozialfor-
schung beruhen – der Art der Datensammlung (…), der Analyse und Darstellung
und der (...) Weise, in der qualitative Analysen gelesen werden.“
Aus dieser Skepsis resultiert im Lauf der Zeit eine Reihe von Versuchen, „me-
thodenangemessene Kriterien“ (Flick 1987) zu entwickeln und diese an die Stelle
von Kriterien wie Validität und Reliabilität zu setzen.

Formulierung alternativer, methodenangemessener Kriterien

Als dritte Variante der Beantwortung der Frage nach der Bewertung qualitativer
Forschung ist die Suche nach alternativen, methodenangemessenen Kriterien zu
verzeichnen. Dabei ist der Leitgedanke, dass die Frage nach der Qualität grundsätz-
lich durch die Formulierung und Anwendung von Kriterien beantwortet werden
kann und sollte, dass jedoch die klassischen Kriterien an den Charakteristika quali-
tativer Forschung und Methoden vorbeizielen.

5 Triangulation
In diesem Kontext wird seit längerem die Triangulation diskutiert (Denzin 1978,
1989, Flick 1992a, 1992b, 2004), die eine eigene Antwort auf die Frage der Gel-
tungsbegründung sowohl für qualitative (vgl. Flick 2000) als auch für quantitative
Forschung und die Verbindung beider Strategien (vgl. Kelle/Erzberger 2000, Flick
2004) liefern kann. In der Sozialforschung wird mit dem Begriff „Triangulation“
198 Uwe Flick

die Betrachtung eines Forschungsgegenstandes von (mindestens) zwei Punkten aus


bezeichnet. In der Regel wird dies durch die Verwendung verschiedener methodi-
scher Zugänge realisiert. Dabei wurde (und wird teilweise noch) Triangulation als
Strategie der Validierung empirischer Ergebnisse betrachtet, teilweise (v.a. in aktu-
elleren Publikationen) als Alternative dazu. Denzin (1978, 1989) hat dem Konzept
der Triangulation in der qualitativen Forschung eine größere Aufmerksamkeit ver-
schafft. Denzin unterscheidet folgende Formen:
x Daten-Triangulation
x Forscher-Triangulation
x Theorien-Triangulation
x Methodische Triangulation,
– within-method
– between-methods

In der Daten-Triangulation werden Daten kombiniert, die verschiedenen Quellen


entstammen und zu verschiedenen Zeitpunkten, an unterschiedlichen Orten oder
bei verschiedenen Personen erhoben werden. Dagegen ist Forscher-Triangulation
durch den Einsatz verschiedener Beobachter bzw. Interviewer gekennzeichnet, um
subjektive Einflüsse durch den Einzelnen auszugleichen. Theorien-Triangulation
meint die Annäherung an den Forschungsgegenstand „ausgehend von verschiede-
nen Perspektiven und Hypothesen“ (1978: 297). Denzins zentrales Konzept ist die
methodische Triangulation innerhalb einer Methode („within-method“, z. B. die
Verwendung verschiedener Subskalen in einem Fragebogen) und von verschiede-
nen Methoden („between-method“).
Gerade die methodische Triangulation hat in der qualitativen Forschung größe-
re Beachtung gefunden. So findet sich gerade in ethnographischer Forschung häu-
fig die implizite Triangulation von verschiedenen Methoden und entsprechend un-
terschiedlicher Datensorten (Beobachtungen, Befragungen, Dokumentenanalysen –
vgl. Lüders 2000a, Flick 2004: Kap. 4). Methodeninterne Triangulation wird etwa in
der gezielten Kombination von Erzählanstößen und Fragen im episodischen Inter-
view umgesetzt (vgl. Flick 2004: Kap. 3, Flick et al. 2004). Explizite Triangulation
von verschiedenen Methoden wie Beobachtung und Interviews bspw. wird gerade
in der Erziehungswissenschaft häufiger angewendet (vgl. Schütze 1994 bzw. Ma-
rotzki 1998 zum „Triangulationsgebot“). Die derzeit beliebte Diskussion um „mi-
xed methodologies“ (Tashakkori/Teddlie 2003) aus qualitativen und quantitativen
Methoden lässt sich unter dem Fokus der Triangulation ebenfalls noch einmal et-
was anders – v.a. theoretisch – gehaltvoller führen (vgl. Flick 2004: Kap. 5). In den
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 199

genannten Kontexten lässt sich die Triangulation grundsätzlich auf zwei Ebenen
anwenden.

Triangulation am Fall

In der konsequentesten Form werden die triangulierten Methoden an denselben


Fällen eingesetzt: Beratungsgespräche von interviewten Beratern werden erhoben
und analysiert oder alle in einem Feld beobachteten Personen werden auch inter-
viewt. Diese Umsetzung ermöglicht die fallbezogene Auswertung beider Datensor-
ten. Weiterhin erlaubt sie am Einzelfall die unterschiedlichen Perspektiven, die die
methodischen Zugänge eröffnen, zu vergleichen und zu verknüpfen. Solche Ver-
gleiche und Verbindungen lassen sich dann auch auf höherer Ebene durchführen:
Systematiken, die aus dem Vergleich der einen Datensorte (z. B. Ablaufmuster von
Beratungsgesprächen) resultieren, können mit Mustern aus dem Vergleich der an-
deren Datensorte (Schwerpunktsetzungen und blinde Flecken, die über alle Inter-
views hinweg oder berufsgruppenspezifisch gefunden wurden), in Beziehung ge-
setzt werden. Dabei stellen sich Samplingentscheidungen nur einmal, da für beide
Datensorten dieselbe Fallauswahl getroffen werden kann. Nachteile sind dabei,
dass häufig die Belastung für den einzelnen Teilnehmer an der Untersuchung ver-
gleichsweise hoch ist – sich zu einem Interview bereit zu erklären und zusätzlich
ein Beratungsgespräch bereit zu stellen, ist eine gemessen an dem üblichen Auf-
wand für die Teilnahme an einer Studie eine relativ hohe Erwartung. Auch dadurch
steigt die Gefahr von Ausfällen. Jeder, der ablehnt, entweder ein Interview oder ein
Beratungsgespräch zu liefern, ist für die gesamte Untersuchung, die am Fall trian-
gulieren will, „verloren“.

Triangulation an Datensätzen

Bei manchen Untersuchungen lässt sich die gerade skizzierte Variante nicht umset-
zen. Bei Beobachtungen an offenen Plätzen (z. B. Sport-Szenen) ergibt sich das
Problem, dass so viele Personen dabei beobachtet werden, dass nicht alle auch in-
terviewt werden können. Deshalb ist hier eine Triangulation am Fall gar nicht mög-
lich, weshalb sie auf der Ebene der Datensätze ansetzen sollte.
Der Einsatz der verschiedenen Methoden erfolgt zunächst unabhängig vonein-
ander. Daraus resultieren ein Satz von Beobachtungsdaten und eine Reihe von In-
terviews. Beide werden auf ihre Gemeinsamkeiten und Unterschiede hin ausgewer-
tet. Die Triangulation bezieht sich dann praktisch auf die Ergebnisse beider Aus-
200 Uwe Flick

wertungen und setzt sie in Beziehung. Als praktisches Problem stellt sich hier die
Frage, wie die Vergleichbarkeit der Samples, an denen die unterschiedlichen Me-
thoden zum Einsatz kommen, gewährleistet werden kann. Ebenfalls sollte geklärt
werden, ob die verschiedenen Methoden zum gleichen Zeitpunkt eingesetzt wer-
den können oder ob aufgrund der Planung und Ressourcen des Projektes die empi-
rischen Schritte nacheinander durchgeführt werden – erst die Beobachtungsdaten
erhoben und ausgewertet und dann die Interviews geführt und analysiert werden.
In diesem Fall sind Einflüsse der unterschiedlichen Zeitpunkte auf die Inhalte zu
berücksichtigen.

Datensatz

Methode I Triangulation Methode II

Einzelfall
Abb. 1: Ansatzpunkte methodischer Triangulation

Weiterhin sollte beachtet werden, dass unterschiedliche Methoden vor jeweils un-
terschiedlichen theoretischen Hintergründen und Kontexten entwickelt wurden.
Von daher wird verschiedentlich (z. B. Fielding/Fielding 1986) vor einer Triangula-
tion – verstanden als eine zu simple Kombination von Methoden – gewarnt. Einen
Ausweg bietet das Konzept der Systematischen Perspektiven Triangulation (Flick
1992a). Dabei werden systematisch verschiedene Forschungsperspektiven (mit ih-
rem theoretischen und methodischen Zugängen) bei der Untersuchung eines Phä-
nomens kombiniert.
Insgesamt betrachtet wird Triangulation als Strategie der Validierung (bei Den-
zin 1978), als Alternative dazu (bei Flick 1992b und ähnlich dann auch bei Den-
zin/Lincoln 1994) und vor allem aber auch als Strategie zu erweiterten Erkennt-
nismöglichkeiten diskutiert (vgl. hierzu auch Flick 2004). Diese drei Verwendungs-
weisen liefern jedoch jeweils spezifische Beiträge zur Steigerung der Qualität quali-
tativer Forschung bzw. Ansätze zu ihrer Bestimmung.

Analytische Induktion

Explizit an bestimmten Fällen setzt die analytische Induktion an (vgl. Znaniecki


2004). Darunter ist nach Bühler-Niederberger zu verstehen:
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 201

„Analytische Induktion ist eine Methode systematisierter Ereignisinterpretation,


die sowohl den Prozess der Genese wie auch der Prüfung von Hypothesen um-
fasst. Ihr entscheidendes Instruāment ist die Analyse der Ausnahme, des von der
Hypothese abweichenden Falls.“ (1985: 476).
Dieses Verfahren setzt nach der Entwicklung einer vorläufigen Theorie (bzw.
eines Musters, Modells etc.) an der Suche nach und Analyse von abweichenden
Fällen (oder gar Gruppen) an. Dabei ist die analytische Induktion vor allem an der
Absicherung von gewonnenen Theorien und Erkenntnissen durch die Analyse
bzw. Integration abweichender Fälle orientiert. Das Vorgehen der analytischen In-
duktion umfasst die folgenden Schritte:
1. Eine grobe Definition des zu erklärenden Phänomens wird formuliert.
2. Eine hypothetische Erklärung des Phänomens wird formuliert.
3. Ein Fall wird im Lichte dieser Hypothese studiert, um festzustellen, ob die
Hypothese den Tatbeständen in diesem Fall entspricht.
4. Trifft die Hypothese nicht zu, so wird sie umformuliert oder das zu erklä-
rende Phänomen so umdefiniert, dass dieser Fall ausgeschlossen wird.
5. Praktische Sicherheit kann erreicht werden, nachdem eine kleine Zahl von
Fällen untersucht wurde, aber die Entdeckung jedes einzelnen negativen
Falls durch den Forscher oder einen anderen Forscher widerlegt die Erklä-
rung und verlangt eine Umformulierung.
6. Es werden solange Fälle studiert, das Phänomen umdefiniert und die Hypo-
thesen umformuliert, bis eine universelle Beziehung etabliert wird; jeder ne-
gative Fall ruft nach einer Umdefinition oder Umformulierung (Bühler-
Niederberger 1985: 478)
Als „Analyse negativer Fälle“ findet dieses Konzept bei Lincoln und Guba (1985)
eine aktuelle Umsetzung. Anknüpfungen ergeben sich zu Fragen der Verallgemei-
nerung von Fallstudien, jedoch hat die analytische Induktion ihren eigenen Stel-
lenwert als Prüfverfahren für Analysen. Darüber hinaus propagieren Lincoln und
Guba (1985) Vertrauenswürdigkeit, Glaubwürdigkeit, Übertragbarkeit, Zuverlässig-
keit und Bestätigbarkeit als Kriterien qualitativer Forschung, wobei das erstgenann-
te zum zentralen Kriterium wird. Um die Glaubwürdigkeit qualitativer Forschung,
Daten und Ergebnisse zu erhöhen, schlagen sie fünf Strategien vor:
x Aktivitäten zur Erhöhung der Wahrscheinlichkeit, dass glaubwürdige Er-
kenntnisse produziert werden durch ein „verlängertes Engagement“ und
„ausdauernde Beobachtungen“ im Feld und die Triangulation verschiedener
Methoden, Forscher und Datensorten.
202 Uwe Flick

x „Peer Debriefing“: Regelmäßige Besprechungen mit nicht an der Forschung


beteiligten Personen, um die eigenen blinde Flecke aufzudecken sowie Ar-
beitshypothesen und Ergebnisse zu überprüfen.
x Die Analyse abweichender Fälle im Sinne der Analytischen Induktion.
x Angemessenheit in den Bezugspunkten von Interpretationen und ihrer Ü-
berprüfung.
x „Member Checks“ im Sinne der kommunikativen Validierung von Daten
und Interpretationen mit den Mitgliedern der untersuchten Felder.
Die bislang skizzierten Strategien zielen auf die Formulierung von Kriterien ab, die
analog zu den in der quantitativen Forschung etablierten Kriterien in der qualitati-
ven Forschung eingesetzt werden können. Dabei tauchen jeweils verschiedene
Probleme auf, die auch auf die etwa von Steinke (1999) formulierten Kriterienkata-
loge zutreffen: Bei diesen Kriterien ist es – anders als bei der Reliabilitätsbestim-
mung in der quantitativen Forschung – schwierig, Grenzwerte oder Punkte zu de-
finieren, die zwischen guter und schlechter Forschung unterscheiden: Im Beispiel
der Glaubwürdigkeit werden von Lincoln und Guba lediglich Strategien formuliert,
wie diese hergestellt bzw. erhöht werden kann. Der Forscher, der diese zur Siche-
rung von Qualität und Glaubwürdigkeit auf seine Forschung anwenden möchte, ist
ebenso mit der Frage allein gelassen wie der Leser, der einen Forschungsbericht
anhand dieses Kriteriums bewerten möchte: Welche Resultate müssen Peer De-
briefing und/oder Member Checks bringen, damit sie ein Indikator für die Glaub-
würdigkeit der damit überprüften Forschung sind? Müssen alle dabei Befragten zu
einheitlichen Einschätzungen kommen – etwa, was die Plausibilität der Resultate
angeht – oder reicht es, wenn die Mehrheit oder bestimmte Personen diese Plausi-
bilität bestätigt (vgl. zur Frage des Dissenses bei der kommunikativen Validierung
auch Baumeler 2003)? Ist etwa die Bestätigung seitens bestimmter Personen anders
zu gewichten als die Ablehnung durch die anderen Befragten? Muss die Triangula-
tion von Methoden übereinstimmende Ergebnisse bringen oder gerade die Unter-
schiedlichkeit der Perspektiven verdeutlichen? Zum Problem wird dies, da ohne die
Angabe von Grenzwerten die Idee der Kriterien häufig zu gutgemeinten Absichts-
erklärungen verkommt (vgl. auch Lüders 2000b).
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 203

6 Die besondere Problematik der Qualität qualitativer


Forschung
Die eingangs behandelten Beurteilungskataloge und die Reaktionen, die sie provo-
zieren, zeigen aber auch die spezielle Problematik qualitativer Forschung im Ver-
gleich zu quantitativer Forschung. Diese Problematik lässt es zunehmend unwahr-
scheinlich erscheinen, dass die Antwort auf die Qualitätsfrage in einem eigenen Ka-
talog von Qualitätskriterien liegen wird, der komplementär zu den „quantitativen“
Kriterien eingesetzt werden kann: Es wird einerseits gerade für diesen Kontext be-
zweifelt, dass es sinnvoll ist, von „der“ qualitativen Forschung zu sprechen, auch
wenn es eine ganze Reihe von verbindenden Kennzeichen gibt (vgl. Flick 2002:
Kap. 1). Von Autoren wie Reicher (2000) oder auch Madill et al. (2000) wird in
Frage gestellt, ob es einheitliche Kriterien oder Bewertungsansätze für alle Formen
qualitativer Forschung geben kann. Sie treffen eine Unterscheidung vor allem zwi-
schen realistischen und (radikal) konstruktivistischen (Madill et al. 2000) oder zwi-
schen „experientiellen“ und diskursiven Methoden (Reicher 2000: 4). Diese von
der Diskussion in England geprägten Unterscheidungen können jedoch in ihren
Konsequenzen auch auf die deutschsprachige Diskussion übertragen werden: Sol-
len qualitative Forschungsprojekte, die sich mit Interviews auf den Weg zur Ent-
wicklung einer „Grounded Theory“ begeben, nach denselben Maßstäben bewertet
werden wie Untersuchungen, die mittels objektiver Hermeneutik fallrekonstruktive
Forschung betreiben? Oder weiter gedacht: Welchen Stellenwert können die vor
einem spezifischen theoretischen Diskurshintergrund entstandenen Kriterien von
bspw. Lincoln/Guba (1985) für die Bewertung der vor einem ganz anderen Hin-
tergrund operierenden hermeneutischen Verfahren (im Sinne von Soeffner 2000,
Hitzler/Eberle 2000 oder Reichertz 2000) in der deutschen Diskussion haben?
Selbst wo ein kontextübergreifender Trend wie der zur Ethnographie (vgl. Denzin
1997, Hirschauer/Amann 1997) festzustellen ist, bleibt zu bezweifeln, dass sich
hier ein gemeinsames Verständnis von Qualität etablieren wird, wenn man etwa die
Vehemenz berücksichtigt, mit der der Ansatz von Denzin etwa von Hirschauer
(2001) infrage gestellt wird.
Das heißt, eine Seite der speziellen Problematik der qualitativen Forschung in
der Beantwortung der Qualitätsfrage ist das Spannungsverhältnis zwischen qualita-
tiver „Einheitswissenschaft“ und Methoden- oder Schulenvielfalt (vgl. hierzu auch
Flick 2003), der man mit einheitlichen oder (nur mit) differenzierenden Kriterien
oder Bewertungsansätzen gerecht werden kann. Es soll dabei nicht unterstellt wer-
den, dass in der quantitativen Forschung nicht auch unterschiedliche Ansätze und
204 Uwe Flick

Richtung zu verzeichnen wären, jedoch hat diese Vielfalt bislang nicht zu einer
schulenspezifischen Infragestellung der Kriterien Reliabilität, Validität und Objek-
tivität geführt.
Die andere Seite der Problematik ist, dass die Qualität qualitativer Forschung
jenseits dessen liegt, was in eindeutige Kriterien gefasst werden kann (vgl. hierzu
Flick 2002: Kap. 22). Yardley (2000) diskutiert in diesem Kontext „dilemmas in
qualitative research“. Wie lässt sich bei einer explorativen Studie etwa bewerten,
was den tatsächlichen Gewinn an neuem Wissen darstellt? Wie lässt sich bewerten,
ob die verwendeten Methoden dem untersuchten Feld und der Fragestellung an-
gemessen waren? Lässt sich die Originalität im methodischen und im Feld-Zugang
beurteilen? Auf welche Weise kann man die Kreativität im Zugang zum und im
Umgang mit dem Material bewerten? Wie lässt sich das Verhältnis von Einzel-
schritt und Gesamtprozess beurteilen? Die meisten der weiter oben behandelten
Bewertungsansätze versuchen, die Qualitätsfrage auf den einzelnen Schritt im For-
schungsprozess herunterzubrechen: Madill et al. (2000) bspw. betrachten die Frage
der Objektivität und Reliabilität ausschließlich an der Übereinstimmung der Inter-
pretationen unterschiedlicher Forscher, ohne die anderen Schritte des Forschungs-
prozesses dabei zu berücksichtigen.
Vielversprechender als die Definition von Kriterien ist entsprechend die Ent-
wicklung von Strategien der Geltungsbegründung bzw. Qualitätssicherung (bzw. -
förderung). Damit wird die Qualitätsfrage über den einzelnen Schritt im For-
schungsprozess auf die Bewertung des Prozesses als Ganzes erweitert. Hierzu sol-
len abschließend zwei Ansätze diskutiert werden.

7 Indikation qualitativer Forschung


Hier ist ein Desiderat zunächst die weitere Klärung der Indikationsfrage – ähnlich
wie dies in der Medizin und Psychotherapie für die Eignung von Behandlungsme-
thoden bei bestimmten Problemen und Personengruppen geklärt wird. Auf den
hier behandelten Kontext übertragen meint das die Frage, warum eigentlich be-
stimmte ā– und nicht andere – Methoden für die konkrete Untersuchung verwen-
det wurden. Nicht nur in qualitativer Forschung, sondern in empirischer For-
schung generell geben Lehrbücher kaum eine Hilfestellung für die Entscheidung,
wann eine bestimmte Methode für eine Untersuchung ausgewählt werden sollte.
Die meisten dieser Bücher behandeln die einzelnen Methoden oder Forschungsde-
signs separat, wenn sie ihre Eigenschaften und Probleme beschreiben. In den meis-
ten Fällen gelangen sie nicht zu einer vergleichenden Darstellung verschiedener
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 205

methodischer Alternativen oder zur Formulierung von Ansatzpunkten dafür, wie


eine spezielle (und nicht eine andere) Methode für einen Forschungsgegenstand
ausgewählt werden sollte. Entsprechend ist es für die qualitative Forschung not-
wendig, die Frage der Indikation weiter zu klären. In Medizin oder Psychotherapie
wird die Angemessenheit einer spezifischen Behandlung für bestimmte Probleme
und Patientengruppen – die Indikation (der Behandlung) āā– geprüft. Die Antwort
auf diese Frage lautet, ob eine spezifische Behandlung angemessen (indiziert) für
ein bestimmtes Problem im konkreten Fall ist oder nicht. Überträgt man diese Prü-
fung auf qualitative Forschung, heißen die relevanten Fragen: Wann sind welche
qualitativen Methoden angemessen – für welchen Gegenstand? Für welche Frage-
stellung? Für welche Untersuchungsgruppe (Population) oder welches Untersu-
chungsfeld etc.? Wann sind quantitative Methoden oder eine Kombination von
quantitativen und qualitativen Methoden indiziert (vgl. Tab. 1)?

Psychotherapie und Medizin Qualitative Forschung


Welche Krankheit indizieren welche Be- Welcher Gegenstand indizieren welche Metho-
Welche Symptomatik handlung bzw. Welche Population de bzw. welche
Welche Diagnose Therapie? Welche Fragestellung Methoden?
Welche Personen- Welcher Kenntnis-
gruppe stand über Gegen-
stand und Population
1. Wann ist welche Methode geeignet und verwendbar?
2. Gibt es Anhaltspunkte für eine rationale Entscheidung für oder gegen bestimmte Methoden?

Tab. 1: Indikation qualitativer Forschungsmethoden

Die Prüfung dieser Fragen soll einer einseitigen Festlegung auf bestimmte qualitati-
ve Methoden (die man schon immer angewendet hat) vermeiden helfen. Durch die
hier vorgestellte Prozessperspektive, konkretisiert im Ansatz des Qualitätsmanage-
ments und in der Klärung der Indikation, sollten Wege skizziert werden, die Frage
nach der Qualität qualitativer Forschung jenseits von Kriterien zu beantworten
(vgl. Flick 2002: Kap. 22 für eine ausführlichere Darstellung).

8 Qualitätsmanagement in der qualitativen Forschung


Anregungen zur Weiterentwicklung von Kriterien zur Beurteilung der Daten der
qualitativen Forschung und ihārer Interpretation kann die Diskussion zum Quali-
tätsmanagement (Kamiske/Brauer 1995) im Bereich der industriellen Produktion,
Dienstleistungen oder im Gesundheitswesen liefern. Dieser Ansatz lässt sich auf
206 Uwe Flick

die sozialwissenschaftliche Forschung übertragen, um eine Diskussion über Quali-


tät in der Forschung voranzutreiben. Über das Konzept des Auditing ergeben sich
bereits erste Anāknüpfungspunkte. So wird für die Überprüfung der Verlässlichkeit
qualitativer Daten von Lincoln/Guba (1985) ein Prozess des „auditing“ vorge-
schlagen, der am Vorgang der Buchprüfung im Finanzwesen orientiert ist. Dafür
wird ein „Überprüfungspfad“ (auditing trail) skizziert: Ein Auditing trail erfasst
x die Rohdaten, ihre Erhebung und Aufzeichnung;
x Datenreduktion und Ergebnisse von Synthesen durch Zusammenfassung,
theoretische Notizen, Memos, Summaries, Kurzdarstellungen von Fällen
etc.;
x Datenrekonstruktionen und Ergebnisse von Synthesen anhand der Struktur
entwickelter und verwendeter Kategorien (Themen, Definitionen, Bezie-
hungen), Erkenntnisse (Interpretationen und Schlüsse) sowie die erstellten
Berichte mit ihren Integrationen von Konzepten und den Bezügen zu exis-
tierender Literatur;
x Prozessnotizen, d. h. methodologische Notizen und Entscheidungen auch
hinsichtlich der Herstellung von Vertrauens- und Glaubwürdigkeit der Er-
kenntnisse;
x Materialien in Bezug auf Absichten und Anordnungen wie die Forschungs-
konzeption, persönliche Aufzeichnungen und Erwartungen der Beteiligten;
x Informationen über die Entwicklung der Instrumente einschließlich der Pi-
lotversionen und vorläufigen Plänen (vgl. Lincoln/Guba 1985: 320-321).
Damit ist bereits die Prozessperspektive angelegt, die alle relevanten Schritte des
Forschungsprozesses umfasst, der zu den Daten und ihrer Interpretation geführt
hat. Im Kontext des Qualitätsmanagements ist ein Audit „(…) die systematische,
unabhängige Untersuchung einer Aktivität und deren Ergebnisse, durch die Vor-
handensein und sachgerechte Anwendung spezifizierter Anforderungen beurteilt
und dokumentiert werden“ (Kamiske/Brauer 1995: 5). Insbesondere das „Verfah-
rensaudit“ ist für die Forschung interessant. Ein Verfahrensaudit soll sicherstellen,
„dass die vorgegebenen Anforderungen eingehalten werden und für die jeweilige
Anwendung zweckmäßig sind. (…) Vorrang hat immer das nachhaltige Abstellen
von Fehlerursachen, nicht die einfache Fehleraufdeckung“ (Kamiske/Brauer 1995:
8). Solche Qualitätsbestimmungen werden nicht abstrakt – etwa an bestimmten
Methoden per se – vorgenommen, sondern mit Blick auf die Kundenorientierung
und die Mitarbeiterorientierung (Kamiske/Brauer 1995: 95-96, 110-111). Dabei er-
gibt sich die Frage, wer eigentlich die Kunden gesundheitswissenschaftlicher For-
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 207

schung sind. Im Qualitätsmanagement wird zwischen internen und externen Kun-


den unterschieden. Während letztere die Abnehmer des jeweiligen Produktes sind,
gehören zu den ersteren die Beteiligten an der Herstellung im weiteren Sinn (z. B.
Mitarbeiter anderer Abteilungen). Für die Forschung lässt sich diese Unterteilung
übersetzen in diejenigen, für die das Ergebnis nach außen produziert wird (Auf-
traggeber, Gutachter etc. als externe Kunden), und diejenigen, für die und an denen
das jeweilige Ergebnis zu erzielen gesucht wird (Interviewpartner, untersuchte In-
stitutionen etc. als interne Kunden). Zur Überprüfung lassen sich beide Aspekte
explizit analysieren: Inwieweit ist die Untersuāchung so verlaufen, dass sie die Fra-
gestellung beantwortet (externe Kundenorientierung) und den Perspektiven der Be-
teiligten ausreichend Raum lässt (interne Kundenorientierung)?
Die Mitarbeiterorientierung will berücksichtigen, dass „Qualität unter Anwen-
dung geeigneter Techniken, aber auf der Basis einer entsprechenden Geisteshal-
tung entsteht“, wobei die „Übertragung von (Qualitäts-) Verantwortung auf die
Mitarbeiter durch die Einführung von Selbstprüfung anstelle von Fremdkontrolle“
(Kamiske/Brauer 1995: 110-111) ein weiterer Ansatzpunkt ist. Entsprechend be-
zeichnet Qualitätsmanagement „Tätigkeiten (…), die die Qualitätspolitik, die Ziele
und Verantwortlichkeiten festlegen sowie diese durch Mittel wie Qualitätsplanung,
Qualitätslenkung, Qualitätssicherung/Qualitätsmanagement-Darlegung und Quali-
tätsverbesserung verwirklichen“ (ISO 1994; zit. nach Kamiske/Brauer 1995: 149).
Qualität im qualitativen Forschungsprozess wird sich nur realisieren lassen, wenn
sie mit den beteiligten Forschern gemeinsam hergestellt und überprüft wird. Zu-
nächst wird gemeinsam festgelegt, was eigentlich unter Qualität in diesem Zusam-
menhang zu verstehen ist und verstanden wird.
208 Uwe Flick

Leitgedanken für das Qualitätsmanagement in der qualitativen Forschung

x Eine möglichst klare Festlegung der zu erreichenden Ziele und einzuhalten-


den Standards des Projekts. Daran müssen alle Forscher und Mitarbeiter be-
teiligt werden;
x eine Festlegung, wie diese Ziele und Standards und allgemeiner die ange-
strebte Qualität zu erreichen sind; damit sind eine Einigung über die Weise
der Anwendung bestimmter Methoden und ihre Umsetzung, etwa durch
gemeinsame Interviewtrainings und deren Auswertung, Voraussetzungen für
Qualität im Forschungsprozess;
x die klare Festlegung der Verantwortlichkeiten für die Herstellung von Quali-
tät im Forschungsprozess und
x die Transparenz der Beurteilung und Sicherstellung der Qualität im Prozess.
Abb. 2: Leitgedanken für das Qualitätsmanagement in der qualitativen Forschung

Dabei sind die Bestimmung, was Qualität ist, deren Herstellung und Sicherstellung
im Prozess und die Erfahrung, dass Qualität sich nur in der Kombination von Me-
thoden und einer entsprechenden Haltung realisieren lässt, Anknüpfungspunkte
zur Disākussion um Qualitätsmanagement in der sozialwissenschaftlichen For-
schung. Im Unterschied zu anderen Ansätzen der Qualitätsprüfung in der qualitati-
ven Forschung wird beim Qualitätsmanagement zunächst mit allen Beteiligten ge-
klärt, was unter Qualität verstanden wird, welche Qualitätsziele sich daraus ableiten
lassen und wie diese im einzelnen zu erreichen sind. Hier wird der Gedanke aufge-
geben, Forschungsqualität ließe sich allgemein, abstrakt und von außen bestimmen,
zugunsten einer gemeinsamen Klärung des Qualitätskonzeptes und seiner Umset-
zung (vgl. hierzu ausführlicher Flick 2002: Kap. 22).

9 Fazit
Die hier vorgestellten Überlegungen und Ansätze sollten deutlich machen, dass es
einerseits eine Notwendigkeit der Auseinandersetzung mit der Frage der Qualität (-
sbestimmung) in der qualitativen Forschung gibt, die zunehmend dringlich wird
oder dringlich gemacht wird. Weiterhin sollte deutlich werden, dass die Antwort
auf sehr unterschiedliche Weise gesucht wird, wobei sich noch kein Weg durchge-
setzt hat bzw. allgemein akzeptiert wird. Dies unterscheidet qualitative Forschung
von quantitativer Forschung. Ebenso sollte aufgezeigt werden, was die Gründe für
diesen Stand der Dinge sind – dass diese z. T. auch im Wesen der qualitativen For-
Zur Qualität qualitativer Forschung – Diskurse und Ansätze 209

schung und der Unterschiedlichkeit zwischen den verschiedenen Ansätzen begrün-


det liegen. Schließlich sollte deutlich werden, das das Wesen guter qualitativer For-
schung sich jenseits der korrekten Anwendung der einen oder der anderen Metho-
de entfaltet, weshalb die Antwort auf die Frage nach der Qualität qualitativer For-
schung in prozess-übergreifenden Ansätzen gesucht werden sollte. Mit der Klärung
der Indikationsfrage und mit dem Ansatz des Qualitätsmanagements in der For-
schung wurden zwei solcher Ansätze skizziert. Über solche Ansätze sollte es mittel-
fristig möglich sein, einen spezifischen Qualitätsdiskurs aus der qualitativen For-
schung heraus zu entwickeln, der offen genug für die Vielfalt der Forschungsansät-
ze ist, gleichzeitig aber Lösungen und Ansätze für die anstehenden Qualitätsfragen
im Kontext von Begutachtung, Forschungspraxis und Publikation zu liefern ver-
mag.
Empirische Befunde zur Qualität qualitativer
Sozialforschung. Resultate einer Analyse von
Zeitschriftenartikeln

Heiko Grunenberg

Zusammenfassung
Das Ziel der dargestellten Untersuchung ist es, eine Überprüfung der Qualität einschlägiger For-
schungsarbeiten zu leisten, welche mit qualitativen Methoden der Sozialforschung gearbeitet haben.
Qualität meint in diesem Zusammenhang die Einhaltung verbreiteter Forschungsstandards. Dieser auf
den gesamten Forschungsprozess abzielende Ansatz der Begutachtung von Veröffentlichungen in den
größten gereviewten Fachzeitschriften der Soziologie und den Erziehungswissenschaften förderte in
allen vier großen Bereichen, der Methodenauswahl, der konkreten Ausführung, der Analyse sowie der
Präsentation mehr oder weniger bedeutsame Schwächen zu Tage. Als Bewertungsmaßstab werden eine
Reihe von approbierten Gütekriterien herangezogen, die der jüngsten Qualitätsdiskussion in der qualita-
tiven empirischen Sozialforschung entstammen. Dabei wird eindeutig der Ansatz vertreten, dass diese
Forschungsrichtung ihre eigenen Kriterien zu entwickeln und heranzuziehen haben. Das aufgefundene
Spektrum reicht von vorbildlichen bis hin zu defizitären Arbeiten. Am anfälligsten jedoch ist der Be-
reich der Datenanalyse, die bisweilen unsystematisch und geheimnisvoll bleibt. Es überrascht dahinge-
hend, dass die marktüblichen QDA-Software-Pakete in den einbezogenen Artikeln keine Rolle spielen.
Die Ergebnisse deuten einerseits auf ein Defizit in der Methodenausbildung hin. Andererseits scheint
die gern kritisierte Einbringung der Subjektivität der Forschenden von diesen zum Teil selbst auf eine
Art und Weise missverstanden zu werden, die dazu führt, dass ein Eindruck von Beliebigkeit und Zufall
zu entstehen vermag. Insbesondere dem muss entgegengearbeitet werden.

1 Einleitung
Im Laufe der Geschichte der empirischen Sozialforschung mussten sich interpreta-
tive Verfahren ihren heutigen Status hart erkämpfen. Im Vergleich zu quantifizie-
renden Verfahren – für die recht früh ein kanonisiertes Bündel von Gütekriterien
gebildet werden konnte – hinkten sie meist hinterher. Lincoln und Denzin be-
zeichnen den Entwicklungsstand, auf dem sich die qualitative Sozialforschung der-
Empirische Befunde zur Qualität qualitativer Sozialforschung 211

zeitig befindet, als „The Fifth Moment“ (Lincoln/Denzin 1994: 575). Dieser sei
gekennzeichnet durch eine Krise der Repräsentation und der Legitimation (ebd.),
an die Stelle von Theorien träten zunehmend Erzählungen. (ebd.: 582) Klassische
Gütekriterien, wie Validität und Reliabilität verlören ihre Bedeutung in der Dialek-
tik bzw. Kontradiktion von Validität und Authentizität. (ebd.) Im deutschsprachi-
gen Raum drängt sich ein davon abweichendes Bild auf, denn es scheint so, als
verbreite sich gerade erst eine gewisse Leichtigkeit – nicht zu Verwechseln mit Be-
liebigkeit – im Umgang mit qualitativen Methoden, wie es im stärker vom Pragma-
tismus geprägten anglo-amerikanischen Raum längst üblich ist. Zumindest in der
jungen forschenden Generation sind dogmatische Methodenressentiments seltener
geworden, eine Methode mit ihren bekannten Stärken und Schwächen wird zu-
nehmend weniger um ihrer selbst willen, sondern immer öfter je nach Erkenntnis-
gegenstand bzw. -interesse ausgewählt. Folglich nimmt einerseits für die einzelnen
Forschenden die Anzahl der potenziell anwendbaren Methoden zu, andererseits
aber leidet darunter eine in die Tiefe gehende Professionalisierung auf einzelne
spezielle Methoden. Nicht nur deshalb ist es von Nöten, die Bemühungen um die
Qualität qualitativer Forschung zu forcieren. Notwendigerweise hat sich jüngst in
Verbindung damit gleichsam der Diskurs um Qualität und Qualitätskriterien in der
hiesigen qualitativen Sozialforschung entscheidend weiterentwickelt (vgl. Steinke
1999, Grunenberg 2001, Flick in diesem Band), so dass dem bisweilen zu verneh-
menden Etikett der Unwissenschaftlichkeit entgegengearbeitet werden konnte.
Im Folgenden wird erörtert, inwieweit Vorgaben aus der Methodenforschung
letztlich in der Forschungspraxis Berücksichtigung finden. Zu diesem Zweck wer-
den einige Ergebnisse einer Analyse von 60 qualitativen Forschungsarbeiten darge-
stellt, die anhand von Kriterien untersucht werden, wie sie in den Qualitätsdiskur-
sen vornehmlich vorgeschlagen werden. Anhand der Ergebnisse können quer-
schnittartig typische Mängel und Vortrefflichkeiten eruiert werden. Die Analyse
kann ganz in der Art und Weise, wie Sahner (1979) bzw. Meinefeld (1985) dies für
quantitativ-empirische Forschungsarbeiten versuchten, eine Beschreibung des Sta-
tus Quo liefern oder aber wie Ludwig-Mayerhofer (2003) dies für die Verwendung
statistischer Methoden unternommen hat, weitergehende Rückschlüsse und Emp-
fehlungen z. B. auf die universitäre Methodenausbildung geben.

2 Grundlagen
Die Geltung, im Sinne einer allgemeinen Anerkennung einer empirischen For-
schungsarbeit, ist maßgeblich davon abhängig, inwieweit die Anforderungen einzu-
212 Heiko Grunenberg

haltender Qualitätsstandards, in unserem Falle repräsentiert durch die Gütekrite-


rien, erfüllt worden sind. Alle Bemühungen, die in die Richtung gehen, die Qualität
qualitativer Sozialforschung zu steigern bzw. zu sichern, können somit als Versuch
der Geltungsbegründung bezeichnet werden. Seale und Silverman (1997) sprechen
dahingehend von „ensuring rigour in qualitative research“, der Gewährleistung von
Strenge, die den qualitativen Methoden landläufig abgesprochen wird. Der Begriff
der Geltungsbegründung umfasst verschiedene Ansätze der so genannten Metho-
disierung des Verstehens als Erkenntnisprinzip. (Flick 1999: 259) Dabei werden
Kriterien formuliert, die der Beurteilung der verwendeten Verfahren und ihrer An-
gemessenheit dienen. Die Geltungsbegründung ist folglich zu verstehen als eine
Analyse des Forschungsprozesses und nicht ausschließlich der Ergebnisse.
Trotz der tendenziell positiven Einstellung gegenüber der Verwendung von
Gütekriterien hat dies nicht zur Folge, dass diese als feststehende und unumstößli-
che Regeln aufzufassen sind. Seale (1999a: 33) stimmt mit Feyerabend darin über-
ein, dass eine blinde Regelgeleitetheit die Kreativität blockiert, fügt aber hinzu, dass
eine Beschäftigung mit Kriterien nicht zwangsläufig die Kreativität beeinflussen
muss. „Der Forschungskontext kann schließlich freier sein als der Bewertungskon-
text.“ (ebd.) Damit spricht er sich eindeutig gegen den Stellenwert von Kriterien im
Sinne von „strict rule following“ (ebd.), dem strikten Befolgen von Regeln aus und
möchte ihren Charakter eher als „guiding ideal“ oder „enabling conditions“ (beide
ebd.), also als leitendes Ideal bzw. ermöglichende Bedingung verstanden wissen.
All jene Implikationen sowie viele weitere, nicht angeschnittene, sind maßgeb-
lich von den ihnen zugrunde liegenden wissenschaftstheoretischen Grundpositio-
nen abhängig. So implizieren die positivistischen Denkrichtungen eher die auf ein-
deutigeren Wahrheitskriterien beruhenden klassischen psychometrischen Gütekri-
terien Validität, Reliabilität und Objektivität. Postmoderne oder radikal-
konstruktivistische Annahmen lassen sich andererseits kaum mit Gütekriterien in
irgendeiner Form in Verbindung bringen. Im Anschluss an Seale (1999a: 22 f.) wird
hier das Konzept eines fallibilistischen Realismus vertreten. Demzufolge ist ein fal-
libilistischer Ansatz in der qualitativen Sozialforschung nicht nur anwendbar, son-
dern jener könnte gar nihilistischen und relativistischen Tendenzen entgegenwir-
ken. Den zum Teil dominierenden Naturalismus, der davon ausgeht, mittels eines
direkten Zuganges zu den Welten der Beforschten Informationen aus erster Hand
sammeln zu können, verweist er ins Reich der Fiktion. Demgegenüber beinhaltet
die Sichtweise des Realismus eine Orientierung an Vorgängen im Feld sowie eine
mögliche Diskussion darüber in der Scientific-Community. Diese muss nicht alles
hinnehmen, was an Erkenntnissen geliefert wird – Fehlinterpretation und Falsch-
Empirische Befunde zur Qualität qualitativer Sozialforschung 213

heit müssen identifizierbar sein. Dennoch ist die klassische Vorstellung von Objek-
tivität unter dieser Sichtweise nicht mehr haltbar, sondern sie verweist nun ver-
stärkt auf das konsensuelle Wahrheitsprinzip. Darauf beruht letzten Endes der
Standpunkt des „subtle realism“, der insbesondere jenen angesprochenen kommu-
nikativen Aspekt aufgreift.
Begründet wurde diese Auffassung von empirischer Sozialforschung von Ham-
mersley (1992: Part I), der sich eingehend mit dem Phänomen der Qualität in der
Ethnographie auseinander setzte. Die Idee einer Gemeinde von Forschenden mit
anerkannten Standards zur Beurteilung von Plausibilität, Glaubwürdigkeit und Re-
levanz von Forschungsberichten nimmt eine zentrale Stellung im subtilen Realis-
mus ein. (ebd.) Durch ständige vorsichtige Kritik nimmt Wahrheit nur einen provi-
sorischen Status ein, da sie demzufolge lediglich solange Gültigkeit besitzt, bis gute
Gründe dafür sprechen, diese zu Gunsten einer widersprechenden Version abzulö-
sen. Hammersley schlägt dementsprechend vor: „der Wahrheitsbegriff sollte umde-
finiert werden als Glaube daran, wessen Gültigkeit wir vernünftigerweise folgen.“
(ebd.: 50)

3 Kriterienkataloge

Der Kriterienkatalog, der der vorliegenden Untersuchung zugrunde liegt1, steht in


einer längeren Tradition. Insbesondere im anglophonen Sprachraum gehen die
Bemühungen schon länger in die Richtung, Güteprinzipien qualitativer Forschung
zu bestimmen und in einer von den Forschenden abarbeitbaren Übersicht darzu-
stellen. Smith-Sebasto (2000), und vor allem Reid und Gough (2000) geben einen
Überblick über die bisherige Entwicklung und die Vielzahl vorhandener Kataloge.
Grundsätzlich besteht die Schwierigkeit, die sehr verschiedenen Ansätze, die unter
der Bezeichnung „qualitativ“ firmieren unter einen Bewertungsmaßstab zu bringen.
Universelle Kriterien können – sofern solche überhaupt angestrebt werden – daher
lediglich auf einem gehobenen Abstraktionsniveau aufgestellt werden. Im abstra-
hiertesten Fall sind dies aus den methodologischen Axiomen abgeleitete Prämissen.
Der Trend der letzten Jahre scheint eine zunehmende Ausdifferenzierung des Ka-
talog-Inventars sowie eine verstärkte Autonomisierung gegenüber quantitativen
Methoden zu sein. Die Kriterien werden spezifischer methodologisch zugeschnit-

1 Da der Katalog als solcher hier nicht im Mittelpunkt der Untersuchung steht, wird er lediglich en
passant in Form der empirischen Ergebnisse expliziert. Eine umfangreiche Dokumentation, Diskus-
sion und Herleitung findet sich an anderer Stelle (Grunenberg 2001, Hansen/Grunenberg 2003).
214 Heiko Grunenberg

ten und sind nicht mehr hauptsächlich den quantifizierenden Verfahren entlehnt.
Das Selbstvertrauen der einst Gescholtenen ist im Aufschwung begriffen, der stabi-
lisierende Diskurs ausdrücklich erwünscht (vgl. Scott 2000) und in Gang gekom-
men. Die innere Struktur der Kataloge ist zumeist sehr vielschichtig, komplex und
bisweilen unübersichtlich – es ist zu vermuten, dass sich in den nächsten Jahren ei-
ne weitere Vereinheitlichung der Kriterien in Abhängigkeit von den je unterstellten
erkenntnistheoretischen Grundlagen einstellt.
Im internationalen Vergleich ist zu erkennen, dass nahezu die gesamte For-
schung dieses Bereichs aus dem anglophonen Raum stammt und sich dort, wie er-
wähnt, eine deutliche Beeinflussung durch die Denktradition des Pragmatismus
bemerkbar macht. In der deutschen Diskussion dagegen gibt es zwar vermehrt An-
knüpfungspunkte daran, dennoch wird immer noch manche lähmende Auseinan-
dersetzung auf Nebenschauplätzen geführt.

4 Das Erfassungsinstrument
Zum Zweck der Qualitätsbestimmung aktueller empirischer Forschungsprojekte
werden im nachfolgenden Abschnitt einige der zentralen Kriterien herausgegriffen
und daraufhin überprüft, inwieweit sie in der Forschungspraxis umgesetzt werden.
Dazu wurde der eigens erstellte Kriterienkatalog in ein Bewertungsraster übersetzt,
das den Merkmalsraum mittels kategorial abgestufter Merkmalsklassen unterteilt,
ähnlich dem Schulnotensystem.
Den Untersuchungsgegenstand bilden Veröffentlichungen in soziologischen
und erziehungswissenschaftlichen Fachzeitschriften, die zwei notwendige Bedin-
gungen erfüllen müssen. Selbstverständlich muss im engeren Sinne ein empirischer
Anteil vorhanden sein, sowie qualitativ-interpretativ gearbeitet werden. Bewertet
wurden solche Fachartikel, die in den jeweils wichtigsten wissenschaftlichen Zeit-
schriften erschienen sind, welche die bei ihnen eingereichten Publikationen einem
Peer-Review-Verfahren unterziehen.2 Der Referenzzeitraum wurde festgelegt auf
die Jahrgänge 1998 bis 2001, realisiert wurde ein Sample von exakt 60 Aufsätzen.
Unter den führenden deutschsprachigen Veröffentlichungsorganen dieses Berei-

2 Berücksichtigt wurden die Zeitschrift für Soziologie der Erziehung und Sozialisation (ZSE): 22 Auf-
sätze; Zeitschrift für Soziologie (ZfS): 11 Aufsätze; Zeitschrift für Biographieforschung und Oral
History (BIOS): 9 Aufsätze; Zeitschrift für Erziehungswissenschaft (ZfE): 6 Aufsätze; Zeitschrift für
Pädagogik (ZfP): 5 Aufsätze; Kölner Zeitschrift für Soziologie und Sozialpsychologie (KZfSS): 4
Aufsätze; Zeitschrift für qualitative Bildungs-, Beratungs- und Sozialforschung (ZBBS): 3 Aufsätze.
Empirische Befunde zur Qualität qualitativer Sozialforschung 215

ches kann damit von einer Vollerhebung innerhalb dieses Zeitraumes gesprochen
werden.
Die methodische Vorgehensweise dieser Analyse birgt sowohl Vor- als auch
Nachteile. Von Vorteil ist, dass in gereviewten Zeitschriften bei der Bewetung der
Artikel indirekt die Meinung der Reviewers mitberücksichtigt wird, d. h. es kommt
in einem eingereichten Artikel nicht nur jenes zum Ausdruck, was die Forschenden
für die richtige Art und Weise des Forschens halten, sondern darüber hinaus auch
das, was dahingehend die Begutachtenden vertreten. Diese wiederum sind im Ide-
alfall bewährte Vertreter der Scientific-Community und damit Repräsentanten der
momentan vorherrschenden Paradigmen. Von Nachteil dagegen ist die Form des
Zeitschriftenaufsatzes, die gegenüber einer Monografie zweifelsohne nur einge-
schränkte Möglichkeiten bietet. Insbesondere aber in der qualitativen Sozialfor-
schung kommt es häufig gerade auf eine ausführliche Darstellung nicht nur der Er-
gebnisse sondern auch des Forschungskontextes an. Wie im Konkreten mit dieser
Restriktion umgegangen wird und wie es um die Qualität qualitativer empirischer
Forschung an der Jahrtausendwende bestellt ist, wird im folgenden Kapitel darge-
legt.

5 Daten zur Umsetzung der Qualitätskriterien


Im weiteren Verlauf werden einige Ergebnisse der Untersuchung dargestellt, die im
hiesigen Zusammenhang von Bedeutung sind. Im ersten Abschnitt geht es zu-
nächst um Aspekte der Methode, danach um die konkrete Ausführung derselben.
Abschließend folgen die Punkte Auswertung/Analyse und Präsentation.

Methode

Da qualitative Forschung bekanntermaßen sehr unterschiedliche Ausformungen


annehmen kann, geht es zunächst darum, zu erfassen, welche Richtungen und An-
sätze derzeit bevorzugt angewendet werden.
Bereits die Forschungsziele diversifizieren sehr stark und sind keineswegs vor-
wiegend induktiv. Die in der folgenden Tabelle aufgeführten Zielsetzungen werden
nicht immer benannt, der Rückschluss muss daher bisweilen vom Endergebnis der
Forschung ausgehend erfolgen.
216 Heiko Grunenberg

Forschungsziel Anzahl absolut (v.H.)


Exploration 37 (62%)
Theorien-Aberation 19 (32%)
Typologisierung 17 (28%)
Theoriengenerierung 15 (25%)
Hypothesenprüfung 12 (20%)
Methodenentwicklung 4 (7%)
Verstehen 4 (7%)
Illustration 3 (5%)
™ 111

Tab. 1: Überblick über die Forschungsziele (Plurale Zielsetzung möglich)

Es sind die üblichen Erkenntnisziele qualitativer Forschung, die dominieren. Allem


voran die Exploration, d. h. die Erkundung eines für unbekannt gehaltenen Gegen-
standsbereiches. Zugleich aber widmet sich immerhin noch jede fünfte Arbeit der
Hypothesenprüfung und damit einem klassischen Feld der quantitativen For-
schung. Dagegen sind explizite Verstehensprozesse eher selten zu finden.

Welche Untersuchungsmethoden werden verwendet?

Gelegentlich wird aus methodologischen Gründen eine Verengung des Methoden-


spektrums diagnostiziert – nicht zuletzt durch den Einsatz von qualitativer Analy-
sesoftware im Forschungsprozess. (vgl. Coffey et al. 1996, Seidel 1991) Diese Dia-
gnose der Verengung des Spektrums kann nicht ansatzweise bestätigt werden, denn
in 30% der Fälle und damit am häufigsten, werden eigens von den Forschenden
entwickelte Verfahren verwendet. Es folgen ethnographische Verfahren (20%), die
Grounded Theory (12%) sowie hermeneutische Verfahren [ohne Objektive Her-
meneutik] (12%). Etwas seltener zu finden sind da schon die Objektive Hermeneu-
tik (8%), biographisch orientierte Verfahren (8%) und die qualitative Inhaltsanalyse
(5%). Von einer Vereinheitlichung kann nicht die Rede sein.
Weniger als aus anderen Untersuchungen hervorgeht, wird im vorliegenden
Sample QDA-Software genutzt. Dabei sind im Rahmen der Qualitätsdiskussion die
potenziellen Qualitätszuwächse durch den Einsatz entsprechender Programme ein-
gehend diskutiert worden. Über die von Gibbs (2002: 10) beschriebenen methodi-
schen Gewinne „more accurate, reliable, more transparent, easier“ herausgehend
sind zu nennen: Die Transparenz und die Nachvollziehbarkeit erhöhen sich und
Empirische Befunde zur Qualität qualitativer Sozialforschung 217

damit auch die Credibility. Der Umgang mit größeren Mengen an Datenmaterial
wird erleichtert (Kelle/Laurie 1995); das Datenmanagement, die Datenreduktion
und das Speichern der Daten gestalten sich müheloser und effizienter (Kelle 1995).
Außerdem wird durch die zahlreichen Funktionen des Text-Retrievals und die je-
derzeitige Möglichkeit der Re-Kontextualisierung von Datenmaterial eine größere
Nähe zu den Daten ermöglicht (Cresswell/Maietta 2002). Nicht zuletzt werden
durch den Software-Einsatz erweiterte und komplexe Analysen überhaupt erst er-
möglicht. Schließlich können redundante und nicht kreative Aufgaben schneller
durchgeführt werden (Moseley/Mead/Murphy 1997). Offenbar jedoch sind jene
Aspekte nicht ausreichend bekannt, um einen Einsatz von QDA-Software auf brei-
ter Basis hervorzurufen. In den vorliegenden Untersuchungen nämlich finden sich
nur drei explizite Hinweise auf Anwendungsfälle im Forschungsprozess, darunter
jedoch keine der größeren gängigen qualitativen Analyseprogramme.3
Weitaus beliebter sind triangulierende Vorgehensweisen – in gut einem Viertel
aller Forschungsdesigns wird mehr als ein Verfahren der Datengewinnung heran-
gezogen. Dieses von Denzin (1970) erstmals genauer ausgearbeitete Konzept der
vielfältigen methodologischen Herangehensweise an einen Untersuchungsgegen-
stand bietet zahlreiche Chancen (vgl. Tashakkori/Tedlie 1998, neuerdings Sei-
pel/Rieker 2003), bereitet nichtsdestotrotz auch einige Schwierigkeiten (vgl. Flick
2000: 318, Kelle 2001: 205f.). Dennoch wird es hier betrachtet als ein modernes
Verfahren zur vertiefenden Einsicht in den Gegenstand – freilich jedoch nicht als
Imperativ der Sozialforschung.
In neun von 60 Fällen werden quantitative und qualitative Daten aufeinander
bezogen, weitere fünf Mal werden verschiedene qualitative Daten einbezogen und
schließlich drei Mal werden mehrere qualitative und zudem quantitative Daten be-
rücksichtigt. Insgesamt sind also heute Verfahren der Triangulation gängig – des-
sen ungeachtet scheint den Forschenden der systematische Vollzug der Datenzu-
sammenführung zum Teil schwer zu fallen, Verbesserungen wären insbesondere in
diesem Belang zu erzielen. So zeigt sich auch kein Zusammenhang zwischen trian-
gulierenden Forschungsarbeiten und der Gesamtqualität der Artikel, d. h. im
Durchschnitt führt der Einsatz mehrerer Verfahren nicht von allein zu einem guten
Forschungsergebnis. Es bestätigt sich der Hinweis auf die Gefahr der Überforde-
rung von Helga Kelle (2001:205f.), wenn nämlich ein allzu leichtfertiger paralleler

3 Dennoch kann von einer gewissen „Dunkelziffer“ ausgegangen werden, die Analysesoftware ver-
wendet, dies aber nicht erwähnt. Schließlich, so mögen viele Autorinnen und Autoren denken, ist es
ja auch nicht üblich, dass das verwendete Schreibprogramm und das Betriebssystem des Rechners
erwähnt werden.
218 Heiko Grunenberg

Umgang mit mehreren Ansätzen die Fertigkeiten und die Kapazitäten der For-
schenden überfordert.
Wie angemessen geschieht die Auswahl der Methode im Allgemeinen? Um die-
se Frage beantworten bzw. die Adäquanz beurteilen zu können, muss quasi das
Pferd von hinten aufgezäumt werden. Die Beurteilung erfolgt reversiv über die ex-
plizierten Forschungsfragen sowie das Erkenntnisinteresse. Anschließend müssen
die weitgehend bekannten Für und Wider der gewählten Methode abgewogen wer-
den. Auf diesem Wege stellte sich heraus, dass bei 8% der Untersuchungen das Er-
fordernis einer qualitativ-interpretativen Vorgehensweise gegenüber einer quantita-
tiven nicht offensichtlich war.4 Ähnliches gilt für die Samplingstrategie der einzel-
nen Untersuchungen, die in 12% der untersuchten Forschungsdesigns stark man-
gelhaft war und in vier Untersuchungen schlicht weder Erwähnung fand, noch er-
sichtlich wurde.
Kurz erörtert wurde oben das Postulat einer falsifikatorischen Grundhaltung
auch während des Induktionsvorganges. Diese bislang in der qualitativen Sozialfor-
schung nicht unbedingt gängige Sichtweise findet sich überraschend häufig wieder,
denn genau ein Drittel aller Aufsätze zeugten deutlich von einer Vorgehensweise,
die die eigenen Prämissen und Zwischenergebnisse kontinuierlich in Frage stellen.
Demgegenüber sind 8% der Vorgehensweisen deutlich konfirmatorisch, d. h. es
geht innerhalb des Forschungsprozesses ausschließlich darum, eigene Hypothesen,
Annahmen oder einfach Ansichten und Meinungen zu belegen, unabhängig von
Evidenz und Gegenevidenz.

Ausführung

Wie ist es um Qualitätskriterien der Ausführung der Methode bestellt?


Unter ethischen Gesichtspunkten sind unter den einbezogenen Forschungs-
arbeiten nahezu keine Mängel zu finden. 85% aller Arbeiten entsprechen ohne Ab-
striche den Ethik-Kodices der DGS und der DGfE. Die übrigen Arbeiten könnten
unter Umständen geringfügige nicht offenbare Mängel aufweisen, die aber kaum
nachverfolgt werden können. Beispielsweise ist es bei der Beforschung von Schul-
klassen fragwürdig, wie freiwillig deren Mitarbeit ist, oder aber an anderer Stelle ist
es nicht deutlich, ob die Beteiligten im Nachhinein über zuvor verschwiegene For-

4 Womöglich ist dies abermals ein Hinweis auf vorhandene Schulbildungen, da z.T. der Eindruck ent-
steht, eine einstmals erlernte Forschungsvariante wird von einigen Forschenden auf beliebige Unter-
suchungsgegenstände und Fragestellungen angewandt.
Empirische Befunde zur Qualität qualitativer Sozialforschung 219

schungsziele aufgeklärt wurden. Nicht nachprüfbar ist ferner, ob jeweils alle betei-
ligten Geldgeber genannt wurden, so findet sich lediglich ein einziger Verweis auf
nicht-öffentliche Förderung von Forschung – entweder ist dies ein Zeichen für das
geringe Engagement dieser privatwirtschaftlichen Geldgeber oder aber die Finanz-
quellen werden nicht im gewünschten Maße angeführt.
Reflexion als ein gezielt eingesetztes Mittel innerhalb des Forschungsprozess ist
eine der Errungenschaften der interpretativen Verfahren und erfährt über ihre
Grenzen hinaus eine breite Rezeption. Wenden aber qualitativ Vorgehende selbst
gezielt verschiedene Möglichkeiten der Reflexion an?
Die Antwortet lautet ja, aber meist nicht gezielt und kontrolliert. Und damit re-
flektiert knapp die Hälfte, 29 Veröffentlichungen, überhaupt nicht und lässt damit
diese große Chance der Methode aus.

Reflexionsüberlegungen über … Anzahl (abs.)


Grenzen der Untersuchung 22
Theorie 18
Methode 17
Eigenschaften der Untersuchenden 8
Methodisches Handeln im Feld 8
Erkenntnistheoretische Implikationen 4

Tab. 2: Gegenstand von Reflexion

Lediglich in vier Untersuchungen (7%) fand sich eine vorbildliche, gezielt-


kontrollierte Reflexion von meist mehreren Aspekten zugleich. Die restlichen For-
schungsarbeiten gehen mehr oder weniger zufällig oder punktuell auf diverse
Schwächen ein. Die Gegenstände der Reflexion sind zwar vielseitig, aber längst
nicht erschöpfend behandelt. Immer noch werden beispielsweise eigene Empfin-
dungen und Emotionen der Forschenden überhaupt nicht erwähnt. Hier dominiert
immer noch die alte Meinung, Subjektivität hätte in der Forschung nichts zu su-
chen anstatt aus einer gezielten Rekapitulation Kapital zu schlagen.
Ein möglicher Einfluss der Umgebung und der Situation der Untersuchung ist
nur in drei Aufsätzen erwähnt. Die oben erwähnte Tatsache, dass in acht Fällen die
Eigenschaften der Untersuchenden reflektiert wurden, führte dann, mit einer Aus-
nahme, nicht konsequenterweise zur gezielten Variation dieser Merkmale. Ansatz-
weise aber scheinbar planlos wird immerhin in 13 Untersuchungen variiert. Im All-
gemeinen zeigt sich eine sehr starre Handhabung der Datenerhebungsphase. In nur
drei Fällen war ein zirkulär verlaufender Forschungsprozess auszumachen, meist
220 Heiko Grunenberg

scheinen sich die Forschungsdesigns an der Linearität von quantitativen Untersu-


chungen zu orientieren.
Ein weiterer und zur Zeit wieder einmal recht aktueller Zweig der methodolo-
gischen Diskussion behandelt den Umgang mit Zahlen bzw. Quantifizierungen in
der qualitativen Sozialforschung. Lange Zeit besaßen die quantifizierenden Verfah-
ren das Monopol auf die Verwendung von Zahlenmaterial. Die Differenz von
„Zahlen und Wörtern“ drückt aus, was nicht selten als Merkmal der Unterschei-
dung von Forschungsrichtungen herangezogen wird. Den Einen die harten Fakten,
den Anderen die soften Erzählungen. Seale stellt systematisch heraus, wie der Um-
gang mit Zahlen in der qualitativen Sozialforschung aussehen kann. (vgl. 1999a:
Kap.9) Die Losung lautet: „Zähle das Zählbare!“ (ebd.: 121) Die Angabe von Zah-
len kann der Unterfütterung, Verdeutlichung oder dem Beleg einer Theorie oder
einer Generalisierung dienen. „Wider den Anekdotismus!“ – (ebd.: 138) Allerdings
sei aber mit Nachdruck darauf hingewiesen, dass der Umgang mit Zahlen aber
auch missbräuchlich sein kann. Vor vorschnellen Verallgemeinerungen sei wegen
der besonderen Auswahlverfahren der Untersuchungseinheiten, besonders auch bei
meist kleinen Fallzahlen ausdrücklich gewarnt. Zwischen diesen beiden Polen, den
Anwendungschancen und den Beschränkungen liegt ein breites Potenzial, das häu-
fig nicht abgerufen wird. Qualitative Forschung sollte sich einen offensiveren aber
nicht blinden Umgang mit Häufigkeiten und Zahlenmaterial angewöhnen, die
Chance gesteigerter Erkenntnis nutzen, ohne zugleich Quantifizierung zum Selbst-
zweck hochzustilisieren.
In der Forschungspraxis finden sich Quantifizierungen häufiger, als dies aus der
Methodenliteratur geschlossen werden könnte. Exakt ein Viertel der Veröffentli-
chungen nutzt dieses Mittel. In lediglich einem Fall wurde dabei eine ansatzweise
nicht haltbare Verteilungsaussage getroffen. Es entsteht jedoch der Eindruck, dass
noch weitaus mehr Forschungsdesigns von Quantifizierungen Gebrauch machen
könnten, als bisher geschehen.

Analyse und Auswertung

Die Phase der Analyse des Datenmaterials ist mit Sicherheit nicht nur die am
schwierigsten durchzuführende sondern auch zu beurteilende Phase innerhalb des
Forschungsprozesses. Die überaus große Vielfalt der möglichen Vorgehensweisen
kann von einer einzelnen Person kaum mehr überschaut werden. Angesichts des-
sen muss sich die diesbezügliche Einschätzung auf einige allgemeine bzw. abstra-
hierte Punkte beschränken. (vgl. Miles/Huberman 1994)
Empirische Befunde zur Qualität qualitativer Sozialforschung 221

So stellt sich die Frage nach der Generalisierbarkeit von Ergebnissen. In der
Stichprobe ergibt sich unter anderem durch die Fragestellung, die Samplestrategie
und die Festlegung des Geltungsbereichs in genau drei Viertel aller Untersuchun-
gen, die Möglichkeit der Generalisierung auf unterschiedliche Reichweiten. Das üb-
rige Viertel zielte nicht auf Verallgemeinerung über das Sample hinausreichende
Zusammenhänge ab.

Generalisierung möglich nicht möglich


angestrebt 44 6 50
nicht angestrebt 1 9 10
45 15 60

Tab. 3: Übersicht über das Generalisierungsverhalten

Allerdings wurde leider in sechs Untersuchungen (10%) eine Generalisierung ange-


strebt, wo sie nicht statthaft ist. Häufig scheinen nicht generalisierte Ergebnisse für
wertloser gehalten zu werden, als solche, die in eine allgemeingültige Theorie mün-
den. Neun Aufsätze gaben sich mit ihrem nicht-verallgemeinernden Status zufrie-
den.
Eine Einschätzung darüber, wie systematisch eine Theorie aus dem Datenmate-
rial gewonnen wurde, stellte sich als überaus schwierig heraus. Häufig wurden kurz
die Verfahren angegeben, bestenfalls auch noch erläutert, und anschließend sofort
die Ergebnisse präsentiert. Der Prozess der Analyse bleibt allzu häufig nebulös. Die
Ergebnisse wirken dann zwar meist recht plausibel, nur kann keineswegs daraus
etwas über die Systematik der Entstehung geschlossen werden. Insgesamt wurden
in 30 empirischen Untersuchungen in der Stichprobe kodifizierte, d. h. von der
Verfahrensweise bewährte Verfahren angewendet, die meist außer mit einigen
Schlagworten nicht weiter erläutert werden. Die Möglichkeit, eigene Regeln der
Hypothesenbildung aufzustellen, wurde anscheinend in 23 Forschungen genutzt.
„Anscheinend“ weil sie nur zehn Mal genauer erläutert werden. Die restlichen 13
aufgestellten Regelwerke, sind nur indirekt und ungenau insofern ableitbar, als dass
zumindest vermutet werden kann, dass welche bestanden haben. In fünf For-
schungen muss sogar die Hypothesenbildung völlig ohne Regelanwendungen vor-
genommen worden sein, jedenfalls ist sie nicht ansatzweise zu erkennen.
Die zugegebenermaßen ziemlich schwierigen Prinzipien empirisch begründeter
Theoriebildung (vgl. Kelle 1994) werden bisweilen in der Forschungspraxis geflis-
sentlich ignoriert. Insbesondere wenn selbst entwickelte Theoriebildungsverfahren
222 Heiko Grunenberg

angewendet werden, könnten sich diese eigentlich aus dem von Kelle zusammenge-
tragenen reichhaltigen Fundus bedienen.
Einige Prinzipien der dort beschriebenen Datenanalyse lassen sich nahezu auf
das gesamte Spektrum induktiver Forschung übertragen. Zwei dieser Möglichkei-
ten, die sich inhaltlich recht nahe stehen, die minimale und maximale Kontrastie-
rung sowie die Diskussion von Evidenz und Gegenevidenz, wurden untersucht.
Dabei zeigte sich, dass Prinzipien der Kontrastierung in elf Texten (18%) zu finden
sind – jedoch ausschließlich die maximale Kontrastierung, nicht die minimale.
Evidenz und Gegenevidenz diskutierten gar nur zwei Forschende. Evidenz für
sich wurde darüber hinausgehend häufiger diskutiert, Gegenevidenz nicht. Es ist zu
vermuten, dass nach wie vor Aspekte, die nicht ins Gefüge passen, immer noch als
defizitär empfunden und verschwiegen werden, statt darin Vorteile zu entdecken.
Im Ansatz benutzten zwar einige Forschungsgruppen diese Prinzipien bereits,
wenn aber, dann nicht gezielt intendiert oder nur rudimentär. Kontrastierung war
in dieser Form 14 Mal (23%) zu finden, eine Evidenzdiskussion 13 Mal (22%). Ein
Großteil der Forschenden indes ignoriert diesen Themenkomplex vollständig.

Präsentation

Zuletzt wenden wir uns der Präsentation der Ergebnisse zu. Hierbei geht es nicht
darum zu bewerten, welcher Schreibstil gepflegt wird oder ob das Layout anspre-
chend ist. Von zentraler Bedeutung ist vielmehr die Möglichkeit, eine Nachvoll-
ziehbarkeit der Forschung und ihrer Ergebnisse durch die Lesenden zu ermögli-
chen. Zu diesem Zweck wurden sieben Bereiche identifiziert, die auf ihre Berück-
sichtigung durch die Autoren untersucht wurden.
Am besten dokumentiert ist die jeweilige Informationsquelle, in 57% der Ver-
öffentlichungen (34 Mal) ist diese erschöpfend dargestellt. Mitunter ist dies in we-
nigen kompakten Sätzen zu leisten, daher auch häufig zu finden. Die Erhebungs-
methode wurde immerhin noch in einem Viertel aller Aufsätze beschrieben, der
Kontext der Erhebung dagegen oftmals ausgelassen.
Empirische Befunde zur Qualität qualitativer Sozialforschung 223

Bereich der Dokumentation Anzahl der Fälle, in denen der Bereich nicht be-
rücksichtigt wurde5
Entscheidungen und Probleme 44 (73%)
Datenbasis 39 (65%)
Transkriptionsregeln 35 (67%)
Vorverständnis 35 (58%)
Auswertung 25 (42%)
Erhebungsmethoden und -kontext 16 (28%)
Informationsquelle 3 (5%)

Tab. 4: Negativliste der Dokumentationsbereiche

Die Auswertung und das Vorverständnis dokumentieren nur 12% bzw. 8%, in
einer Weise, dass diese angemessen nachvollziehbar werden. Insbesondere jedoch
ohne eine Darstellung einzelner Auswertungsschritte sind die Ergebnisse einer
Untersuchung kaum einschätzbar. Zweitere ist nötig zur Kontrollierbarkeit von
Subjektivität und entspringt damit eigentlich einem Ur-qualitativen Grundgedan-
ken.
In fünf Aufsätzen (12%) werden die Transkriptionsregeln beschrieben und zum
Teil erläutert. Sicherlich ist dieser Bereich einer der weniger wichtigen, da auch oh-
ne das genaue Wissen darum eine Nachvollziehbarkeit gut möglich sein kann. Die
Dokumentation der Daten, also eine freie Einsicht in weite Teile des Datenmate-
rials ist nur in fünf Fällen möglich. In lediglich einem Fall darunter wird als im Üb-
rigen sehr hilfreiches Mittel auf eine Internetseite verwiesen, auf der die Daten ab-
rufbar sind, die anderen vier Fälle bedienen sich öffentlich zugänglicher Literatur,
die als Grundlage der Analyse gewählt wurde. In weiteren 22 Texten existiert ein
Verweis auf eine umfassendere Veröffentlichung des Forschungsberichtes, meist
eine Monographie. Einige positive Beispiele zeigen aber, dass es auch auf engem
Raum möglich ist, breite Dokumentationen zu entfalten. Deswegen ist die Lösung
des Problems durch einen Verweis zwar nicht die Ultima Ratio, aber dennoch
durchaus gangbar.
Zugegebenermaßen machen die Forschenden sich leichter angreifbar, wenn sie
ihre Interpretationsgrundlage veröffentlichen, aber eine fundierte und regelgeleitete
Interpretation sollte sich jeder Diskussion stellen können. Eine Auseinanderset-
zung zu vermeiden, indem ihr die Diskussionsgrundlage entzogen wird, kommt ei-

5 Die Prozentangaben beziehen sich nur auf die jeweils relevanten Fälle. Z. B. bedarf es bei einem auf
Literaturvorlagen beruhenden Verfahren keiner Transkriptionsregeln.
224 Heiko Grunenberg

ner Kapitulation gleich und steht jedem Bemühen um „ensuring rigour“ in der qua-
litativen Sozialforschung entgegen.
Zuletzt noch einige Anmerkungen zur Dokumentation von Entscheidungen
und Problemsituationen während des Forschungsprozesses. Nur 10% der Veröf-
fentlichungen greifen diese Themen auf. Nach wie vor wird es zu Unrecht als Zei-
chen der Unzulänglichkeit empfunden, wenn innerhalb des Forschungsprozesses
Probleme auftreten. Entweder ist diese These zutreffend und derartige Angelegen-
heiten werden bei der Verschriftlichung eher bei Seite geschoben, oder aber 90%
der Forschungen verlaufen ohne größere Schwierigkeiten. Ein neuer gewinnbrin-
gender Umgang mit kniffligen Situationen könnte sich entwickeln, wenn Entschei-
dungssituationen nachvollziehbarer werden.
Summiert man die in den Veröffentlichungen zumindest ansatzweise dokumen-
tierten Bereiche auf, dann zeigt sich einerseits, dass immerhin neun Aufsätze (15%)
alle Bereiche im Ansatz dokumentieren. Auf der anderen Seite erwähnen dagegen
27 Veröffentlichungen (45%), die Hälfte der Bereiche oder mehr, mit keinem
Wort. Die Anzahl der dokumentierten Bereiche korreliert statistisch nicht mit der
Länge des Textes, d. h. das Argument des Platzmangels, der eine genauere Doku-
mentation verhindert, ist nicht haltbar.
Insgesamt sind 31 Forschungsprozesse (52%) nur schwer oder gar nicht nach-
zuvollziehen. Die Spannweite zwischen gut und schlecht klafft dabei weit ausein-
ander. Neben bereits teilweise praktizierter Dokumentation herrscht anscheinend
vielerorts noch nicht das Bewusstsein für transparente Forschung. Alles was nicht
geschildert wird, kann auch nicht kritisiert werden, denn solange das Ergebnis
stimmt, kann der Weg nicht schlecht sein. Die Befolgung dieses Prinzips wird den
Vorwurf der Beliebigkeit den interpretativen Methoden gegenüber weiterhin ver-
stärken.

6 Resümee/Beurteilung der Ergebnisse


Üblicherweise werden sowohl Gütekriterien der quantitativen Methoden auszugs-
weise übertragen, als auch eigens für die interpretative Forschung entwickelte me-
thodenangemessene Kriterien, die bislang vorgeschlagen wurden, zur Textbegut-
achtung herangezogen. Im ersten Fall konnten wichtige Anleihen genommen wer-
den, im zweiten Fall auf vorhandene Bemühungen direkt oder minimal modifiziert
zurückgegriffen werden. Darauf basierend zeigen die exemplarisch dargestellten
Ergebnisse einen Querschnitt durch aktuelle Theorie und Praxis qualitativer For-
schung, eine Art Bestandaufnahme des Vorfindbaren.
Empirische Befunde zur Qualität qualitativer Sozialforschung 225

Der Blick auf die Praxis hat mitunter Defizite offenbart, in allen vier vorgestell-
ten Bereichen war die Streuung der Qualität sehr breit. Die Methode, die Ausfüh-
rung, die Analyse und die Präsentation der durchgeführten Forschungen war in ei-
nigen Fällen von hoher Qualität, in anderen waren verschiedenste Handwerksfehler
zu finden. Eine angemessene Methode zu finden, stellt kaum ein Problem dar,
Schwierigkeiten zeigen sich häufiger in der Umsetzung methodologischer Vorga-
ben. Selbst wenn eine mögliche Vorgabe lautet, der Forschungsprozess müsse the-
oretisch offen ausgelegt werden, bedeutet dies nicht, dass dies als Einladung zu un-
begründeter Beliebigkeit verstanden werden sollte.
Allzu oft bleibt vieles im Forschungsprozess unerwähnt nebulös, was nicht
primär auf den lediglich eingeschränkt zur Verfügung stehenden Platz zurückzu-
führen ist, denn die Länge eines Artikels korrespondiert nach der Datenlage nicht
mit der Quantität und Qualität vielfältiger Dokumentationen der Forschung. Auch
auf engem Raum kann vieles, dem Nachvollzug dienendes geleistet werden. Unter
allen Gesichtspunkten, die in qualitativen empirischen Artikeln abgehandelt wer-
den, weist derjenige der Analyse des Datenmaterials die größten Mängel auf. All-
gemein bereitet der Bereich der Datenanalyse die größten Probleme, denn nicht
nur die Darstellung ist oft defizitär, sondern auch die Analyse als solche wird zum
Teil auf eine Weise durchgeführt, dass nicht klar wird welche Schritte unternom-
men werden und zu welchem Zweck. Ebenso bleiben die Herleitung und der Ent-
stehungsweg eines gewonnenen Ergebnisses meist im dunkeln und lassen Raum
für Spekulationen. Es sollte nie der Eindruck entstehen, dass alle nicht beschriebe-
nen Vorgänge willkürlich zustande gekommen sind. Jedoch drängt sich dieser Ge-
danke zwangsläufig auf, wenn Ergebnisse und ihre Entstehung durch die Lesenden
nicht nachvollzogen werden können.
Ein möglicher Schritt zur Steigerung von Validität mag in vielen Fällen die bis-
lang selten angeführte Nutzung der Potenziale von Analyse-Software sein. Diese
sind zwar keine Conditio sine qua non zur Sicherstellung von Qualität, jedoch bie-
ten sie zahlreiche bereichernde Möglichkeiten zur Unterstützung während des For-
schungsprozesses, insbesondere der Analysephase, welche nach wie vor nicht zur
Gänze ausgeschöpft werden.
Ein Großteil all jener Missstände hätte sicherlich vermieden werden können,
wenn die Auseinandersetzung mit methodologischer und methodischer Literatur
intensiver ausgefallen wäre. Entsprechend kann Seale nur beigepflichtet werden,
wenn er grundsätzlich eine Auseinandersetzung der Forschenden mit diesen
Grundlagen für äußerst fruchtbar und notwendig hält, solange diese nicht über al-
226 Heiko Grunenberg

les gesetzt würden und damit die Ausführung einer Forschung zur Erfüllung eines
Schemas verkomme. (Seale 1999b: 466)
Alle diese Ergebnisse weisen letztlich auf bestehende Mängel in der Methoden-
ausbildung hin. Es ist naheliegend, dass die in der Vergangenheit vorhandenen
Mängel in der Ausbildung für eine heutige defizitäre Forschungspraxis mitverant-
wortlich sind. Im Gegensatz zur quantitativen Methodenausbildung, die schon lan-
ge zum Grundgerüst in den Sozial- und Erziehungswissenschaften gehört, ist die
Vermittlung von profunden qualitativen methodischen Fertigkeiten und profun-
dem qualitativen Wissen bislang immer noch keine Selbstverständlichkeit an den
Hoch- und Fachhochschulen. In ihrem eigenen Interesse sollten Qualitätsstandards
von Forschenden noch mehr beachtet werden als in der Vergangenheit. Dies käme
sowohl den eigenen Forschungsergebnissen als auch der interpretativen Forschung
als solcher zu Gute.
IV

QDA-Software in Lehre und Forschung


QDA-Software in der Hochschullehre

Thorsten Dresing

Zusammenfassung
QDA-Software als Werkzeug der qualitativen Forschung ist bisher selten in Form von Seminaren und
Übungen in die Hochschullehre eingebunden. Das hier vorgestellte hybride Onlineseminar bindet
QDA-Software in einen methodentheoretischen und praktischen Kontext ein und strukturiert den Se-
minarverlauf nach aktuellen didaktischen Kriterien. Diese fordern verstärkt die Aktivierung der Lernen-
den, den Erwerb anwendbaren Wissens, die soziale Einbindung des Lernprozesses und einen Mehrwert
durch den Medieneinsatz. Auszüge aus der Seminarstruktur illustrieren, wie man diesen Forderungen
konkret nachkommt, und präsentieren einen Vermittlungsansatz für QDA-Software in der Hochschul-
lehre. Es werden exemplarisch Erfahrungen, Schwierigkeiten und Lösungen beim aktiven Umgang mit
der Vermittlung der Software aufgezeigt. Die Beschreibung endet mit einigen Zitaten von bisherigen
Seminarteilnehmern und einem Ausblick auf die Gestaltung von weitergehenden Lehrangeboten zum
Thema QDA-Software

1 Einleitung
Die Vermittlung von QDA-Software ist in der Hochschullehre vor allem für Leh-
rende und Lernende der Fachbereiche eine Herausforderung, in denen qualitative
Forschung bislang bereits gelehrt und angewendet wird. Sie ist dort als logische
und zeitgemäße Erweiterung des Ausbildungsspektrums anzusehen, weil die Soft-
ware einen festen Bestandteil des Forschungshandwerkszeugs darstellt und der
Einsatz von QDA-Software auch in Zukunft weiter zunehmen wird (vgl. Kuckartz
2007). Die damit verbundenen neuen Möglichkeiten der Datenauswertung (z. B.
Exploration) und Vorgehensweise, der veränderten Bedingungen und Anforderun-
gen an Lehrende, Studierende, Computerressourcen und Materialaufbereitung er-
fordern die gezielte Planung und Einbindung von QDA-Software in die Lehre. In
der Literatur findet sich bisher keine konkrete Auseinandersetzung mit der Einbin-
dung von QDA-Software in der Lehre.
QDA-Software in der Hochschullehre 229

QDA-Software steht als solches nicht bedeutungsfrei im Raum, sondern befin-


det sich im engen Anwendungskontext qualitativer und zum Teil sogar quantitati-
ver Forschung. Sie eignet sich demnach besonders für eine Integration in be-
stehende Lehrpläne und -inhalte. Schon allein vor diesem Hintergrund ist eine blo-
ße Softwarefunktionsvermittlung à la Microsoft Word unangemessen. Das Ziel
einer geeigneten Lehr- und Lerngestaltung von QDA-Software besteht also nicht
allein in der Vermittlung von Bedienfertigkeiten, sondern in einer der jeweiligen
und unterschiedlichen Methodik angemessenen Einbindung oder zumindest der
Überblickseinbindung in den Gesamtkontext qualitativer und quantitativer For-
schung. Das reine Studium der Funktionsweisen der Software setzt neue Anwender
allzu leicht der Versuchung aus, methodentheoretische Aspekte und inhaltliche
Analysen zu vernachlässigen, weil sie nicht Teil der Vermittlung sind. Beispielswei-
se ist das softwaretechnische Wissen, wie man Auswertungskategorien erstellt,
noch kein Garant für eine inhaltlich sinnvolle Kategorisierung oder gar eine Anlei-
tung zum geeigneten Vorgehen und kann es auch aufgrund der multiplen Anwen-
dungsmöglichkeiten nie sein. QDA-Programme bieten darüber hinaus natürlich
keine Anhaltspunkte, wie man eine Forschungsfrage entwickelt, Datenmaterial er-
hebt oder Textsegmente in einen Forschungsbericht einbaut und analysiert.
Besonders für bisher „Materienfremde“, also z. B. Studierende im Grund- und
eventuell Hauptstudium oder Weiterbildungsinteressierte, die bisher keine Berüh-
rungspunkte mit qualitativer Forschung hatten, folgt daraus die logische Konse-
quenz, dass das Lehrziel die Einbettung der QDA-Softwarevermittlung in einen
Rahmen aus theoretischer Methodenvermittlung und -diskussion, praxisbezogenen
Übungen und Umsetzungen mit der QDA-Software sein muss, um zu einem zu-
sammenhängenden Verständnis und notwendigen Überblickswissen der Thematik
führen. Auch aus didaktischen Gesichtpunkten ist eine solche Einbettung zu emp-
fehlen. Die Einbindung in ein situiertes, authentisches und konstruierendes, das
heißt realistisches und problemorientiertes Szenario verspricht aus einer gemäßigt
konstruktivistischen Perspektive des Lernens und Lehrens (vgl. Reinmann-
Rothmeier/Mandl 2001) bessere Erfolgschancen in Bezug auf die Umsetzung, den
Lernerfolg und die Verhinderung von „Schubladenwissen“. Die konkreten zu ver-
mittelnden Inhalte sind in Bezug zur jeweilig bevorzugten Software und Methodik
und dem Schwierigkeitsgrad in der Detailplanung herauszuarbeiten.
230 Thorsten Dresing

2 Hybrides Onlineseminar als Modellkonzept –


Kursbeschreibung
Das folgende Beispiel stellt ein bereits mehrfach evaluiertes Seminarkonzept vor,
dass seit neun Semestern (seit Sommersemester 2003) an der Philipps-Universität
Marburg am Fachbereich Erziehungswissenschaften durchgeführt wird. Die Ver-
anstaltung „Einführung in die computerunterstützte Text- und Inhaltsanalyse mit
MAXQDA“ greift den Ansatz des Blended Learning auf und kombiniert Lernen in
Präsenzphasen mit dem Einsatz elektronischer Kommunikations- und Koopera-
tionsmedien. Es hat sich gezeigt, dass gerade bei längeren Online-Lehreinheiten
Präsenzphasen als hochwichtig eingeschätzt werden. Im Rahmen einer einsemes-
trigen Lehrveranstaltung bietet es sich demnach besonders an, auf das Konzept des
Blended Learning zurückzugreifen. Ein Onlineseminar, das der Struktur des Blen-
ded Learning folgt und Präsenzphasen mit Onlinephasen in einem bestimmten und
dem Inhalt angemessenen Umfang miteinander mischt und in Beziehung setzt, ist
demnach ein hybrides Onlineseminar.
Wie strukturiert und taktet man den inhaltlichen Ablauf des hybriden Online-
seminars? Es konnten zwar Ansätze der bereits bestehenden Präsenzveranstaltung
genutzt werden, allerdings findet sich in der Literatur kein allgemeingültiges Rezept
für die Strukturierung von Inhalten in einem Onlineseminar und dies ist, aufgrund
der Fülle unterschiedlicher Bedingungen, auch nicht zu erwarten. Neben der Ent-
scheidung für eine lerntheoretische und damit auch didaktische Grundausrichtung
(vgl. Dresing 2007) lassen sich wichtige Orientierungspunkte ausmachen: Der Ab-
lauf dieses Modellseminars orientiert sich inhaltlich an den Phasen einer qualitati-
ven Untersuchung. Diese lassen sich in acht ein- bis zweiwöchige Themenblöcke
einteilen. Sechs Themenblöcke stellen den inhaltlichen Kern dar, die jeweils von
einer Einführungs- und Abschlusswoche umrahmt sind. In der Mitte gibt es einen
weiteren Präsenztermin.
Die zeitliche und inhaltliche Seminarstruktur wird im Folgenden durch eine
Grafik symbolisiert. Jeder Kreis steht für einen inhaltlich in sich geschlossenen
Themenblock, in dem die Teilnehmenden jeweils eine bestimmte Aufgabe zu dem
jeweiligen Thema lösen müssen. Es beginnt mit dem oberen Kreis auf zwölf Uhr
und verläuft dann im Uhrzeigersinn. Die drei Innenkreise symbolisieren jeweils
einen Präsenztermin innerhalb des jeweiligen Themenblocks.
QDA-Software in der Hochschullehre 231

Abb. 1: Seminarplan „Einführung in die computerunterstützte Text- und Inhaltsanalyse“

Die folgende Abbildung zeigt die inhaltliche Zielsetzung und Dauer der jeweiligen
Themenblöcke.
232 Thorsten Dresing

Einheiten Inhalt der Einheiten


1. Einführung Startsitzung des Seminars: 1 Tag (1,5 h)
Die erste Woche dient der Orientierung auf der Plattform, der Regel-
verifizierung und Gruppenbildung.
Dauer: 1 Woche
2. Forschung Auseinandersetzung mit einer Problemsituation zu einem durchge-
führten Forschungsprojekt, Explikation des eigenen Vorwissens zur
Text- und Inhaltsanalyse, Gruppennamensfindung.
Dauer: 2 Wochen
3. Forschungsfrage Entwicklung einer Forschungsidee für ein qualitatives Forschungs-
projekt auf der Basis einer zu erarbeitenden Definition und Unter-
scheidung qualitativer und quantitativer Forschung und der Erkennt-
nis über Einsatzmöglichkeiten und Absichten. Entwicklung einer leit-
fadengestützten Befragung. Kommunikation über Konzepte und de-
ren Veränderung zur Fragenbildung und Durchführung bei und nach
einem Pretest.
Dauer: 2 Wochen
4. Datenerhebung und A: Durchführung der Interviews in unterschiedlichen Situationen,
4a. Präsenzsitzung zum Umgang Aufbereitung des Materials, Erlernen der Software MAXQDA in
mit MAXQDA einem Präsenzkurs, Nachbereitung der Softwarefunktionen.
Dauer: 2 Wochen
5. Codierung B: Grobcodierung des Datenmaterials orientiert am Leitfaden der Be-
fragung in Zweierteams inklusive Absprache der Ergebnisse.
Dauer: 1 Woche
6. Deskription A: Deskription des Datenmaterials und der Codes und Codings in
Form eines Kurzberichts.
Dauer: 2 Wochen
7. Analyse & Güte B: Theorie-, Ideen- und Hypothesensammlung anhand einer Detail-
analyse der Codings einer zentralen Kategorie. Berücksichtigung von
Gütekriterien.
Dauer: 2 Wochen
8. Abschluss Vorbereitung einer Präsentation mit Materialdarstellung und Ergeb-
nissen bei der Abschlusssitzung. Evaluation des Seminars.
Dauer: 1 Woche
Abschlusssitzung: 1 Tag (1,5 h)

Abb. 2: Inhaltliche Zielsetzung und Dauer der einzelnen Themenblöcke

Jeder Themenblock beinhaltet konkrete Aufgaben, Instruktionen zur Lösung,


Gruppenregeln, Beispiellösungen und tutorielle Betreuung und wird in den meisten
Fällen online in Kleingruppen von vier bis fünf Personen bearbeitet. Konkrete
Anweisungen und Strukturierungen ermöglichen vor allem für Anfänger einen
leichten Einstieg in die Arbeit. Am Anfang des Seminars gibt es zunächst eine ein-
QDA-Software in der Hochschullehre 233

wöchige Eingewöhnungsphase, um die Bedienung und den Umgang mit der E-


Learning Plattform einzuüben und eventuelle Fragen zum Seminarverlauf und dem
organisatorischen Ablauf zu klären. Ab der zweiten Woche wird das vorhandene
Vorwissen in Kleingruppen ausgetauscht, Literatur recherchiert und abschließend
das zusammengefasste Gruppenvorwissen den anderen Gruppen präsentiert.
Schließlich wird eine einfache Forschungsfrage entwickelt und Probanden befragt.
Dabei kann es bspw. um Fragen wie: „Studieren im Sommersemester 2004 – Die
ersten 100 Tage – Probleme mit dem Studium und den Rahmenbedingungen“ ge-
hen. Pro Seminarteilnehmer werden ein bis zwei Interviews geführt, aufbereitet
und dem ganzen Seminar anonymisiert zur Verfügung gestellt. Die Interviews kön-
nen dabei auch in einem Chat durchgeführt werden. Jede Gruppe geht nun im
Team an die Auswertung der Inhalte. Dabei werden auch Fragen der Qualität qua-
litativer Forschung erlernt und beachtet. Abschließend produziert jede Kleingruppe
eine Seminararbeit, in der sie die Forschungsfrage, Methode, Deskription und
Interpretation der Daten darstellt. Die Literatur wird im Onlineseminar als PDF-
oder Word-Datei zur Verfügung gestellt. Jeder Teilnehmer ist in jedem Themen-
block aktiv beteiligt und muss regelmäßig etwa alle 2 Tage auf der Onlineplattform
neue Beiträge lesen, eigene Kommentare und Ideen schreiben und zur aktiven
Gruppenlösung beitragen.

3 Aufgabengestaltung
Für die adäquate didaktische Umsetzung der Lerninhalte muss eine Aufgabenform
gewählt werden, die die Teilnehmenden in angemessener Weise unterstützt, moti-
viert und instruiert. Die Angemessenheit richtet sich in dieser Umsetzung an den
Gestaltungskriterien des problemorientierten Lernens nach Reinmann-Roth-
meier/Mandl (2001). Hiernach muss die Lernumgebung folgende Kriterien erfül-
len: Authentizität und Anwendungsbezug, Multiple Kontexte und Perspektiven,
Soziale Lernarrangements, und Instruktionale Unterstützung. Das problemorien-
tierte Lernen setzt die aktive Beteiligung der Lernenden voraus und verwendet da-
für problemorientierte und kooperative Aufgabenstellungen statt rezeptiver Infor-
mations- und Selbstlernquellen, wie z. B. das Literaturstudium. Die Lernenden
werden durch eine authentische Problemstellung in den Aufgaben aktiviert. Au-
thentizität wird von Mandl nicht in erster Linie als Realität gedeutet, sondern meint
eine hohe (subjektive) Relevanz oder sogar persönliche Brisanz der Aufgaben für
den Lernenden, die unter anderem durch einen konkreten Anwendungsbezug her-
gestellt wird. Neben der Schaffung von kognitiven Voraussetzungen wird eine
234 Thorsten Dresing

positive, affektive Einstellung und damit eine notwendige Lernmotivation ermög-


licht (vgl. Reinmann-Rothmeier 2003). Daher gibt es innerhalb des Seminars so-
wohl eine Rahmengeschichte, die alle Aufgaben und Themenblöcke des Seminars
miteinander verbindet, als auch ein eigenes Forschungsprojekt, das von den Teil-
nehmenden entwickelt und bewältigt wird. Die Rahmengeschichte handelt von
einer schlecht gemachten quantitativen Untersuchung der Universität für die Stadt
Marburg. Die Teilnehmenden schlüpfen in die Rolle ambitionierter Studierender,
entschlüsseln das Problem und entwickeln danach eine Alternativlösung. Schließ-
lich ist man von Universitätsseite neugierig und möchte gern mehr über das neue
Verfahren „qualitativer Forschung“ erfahren und gibt eine Probeforschung in Auf-
trag, die Schritt für Schritt entwickelt und bearbeitet wird und schließlich in einen
Abschlussbericht mündet. Die Themenblöcke zur Leitfadenentwicklung oder
Datencodierung entsprechen einer beispielhaften Vorgehensweise in der qualitati-
ven Forschung, vermitteln sie aber nicht rezeptiv, sondern aktiv, durch Problem-
analysen unter Zuhilfenahme grundlegender Literatur, der eigenen Forschungsum-
setzungen und des stetigen Feedbacks durch den Dozenten.
Diese didaktische Gestaltung fördert den Erwerb anwendbaren Wissens. Zu-
sätzlich wird die Verwendung multipler Anwendungskontexte und Perspektiven
gefordert, die das Entstehen von „Schubladenwissen“ verhindern und den Transfer
des Gelernten auf neue Problemsituationen erleichtern. Multiple Kontexte werden
in dieser Umsetzung so realisiert, dass die Studierenden immer wieder bewusst
einen Wechsel ihrer Rollen vom Beobachter zum Analysanten eines Forschungs-
projektes bzw. zwischen Probanden und Forschern vornehmen müssen. Unter-
stützt werden die unterschiedlichen Kontexte auch durch die teilweise interdiszipli-
när zusammengesetzten Gruppen, die mit unterschiedlichen Absichten und Vor-
wissen an die Thematik herangehen und diese explizieren müssen (z. B. durch die
Beschreibung des eigenen Vorwissens).
Die soziale Einbindung des Lernprozesses entsteht aus der Annahme, dass
Lernen im sozialen Austausch gefördert wird. Kooperative Lehr- und Lernarran-
gements fördern Reflexion in Verbindung mit sozialem Austausch. In dieser Lern-
umgebung wird daher nahezu ausschließlich in Lerngruppen gearbeitet, wobei eine
optimale Gruppengröße von drei bis vier Personen gewählt wird. Die Gruppen-
arbeit und -identität wird durch geeignete Maßnahmen wie Spiele, Gruppenname,
Regeln, rotierende Selbstmoderation, persönliches Gruppenfeedback und Teil-
nehmerinformationen mit Fotos gefördert und unterstützt.
Um der von Mandl geforderten instruktionalen Unterstützung durch den Leh-
renden zu entsprechen, sind alle Aufgaben mit Lösungshilfen und Instruktionen
QDA-Software in der Hochschullehre 235

versehen, zu denen z. B. Zeitvorgaben oder Lösungsansätze bzw. Beispiellösungen


gehören. Der Arbeitsprozess in der Gruppe wird dabei durch Regeln und Vorga-
ben unterstützt und ist durch den Lehrenden begleitet und beobachtet. Dazu ge-
hört auch ein regelmäßiges Feedback, das sich sowohl auf die produzierten Inhalte
bezieht als auch auf den Gruppenprozess und das -verhalten an sich.
Die technische Umsetzung der didaktischen Seminarkonzeption wird durch
eine einfach zu bedienende Online-Lernumgebung ermöglicht (www.i-study.de).
Sie bietet neben den Diskussionsforen, zentraler Arbeitsort im Onlineseminar,
auch Chats zur synchronen Kommunikation und den Austausch von Dokumenten.

Auszug zur Aufgabenstellung des Themenblocks 2 – An das Vorwissen


anknüpfen

Im zweiten Themenblock geht es zum einen um die Anknüpfung an vorhandenes


Vorwissen und zum anderen um die Aneignung eines Grundverständnisses für
qualitative und quantitative Forschungsansätze. Die folgende Aufgabe bietet Gele-
genheit zur Explikation und Diskussion:
Aufgabe A – Was bedeutet „Textanalyse“ für dich?
Diese Aufgabe ist alleine und von jedem zu lösen. Gesamtumfang maximal 1 DIN
A4 Seite bis zum xx.xx.xx.
x Beschreibe, was in deinen Augen der Unterschied zwischen einer quantita-
tiven Untersuchung und einer qualitativen Untersuchung ist.
x Beschreibe, wann und warum man Texte (z. B. Interviews zur individuellen
Zufriedenheit mit dem Studium) analysiert und wann und warum man im
Gegensatz dazu Fragebogenantworten (z. B. ein Frage „Wie findest du das
Studium“ mit Antwortskala sehr gut, gut, geht so, schlecht) analysiert.
x Lest danach die unten angegebene Pflichtlektüre.

Aufgabe B – Problemanalyse
Diskutiert in eurem Gruppenforum über die in der Geschichte (per Link zur Ver-
fügung gestellt) beschrieben Problematik, erläutert die Problemstellung und ver-
sucht eine Lösung im Sinne einer Fortführung der Geschichte zu finden. Legt da-
für in eurem Gruppenforum einen zweiten Thread mit dem Namen „Geschichte“
an. Bis zum xx.xx.xx verfasst ihr als Gruppe ein schriftliches Gruppenstatement
(max. 1 DIN A4 Seite) und veröffentlicht es im Plenumsforum. So kann das Er-
gebnis auch von den anderen TeilnehmerInnen gelesen werden. Das Statement
könnte ungefähr so aussehen: „Sehr verehrte Anwesende … wir denken, dass die
236 Thorsten Dresing

bisherige quantitativen Untersuchung hier keine guten Ergebnisse gebracht hat …


weil … wir haben eine Alternativmöglichkeit … man könnte auch so vorgehen …
das könnte ungefähr so funktionieren … und bringt die und die Vorteile … und
die und die Nachteile.“
Die Ergebnisse, die die Arbeitsgruppen nach zwei Wochen Arbeitszeit vorlegen,
bewirken, dass sowohl das jeweilige Verfahren als auch die Einordnung in den For-
schungszusammenhang verstanden wird. Wichtig erscheint uns, dass die Studenten
erfassen, wann eine qualitative Erhebung sinnvoll ist, was man durch sie herausfin-
den kann und wie sich qualitative und quantitative Verfahren unterscheiden und
ergänzen. Ein Auszug aus einer der bisherigen Lösungen verdeutlicht, welches Ver-
ständnis uns dabei beispielsweise wichtig ist:
„[…] wir von [der Gruppe XYZ] glauben, dass die von Ihnen gewählte Art der Datenerhebung
zu diesem doch heiklen Thema zu Missverständnissen geführt hat und daher nicht optimal ge-
wesen ist. Dieses zeigt auch die Aussage des Herrn Oberbürgermeisters. Auf die Frage, ob die
Studierenden grundsätzlich bereit sind, mehr für ihr Studium zu investieren, wurde in ihrer Be-
fragung zwar mit „ja“ geantwortet. Jedoch lässt dies so ohne weiteres nicht die Schlussfolge-
rung zu, dass die Studierenden die Einführung von Studiengebühren befürworten.
Die von Ihnen durchgeführte quantitative Erhebung ist also nicht das richtige Instrument,
nicht die richtige Forschungsmethode, um zunächst unbefangen und unvoreingenommen die
Meinung der Studentenschaft zu erfassen. Der quantitative Ansatz wäre dann angebracht,
wenn es darum gehen soll, eine Hypothese zu testen. Für eine Hypothesentestung wäre aber
eine bessere Fragestellung notwendig gewesen. Dieses ist jedoch bei der allgemeinen Frage
nach dem Thema Studiengebühren zunächst nicht sinnvoll, da es vermutlich ein sehr breites
Spektrum von Ansichten gibt.
Um eine Stimmung oder eine Einstellung bezüglich eines Themas in einer bestimmten Gruppe
(hier: Studenten zum Thema Studiengebühren) herausfinden zu können, erscheint uns dagegen
eine zunächst qualitative Herangehensweise als zielführender. Dabei gibt es keine vorgefertig-
ten Antwortmöglichkeiten. Dieses führt zu einem sehr viel differenzierteren Bild der vorhan-
denen, unterschiedlichen Stimmungen und Meinungen zum Thema. Es kann also vorkommen,
dass die Untersuchungsstichprobe auch „Exoten“ enthält und dadurch das Problemfeld in al-
len Facetten abgebildet wird und nicht nur durchschnittliche oder vom Fragesteller erwartete
Antworten sich widerspiegeln.
Zu einem fortgeschrittenen Zeitpunkt der Untersuchung kann dann zusätzlich quantitativ vor-
gegangen werden, um die ermittelten Ergebnisse zu quantifizieren und damit zu präzisieren
und verifizieren. Man würde dann also beide Methoden kombinieren, was als mixed-methods
bezeichnet wird. […]“
(Auszug aus der Antwort zum Themenblock 2 der Gruppe „Virtual Cowboys“)
QDA-Software in der Hochschullehre 237

Auszug zur Aufgabenstellung des Themenblocks 4 – Einführung in


MAXQDA

Ab dem vierten Themenblock bietet sich eine Einführung in die QDA-Software,


beispielsweise MAXQDA, an. Bis hierhin haben die Teilnehmenden einen groben
Überblick über einige Verfahren der qualitativen Sozialforschung gewonnen, eine
Forschungsfrage entwickelt und Daten erhoben. Nun geht es um die Anwendung
und Bedienung der beim Auswertungsprozess verwendeten Software. Nach unse-
rer mehrjährigen Erfahrung lassen sich in einer dreieinhalbstündigen Einführung
die wichtigsten Basis Funktionen von MAXQDA erklären. Dazu gehören folgende
Punkte:
1. Textvorbereitung, Transkription (*.rtf Format, Formatierungshinweise)
2. Textimport (aus *.rtf Datei, aus dem Internet oder einem beliebigen Do-
kument per drag&drop, Texte ändern)
3. Fenster verändern, Beispieltext durchlesen, Kategorien gemeinsam überle-
gen
4. Codes erstellen und Textstellen zuordnen
5. Codes verschieben, Codings verschieben oder kopieren
6. Code Memos und Textmemos schreiben (Definitionen, Ankerbeispiele, Li-
teratur, Exzerpte, Ideen, Theorien)
7. Textretrieval, Codings anzeigen lassen (Texte und Codes aktivieren) und zu
Word exportieren
Ein reiner Vortrag zur Software ist als Methode der Vermittlung ungeeignet. Jeder
Teilnehmer sollte daher nach Möglichkeit einen eigenen PC zur Verfügung haben,
um die einzelnen Schritte leichter selbst nachvollziehen zu können. Im Einzelfall
ist es auch denkbar, dass sich Teilnehmende einen PC jeweils zu zweit teilen. Eine
Gruppengröße bis maximal 30 Personen ist für den Dozenten noch angemessen
tragbar.
MAXQDA bietet bei der Installation eine Reihe von automatisch mitinstallier-
ten Interviewbeispieltexten an, die sich hervorragend zur inhaltlichen Arbeit ver-
wenden lassen. Sogar mit der Demoversion lässt sich so ein Kurs sinnvoll und oh-
ne weitere Kosten durchführen und auch nachbereiten, da sich jeder Student zu-
hause die Software selbst installieren kann.
Die Funktionen des Programms lassen sich am besten vermitteln, indem der
Dozent die einzelnen Schritte und Funktionseinheiten kurz erläutert, vorführt und
dann als Wiederholung konkrete, leicht erweiterte Aufgaben dazu lösen lässt. In
238 Thorsten Dresing

den Aufgaben dürfen ruhig auch einige knifflige, noch nicht erläuterte Funktionen
enthalten sein. Die Teilnehmenden werden dadurch zum Ausprobieren ermutigt.
Dies festigt nach unserer Erfahrung die Anwendung der Software besser und lässt
mögliche Fehlerquellen leichter erkennen. Falls sich viele Fehlerquellen und Un-
klarheiten gezeigt haben, werden die erweiterten Funktionen abschließend noch-
mals durch den Dozenten erläutert. Wir verteilen im Laufe des vierstündigen Se-
minars etwa drei bis vier Aufgabenzettel, bspw. zum Textimport, zum Codieren
und zum Textretrieval. In jedes Aufgabenblatt fügen wir noch einen Screenshot
ein, wie das Programmbild zum jetzigen Zeitpunkt aussehen müsste. So kann auch
später noch zuhause die Aufgabe wiederholt und überprüft werden.
Hier ein Beispiel für eine Aufgabe zum Codieren:
a. Erstellen Sie die folgenden Codes mittels rechter Maustaste: Individuelle
Voraussetzungen und Vorerfahrungen, Teilnahmeverlauf an den Veranstaltungen,
Lernen außerhalb der Veranstaltung
b. Erstellen Sie die folgenden Codes mit der Tastenkombination Alt+N: Be-
wertung von Veranstaltung und Inhalt, Verbesserungsvorschläge, Erwartung der
Klausurnote
c. Ordnen Sie das Kategoriensystem so an, wie im Bild unten angegeben.
d. Bilden Sie Zweierteams und nehmen Sie sich zusammen einen kurzen
Textabschnitt aus dem Text B02 vor, den Sie gemeinsam anhand der ge-
gebenen Codes codieren.
e. Für Themen, die nicht direkt im Kategoriensystem aufgeführt sind, er-
zeugen Sie bitte einen freien Code (STRG+W) oder Invivo-Codes
(STRG+I).
f. Um die Kategorien optisch besser zu unterscheiden, vergeben Sie bitte
unterschiedliche Codefarben für jeden erstellten Code.
g. Erstellen Sie nun ein Code-Memo an Ihrem freien Code um ihn näher zu
erläutern. Hier können Sie den Code definieren und ein Ankerbeispiel aus
dem Text einfügen. Wählen Sie das Symbol „!“ für das Memo.
Nach dem Kurs müssen die Teilnehmenden innerhalb von maximal zwei Wochen
die wesentlichsten Programmfunktionen nochmals einüben, um das erlernte Wis-
sen zu festigen. Dazu können sie das von MAXQDA kostenfrei zur Verfügung ge-
stellte Einführungstutorial verwenden, das über die Webseite www.maxqda.de
nutzbar ist. Den Download der Demoversion findet man ebenfalls auf dieser Web-
seite. Mit der Demoversion und den Lektionen A, B, C, D und E des Einführungs-
tutorials werden die wichtigsten Funktionen nochmals eingeübt. Im Umgang mit
dem Einführungstutorial und den Übungen haben wir bisher sehr gute Erfahrun-
QDA-Software in der Hochschullehre 239

gen gemacht und alle Studenten und Interessierte hatten weder in der Verwendung,
noch in Bezug auf die Komplexität des Programms Schwierigkeiten. MAXQDA ist
grundsätzlich sehr leicht zu erlernen.
Schwierigkeit gibt es vor allem im Bereich der inhaltlichen Umsetzung. Die Ka-
tegorienbildung und anschließende Auswertung („Was mache ich mit den Segmen-
ten?“) ist ein schwieriges Kapitel und Bedarf der Übung. Das Bilden von Katego-
rien kann am konkreten Beispiel in einem Folgetermin im Team eingeübt werden.

4 Fazit
Das Onlineseminar eignete sich unserer Meinung nach sehr gut für die Vermittlung
und Einübung von Basiswissen für die qualitative Sozialforschung und die damit
verbundene Software MAXQDA. Die Vermittlung der Software selbst sollte je-
doch am besten als Präsenzveranstaltung durchgeführt werden, ist aber grundsätz-
lich auch durch das Onlinetutorial erlernbar. Nach dem Besuch der Veranstaltung
sind die Studenten in der Lage in einem Team an einem qualitativen Forschungs-
projekt zu arbeiten. Sie kennen die wichtigste Literatur zu den angebotenen Ver-
fahren, haben eine Forschungsfrage entwickelt, durchgeführt, hinterfragt, mit
MAXQDA ausgewertet und einen Abschlußbericht verfasst.
Die Onlinezusammenarbeit ist allerdings sowohl für Studenten als auch für
Dozenten arbeitsintensiver als ein Präsenzseminar. Unabhängig von den jeweiligen
Inhalten fordert ein Onlineseminar grundsätzlich mehr Arbeitseinsatz. Doch der
erhöhte Lerneffekt und die äußerst flexible zeitliche und örtliche Teilnahme sind
nur einige der von uns erkannten Vorzüge. Folgende Zitate aus den Kommentaren
und Interviews mit Studenten des Seminars im Sommersemester 2004 mögen dies
verdeutlichen:
Vor dem Seminar:
„Ich bin auf alle Fälle mal gespannt, ob das mit der „Ausgewogenheit“ innerhalb der Gruppen
funktioniert. Denn in Referats- oder anderen Arbeitsgruppen habe ich bisher schon des Öfte-
ren, die in den Regeln beschriebenen Phänomene (Trittbrettfahren, Schweigen, autoritäres bis
totalitäres Auftreten etc.) erlebt. Hoffentlich bietet die „semi-anonymität“ dieses Seminars end-
lich mal die Gelegenheit diesen Phänomenen entgegen zu wirken.“ (B-ID4, 3)
„Der Seminarplan scheint mir auf den ersten Blick gut durchdacht und eine runde Sache zu
sein. Hoffe, dass ich so Schritt für Schritt in das Thema reinfinde. Besonders gut finde ich,
dass die Onlineplattform ermöglicht, sich die Zeit selbst einzuteilen. Arbeite gerne gemütlich
von zu Hause und vorzugsweise spät in der Nacht – Kommt mir sehr entgegen.“ (B-ID5, 1)
240 Thorsten Dresing

„Originär wissenschaftliches Arbeiten, interdisziplinäres Studieren – sicher eine wichtige Er-


fahrung, die man in diesem Seminar sammeln kann.“ (B-ID8, 1)
„Also ich nehme die Herausforderung dieses Online-Seminar an und hoffe das ich „am Ball
bleiben kann“!“ (B-ID11, 7)

Nach dem Seminar:


„[...] ich wusste nicht genau was man alles machen kann und was da kommt. Ich sag eigentlich
mehr, dass ich vorher so ein bisschen Angst davor hatte. Aber ich wollte so was immer schon
mal machen und es kam mir unheimlich schwierig vor [....] Und jetzt im nach hinein sag ich wo
ich es gemacht hab, ist der Reiz davon, oh das war toll und es hat ja auch geklappt und jetzt
möchte ich noch mehr so Sachen machen.“ (E-ID4, 4-5)
„Dieses selbstständige Arbeiten eben und zeitlich unabhängig und andererseits auch mit einer
Gruppe auch wiederum in der man eben so ein bisschen Hilfe kriegt. Das hat mir echt gut ge-
fallen, also so ne Gruppe die auch das ganze Semester über zusammen arbeitet, nicht nur für
ein Referat und danach ist Schluss [...]“(E-ID6, 3)
„Hier war es eben so stetig und man konnte sich so ein bisschen aneinander annähern und
nach und nach merken wie unterschiedlich die Leute sind und wer welche Nische findet, was
er dort gerne macht oder nicht macht, was er bevorzugt. Das fand ich da ganz gut.“ (E-ID12,
6)
„da ich bereits ein Onlineseminar mitgemacht habe kann ich nur sagen, dass der Aufwand
zwar enorm, aber der Lerneffekt genauso war. Von daher lohnt es sich auf alle Fälle!“ (E-
ID16, 12)

Selbstverständlich ist ein solches Seminarkonzept auch als Präsenzveranstaltung


durchführbar. Die Struktur würde dabei ähnlich aussehen, nur müssten die einzel-
nen Themenblöcke und Aufgaben nochmals überarbeitet und auf die Tauglichkeit
im Präsenzeinsatz überprüft werden.

5 Ausblick
QDA-Software und die Möglichkeiten der Datenauswertung und Darstellung wer-
den komplexer. Auch die Anforderungen an Absolventen werden umfangreicher.
Daher bieten sich zusätzliche Module als Kurse oder Weiterbildung an, die bspw.
eine Verbindung zwischen qualitativer und quantitativer Forschung oder das kom-
plexe Textretrieval im Kern darstellen und vermitteln. Dabei könnte im geeigneten
Rahmen auch auf tiefere Details der jeweiligen Verfahren eingegangen werden oder
eine Kombination mit anderen empirische Methoden, wie die der klassischen Sta-
tistik erreicht werden.
QUASAR: Eine Online-Umfrage zum Einsatz von
QDA-Software im Forschungsprozess

Claus Stefer

Zusammenfassung

Der folgende Beitrag stellt die Ergebnisse einer online durchgeführten Erhebung über die
Anwendung von Software zur qualitativen Datenanalyse in der Forschungspraxis vor. Ne-
ben Problemen und vermissten Funktionen in der QDA-Software wird zudem die Anwen-
dung in der Praxis thematisiert. Hierbei stehen insbesondere der Rückgriff auf Methoden,
die Methodeneignung der Software und das Arbeiten in Gruppen im Mittelpunkt.

1 Einleitung
Unter dem Titel QUASAR – Qualitative Software in Advanced Research wurde eine
Online-Befragung von Personen, die mit Software zur qualitativen Datenanalyse
(QDA-Software) arbeiten, durchgeführt. Ziel der Untersuchung war es, einen Ein-
blick in die Nutzung von QDA-Software im Forschungsprozess zu erhalten. Dazu
wurde ein aus 31 Fragen bestehender Online-Fragebogen entworfen, der von Mitte
Dezember 2005 bis Ende Januar 2006 im Internet zur Verfügung stand. Über the-
menbezogene Mailinglisten (z. B. QSF-L und GIR-L) wurde zur Teilnahme aufge-
rufen, der Fragebogen wurde von 75 Personen ausgefüllt. Im Folgenden werden
die zentralen Ergebnisse der Befragung dargestellt.

2 Allgemeine Daten
62% der Personen, die an der Studie teilgenommen haben, sind weiblichen, 38%
männlichen Geschlechts. Das Alter der Befragten bewegt sich zwischen 24 und 60
Jahren, der Durchschnitt liegt bei 36 Jahren. 58% der Befragten gaben an, seit
sechs oder weniger Jahren mit Methoden der qualitativen Sozialforschung zu arbei-
242 Claus Stefer

ten, eine Person wendet diese Methoden bereits seit 29 Jahren an. Im Durchschnitt
arbeiten die Befragten seit 7,6 Jahren mit qualitativen Methoden.
Haupteinsatzbereich der QDA-Software sind Qualifikationsarbeiten (56%),
wobei hier Dissertationen (44%) häufiger als andere Abschlussarbeiten (12%) ge-
nannt wurden. Auftragsforschung, also kommerzieller Einsatz der Software, liegt
mit 29% auf dem zweiten Rang. Weitere angegebene Einsatzbereiche sind v.a.
DFG-Projekte sowie Einfachnennungen wie etwa ein Lehrprojekt. Dieses Über-
gewicht der Qualifikationsarbeiten lässt sich eventuell durch die Rekrutierung der
Teilnehmenden via Mailinglisten erklären.
Die hauptsächlich vertretene Forschungsdisziplin ist Pädagogik (41%), gefolgt
von Soziologie (28%) und Psychologie (8%). Darüber hinaus gibt es zahlreiche
Einzelnennungen wie etwa Musikwissenschaft, Pflegewissenschaft, Schulentwick-
lung, Landschaftsplanung, Wirtschaftswissenschaften oder Marketing. Insgesamt
zeigt sich, dass softwareunterstützte qualitative Datenanalyse mittlerweile in einem
breiten disziplinären Spektrum zur Anwendung kommt, zumal die Befragtenaus-
wahl über die Mailinglisten eher die Begünstigung bestimmter Fachrichtung nahe
legt.

3 Rahmenbedingungen

Eingesetzte Software
Das von den Befragten hauptsächlich eingesetzte QDA-Programm ist MAXQDA
bzw. sein Vorgängerprogramm winMAX (77%). Das zweithäufig genutzte Pro-
gramm ist ATLAS.ti (16%), gefolgt von der Software NVivo/NUD*IST (3%) und
sonstigen Programmen (ebenfalls 3%).

Entdeckung der Software


Hauptsächlich wird das QDA-Programm, mit dem letztendlich gearbeitet wird,
über persönliche Empfehlungen entdeckt (60%). Internetrecherche (13%) sowie
Seminare und Trainings (11%) sind ebenfalls von Bedeutung, Fachliteratur spielt
hingegen als Entscheidungshilfe lediglich eine nachgeordnete Rolle (2%). Es gibt
nur wenige vergleichende Gegenüberstellungen unterschiedlicher Programme, au-
ßerdem erschließen sich wesentliche Funktionen innerhalb der Programme nicht
durch theoretische Betrachtung. Zum Ausprobieren und direkten Vergleichen ver-
schiedener Programme fehlen wahrscheinlich oftmals Zeit und Muße, so dass der
Bericht einer erfahrenen Kollegin oder eines erfahrenen Kollegen deutlich an Ge-
wicht gewinnt. Außerdem verspricht die Arbeit mit einem Programm, das im nähe-
QUASAR: Eine Online-Umfrage zum Einsatz von QDA-Software im Forschungsprozess 243

ren Umfeld auch von anderen Personen genutzt wird, eine Chance auf persönliche
Unterstützung im Falle von Fragen und Problemen. Sicherlich ist hier auch von
Bedeutung, dass viele der Befragten nicht alleine, sondern in einer Gruppe arbeiten
(siehe Abschnitt Anwendungspraxis).

Erlernen der Software


Hinsichtlich des Erlernens der Software lässt sich festhalten, dass die Befragten das
von ihnen eingesetzte Programm eher eigenständig als angeleitet erlernt haben.
Insgesamt gaben 58% an, sich die Programmfunktionen selbstständig erschlossen
zu haben, nämlich durch Anschauen und Ausprobieren (23%), das Benutzerhand-
buch (15%) bzw. durch ein Tutorial oder Fachbuch (je 10%). 33% wurden beim
Erlernen der Software angeleitet: 19% haben eine Schulung besucht, 14% sind von
Kolleginnen und Kollegen eingearbeitet worden. Weitere 10% haben sowohl
selbstständig als auch angeleitet gelernt.

Probleme
Bei der Arbeit mit QDA-Software treten insgesamt nur wenige ernsthafte Proble-
me auf. Lediglich 19 Personen gaben an, überhaupt Probleme mit dem eingesetz-
ten Programm zu haben. Davon entfallen 32% auf eine nicht logische Bedienung
und 21% auf Datenverluste, welche ihrerseits vermutlich entweder auf unzurei-
chende Datensicherungsstrategien der Benutzer oder möglicherweise auch auf eine
fehlende „Undo“-Funktion der genutzten Programme zurückzuführen sein könn-
ten. Wirkliche Programmfehler (die allerdings nicht weiter spezifiziert wurden) sind
lediglich bei 32% der Personen, die angaben, Probleme bei der Arbeit zu haben,
aufgetreten; dies entspricht 8% der Befragten. Die übrigen Nennungen beziehen
sich etwa auf komplizierte Bedienung und nicht selbsterklärende Symbole. Generell
scheint QDA-Software somit mittlerweile einen hohen Reifegrad erreicht zu haben.

Softwarebezogene Kommunikation
Bezüglich der Frage nach genutzten Informationsquellen, Support- und Kommu-
nikationsangeboten zeigt sich ein wenig einheitliches Bild. 36% gaben an, haupt-
sächlich Workshops für die softwarebezogene Kommunikation zu nutzen. Jeweils
21% nannten Herstellerforen im Internet sowie allgemeine Diskussionsfo-
ren/Mailinglisten. Damit nimmt das Internet mit insgesamt 43% die zentrale Rolle
als Kommunikationsweg ein. Nur 14% der Befragten greifen auf den Hersteller-
support zurück. Überraschend ist, dass bei dieser Frage von der Möglichkeit der
244 Claus Stefer

Mehrfachnennung kein Gebrauch gemacht wurde, die Befragten also offenbar bis-
her nicht mehr als eine Informationsquelle genutzt haben.

Vermisste Funktionen
Obwohl die Mehrheit der Respondenten keine bestimmte Programmfunktion ver-
misst, gaben immerhin 45% an, dass der Funktionsumfang der eingesetzten Soft-
ware zu verbessern wäre. Ein Teil der geäußerten Wünsche scheint aus mangelnder
Kenntnis der Programmfunktionen zu resultieren, denn einige der Wünsche – etwa
bzgl. des Datenexportes oder des Vorgehens nach einer bestimmten Forschungs-
methode – werden indirekt von der Software unterstützt, wenn dies auch nicht
immer deutlich dokumentiert ist. Es bleibt eine Anzahl an speziellen methodischen
Anforderungen, denen QDA-Software gegenwärtig nicht entspricht. Gewünscht
werden etwa klarere Anleitungen zu methodenspezifischen Arbeitsschritten bzw.
ein den Methoden angepasster Aufbau der Software und ihrer Funktionen.
An erster Stelle der nicht direkt methodenbezogenen Wünsche, denen bisher
nicht entsprochen wird, steht eine Möglichkeit zur Visualisierung des Codesystems,
der Codierungen und der Ergebnisse. Immer wieder genannt wird auch eine feh-
lende „Undo“-Funktion. Ansonsten wurden vor allem konkret programmbezogene
Verbesserungswünsche geäußert.

4 Anwendungspraxis

Anzahl der zu analysierenden Einheiten im Projekt


Mittlerweile ist QDA-Software in der Lage auch große Textmengen zu bearbeiten.
Immerhin 8% der Befragten gaben an, dass das gegenwärtig bearbeitete Projekt
mehr als 1.000 Texte umfasst, das größte Projekt besteht gar aus 18.000 Texten.
Auch diese Zahl unterstützt die Vermutung, dass QDA-Programme der aktuellen
Generation zumindest technisch recht ausgereift sind. In den meisten Projekten
wird allerdings mit deutlich weniger Medien – hauptsächlich werden Texte ver-
wendet, Audio und Video spielen bisher eine deutlich untergeordnete Rolle –
gearbeitet: 58% der Befragten arbeiten mit 30 oder weniger Analyseeinheiten, wei-
tere 14% mit 30 bis 50 Analyseeinheiten.

Rückgriff auf Methoden


Eine der Fragen lautete, ob die an der Umfrage teilnehmenden Personen innerhalb
ihres Forschungsprojektes nach einer bestimmten Forschungsmethode arbeiten.
QUASAR: Eine Online-Umfrage zum Einsatz von QDA-Software im Forschungsprozess 245

Immerhin 33% verneinten dies, was wiederum die Frage nach dem Grund dafür
aufwirft, der nicht mit erhoben wurde. Womöglich liegt es daran, dass die Software
nicht in einem klassisch qualitativen Untersuchungskontext verwendet, sondern
beispielsweise dazu genutzt wird, größere Materialmengen zu kategorisieren und
zugänglich zu machen, ohne die Auswertungsfunktionen der Programme einzuset-
zen. Es sind durchaus noch weitere Szenarien denkbar, die keiner unbedingten me-
thodischen Fundierung bedürfen. Vorstellbar wäre allerdings auch, dass die Frage
selbst missverstanden und dahingehend interpretiert wurde, dass es sich um eine
Frage nach der Vielfalt eingesetzter Methoden handelt.1
Hauptsächlich angewandte Methoden sind die qualitative Inhaltsanalyse nach May-
ring (31%) und die Grounded Theory (29%). Weiter wurden Verfahren, die her-
meneutischen und quantitativen Richtungen zugerechnet werden können, mehr-
fach genannt. Diverse andere Methoden wie etwa die Netzwerkanalyse und die
Diskursanalyse sowie verschiedene Methodenkombinationen wurden jeweils ein-
mal genannt.
Der Großteil der Befragten, nämlich 77%, arbeitet induktiv; 23% arbeiten mit
einem vorab festgelegten Kategoriensystem. Lediglich 6% der Befragten durchlau-
fen das Material während des Codierens nur einmal, 68% durchlaufen es zwei- bis
siebenmal, der Rest (26%) noch häufiger.

Methodeneignung der Software


Auffällig ist, dass 67% der Befragten die Software vor dem Einsatz auf ihre Eig-
nung für das Vorgehen nach einer bestimmten Forschungsmethode geprüft haben.
In Verbindung mit dem häufig geäußerten Wunsch der Unterstützung des Vorge-
hens nach einer bestimmten Forschungsmethode lässt sich mutmaßen, dass An-
wender eine stärkere Methodenorientierung der Software oder eine entsprechende
Dokumentation der Programmfunktionen begrüßen würden.

Arbeit in Gruppen
Gruppenarbeit ist in der qualitativen Sozialforschung von Bedeutung: 44% gaben
an, in Gruppen zu arbeiten (zwei bis fünf Personen: 42%, sechs bis zehn Personen:
2%). Hier lässt sich erkennen, dass die Unterstützung von mehreren Benutzern
und Gruppenarbeit eine wichtige Anforderung an QDA-Software darstellt. Hin-
sichtlich der praktischen Ausgestaltung der Arbeitsteilung gibt es sehr unterschied-

1 Die Frage lautete wörtlich: „Arbeiten Sie nach einer bestimmten Methode? Bitte möglichst genau
angeben und kurz beschreiben.“
246 Claus Stefer

liche Modelle. Sie reichen von Interpretationswerkstätten über die Zerlegung des
kompletten Forschungsprozesses in Einzelschritte, deren Aufteilung und Zusam-
menführung am Ende bis zur fallbezogenen Aufteilung des gesamten Projektes.

Einsatz der Software


Die QDA-Programme selbst kommen bei 67% der Befragten während großer Tei-
le bzw. während des gesamten Forschungsprozesses zum Einsatz und unterstützen
weite Teile der Analyse. Die restlichen Befragten nutzen die Software lediglich für
Teilschritte des Forschungsprozesses, etwa zum Erstellen und Bearbeiten eines Ka-
tegoriensystems.

5 Fazit
Zusammenfassend lässt sich feststellen, dass Software zur qualitativen Datenanaly-
se in einem breiten disziplinären Spektrum zur Anwendung kommt und im Großen
und Ganzen den mitunter sehr unterschiedlichen Anforderungen gerecht zu wer-
den scheint. Die Programme kommen meist während des gesamten bzw. während
großen Teilen des Forschungsprozesses und nicht nur in Bezug auf eine spezifische
Aufgabe zum Einsatz. Moderne QDA-Software bietet vielfältige Möglichkeiten
hinsichtlich der Projektverwaltung und gestatten es auch große Datenmengen zu
bearbeiten. Zwar sind extrem große Projekte mit mehr als 1.000 Analyseeinheiten
in der Praxis eher selten, dennoch können sie mit neuer Software erfolgreich be-
arbeitet werden.
Der Wunsch nach einer stärkeren Methodenorientierung ist auf Seiten der An-
wender vorhanden, allerdings sollten hier Vor- und Nachteile sehr genau bedacht
werden. Die flexible Visualisierung der Ergebnisse, der Codes oder des Codesys-
tems sind ein häufig geäußerter Wunsch, der vermutlich zum Einen in Richtung
der Unterstützung der Dateninterpretation, zum Anderen mit Hinblick auf die Er-
gebnispräsentation geäußert wird. Der Wunsch, verschiedene Medienarten wie Au-
dio-, Video- und Textdateien integriert bearbeiten zu können, wurde nur selten ge-
äußert (3% der Befragten), würde aber sicher eine interessante Erweiterung der
Möglichkeiten qualitativer Software darstellen.
Der hohe Anteil von in Gruppenarbeit durchgeführten Projekten und ihre sehr
individuelle Organisation innerhalb der verschiedenen Projekte zeigt, dass es wich-
tig ist, dass eine Mehrbenutzerfunktionalität flexibel genug ist, unterschiedliche
Modelle der Gruppenarbeit zu ermöglichen.
QUASAR: Eine Online-Umfrage zum Einsatz von QDA-Software im Forschungsprozess 247

Schließlich lässt sich noch festhalten, dass neben einem umfangreichen betreu-
ten Lernangebot (Summerschools, Workshops etc.) in jedem Falle ausreichendes
und fundiertes Selbstlernmaterial zur Verfügung stehen sollte, um den Anwendern
das vielfach präferierte eigenständige Erarbeiten und Vertiefen der Programm-
kenntnisse zu ermöglichen.
Literatur

Abels, H./Heinze, T./Klusemann, H. W. (1977): Lebensweltanalysen von Fernstudenten. Qualitative


Inhaltsanalyse – theoretische und methodologische Überlegungen. Fernuniversität Hagen.
ADD – Aufsichts- und Dienstleistungsdirektion Rheinland-Pfalz (2003): Rundschreiben an alle Referen-
tinnen und Referenten der Schulabteilung. Qualitätsprogramm (unveröffentlicht)
Alexa, M./Züll, C. (1999): A review of software for text analysis. ZUMA-Nachrichten Spezial Band 5.
Mannheim: ZUMA.
Altheide, D. L./Johnson, J. M. (1994): Criteria for assessing interpretive validity in qualitative research,
In: Denzin, N. K./Y. S. Lincoln (Eds.): Handbook of Qualitative Research. Thousand Oaks: Sage,
485-449.
Altheide, D.L./Johnson, J. M. (1998): Criteria for Assessing Interpretive Validity in Qualitative Re-
search. In: Denzin, N. K./Lincoln, Y. S. (Eds.): Collecting and Interpreting Qualitative Materials.
London/Thousand Oaks/New Dehli: Sage, 293-312.
Angen, M.J. (2000): Evaluating Interpretive Inquiry. Reviewing the Validity Debate and Opening the
Dialogue. Qualitative Health Research, (10), 378-395.
AQS – Agentur für Qualitätssicherung (2006): Evaluation und Selbständigkeit von Schulen:
http://www.aqs.rlp.de/externe-evaluation/unser-auftrag.html
Atteslander, P. (2003): Methoden der empirischen Sozialforschung. 10., neu bearb. und erw. Aufl., Ber-
lin u.a.: de Gruyter.
Bandilla, W./Faulbaum, F. (Eds.) (1996): SoftStat ‘95: Advances in Statistical Software 5. Stuttgart.
Barry, Chr.A. (1998): Choosing Qualitative Data Analysis Software: Atlas/ti and Nudist Compared. So-
ciological Research Online (On-line Journal), 3(3). Verfügbar über: http://www.socresonline.org.uk
[12. 08. 2002].
Bartlett, F.C. (1997): Remembering. A study in Experimentel and Social Psychology. (Erstver. 1932).
Cambridge: University Press.
Barton, A.H./Lazarsfeld, P.F. (1984): Einige Funktionen von qualitativer Analyse in der Sozialfor-
schung. In: Hopf, Chr./Weingarten, E. (Hrsg.): Qualitative Sozialforschung. Stuttgart: Klett Cotta.
Baumeler, C. (2003): Dissens in der kommunikativen Validierung – Eine Absage an die Güte wissen-
schaftlicher Forschung? Sozialer Sinn, 2/2003, 313-329.
Baumert, J./Artelt, C./Klieme, E. et al. (2002): PISA 2000 – Die Länder der Bundesrepublik Deutsch-
land im Vergleich. Opladen: Leske+Budrich.
Bortz, J. (2005): Statistik für Human- und Sozialwissenschaftler, 6. Aufl. Berlin u.a.: Springer.
Bortz, J./Döring, N. (2001): Forschungsmethoden und Evaluation für Sozialwissenschaftler, 3. Aufl.
Berlin u.a.: Springer.
Bortz, J./Döring, N. (2003): Forschungsmethoden und Evaluation für Human- und Sozialwissenschaft-
ler. Berlin u.a.: Springer.
Bos, W./Tarnai, C. (Hrsg.) (1996): Computerunterstützte Inhaltsanalyse in den Empirischen Sozialwis-
senschaften. Theorie – Anwendung – Software. Münster u.a.: Waxmann.
Brent, E./Scott, J./Spencer, J. (1987): The Use of Computers among Qualitative Sociologists. In: Quali-
tative Sociology 10(3), 309-313.
Bryman, A. (1988): Quantity and Quality in Social Research. London/New York: Routledge.
Buber, R./Zelger, J. (Hrsg.) (2000): GABEK II. Zur qualitativen Forschung. Innsbruck u.a.: Studien
Verlag.
Bühler-Niederberger, D. (1985): Analytische Induktion als Verfahren qualitativer Methodologie. Zeit-
schrift für Soziologie, 14, 475-485.
Burgess, E.W. (1927): Statistics and Case Studies as Methods of Soziological Research. In: Sociology and
Social Research, No.12, 103-120.
Campbell, D. T. (1957): Factors relevant to the validity of experiments in social settings. Psychological Bul-
letin, 54, 297-312.
Literatur 249

Campbell, D. T./Stanley, J. C. (1963): Experimental and quasiexperimental designs for research on


teaching. In: Gage, N. L. (Ed.) Handbook on research on teaching. Chicago: Rand McNally, 171-
246.
Campbell, D.T./Fiske, D. W. (1959): Convergent and Discriminant Validation by the Multitrait-
Multimethod Matrix. In: Psychological Bulletin, Vol. 56, No.2: 81-105.
Carmichael, P. (2002): Extensible Markup Language and Qualitative Data Analysis (39 paragraphs). Fo-
rum Qualitative Sozialforschung/Forum Qualitative Social Research (On-line Journal), 3(2). Ver-
fügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm [31.07.2002].
Carvajal, D. (2002): The Artisan‘s Tools. Critical Issues When Teaching and Learning CAQDAS (46 pa-
ragraphs). Forum Qualitative Sozialforschung/Forum Qualitative Social Research (On-line Jour-
nal), 3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm [31. 07. 2002].
Chalmers, A. (1989): Wege der Wissenschaft. Berlin: Springer.
Cisneros-Puebla, C. A. (2004): To Learn to Think Conceptually. Juliet Corbin in Conversation With Ce-
sar A. Cisneros-Puebla [53 paragraphs]. Forum Qualitative Sozialforschung/Forum: Qualitative So-
cial Research [On-line Journal], 5(3), Art. 32. Verfügbar über: http://www.qualitative-
research.net/fqs-texte/3-04/04-3-32-e.htm [20.03.2007].
Coffey, A. et al. (1996): Qualitative data analysis: technologies and representations. Sociological Re-
search Online, Vol.1, No.1.
Corbin, J. (1991): Anselm Strauss: An Intellectual Biography. In: Maines, David R. (Hg.): Social Or-
ganization and Social Process. Essays in Honor of Anselm Strauss. New York: Aldine de
Gruyter. S. 17-44.
Corti, L. (2002): QUALIDATA. Qualitative Data Archival Resource Centre. Verfügbar unter:
http://www.qualidata.essex.ac.uk [20.03.2007]
Cremer, J./Kruse, J./Wenzler-Cremer, H. (2006): Interviews auf Computer überspielen und transkribie-
ren. Ein Manual für die Aufnahme und Transkription von Interviews mit einer EDV-basierten, ein-
fachen und effektiven Lösung. Überarbeitete Fassung Juli 2006. Verfügbar über: http://www.ph-
freiburg.de/fakultaet-1/psychologie/wenzler-cremer/publikationen.html [12.08.2006].
Cressey, D. R. (1953/1971): Other People‘s Money. A study in the Social Psychology of Embezzlement.
Belmont: Wadsworth.
Cresswell (2003): Research Design – qualitative, quantitative, and mixed methods approaches. Thousand
Oaks: Sage.
Cresswell, J. W./Maietta, R. C. (2002): Qualitative Research. In: Miller, D. C./Salkind, N. J. (Eds.):
Handbook of Research Design and Social Measurement. 6th Edition. Thousand Oaks: Sage.
Cresswell, J.W. (1994): Research Design. Qualitative and Quantitative Approaches. Thousand Oaks: Sa-
ge.
Dahrendorf, R. (1995): Die Stunde Null: Erinnerungen und Reflektion. In: Bürgerschaft der Freien und
Hansestadt Hamburg (Hrsg.): Hamburg 1945: Zerstört. Befreit. Hoffnungsvoll?. Dokumentation
der Vorträge von Ralf Dahrendorf, Margarete Mitscherlich und Ralph Giordano. Hamburg: Chris-
tians Verlag, 11-29.
Dahrendorf, Ralf (1964): Homo sociologicus: ein Versuch zur Geschichte, Bedeutung und Kritik der
Kategorie der sozialen Rolle. Köln: Westdt. Verlag.
Danneberg, L. (1989): Methodologien. Struktur, Aufbau und Evaluation. Berlin: Duncker und Humblot.
De Haan, G./Kuckartz, U./Rheingans, A. (2000): Bürgerbeteiligung und Lokale Agenda 21-Initiativen.
Analysen zu Kommunikations- und Organisationsformen. Opladen: Leske+Budrich.
Denzin, N. K. (1977): The Research Act. A Theoretical Introduction to Sociological Methods (1. Aufl.).
New York: McGraw Hill.
Denzin, N. K. (1978): The Research Act. A Theoretical Introduction to Sociological Methods (2. Aufl.).
Chicago: Aldine.
Denzin, N. K. (1978/1989): The Research Act. New York: McGraw-Hill.
Denzin, N. K. (1989): The Research Act. A Theoretical Introduction to Sociological Methods (3. Aufl.).
Englewood Cliffs, N. J.: Prentice Hall.
250 Literatur

Denzin, N. K. (1997): Interpretive Ethnography. Ethnographic Practices for the 21st Century. Thou-
sand Oaks/London/New Dehli: Sage.
Denzin, N. K./Lincoln, Y. S (1994): Introduction. Entering the Field of Qualitative Research. In: dies.
(Eds.): Handbook of Qualitative Research. Thousand Oaks: Sage, 1-18.
Denzin, N. K./Lincoln, Y. S. (1998): The Landscape of Qualitative Research. Thousand Oaks/Lon-
don/New Delhi: Sage.
Denzin, N. K./Lincoln, Y. S. (Eds.) (1994): Handbook of Qualitative Research (1. Aufl.). Lon-
don/Thousand Oaks/New Dehli: Sage.
Denzin, N. K./Lincoln, Y. S. (Eds.) (2000): Handbook of Qualitative Research (2. Aufl.). Lon-
don/Thousand Oaks/New Dehli: Sage.
Deutscher Bundestag (2002): Schlussbericht der Enquete-Kommission „Recht und Ethik der modernen
Medizin“. Berlin (Bundestagsdrucksache – 14. Wahlperiode).
Dotzler, H. (1999): Computerprogramme zur Unterstützung qualitativer Textanalyse: ein Beitrag vor
dem Hintergrund der aktuellen Praxis und Technik. München: Dissertationsdr. R. Ibing.
Dresing, T. (2006): E-Learning in der universitären Lehre am Beispiel der Entwicklung und Evaluation
eines hybriden Onlineseminars zur computergestützten Text- und Inhaltsanalyse. Marburg, Univ.,
Diss.
Elliot, R./Fischer, C. T./Rennie, D. L. (1999): Evolving guidelines for publication of qualitative rese-
arch studies in psychology and related fields. British Journal of Clinical Psychology (38), 215-229.
Erzberger, Chr. (1998): Zahlen und Wörter. Die Verbindung quantitativer und qualitativer Daten und
Methoden im Forschungsprozess. Weinheim: Deutscher Studien Verlag.
Erzberger, Chr./Kelle, U. (1998): Qualitativ vs. Quantitativ? Wider den Traditionalismus methodologi-
scher Paradigmen. In: Soziologie 1998 (3), 45-54.
Fend, H. (1998): Qualität im Bildungswesen. Schulforschung zu Systembedingungen, Schulprofilen und
Lehrerleistung. Weinheim und München: Juventa Verlag
Fielding, N. G./Fielding, J. L. (1986): Linking Data. Qualitative Research Methods, Vol. 4. London:
Sage.
Fielding, N. G./Lee, R. M. (1998): Computer Analysis and Qualitative Research. London: Sage.
Fielding, N. G./Lee, R. M. (2002): New patterns in the adoption and use of qualitative software. Field
methods 14:2 (5), 197-216.
Fielding, N. G./Lee, R. M. (Eds.) (1991): Using computers in qualitative research. London: Sage.
Fischer, K. (1983): Rationale Heuristik. In: Zeitschrift für allgemeine Wissenschaftstheorie, 14, 234-272.
Flick, U. (1987): Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In:
Bergold, J.B./Flick, U. (Hrsg.): Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer For-
schung. Tübingen: DGVT-Verlag, 246-263.
Flick, U. (1991): Triangulation. In: Flick, U./von Kardoff, E./Keupp, H./von Rosenstiel, L./Wolff, S.
(Hrsg.): Handbuch qualitative Sozialforschung. München: PVU, 432-434.
Flick, U. (1992a): Entzauberung der Intuition. Triangulation von Methoden und Datenquellen als Stra-
tegie der Geltungsbegründung und Absicherung von Interpretationen. In: Hoffmeyer-Zlotnik, J.
(Hrsg.): Analyse qualitativer Daten. Opladen: Westdeutscher Verlag, 11-55.
Flick, U. (1992b): Triangulation Revisited – Strategy of or Alternative to Validation of Qualitative Data.
Journal for the Theory of Social Behavior, (22), 175-197.
Flick, U. (1998): An Introduction to Qualitative Research. Thousand Oaks/London/New Delhi: Sage.
Flick, U. (1998): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwis-
senschaften. Reinbek: Rowohlt.
Flick, U. (1999): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwis-
senschaften. Reinbek: Rowohlt.
Flick, U. (2000): Triangulation in der qualitativen Forschung In: Flick, U./von Kardorff, E./Steinke, I.
(Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 309-319.
Flick, U. (2002): Qualitative Sozialforschung. Eine Einführung. Reinbek: Rowohlt.
Literatur 251

Flick, U. (2003): Qualitative Forschung – Stand der Dinge. In: Orth, B./Schwietring, Th./Weiß, J.
(Hrsg.): Soziologische Forschung. Stand und Perspektiven. Opladen: Leske+Budrich, 309-322.
Flick, U. (2004): Triangulation – Methodologie und Anwendung. Wiesbaden: Verlag für Sozialwissen-
schaft.
Flick, U. (2004a): Qualitative Sozialforschung – Eine Einführung. Reinbeck: Rowohlt.
Flick, U. (2004b): Triangulation. Eine Einführung. Wiesbaden. VS Verlag für Sozialwissenschaften.
Flick, U./von Kardorff, E./Steinke, I. (Hrsg.) (2000): Qualitative Forschung. Ein Handbuch. Reinbek:
Rowohlt.
Flick, U./Walter, U./Fischer, C./Neuber, A./Schwartz, F.-W. (2004): Gesundheit als Leitidee? – Ge-
sundheitsvorstellungen von Ärzten und Pflegekräften. Bern: Huber.
Ford, K./Oberski, I./Higgins, S. (2000): Computer-Aided Qualitative Analysis of Interview Data: Some
Recommendations for Collaborative Working. The Qualitative Report (Online Journal), 4(3/4).
Verfügbar über: http://www.nova.edu/ssss/QR/BackIssues/index.html [12.08.2002].
Foucault, Michel. (1990): Archäologie des Wissens. Frankfurt a. M. (Suhrkamp). (4. Aufl.).
Friebertshäuser, B./Prengel, A. (Hrsg.) (1997): Handbuch Qualitative Forschungsmethoden in der Er-
ziehungswissenschaft. München: Juventa Verlag.
Friedrich, J. (2002): Der Brand. Deutschland im Bombenkrieg 1940-1945. München: Propyläen.
Friedrichs, J. (1980): Methoden empirischer Sozialforschung. Opladen: Westdeutscher Verlag (erstm.
ersch. 1973).
Gadenne, V. (1984): Theorie und Erfahrung in der psychologischen Forschung. Tübingen: Mohr.
Geertz, C. (1983): Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. Frankfurt/M:
Suhrkamp.
Geertz, C. (1988): Works and Lives: the Anthropologist as Author. Stanford/Ca: Stanford University
Press.
Gerhardt, U. (1983): Patientenkarrieren: eine Medizinsoziologische Studie (Abschlußbericht DFG-
Projekt: Biographische Typenkonstruktion in den Patientenkarrieren bei chronischer Niereninsuffi-
zienz (1981 – 1982). Gießen: Justus-Liebig-Universität.
Gerhardt, U. (1985): Erzähldaten und Hypothesenkonstruktion: Überlegungen zum Gültigkeitsproblem
in der biographischen Sozialforschung. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie,
37, 230-256.
Gerhardt, U. (1986): Verstehende Strukturanalyse: Die Konstruktion von Idealtypen als Analyseschritt
bei der Auswertung qualitativer Forschungsmaterialien. In H. G. Soeffner (Hrsg.), Sozialstruktur
und soziale Typik. Franfurt/M: Campus, 31-83.
Gerhardt, U. (1995): Typenbildung. In: Flick, U./von Kardoff, E./Keupp, H./von Rosenstiel,
L./Wolff, S. (Hrsg.): Handbuch Qualitative Sozialforschung. Weinheim: Beltz, PVU, 435-439.
Gerhardt, U. (1998): Die Verwendung von Idealtypen bei der fallvergleichenden biographischen For-
schung. In: Jüttemann, G./Thomae, H. (Hrsg.): Biographische Methoden in den Humanwissen-
schaften. Weinheim: PVU, 193-212.
Gibbs, G. R. (2002): Qualitative Data Analysis: Explorations with NVivo. Buckingham: Open Univer-
sity Press.
Gibbs, G. R./Friese, S./Mangabeira, W. C. (2002): Technikeinsatz im qualitativen Forschungsprozess.
Einführung zu FQS Band 3(2) (34 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative
Social Research (On-line Journal), 3(2). Verfügbar über: http://www.qualitative-research.net/
fqs/fqs.htm [31.07.2002].
Glaser, B. (1978): Theoretical Sensitivity. Advances in the Methodology of Grounded Theory. Mill Val-
ley: The Sociology Press.
Glaser, B. (1978): TheoreticalSensitivity. Advances in the Methodology ofGrounded Theory. Mill
Valley, Ca.: The Sociology Press.
Glaser, B. (1992): Emergence vs. forcing. Basics of grounded theory analysis. Mill Valley.
Glaser, B. (1992): Emergence vs. Forcing: Basics of Grounded Theory Analysis. Mill Valley, Ca.: So-
ciology Press.
252 Literatur

Glaser, B. (2002): Data Management: Computer Data Collection. Manuskript o.O.


Glaser, B./Strauss, A. (1967): The Discovery of Grounded Theory: Strategies for Qualitative Research.
New York: Aldine de Gruyter.
Glaser, B./Strauss, A. L. (1979): Die Entdeckung gegenstandsbegründeter Theorie: Eine Grundstrategie
qualitativer Forschung. In: Hopf, Chr./Weingarten, E. (Hrsg.): Qualitative Sozialforschung. Stutt-
gart: Klett-Cotta, 91-112.
Glaser, B./Strauss, A. L. (1998): Grounded Theory. Strategien qualitativer Forschung (engl. 1967). Bern
u.a.: Hans Huber.
Glaser, B.; Strauss, A. (1967): The Discovery of Grounded Theory: Strategies for Qualitative Research.
New York: Aldine de Gruyter.
Glaser, B.; Strauss, A. (1974): Interaktion mit Sterbenden. Göttingen: Vandenhoeck & Ruprecht
(erstmals 1968 erschienen unter dem Titel „Time for Dying“. Chicago: Aldine.
Greul, L./Offe, S./Fabian, A./Wetzels, P./Fabian, T./Offe, H./Stadler, M. (1998): Glaubhaftigkeit der
Zeugenaussage. Theorie und Praxis der forensisch-psychologischen Begutachtung. Weinheim:
PVU.
Grossmann, A. (1995): Eine Frage des Schweigens? Die Vergewaltigung deutscher Frauen durch Besat-
zungssoldaten. In: SOWI, 24, H.2, 109-119.
Grunenberg, H. (2001): Die Qualität qualitativer Forschung. Eine Metaanalyse erziehungs- und sozial-
wissenschaftlicher Forschungsarbeiten. Diplomarbeit FB Erziehungswissenschaften: Marburg. Ver-
fügbar über: http://www.g-berg.de/forschung.htm [20.03.2007].
Guba, E. G./Lincoln Y. S. (1989): Fourth Generation Evaluation. Newbury Park: Sage.
Habermas, J. (1981): Theorie des kommunikativen Handelns (2. Bd.). Frankfurt a.M.: Suhrkamp.
Hammersley, M. (1992): What´s wrong with ethnography? Methodological explorations. London: Rout-
ledge.
Hansen, H./Grunenberg, H. (2003): Gütekriterien qualitativer Forschung. Ein Beitrag zur Qualitätssi-
cherung im Forschungskontext shared decision-making. In: Scheibler, F./Pfaff, H. (Hrsg.): Shared
Decision-Making. Der Patient als Partner im medizinischen Entscheidungsprozess. Juventa: Wein-
heim, 86-96.
Heinz, W. R. (1996): Youth Transitions in Cross-Cultural Perspective: School-to-Work in Germany. In:
Galaway, B./Hudson, J. (Eds.): Youth in Transition. Perspectives on Research and Policy. Toronto:
Thompson Educational Publishing.
Heinz, W. R./Kelle, U./Witzel, A./Zinn, J. (1998): Vocational Training and Career Development in
Germany – Results from a Longitudinal Study. In: International Journal of Behavioral Develop-
ment, 1998, 22 (1), 77-101.
Heinze, Th. (1987): Qualitative Sozialforschung. Opladen: Westdeutscher Verlag.
Helsper, W./Herwartz-Emden, L./Terhart, E. (2001): Qualität qualitativer Forschung in der Erzie-
hungswissenschaft. Zeitschrift für Pädagogik, (47), 251-269.
Hesse-Biber, S./Dupuis, P. (1996): An Automatic Hypothesis Tester for Qualitative Analysis In: Faul-
baum, F./Bandilla, W. (Eds.): SoftStat ’95. Stuttgart: Lucius und Lucius, 353-360.
Hildenbrand, B. (1991): Vorwort. In: Strauss, A. L. (1991): Grundlagen qualitativer Sozialfor-
schung. Datenanalyse und Theoriebildung in der empirischen soziologischen Forschung.
München: Fink. S. 11-17.
Hirschauer, S. (2001): Rezension zu Flick, U./von Kardorff E./Steinke, I. (Hrsg.) (2000): Qualitative
Forschung – ein Handbuch. Kölner Zeitschrift für Soziologie und Sozialpsychologie, (53), 809-811.
Hirschauer, S./Amann, K. (Hrsg.) (1997): Die Befremdung der eigenen Kultur. Zur ethnographischen
Herausforderung soziologischer Empirie. Frankfurt a.M.: Suhrkamp.
Hitzler, R./Eberle, Th. S. (2000): Phänomenologische Lebensweltanalyse. In: Flick, U./von Kardorff,
E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 109-118.
Hoffmann-Riem, C. (1980): Die Sozialforschung einer interpretativen Soziologie. Der Datengewinn.
Kölner Zeitschrift für Soziologie und Sozialpsychologie, 32, 339-372.
Literatur 253

Hofmann, J. (2001): Schulaufsicht im Umbruch. Neue Aufgaben der Schulaufsicht bei der Qualitätssi-
cherung und –entwicklung von Schule. Kronach – München – Bonn – Potsdam: Carl Link Verlag.
Huber, G. L. (Hrsg.) (1992): Qualitative Analyse: Computereinsatz in der Sozialforschung. München:
Oldenbourg.
Jensen, O. (2000): Zur gemeinsamen Verfertigung von Text in der Forschungssituation. Forum Qualita-
tive Sozialforschung/Forum: Qualitative Social Research (Online Journal), verfügbar über:
http://qualitative-research.net/fqs, 1, 2, 32 Absätze.
Jensen, O. (2004a): Geschichte machen. Strukturmerkmale des intergenerationellen Sprechens über die
NS-Vergangenheit in deutschen Familien. Tübingen: edition diskord.
Jensen, O. (2004b): Induktive Kategorienbildung als Basis Qualitativer Inhaltsanalyse. In: Mayring,
Ph/Gläser-Zikuda, M. (Hrsg.): Die Praxis der Qualitativen Inhaltsanalyse. Weinheim: Utb.
Jensen, O./Welzer, H. (2003): Ein Wort gibt das andere, oder: Selbstreflexivität als Methode. Forum
Qualitative Sozialforschung/Forum: Qualitative Social Research (Online Journal), verfügbar über:
http://qualitative-research.net/fqs, 4, 2, 58 Absätze.
Kamiske, G.F./Brauer, J.P. (1995): Qualitätsmanagement von A bis Z – Erläuterungen moderner Be-
griffe des Qualitätsmanagements (2. Aufl.). München: Hanser.
Kelle, H. (2001): Ethnographische Methodologie und Probleme der Triangulation. Am Beispiel der Peer
Culture Forschung bei Kindern. In: Zeitschrift für Soziologie der Erziehung und Sozialisation (H2),
192-208.
Kelle, U. (1990): Computerunterstützte Auswertung qualitativer Daten. Ein Überblick über Konzepte
und Verfahren. SFB 186 der Universität Bremen, Arbeitspapier Nr.11. Bremen.
Kelle, U. (1994a): Computergestützte Kategorisierung verbaler Daten. In: Faulbaum, Frank (Ed.): SoftS-
tat ’93, 369-376.
Kelle, U. (1994b): Empirisch begründete Theoriebildung. Zur Logik und Methodologie interpretativer
Sozialforschung. Weinheim: Deutscher Studien Verlag.
Kelle, U. (1995) (Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. Lon-
don: Sage.
Kelle, U. (1996): Computer-Aided Qualitative Data Analysis: An Overview. In: Züll et. al. (Hrsg.): Text
Analysis and Computers. ZUMA-Nachrichten Spezial. Mannheim, 33-64.
Kelle, U. (1997a): Capabilities for Theory Building & Hypothesis Testing. In: Software for Computer
Aided Qualitative Data Analysis. Data Archive Bulletin, No.65.
Kelle, U. (1997b): Theory building in Qualitative Research and Computer Programs for the Manage-
ment of Textual Data. Sociological Research Online Vol. 2, No. 2.
Kelle, U. (1998): Empirisch begründete Theoriebildung. Zur Logik und Methodologie interpretativer
Sozialforschung. Weinheim: DSV (2. Aufl.).
Kelle, U. (2000): Computergestützte Analyse qualitativer Daten. In: Flick, U./von Kardorff, E./Steinke,
I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 485-501.
Kelle, U. (2005): “Emergence” vs. “Forcing” of Empirical Data? A Crucial Problem of “Grounded
Theory” Reconsidered [52 paragraphs]. Forum Qualitative Sozialforschung/Forum: Qualitative So-
cial Research [On-line Journal], 6(2), Art. 27. Verfügbar über: http://www.qualitative-
research.net/fqs-texte/2-05/05-2-27-e.htm [14.08.2006].
Kelle, U./Erzberger, C. (2000): Quantitative und Qualitative Methoden – kein Gegensatz. In: Flick,
U./von Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek:
Rowohlt, 299-309.
Kelle, U./Kluge, S. (1999): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der quali-
tativen Sozialforschung. Opladen: Leske+Budrich.
Kelle, U./Laurie, H. (1995): Computer Use in Qualitative Research and Issues of Validity. In: Kelle, U.
(Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. London: Sage,
19-28.
254 Literatur

Kelle, U./Laurie, H. (1995): Computer Use in Qualitative Research and Issues of Validity. In: Kelle, U.
(Ed.): Computer-Aided Qualitative Data Analysis: Theory, Methods and Practice. London: Sage,
19-28.
Kelle, U./Zinn, J. (1998): School-to-Work transition and Occupational Careers – Results from a Longi-
tudinal Study in Germany. In: Lange, Th. (Ed.): Understanding the School-to-Work transition. New
York: Nova Science Publishing.
Kelle, Udo (2007): Die Integration qualitativer und quantitativer Methoden. Handlungstheoretische
und methodologische Grundlagen. Wiesbaden: VS.
Kelle, Udo; Lüdemann, Christian (1995): „Grau, teurer Freund, ist alle Theorie...“ Rational Choice und
das Problem der Brückenannahmen. In: Kölner Zeitschrift für Soziologie und Sozialpsycholo-
gie, 47 (2), S. 249-267.
Keller, R. (2005): Wissenssoziologische Diskursanalyse. Grundlegung eines Forschungsprogramms.
Wiesbaden: VS.
Keller, R./Hirseland, A./Schneider, W./Viehöver, W. (2005) (Hrsg.): Die diskursive Konstruktion von
Wirklichkeit. Zum Verhältnis von Wissenssoziologie und Diskursforschung. Wiesbaden: VS.
Kempfert, G./Rolff, H.G. (2000): Pädagogische Schulentwicklung. Ein Arbeitsbuch für Schule und
Unterricht. Weinheim und Basel: Beltz.
Kirk, J./Miller, M. L. (1986): Reliability and Validity in qualitative Research. Beverley Hills: Sage.
Klein, H. (1997): Overview on text analysis software. In: Bandilla, W./Faulbaum, F. (Eds.): SoftStat ‚97
– Advances in Statistical Software. Stuttgart: Lucius & Lucius.
Kleining, G. (1986): Das qualitative Experiment. In: Kölner Zeitschrift für Soziologie und Sozialpsycho-
logie, Vol. 38, 724-750.
Kluge, S. (1999): Empirisch begründete Typenbildung. Zur Konstruktion von Typen und Typologien in
der qualitativen Sozialforschung. Opladen: Leske+Budrich.
Kluge, S./Opitz, D. (1999): Die Archivierung qualitativer Interviewdaten: Forschungsethik und Daten-
schutz als Barrieren für Sekundäranalysen? Soziologie, Mitteilungsblatt der DGS, Nr. 4, 48-63.
Klüver, J. (1979): Kommunikative Validierung. In Th. Heinze (Hrsg.), Lebensweltanalyse von Fernstu-
denten. Fernuniversität Hagen, 68-84.
Köckeis-Stangl, E. (1982): Methoden der Sozialisationsforschung. In: Hurrelmann, K./Ulich, D. (Hrsg.):
Handbuch der Sozialisationsforschung. Weinheim: Beltz, 321-370.
Kolb, D.A. (1984): Experiential Learning, Englewood Cliffs, NJ.
Kolb, D.A. (1999): The Kolb Learning-Style Inventory, Version3. Manual: Boston.
Kowall, S./O’Connell, D. C. (2000): Zur Transkription von Gesprächen. In: Flick, U./von Kardorff,
E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 437-447.
Kromrey, H./Hoffmeyer-Zlotnik, J./Kelle, U. (2000): Validität qualitativer Forschung. Tagung der Sek-
tion Empirische Sozialforschung der Deutschen Gesellschaft für Soziologie, Mannheim, Dezember
2000.
Krüger, H./Born, C. (1991): Unterbrochene Erwerbskarrieren und Berufsspezifik: Zum Arbeitsmarkt-
und Familienpuzzle im weiblichen Lebensverlauf. In: Maxner, K.U./Allmendinger, J./Huinink, J.
(Hrsg.): Vom Regen in die Traufe: Frauen zwischen Beruf und Familie. Frankfurt a.M./New York:
Campus, 142-161.
Kuckartz, U. (1992): Computers and qualitative research: A comparison of the computer software for
qualitative data analysis. In: Faulbaum u.a. (Hrsg.): SOFTSTAT ‚91. Fortschritte der Statistik-
Software 3, 6. Konferenz über die wissenschaftliche Anwendung von Statistik-Software. Stuttgart:
Gustav Fischer.
Kuckartz, U. (1994): Using MAX in surveys: Experiences and New Features. In: Faulbaum, F. (Hrsg.)
SOFTSTAT ‚93. Stuttgart: Gustav Fischer, 377-385.
Kuckartz, U. (1996): MAX für Windows: ein Programm zur Interpretation, Klassifikation und Typen-
bildung. In: Bos, W./Tarnai, Chr. (Hrsg.): Computerunterstützte Inhaltsanalyse in den empirischen
Sozialwissenschaften. Münster/New York: Waxmann, 229-243.
Literatur 255

Kuckartz, U. (1997): A Standardized Text Interchange Format for Computer Programs for Qualitative
Data Analysis. In: Faulbaum, F. (Ed.): SOFTSTAT ‚97, 259-266.
Kuckartz, U. (1999): Computergestützte Analyse Qualitativer Daten. Eine Einführung in die Methoden
und Arbeitstechniken. Opladen: Westdeutscher Verlag.
Kuckartz, U. (2007): Einführung in die computergestützte Analyse qualitativer Daten. 2., aktualisierte
und erw. Aufl., Wiesbaden: VS.
Kuckartz, U./Dresing, T./Rädiker, S./Stefer, C. (2007): Qualitative Evaluation. Der Einstieg in die
Praxis. Wiesbaden: VS.
Kühn, Th./Witzel, A. (2000): Der Gebrauch einer Textdatenbank im Auswertungsprozess problemzen-
trierter Interviews (115 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative Social Re-
search (Online-Journal), 1(3). Verfügbar über: http://www.qualitative-research.net/fqs/fqs.htm
[31.07.2002].
Kvale, S. (1989): To Validate is to Question. In S. Kvale (ed.): Issues of Validity in Qualitative Research.
Lund: Studentlitteratur, 73-92.
Kvale, S. (1995): The Social Construction of Validity. Qualitative Inquiry, 1, 19-40.
Kvale, S. (1995): Validierung: Von der Beobachtung zu Kommunikation und Handeln. In: Flick, U./von
Kardoff, E./Keupp, H./von Rosenstiel, L./Wolff, S. (Hrsg.): Handbuch Qualitative Sozialfor-
schung (2. Aufl). München: PVU, 427-432.
Lakatos, Imre (1982): Die Methodologie der wissenschaftlichen Forschungsprogramme. Philosophische
Schriften, Bd. 1. Wiesbaden: Vieweg.
Lamnek, S. (1988): Qualitative Sozialforschung, Bd.1: Methodologie (1. Aufl.). Weinheim: PVU.
Lamnek, S. (1993): Qualitative Sozialforschung, Bd.1: Methodologie (2. Aufl.). Weinheim: PVU.
Lamnek, S. (1995): Qualitative Sozialforschung, Bd.1: Methodologie (2. Aufl.). Weinheim: PVU.
Laucken, U. (2002): Qualitätskriterien als wissenschaftspolitische Lenkinstrumente (83 Absätze). Forum
Qualitative Sozialforschung/Forum: Qualitative Social Research (On-line Journal), 3(1): Verfügbar
über: http://www.qualitative-research.net/fqs-texte/1-02/1-02laucken-d.htm [20.02.2003].
Laudan, L. (1977): Progress and its Problems. Towards a Theory of Scientific Growth. London and
Henley: Routledge & Kegan Paul.
Lazarsfeld, P. F./Barton, A. H. (1951): Qualitative Measurement in the Social Science. Classification,
Typologies and Indices. In: Lasswell, H.D./Lerner, D.T. (Eds.): Policy Sciences in the United
States. Stanford: University Press, 155-192.
Lee, R. M./Fielding, N. G. (1996): Qualitative Data Analysis: Representations of a Technology: A Com-
ment on Coffey, Holbrook and Atkinson‘ Sociological Research Online Vol. 1, No. 4.
Legewie H. (1987): Interpretation und Validierung biographischer Interviews. In: Jüttemann,
G./Thomae, H. (Hrsg.): Biographie und Psychologie. Berlin: Springer, 138-150.
Legewie, H. (1987): Interpretation und Validierung biographischer Interviews. In G. Jüttemann & H.
Thomae (Hrsg.): Biographie und Psychologie. Berlin, Heidelberg: Springer, 138-150.
Lehmann, A. (1987): Organisieren – Über Erzählen aus der Kriegs- und Nachkriegszeit. In: Der
Deutschunterricht 6, 51-63.
Lienert, G. A. (1969): Testaufbau und Testanalyse. Weinheim, Berlin, Basel: Verlag Julius Beltz
Lienert, G. A./Raatz, U. (1994): Testaufbau und Testanalyse. Weinheim: Psychologie Verlags Union.
Lincoln, Y. S./Denzin, N. K. (1994): The Fifth Moment. In: dies. (Eds.): Handbook of Qualitative Re-
search. London/Thousand Oaks/New Dehli: Sage.
Lincoln, Y. S./Guba, E. G. (1985): Naturalistic Inquiry. Beverly Hills: Sage.
Lincoln, Y. S./Guba, E. G. (1985): Naturalistic Inquiry. London/Thousand Oaks/New Dehli: Sage.
Lindesmith, A. R. (1947/1968): Addiction and Opiates. Chicago: Aldine.
Link, J. (1999): Diskursive Ereignisse, Diskurse, Interdiskurse: Sieben Thesen zur Operativität der Dis-
kursanalyse, am Beispiel des Normalismus. In: Bublitz, Hannelore/Bührmann, Andrea/Hanke,
Christiane/Seier, Andrea (Hrsg.): Das Wuchern der Diskurse. Perspektiven der Diskursanalyse
Foucaults. Frankfurt/M.: Campus, 149-161.
256 Literatur

Link, J. (2005): Warum Diskurse nicht von personalen Subjekten ‚ausgehandelt’ werden. Von der Dis-
kurs- zur Interdiskurstheorie. In: Keller, R./Hirseland, A./Schneider, W./Viehöver, W. (Hrsg.): Die
diskursive Konstruktion von Wirklichkeit: Zum Verhältnis von Wissenssoziologie und Diskursfor-
schung. Konstanz: UVK, 77-99.
Lissmann, U. (2001): Inhaltsanalyse von Texten. Ein Lehrbuch zur computerunterstützten und konven-
tionellen Inhaltsanalyse. Landau: Verlag Empirische Pädagogik.
List, J. (Hrsg.) (1998): TIMSS: Mathematisch-Naturwissenschaftliche Kenntnisse deutscher Schüler auf
dem Prüfstand. Köln: Deutscher Instituts-Verlag
Lucius-Hoene, G./Deppermann, A. (2002): Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur
Analyse narrativer Interviews. Opladen: Leske+Budrich.
Lüders, C. (2000a): Beobachten im Feld und Ethnographie. In: Flick, U./von Kardorff, E./Steinke, I.
(Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 384-402.
Lüders, C. (2000b): Herausforderungen qualitativer Forschung. In: Flick, U./von Kardorff, E./Steinke,
I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 632-643.
Lüders, C. (2004): Herausforderungen qualitativer Forschung. In Flick, U.; Kardorff E. v.; Steinke, I.
(Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbeck: Rowohlt, 632-642.
Lüders, C./Reichertz, J. (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß
warum – Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche
Rundschau, H. 12, 90-102.
Ludwig-Meyerhofer, W. (2003): Zur Qualität der sozialwissenschaftlichen Methodenausbildung – am
Beispiel statistischer Datenanalyse. ZA-Informationen, H. 53, 144-155.
Madill, A./Jordan, A./Shirley, C. (2000): Objectivity and reliability in qualitative analysis: Realist, contex-
tualist and radical constructionist epistemologies. British Journal of Psychology, (91), 1-20.
Mangabeira, W.C. (1996): Computer-Assistance, Qualitative Analysis and „Model Building: Hyper-
Research and Ethno Programs. In: Bandilla, W./Faulbaum, F. (Eds.): SoftStat ’95, 334-343.
Mangold, W. (1960): Gegenstand und Methode des Gruppendiskussionsverfahrens. Frankfurt a.M.: eva.
Manning, K. (1997): Authenticity in Constructivist Inquiry: Methodological Considerations without Pre-
scriptions. Qualitative Inquiry 3, 93-115.
Marotzki, W. (1994): Forschungsmethoden der erziehungswissenschaftlichen Biographieforschung. In
H. H. Krüger/W. Marotzki (Hrsg.) Erziehungswissenschaftliche Biographieforschung. Opladen:
Leske+Budrich, 55-89.
Marotzki, W. (1998): Ethnographische Verfahren in der Erziehungswissenschaftlichen Biographie For-
schung. In: Jüttemann, G./Thomae, H. (Hrsg.): Biographische Methoden in den Humanwissen-
schaften. Weinheim: Beltz, 44-59.
Mayntz, R./Holm, K./Hübner, P. (1969/1978): Einführung in die Methoden der empirischen Soziolo-
gie. Opladen: Westdeutscher Verlag.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung (1. Aufl.). Weinheim: Deutscher Stu-
dien Verlag.
Mayring, P. (1994/1995): Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Deutscher
Studien Verlag.
Mayring, P. (1995): Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Deutscher Stu-
dienverlag.
Mayring, P. (1997): Qualitative Inhaltsanalyse. Grundlagen und Techniken (6. Aufl.). Weinheim: DSV.
Mayring, P. (2000): Qualitative Inhaltsnanalyse. Forum Qualitative Sozialforschung, Online-Journal 1(2).
Verfügbar über: http://qualitative-research.net/fqs/fqs-d/2-00inhalt-d.htm [03.03.2004].
Mayring, P. (2001): Kombination und Integration qualitativer und quantitativer Analyse (31 Absätze).
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research (Online Journal), 2(1). Ver-
fügbar über: http://qualitativeresearchnet/fqs/fqs.htm [03.03.2004].
Mayring, P./Gläser-Zikuda, M. (2005) (Hrsg.): Die Praxis der Qualitativen Inhaltsanalyse. Weinheim:
Beltz.
Literatur 257

MBFJ – Ministerium für Bildung, Frauen und Jugend (2002): Qualitätsentwicklung an Schulen in Rhein-
land-Pfalz. Ministerielle Dienstanweisung.
MBWW – Ministerium für Bildung, Wissenschaft und Weiterbildung (1999): Schule machen, Mainz: Re-
ferat Presse- und Öffentlichkeitsarbeit.
Meinefeld, W. (1985): Die Rezeption empirischer Forschungsergebnisse – eine Frage von Treu und
Glaube? Resultate einer Analyse von Zeitschriftenartikeln. In: Zeitschrift für Soziologie, Jg.15, 297-
314.
Merten, K. (1983): Inhaltsanalyse. Einführung in Theorie, Methode und Praxis. Opladen: Westdeutscher
Verlag.
Merton, R. K. (1968): Social Theory and Social Structure. New York: The Free Press.
Metzger, W. (1982): Möglichkeiten der Verallgemeinerung des Prägnanzprinzips. In: Gestalt Theory,
Vol. 4, No. 1/2, 3-22.
Middleton, D./Edwards, D. (1990): Collectiv Remebering. London: Sage.
Miles, M. B./Huberman, A. M. (1994): Qualitative Data Analysis. An Expanded Sourcebook. 2nd Ed.
Thousand Oaks: Sage.
Miller, D. C./Salkind, N. J. (Eds.) (2002): Handbook of Research Design and Social Measurement. 6th
Edition. Thousand Oaks: Sage.
Mishler E. G. (1990): Validation in inquiry-guided research. The role of exemplars in narrative studies.
Harvard Education Review, 60, 415-442.
Mishler, E.G. (1986): Research Interviewing. Context and Narrative. Cambridge, Ma.: Harvard Univer-
sity Press.
Mohler, P.Ph. (1981): Zur Pragmatik qualitativer und quantitativer Sozialforschung. In: Kölner Zeit-
schrift für Soziologie und Sozialpsychologie, Jg.33, 716-734.
Moller, S. (2003): Vielfache Vergangenheit. Öffentliche Erinnerungskulturen und Familienerinnerungen
an die NS-Zeit in Ostdeutschland. Tübingen: edition diskord.
Morse, J.M. (1999a): Myth #93: Reliability and Validity are not relevant for qualitative inquiry – Edito-
rial. Qualitative Health Research, (9), 717-718.
Morse, J.M. (1999b): Qualitative Generalizability – Editorial. Qualitative Health Research, (9), 5-6.
Moseley, L.G./Mead, D.M./Murphy, F. (1997): Applying lexical and semantic analysis to the explora-
tion of free-text data. Nurse Researcher, 4(3), 46-68.
Mruck, K. (2000): Qualitative Sozialforschung in Deutschland (54 Absätze). Forum Qualitative Sozial-
forschung/Forum Qualitative Social Research (On-line Journal), 1(1). Verfügbar über:
http://qualitative-research.net/fqs [31.07.2002].
Muhr, T. (2000): Forum: Increasing the Reusability of Qualitative Data with XML: Forum Qualitative
Sozialforschung/Forum Qualitative Social Research (On-line Journal), 3(2). Verfügbar über:
http://www.qualitative-research.net/fqs/fqs-eng.htm [31.07.2002].
Müller-Benedict, V. (1998): Der Einsatz von Maßzahlen der Intercoder-Reliabilität in der Inhaltsanalyse.
Zeitschrift für Soziologie der Erziehung und Sozialisation, 1, 105.
Mummendey, A./Otten, S. (2002): Theorien intergruppalen Verhaltens. In: Frey, I./Irle, M. (Hrsg.):
Theorien der Sozialpsychologie Bd. II. Bern: Huber, 95-119.
Niethammer, L. (1990): Juden und Russen im Gedächtnis der Deutschen. In: Pehle, Walter H. (Hrsg.):
Der historische Ort des Nationalsozialismus. Frankfurt a.M.: Fischer, 114-134.
NIH (2001): Office of Behavioral and Social Sciences Research des National Institutes of Health (Ed.):
Qualitative Methods in Health Research – Opportunities and Considerations In Application and
Review.
Oevermann, U./Allert, T./Konau, E./Krambeck, J. (1979): Die Methodologie einer objektiven Herme-
neutik und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner,
H.-G. (Hrsg.): Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler,
352-434.
Padover, S. K. (1999): Lügendetektor – Vernehmungen im besiegten Deutschland. Frankfurt/M.: Eich-
Born.
258 Literatur

Peck, E./Secker, J. (1999): Quality Criteria for Qualitative Research: Does Context Make a Difference?
Qualitative Health Research, (9), 552-558.
Plaß, C./Schetsche, M. (2000): The Analysis and Archiving of Heterogeneous Text Documents: Using
Support of the Computer Program NUD*IST 4 (21 paragraphs). Forum Qualitative Sozialfor-
schung/Forum: Qualitative Social Research (On-line Journal), 1(3). Verfügbar über:
http://www.qualitative-research.net/fqs-texte/3-00/3-00plassschetsche-e.htm [20.03.2007].
Pollock, F. (1955): Gruppenexperiment. Ein Studienbericht. Bearbeitet von Friedrich Pollock. Frankfurt
a.M.: eva.
Popper, K. R. (1989b): Logik der Forschung. 9. verbesserte Aufl. Tübingen: J.C.B. Mohr (erstmals er-
schienen 1934).
Popper, K.R. (1989a): Grundprobleme der Erkenntnislogik. Zum Problem der Methodenlehre. In:
Skirrbeck, G. (Hrsg.): Wahrheitstheorien. Eine Auswahl aus den Diskussionen über Wahrheit im
20. Jahrhundert. Frankfurt/M.: Suhrkamp, 109-139.
Prein, G./Kelle, U./Bird, K. (1995): An Overview of Software. In: Kelle, U. (Ed.) (1995): Computer-
Aided Qualitative Data Analysis. Theory, Methods and Practice. London: Sage.
Rehberg, K.-S. (2003): Zu aktuellen Fragen der Studienreform und Lehrgestalt der Soziologie. In: Orth,
B./Schwietring, Th./Weiß, J. (Hrsg.): Soziologische Forschung. Stand und Perspektiven. Opladen:
Leske+Budrich, 17-26.
Reichenbach, H. (1983): Erfahrung und Prognose (Gesammelte Werke, Bd. 4). Herausgegeben von
Kamlah, A./Reichenbach, M.: Braunschweig: Vieweg (erstmals erschienen 1938 unter dem Titel:
Experience and Prediction).
Reicher, S. (2000): Against methodolatry: Some comments on Elliot, Fischer and Rennie. British Journal
of Clinical Psychology, (39), 11-26.
Reichertz, J. (2000): Objektive Hermeneutik und hermeneutische Wissenssoziologie. In: Flick, U./von
Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 514-
524.
Reid, A. D./Gough, S. R. (2000): Guidelines for Reporting and Evaluating Qualitative Research: what
are the alternatives? Environmental Education Research, H.1, 59-91.
Reinmann-Rothmeier, G. (2003): Didaktische Innovation durch Blended Learning. Leitlinien anhand
eines Beispiels aus der Hochschule. Bern u.a.: Huber.
Reinmann-Rothmeier, G./Mandl, H. (2001): Unterrichten und Lernumgebungen gestalten. In: Krapp,
A./Weidenmann, B. (Hrsg.): Pädagogische Psychologie. Weinheim, 601-646.
Reinmann-Rothmeier, G./Mandl, H. (2001): Virtuelle Seminare in Hochschule und Weiterbildung. Drei
Beispiele aus der Praxis. Bern: Huber.
Richards, T./Richards, L. (1994): Creativity in Social Sciences: the computer enhancement of qualitative
data analysis. In: Dartnall, T. (Ed.): Artificial Intelligence and Creativity. An Interdisciplinary Ap-
proach. Kluwer: Dordrecht, 365-383.
Richardson, L. (1994): Writing. A Method of Inquiry. In Denzin, N. K./Lincoln, Y. S. (Eds): Handbook
of Qualitative Research. Thousand Oaks: Sage, 516-529.
Roberts, K. A./Wilson, R. W. (2002): ICT and the Research Process: Issues Around the Compatibility
of Technology with Qualitative Data Analysis (52 paragraphs). Forum Qualitative Sozialfor-
schung/Forum: Qualitative Social Research (On-line Journal), 3(2). Verfügbar über:
http://www.qualitative-research.net/fqs-texte/2-02/2-02robertswilson-e.htm [31.07.2002].
Sahner, H. (1979): Empirische Sozialforschung. Ein Instrument zur Bestätigung der Vorurteile des For-
schers? Eine Analyse veröffentlichter empirischer Sozialforschung. In: Zeitschrift für Soziologie, Jg.
8, 267-278.
Schäfer, M. (2004): Lernstile und e-Learning: Entwicklung und Erprobung eines Kategoriensystems zur
Analyse von Lernstilen in problemorientierten virtuellen Seminaren. Unveröffentlichte Diplom-
arbeit: Bergische Universität Wuppertal.
Scheele, B./Groeben, N. (1988): Dialog-Konsens-Methoden zur Rekonstruktion Subjektiver Theorien.
Münster: Aschendorff.
Literatur 259

Scheele, B./Groeben, N. (1988): Dialog-Konsens-Methoden zur Rekonstruktion Subjektiver Theorien.


Tübingen: Francke.
Schütze, F. (1994): Ethnographie und sozialwissenschaftliche Methoden der Feldforschung. In: Grod-
deck, N./Schmann, M. (Hrsg.): Modernisierung Sozialer Arbeit durch Methodenentwicklung und -
reflexion. Freiburg: Lambertus, 189-288.
Scott, W. (2000): Editorial. Environmental Education Research, H. 1, 5-8.
Seale, C. (1999a): The Quality of Qualitative Research. London: Sage.
Seale, C. (1999b): Quality in Qualitative Research. Qualitative Inquiry, (5), 465-478.
Seale, C./Silverman, D. (1997): Ensuring rigour in qualitative research. European Journal of Public
Health, H.7, 379-384.
Seidel, J. (1991): Method and Madness in the Application of Computer Technology to Qualitative Data
Analysis. In: Fielding, N.G./Lee, R.M. (Eds.): Using computers in qualitative research. London: Sa-
ge, 107-116.
Seipel, C./Rieker, P. (2003): Integrative Sozialforschung. Konzepte und Methoden der qualitativen und
quantitativen empirischen Sozialforschung. Weinheim: Juventa.
Selting, M. et al. (1998): Gesprächsanalytisches Transkriptionssystem. In Linguistische Berichte 173, 91-
122.
Smith R.B. (1987): Linking quality and quantity. Part I. Understanding/explanation. In: Quality & Quan-
tity, Vol. 21, 291-311.
Smith R.B. (1988): Linking quality and quantity. Part II. Surveys as formalizations. In: Quality & Quan-
tity, Vol. 22, 3-30.
Smith-Sebasto, N.J. (2000): Potential Guidelines for Conducting and Reporting Environmental Educa-
tion Research: qualitative methods of inquiry. Environmental Education Research, H.1, 9-26.
Soeffner, H.-G. (2000): Sozialwissenschaftliche Hermeneutik. In: Flick, U./von Kardorff, E./Steinke, I.
(Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 164-175.
Steinke, I. (1999): Kriterien qualitativer Forschung. Ansätze zur Bewertung qualitativ-empirischer So-
zialforschung. Weinheim: Juventa Verlag.
Steinke, I. (2004) Gütekriterien qualitativer Forschung. In Flick, U.; E.v. Kardorff; Steinke, I. (Hrsg.):
Qualitative Forschung. Ein Handbuch. (S. 319-331) Reinbek: Rowohlt.
Strauss, A. L. (1968): Spiegel und Masken. Die Suche nach Identität. Frankfurt/M.: Suhrkamp
(erstmals erschienen 1959 unter dem Titel: Mirrors and Masks. The Search for Identity).
Strauss, A. L. (1970): Discovering New Theory from previous Theory. In: Shibutani, T. (Hrsg.):
Human Nature and Collective Behavior: Papers in Honor of Herbert Blumer. Englewood Cliffs:
Prentice Hall. S. 46-53.
Strauss, A. L. (1987): Qualitative analysis for social scientists. Cambridge/New York u.a.: Cambridge
University Press.
Strauss, A. L. (1987/1991): Grundlagen qualitativer Sozialforschung. Datenanalyse und Theoriebildung
in der empirischen soziologischen Forschung. München: Fink. (Die amerikanische Ausgabe er-
schien erstmals 1984).
Strauss, A. L. (1998, 1994): Grundlagen qualitativer Sozialforschung. Datenanalyse und Theoriebildung
in der empirischen und soziologischen Forschung. München: Fink.
Strauss, A. L./Corbin, J. (1990): Basics of qualitative Research. Grounded theory procedures and tech-
niques. Newbury Park: Sage.
Strauss, A. L./Corbin, J. M. (1996): Grounded Theory. Grundlagen qualitativer Sozialforschung. Wein-
heim: Beltz.
Strübing, J. (2004): Grounded theory. Zur sozialtheoretischen und epistemologischen Fundierung des
Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden: VS.
Svederberg, E. (2001): Consumers‘ views regarding health claims on food packages. Contextual analysis
by means of computer support (48 paragraphs). Forum Qualitative Sozialforschung/Forum Quali-
tative Social Research (On-line Journal), 3(1). Verfügbar über: http://www.qualitative-
research.net/fqs/fqs-eng.htm [31.07.2002].
260 Literatur

Tashakkori, A./Teddlie, C. (1998): Mixed Methodology. Combining Qualitative and Quantitative Ap-
proaches. Thousand Oaks: Sage.
Tashakkori, A./Teddlie, C. (2003): Handbook of Mixed Methods in Social and Behavioral Reserach.
Thousand Oaks: Sage.
Taylor, S. E./Crocker, J. (1981): Schematic bases of social information processing. In: Higgins,
E.T./Herman, P./Zanna, M. (Eds.): Social cognition: The Ontario Symposium, Vol. 1. Hillsdale:
Erlbaum.
Terhart, E. (1981): Intuition – Interpretation – Argumentation. Zum Problem der Geltungsbegründung
von Interpretationen. Zeitschrift für Pädagogik, 27, 769-793.
Tesch, R. (1990): Qualitative research. Analysis types and software tools. New York: Falmer Press.
Tillmann, K.-J. (1994) (Hrsg.): Was ist eine gute Schule? Hamburg: Bergmann + Helbig.
Waldschmidt, A./Klein, A./Tamayo Korte, M./Dalman, S. (2006a): Ist “Bioethik” ein “Diskurs”?
Methodologische Reflexionen am Beispiel des Internetforums 1000 Fragen zur Bioethik. In: Ker-
chner, B./Schneider, S. (Hrsg.): Diskursanalyse der Politik. Eine Einführung. Wiesbaden: VS, 191-
209.
Waldschmidt, A./Klein, A./Tamayo Korte, M./Dalman, S./Pilot, A. (2006b): Dritter Zwischenbericht
zum Forschungsprojekt 1000fragen.de. Ein Online-Diskurs zur Bioethik. Auswertung der Ergeb-
nisse aus partizipationstheoretischer und wissenssoziologischer Sicht. Köln (Univ. zu Köln).
Watzlawick, P./Beavin, J./Jackson, D. D. (Hrsg.) (2000): Menschliche Kommunikation. Formen, Stö-
rungen, Paradoxien. Bern: Huber.
Webb, Chr. (1999): Analysing qualitative data: computerised and other approaches. Journal of Advanced
Nursing, 29(2), 323-330.
Webb, E. J. et al. (1966): Unobstrusive Measures: Nonreactive Research in the Social Sciences. Chicago:
Rand McNally.
Weitzman, E. A. (2000): Software and Qualitative Research. In: Denzin, N.K./Lincoln, Y.S. (Eds.):
Handbook of qualitative research. Thousand Oaks: Sage.
Weitzman, E. A./Miles, M. B. (1995): A Software Source Book: Computer Programs for Qualitative
Data Analysis. Thousand Oaks: Sage.
Welsh, E. (2002): Dealing with Data: Using NVivo in the Qualitative Data Analysis Process (12 para-
graphs). Forum Qualitative Sozialforschung/Forum Qualitative Social Research (On-line Journal),
3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm [31.07.2002].
Welzer, H. (1990): Von Fehlern und Daten. Zur Rolle des Forschers im interpretativen Paradigma. Psy-
chologie und Gesellschaftskritik, 14, 2/3, 153-174.
Welzer, H. (1993): Transitionen. Zur Sozialpsychologie biographischer Wandlungsprozesse. Tübingen:
edition diskord.
Welzer, H. (1995): „Ist das ein Hörspiel?“ Methodologische Anmerkungen zur interpretativen Sozialfor-
schung. Soziale Welt, 2, 182-196.
Welzer, H. (1998): Hermeneutische Dialoganalyse. Psychoanalytische Epistemologie in sozialwissen-
schaftlichen Fallanalysen. In: Gerd Kimmerle (Hrsg.), Zur Theorie der psychoanalytischen Fallge-
schichte. Tübingen: edition diskord, 111-138.
Welzer, H. (2000): Das Interview als Artefakt. Zur Kritik der Zeitzeugenforschung. BIOS, 1, 51-63.
Welzer, H. (2002): Das kommunikative Gedächtnis. Eine Theorie der Erinnerung. München: Beck.
Welzer, H./Moller, S./Tschuggnall, K. (2002): „Opa war kein Nazi“. Nationalsozialismus und Holo-
caust im Familiengedächtnis. Frankfurt a.M.: Fischer.
Welzer, H./Montau, R./Plaß, C. (1997): „Was wir für böse Menschen sind!“ Der Nationalsozialismus
im Gespräch zwischen den Generationen. Tübingen: edition diskord.
Wenzler-Cremer, H. (2006): Bikulturelle Sozialisation als Herausforderung und Chance. Verfügbar über:
http://www.freidok.uni-freiburg.de/volltexte/2267 [02.02.2006].
Widmer, T. (2004): Qualität der Evaluation – Wenn Wissenschaft zur praktischen Kunst wird. In R.
Stockmann (Hrsg.) Evaluationsforschung. Grundlagen und ausgewählte Forschungsfelder. Opla-
den: Leske+Budrich, 83-109.
Literatur 261

Witzel, A./Helling, V./Mönnich, I. (1996): Die Statuspassage in den Beruf als Prozess der Reproduktion
sozialer Ungleichheit. In: Bolder, A./Heinz, W.R./Rodax, K. (Hrsg.): Die Wiederentdeckung der
Ungleichheit. Tendenzen in Bildung und Arbeit. Opladen: Leske+Budrich.
Wolcott, H. F. (1990): On seeking – and rejecting – validity in qualitative research. In: Eisner, E.
W./Peshkin, A. (eds.): Qualitative inqiury in education. The continuing debate. New York; London:
Teachers Colege Press, Columbia University, 121-152.
Yardley, L. (2000): Dilemmas in Qualitative Health Research. Psychology and Health, (15), 215-228.
Zimbardo, P. G. (1995): Psychologie. Berlin u.a.: Springer.
Znaniecki, F. (2004): Analytische Induktion in der Soziologie. In: Strübing, J./Schnettler, B. (Hrsg.): Me-
thodologie interpretativer Sozialforschung – Klassische Grundlagentexte. Konstanz, UVK/UTB,
265-319.
Züll, C./Harkness, J./Hoffmeyer-Zlotnik, J. (Hrsg.) (1996): Text Analysis and Computers. ZUMA-
Nachrichten Spezial: Mannheim.
Züll, C./Mohler, P. (Hrsg.) (1992): Textanalyse, Anwendungen der computergestützten Inhaltsanalyse,
Opladen: Westdeutscher Verlag.
Autoren

Dr. Thorsten Dresing Prof. Dr. Udo Kelle


Institut für Erziehungswissenschaft Institut für Soziologie
der Philipps-Universität Marburg Philipps-Universität Marburg
Bei St. Jost 15, 35032 Marburg Ketzerbach 11, 35032 Marburg
dresing@staff.uni-marburg.de kelle@staff.uni-marburg.de

Prof. Dr. Uwe Flick Dipl.-Soz.-Wiss. Torsten Koch


Alice-Salomon-Hochschule Inst. für Soziologie u. Sozialpsychologie
University of Applied Sciences Fach Sozialpsychologie
Alice-Salomon-Platz 5, 12627 Berlin Universität Hannover
flick@asfh-berlin.de Im Moore 21, 30167 Hannover
torsten.koch@sozpsy.uni-hannover.de
Dipl.-Soz., Dipl.-Päd.
Heiko Grunenberg Prof. Dr. Udo Kuckartz
Institut für Umweltkommunikation Abteilung für Empirische Pädagogik
Universität Lüneburg Institut für Erziehungswissenschaft
Scharnhorststraße 1, 21332 Lüneburg der Philipps-Universität Marburg
grunenberg@uni-lueneburg.de Bei St. Jost 15, 35032 Marburg
kuckartz@staff.uni-marburg.de
Dipl.-Päd. Peter Herrgesell www.empirische-paedagogik.de
Aufsichts- und Dienstleistungsdirektion
Rheinland-Pfalz, Dipl.-Päd. Stefan Rädiker
Pastor-München-Str. 14 Institut für Erziehungswissenschaft
54662 Speicher der Philipps-Universität Marburg
herrgesell@aol.com Bei St. Jost 15, 35032 Marburg
raediker@staff.uni-marburg.de
Dr. Olaf Jensen
School of Historical Studies Dipl.-Päd. Claus Stefer
University of Leicester, University Institut für Erziehungswissenschaft
Road, Leicester LE1 7RH, UK der Philipps-Universität Marburg
oj6@le.ac.uk Bei St. Jost 15, 35032 Marburg
stefer@staff.uni-marburg.de
Autoren 263

Dr. Ines Steinke Dr. Hildegard Wenzler-Cremer


Generation Consulting GmbH Institut für Psychologie, Abteilung So-
Baaderstrasse 17, 80469 München zialpsychologie
info@generacon.com Pädagogische Hochschule Freiburg
Kunzenweg 21, 79117 Freiburg
Dipl.-Soz. Miguel Tamayo Korte wenzlerc@ph-freiburg.de
Soziologie in der Heilpädagogik
Universität zu Köln
Linienstr. 50, 40227 Düsseldorf
miguel.tamayo@gmx.de
www.hrf.uni-koeln.de/bioethik.php

Das könnte Ihnen auch gefallen