Sie sind auf Seite 1von 37

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/300728277

Die vergleichende Methode als Forschungsansatz

Chapter · April 2013


DOI: 10.1007/978-3-658-00384-5_5

CITATIONS READS

0 21,568

1 author:

Ralf Nordbeck
University of Natural Resources and Life Sciences Vienna
57 PUBLICATIONS   506 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Regioflood - Regional Floodplain Management and Risk Transfer Mechanisms: assessing options for climate adaptation View project

INNOCHEM View project

All content following this page was uploaded by Ralf Nordbeck on 29 July 2019.

The user has requested enhancement of the downloaded file.


Abschnitt 3 – Forschungsdesign

Mit dem Begriff Forschungsdesign wird der Vorgang der empirischen Überprüfung theore-
tischer Hypothesen bezeichnet (Atteslander 2008: 44). Dies beinhaltet zum einen die Aus-
wahl der Untersuchungsmethoden und Erhebungsinstrumente und zum anderen die Gegen-
standsbenennung und die Definition von Begriffen, Variablen und Indikatoren. Es handelt
sich also um einen Übersetzungsvorgang, bei dem die relevanten Begriffe operationalisiert
werden und sich durch die Festlegung des Merkmals- oder Variablenkatalogs eine empiri-
sche Konkretisierung und Umsetzung der einzelnen Fragestellungen ergibt, die durch die
Untersuchung angegangen werden sollen. Operationalisierung heißt, dass man die theoreti-
schen Begriffe durch konkrete Indikatoren und Merkmale (bzw. Variablen) zu fassen ver-
sucht. Durch die entsprechenden Merkmale wird letztlich bestimmt, welche Daten erhoben
werden müssen, um die Überprüfung der forschungsleitenden Hypothesen zu ermöglichen
(Atteslander 2008: 274).
Dieser dritte Abschnitt gliedert sich dementsprechend in zwei Kapitel. Das erste Kapi-
tel ist den Untersuchungsmethoden gewidmet und präsentiert die vergleichende Methode
als Forschungsansatz (Kapitel 5). Die Schwerpunkte des Kapitels liegen auf der Darstellung
von unterschiedlichen Forschungsstrategien einerseits und von verschiedenen Methoden
des konfigurativen und fallinternen Vergleichs andererseits. Letzteres beinhaltet insbeson-
dere eine Darstellung und Einführung in die unterschiedlichen Varianten der Qualitativen
Komparativen Analyse (QCA). Das zweite Kapitel operationalisiert das im vorangegange-
nen zweiten Abschnitt entwickelte analytische Konzept der Untersuchung (Kapitel 6). Es
umfasst neben der Begründung für die Fallauswahl und dem eigentlichen Operationalisie-
rungsvorgang auch ein Unterkapitel zu den Methoden der Datenerhebung.

5 Die vergleichende Methode als Forschungsansatz


Die Vergleichende Politikwissenschaft ist häufig als Königsweg des Faches bezeichnet
worden. Zum einen weil sie auf eine lange Tradition zurückblicken kann, die bis zu Auto-
ren wie Thukydides und Aristoteles reicht, und zum anderen, weil die ihr innewohnende
methodische Perspektive den Forscher in die Lage versetzt, die eigenen politischen Ver-
hältnisse kritisch am Beispiel anderer Länder zu überprüfen und zu allgemein gültigen
Aussagen zu gelangen (Berg-Schlosser u. Müller-Rommel 2003: 13). Viele Autoren sehen
daher den Vergleich als eine unabdingbare Basis für die Erforschung des Politischen und
zugleich die zentrale Erkenntnismethode: „The proper study of politics requires systematic
comparison“ (Lichbach u. Zuckerman 1997: 5).
Das Vergleichen an sich stellt dabei noch kein methodisches Vorgehen dar. Auch im
Alltag vergleichen wir ständig. Im Gegensatz zum Vergleich im Allgemeinen, kann die
vergleichende Methode zu generalisierbaren Ergebnissen gelangen, indem sie aufgestellte
Hypothesen empirisch überprüft. Vergleich als Methode bedeutet, dass der Vergleich nicht

R. Nordbeck, Internationaler Politiktransfer und nationaler Politikwandel,


DOI 10.1007/978-3-658-00384-5_5, © Springer Fachmedien Wiesbaden 2013
110 Forschungsdesign

unreflektiert durchgeführt wird, sondern ein logisches Vorgehen zugrunde liegt. Durch den
Vergleich soll überprüft werden, ob eine Generalisierung über mehrere Fälle hinweg stand-
hält. Der Vergleich ist also nicht das Ziel, sondern vielmehr Mittel zum Zweck (Jahn 2006:
164). Dementsprechend besteht die vergleichende Forschung laut Przeworski (1987: 35)
nicht aus Vergleichen, sondern aus Erklärungen. Durch Vergleiche wird getestet, ob etab-
lierte Erklärungen sich bewähren oder modifiziert werden müssen. Vergleichen als Metho-
de bedeutet in diesem Sinne, dass man den Vergleich zur Kontrolle verwendet (Sartori
1994: 16). Diese Kontrollfunktion macht den Vergleich zu einem wissenschaftlichen In-
strument.
Allgemein gilt, dass der Gegenstandsbereich der vergleichenden Politikwissenschaft
das Politische ist, also öffentliche mit Legitimität verbundene Entscheidungen. Der Ver-
gleich kann sich dabei auf sehr unterschiedliche Gegenstandsbereiche beziehen, zum Bei-
spiel auf die sozio-politischen Rahmenbedingungen von Staaten und Nationen, die politi-
schen Institutionen (Regierungsformen, Verfassungen oder Wahlsysteme), politische Pro-
zesse (Parteien, Verbände, Interessenvermittlung, Regimewechsel) oder Politikfelder (Sozi-
alpolitik, Wirtschaftspolitik, Umweltpolitik) (siehe Jahn 2006: 35ff.). Entscheidend ist, so
wird immer wieder mit einer Volksweisheit gemahnt, dass nicht Äpfel mit Birnen vergli-
chen werden. Dies führt zu der Frage, wann es sich bei den Untersuchungsgegenständen im
übertragenden Sinne um Äpfel und Birnen handelt. Gemeint ist, dass sich zwei Untersu-
chungsgegenstände in ihren Eigenschaften und Charakteristika völlig unterscheiden. Ein
Vergleich ist in diesem Fall genauso sinnlos, wie zwei völlig identische Gegenstände mit-
einander zu vergleichen. Sinnvolle Vergleiche beinhalten demnach Fälle, deren Eigenschaf-
ten zum Teil gleich sind und bei anderen Eigenschaften nicht gleich sind (Sartori 1994: 17).
Ob Untersuchungsgegenstände vergleichbar sind, hängt also vom Erkenntnisziel und den
Vergleichskriterien ab (Abromeit u. Stoiber 2006: 19). Vergleiche „hinken“ dementspre-
chend, wenn die Vergleichskriterien beliebig gewählt und nicht aus dem Erkenntnisziel
abgeleitet sind oder wenn die Kriterien nicht für alle Fälle gleichermaßen relevant sind.
Schwieriger als die voran gegangenen Fragen, warum und was wir vergleichen, ist die
Frage zu beantworten wie wir vergleichen. Ganz grundlegend hängt die Vorgehensweise
vom Erkenntnisziel ab. Die gewünschte Erkenntnis bestimmt die Wahl der Vergleichskrite-
rien und der Variablen, und diese wiederum bestimmen die Auswahl der passenden Metho-
den (Abromeit u. Stoiber 2006: 26). Die Unterscheidung zwischen idiographischem und
nomothetischem Vorgehen führt in den Sozialwissenschaften zu zwei unterschiedlichen
Erkenntnisinteressen: dem Verstehen und dem Erklären (Smelser 1976). Erklären und Ver-
stehen sind zwei Begriffe, die seit dem 19. Jahrhundert die methodologische Diskussion der
Sozialwissenschaften bestimmen. Sie sind zugleich Ausdruck verschiedener Denktraditio-
nen (naturwissenschaftlich vs. geisteswissenschaftlich) und verschiedener Auffassungen
vom Objektbereich (Objekt vs. Subjekt) (Lamnek 2005: 243). Die ideographische For-
schungspraxis zielt darauf ab, den Forschungsgegenstand (soziales Handeln) im Lichte der
Intentionen des Handelnden zu rekonstruieren, den Sinnzusammenhang aufzuzeigen und
damit „verstehbar“ zu machen (Schnell, Hill u. Esser 1999: 88). Verstehen heißt hierbei,
dass Deutungshypothesen im Sinne des interpretativen Paradigmas anhand bewährter Prüf-
kriterien auf ihre Gültigkeit hin überprüft werden (Jahn 2006: 162). Hierzu dient das her-
meneutische Verfahren, dessen Eigenart es ist, dass es unmittelbar mit den Erfahrungen des
Forschers zusammenhängt und sich zumindest teilweise intersubjektiven Prüfverfahren
entzieht. Soziale Realität wird dabei als soziales Konstrukt aufgefasst und interpretiert. Der
Die vergleichende Methode als Forschungsansatz 111

Verstehensansatz geht davon aus, dass die Zugehörigkeit des Forschers zum untersuchten
Gegenstandsbereich und die symbolische Strukturierung des Objektbereichs ein anderes
wissenschaftliches Vorgehen voraussetzt als die in den Naturwissenschaften betriebene
Form der Erklärung. Verstehendes Nachvollziehen der Sinngehalte menschlicher Äußerun-
gen und Handlungen steht hier für analytische Zerlegung und theoretische Erklärung (Lam-
nek 2005: 79).
Die moderne Politikwissenschaft begnügt sich jedoch in der Regel nicht mit der indi-
vidualisierenden Beschreibung von Eigentümlichkeiten spezieller, vielleicht einzigartiger
Phänomene und Ereignisse. Sie sucht darüber hinaus nach allgemein gültigen Gesetz- oder
Regelmäßigkeiten, mit denen nicht nur die gegenwärtigen Fälle erklärt, sondern auch zu-
künftige vorausgesagt werden können (Berg-Schlosser u. Stammen 1992: 121). Mit Erklä-
rung ist dabei die logische Ableitung eines Satzes aus singulären Randbedingungen und
allgemeinen Aussagen, im besten Fall (Kausal-) Gesetzen, gemeint (Jahn 2006: 161). Das
nomothetische Vorgehen besteht also darin, auf der Basis des empirischen Materials Hypo-
thesen als Verallgemeinerungen und Zusammenfassung der gemachten Beobachtungen
aufzustellen und diese dann noch allgemeiner in Theorien zu fassen. Beim deduktiv-
nomologischen Modell von Hempel (1977) wird von einer Hypothese ausgegangen, die
sich von einer Theorie ableiten lässt. Aus allgemeinen (nomologischen) Gesetzen wird ein
beobachteter Sachverhalt erklärt, indem man die Erklärung in einem Explanans-
Explanandum-Modell logisch ableitet (deduziert). Allerdings sind in den Sozialwissen-
schaften die deduktiven Schlüsse meist nicht deterministisch (trifft immer zu), sondern
lediglich probalistisch (trifft meistens zu). Dies liegt zum einen daran, dass sozialwissen-
schaftliche Erklärungen zumeist nicht monokausal sind, sondern eine Fülle von Ursachen
und Interaktionen umfassen, zum anderen, weil handelnde Akteure bewusst oder unbewusst
gegen „soziale Regeln“ verstoßen (Jahn 2006: 162). Die Folge ist, dass sozialwissenschaft-
liche Aussagen abgeschwächt werden müssen, und Hypothesen als relative wenn-dann-
Aussagen entstehen (wenn Bedingung A, dann meistens Ereignis X).
In Anlehnung an Smelser (1976: 204) lassen sich das idiographische und nomothe-
tische Vorgehen in ihren grundsätzlichen Positionen wie folgt darstellen:

Tabelle 10: Grundprinzipien idiographischer und nomothetischer Forschung


Idiographisches Vorgehen („Verstehen“) Nomothetisches Vorgehen („Erklären“)
Wenige Fälle Viele Fälle
Verstehen des Falles, oftmals ohne Kausalitäten zu Erklärendes Vorgehen; an Kausalitäten interessiert; Bezug
ermitteln auf Variablen
Am Einzelfall interessiert, Erklärungen zielen Ermittlung von allgemein gültigen Aussagen; Fokus auf
darauf ab, warum ein Ereignis eingetreten ist oder statistische Zusammenhänge zwischen Ursache und Wir-
nicht kung
Integration von vielen Faktoren, die unterschiedli- Versucht möglichst klare Kausalbeziehungen darzustellen,
chen wirken können die prinzipielle Gültigkeit besitzen
Kontrolle über die Variablen erfolgt durch Wissen, Kontrolle durch Kovarianz und partielle Korrelation
welches jenseits der Untersuchung zu suchen ist
(Theorie, hypothetisches Gedankenexperiment
Beobachtung von vielen Aspekten Quantitative Erfassung von Indices und metrischen Werten

Quelle: Jahn: 2006: 163


112 Forschungsdesign

Der Gegensatz zwischen dem idiographischen und dem nomothetischen Verfahren ist in der
modernen Politikwissenschaft nicht mehr so ausgeprägt und wirkt nicht mehr so polarisie-
rend wie es häufig in der Vergangenheit der Fall war. Es wird mittlerweile anerkannt, dass
beide Verfahren ihre Berechtigung haben und sich sogar ergänzen können (Bennet 2004).
Dennoch hilft uns die analytische Unterscheidung bei der näheren Beschreibung der ver-
gleichenden Politikwissenschaft. So gilt in der vergleichenden Politikwissenschaft tenden-
ziell die Teilung zwischen Regionalforschern, die empirisch-historisch (idiographisch)
arbeiten, und Komparativisten, die empirisch-analytisch (nomothetisch) vorgehen. Je stär-
ker das Auffinden von allgemein gültigen Aussagen im Zentrum der Analyse steht, desto
geringer ist die Bedeutung der Untersuchungsfälle. Der Vergleich als nomothetisches Ver-
fahren rückt Variablen und deren Beziehungen zueinander in den Vordergrund und ver-
nachlässigt die Besonderheiten der Untersuchungsfälle. Insgesamt neigt die vergleichende
Politikwissenschaft stärker zum nomothetischen Vorgehen als zum idiographischen, umso
mehr, wenn sie auf der vergleichenden Methode aufbaut. Fallorientierte Studien hingegen
sind eher idiographisch und weniger nomothetisch angelegt. Fallstudien stehen daher mehr
als andere Methoden der Politikwissenschaft vor dem Dilemma, einerseits dem individuel-
len Untersuchungsgegenstand gerecht zu werden, andererseits die analytischen Variablen
systematisch zu erfassen und somit einen sinnvollen Vergleich mit anderen Fällen zu er-
möglichen (Berg-Schlosser u. Stammen 1992: 132).
Das Dilemma zwischen der Konzentration auf Variablen (nomothetisch) oder Fälle
(idiographisch) ist in der vergleichenden Politikwissenschaft daher besonders prekär. Einer-
seits müssen die Aussagen vom Fall abstrahieren, um nomothetische Aussagen treffen zu
können, andererseits stellen Fälle bedeutende Elemente in der vergleichenden Politikwis-
senschaft dar, so dass zumindest auf deren abweichende Besonderheiten idiographisch
eingegangen werden muss (Jahn 2006: 166). Lösungen für dieses Problem ergeben sich
durch die Verwendung unterschiedlicher Analysestrategien der vergleichenden Politikwis-
senschaft, welche im nächsten Kapitel ausführlich dargestellt werden.

5.1 Ansätze des Vergleichens in der Politikwissenschaft


Das Interesse an den Methoden der vergleichenden Politikwissenschaft ist gegenwärtig
auf einem Höhepunkt. In den vergangenen Jahren ist eine Vielzahl von Büchern und Zeit-
schriftenbeiträgen erschienenen, die sich mit den vergleichenden Analysestrategien befas-
sen (siehe unter anderem King, Keohane u. Verba 1994; Ragin 2000; Berg-Schlosser u.
Müller-Rommel 2003; Mahoney u. Rueschemeyer 2003; Brady u. Collier 2004; George u.
Bennett 2005; Jahn 2006; Blatter, Janning u. Wagemann 2007).
Den Ausgangspunkt für eine Klassifikation der verschiedenen Methoden markieren
die klassischen Arbeiten von Kalleberg (1966), Verba (1967), Lasswell (1968), Przeworski
und Teune (1970), Sartori (1970), Lijphart (1971, 1975), Eckstein (1975), Smelser (1976)
und zusammenfassend Collier (1993). Diese Veröffentlichungen aus den späten sechziger
und frühen siebziger Jahren waren eine Reaktion auf die Zustandsbeschreibung durch
Macridis (Macridis u. Cox 1953, Macridis 1955), die vergleichende Politikwissenschaft sei
in erster Linie an der beschreibenden Darstellung der formalen politischen Institutionen und
an Fallstudien interessiert und sei in diesem Sinne „beschränkt, überwiegend deskriptiv und
formalistisch“. Die neueren Arbeiten teilten daher das gemeinsame Interesse, die verglei-
Die vergleichende Methode als Forschungsansatz 113

chende Politikwissenschaft stärker empirisch und methodenbewusster auszurichten und


eine adäquate Theorieentwicklung zu forcieren (Sigelman u. Gadbois 1983: 276).
Um die kennzeichnenden Merkmale der vergleichenden Methode klar herauszuarbei-
ten, hat Lijphart (1971: 683, 691) sie in seinem grundlegenden Artikel drei alternativen
Methoden gegenübergestellt: der experimentellen Methode, der statistischen Methode und
der Fallstudienmethode (siehe Abbildung 6).
Bei der experimentellen Methode wird bewusst und gezielt eine unabhängige Variable
verändert, die in einer Kontrollgruppe oder in einem anderen Experiment konstant gehalten
wurde. Die Annahme, dass alle anderen Bedingungen konstant gehalten werden, wird auch
ceterus paribus-Klausel genannt. In einer solchen experimentellen Versuchsanordnung
können die resultierenden Veränderungen damit direkt dem stimulierenden Faktor zuge-
schrieben werden. Die experimentelle Varianz unterliegt daher der Kontrolle des Forschers
(Jahn 2006: 175). Die kontrollierte Versuchssituation stellt dabei sicher, dass keine Störfak-
toren (externe Varianz) in den Versuchsablauf intervenieren können. Das Experiment gilt
als die exakteste Form der wissenschaftlichen Forschung, weil es die Kontrolle aller be-
deutsamen Variablen garantiert und durch die Manipulation der Versuchsbedingungen den
Einfluss einer oder mehrer unabhängiger Variablen die fast vollkommene wissenschaftliche
Methode. Allerdings kann diese Art der Forschung in der Politikwissenschaft aus ethischen
und praktischen Gründen nur sehr selten angewandt werden (Atteslander 2008: 175-178).

Abbildung 6: Typologie wissenschaftlicher Methoden nach Lijphart

Experimentelle Statistische Methode


Methode

Wissenschaftliche
Methode
Nicht-experimentelle Vergleichende Me-
Methode thode

Fallstudie

Quelle : Lijphart 1975: 162; Jahn 2006: 175

Die statistische Methode ist eine Alternative zu der experimentellen Methode, insofern als
sie eine künstliche Versuchsanordnung schafft, indem die Variablen durch gesonderte Aus-
wertungen untersucht werden. Während beim Experiment eine Variable kontrolliert verän-
dert wird, werden in der statistischen Methode die untersuchten Einheiten in Untergruppen
eingeteilt. Die technischen Kriterien, um einen Zusammenhang zwischen zwei (oder meh-
reren) Variablen abschätzen zu könne, sind die partielle Korrelation und die Signifikanz
114 Forschungsdesign

bzw. Streuung. Letztere gibt Auskunft darüber, ob die Unterschiede zwischen zwei Unter-
gruppen groß genug sind, um von einem Zusammenhang in der Grundgesamtheit ausgehen
zu können, d.h. dass das Ergebnis der Stichprobe, in der ein Zusammenhang gefunden
worden ist, auch für die gesamte Population zutrifft (Jahn 2006: 176). Die Statistik bietet
eine Vielzahl von mathematischen Verfahren um diese partiellen Korrelationen zu erken-
nen und somit die fehlende (experimentelle) Kontrolle über die Fälle teilweise zu kompen-
sieren. In diesem Sinne kann die statistische Methode als eine Annäherung an ein experi-
mentelles Forschungsdesign betrachtet werden (Lijphart 1971: 684).
Unter der Vergleichenden Methode versteht Lijphart eher eine breit angelegte For-
schungsstrategie als eine bestimmte Methode. Ziel der vergleichenden Methode ist es, Hy-
pothesen über Zusammenhänge zwischen Variablen empirisch zu testen, wobei die Fälle
gezielt ausgewählt werden, um die Varianz der abhängigen Variable(n) zu maximieren und
gleichzeitig die Varianz der Kontrollvariable(n) zu minimieren (Lijphart 1975: 164). Die
Logik des methodischen Vorgehens entspricht dabei der statistischen Methode. Lijphart
grenzt die statistische von der vergleichenden Methode nur dadurch voneinander ab, dass
die Fallzahl bei der vergleichenden Methode zu gering ist, um Verfahren der schließenden
Statistik anwenden zu können. Der Nachteil liegt darin, dass auf der Basis von Fallstudien
nur sehr eingeschränkt generalisierbare Aussagen möglich sind und es infolgedessen auch
nur begrenzte Möglichkeiten gibt Theorien zu testen.

Tabelle 11: Forschungsstrategien im Vergleich


Experiment Statistische Methode Vergleichende Me- Fallstudie
thode
Logik Nomothetisch Nomothetisch Nomothetisch Vorwiegend
idiographisch, z.T.
auch nomothetisch
Rivalisierende Erklä- Bewertung von rivalisie- Bewertung von rivali- Interpretation
rungen werden durch renden Erklärungen durch sierenden Erklärungen durch hermeneuti-
experimentelle Kon- statistische Kontrolle der durch die Erfassung sche Verfahren
trolle eliminiert. Kovarianz von Kovarianz mittels
Fallauswahl
Reichweite Allgemein gültige Bezogen auf eine defi- Bezug auf ausgewähl- Bezug auf einen
Aussagen nierte Grundgesamtheit te Fälle Fall
Vorteil hoher Grad der Genera- hoher Grad der Generali- hoher Grad der Gene- wenig Ressourcen
lisierbarkeit durch sierbarkeit durch reprä- ralisierbarkeit für die nötig, intensives
starke Kontrolle der sentative Stichproben und ausgewählten Fälle Verstehen eines
Versuchssituation hohe Fallzahlen Falles
Nachteil Experimentelle Ver- Fallzahl für politikwis- Unterdeterminiert: zu kaum generalisier-
suchsanordnung für senschaftlich relevante viele Variablen – zu bare Aussagen
Politikwissenschaft Untersuchungen häufig wenige Fälle möglich, begrenzte
aufgrund praktischer zu niedrig; Untersu- Möglichkeit Theo-
und ethischer Probleme chungsfälle zu heterogen rien zu testen
oftmals ungeeignet um Zufallsauswahlen
durchzuführen
Strategien - Laborexperiment - Inferenzstatistische Konkordanz- und - konfigurativ-
- Gruppenexperiment Verfahren (Schließen von Differenzmethode idiographisch
Stichprobe auf Grundge- Most similar systems - theorieorientiert
samtheit) design - sondierend
Die vergleichende Methode als Forschungsansatz 115

Experiment Statistische Methode Vergleichende Me- Fallstudie


thode
Most different sys- - Theorie bestäti-
tems design gend oder widerle-
Most similar systems gend
with different outco- - Analyse abwei-
me (MSDO) chender Fälle
Most different sys-
tems with similar
outcome (MDSO)

Quelle: Jahn 2006: 178

In der obigen Tabelle 11 sind die unterschiedlichen Methoden hinsichtlich ihrer wissen-
schaftstheoretischen Logik, ihrer Vor- und Nachteile sowie ihrer verschiedenen Strategien
zusammengefasst. Die Tabelle zeigt anschaulich, dass sich die vergleichende Methode
zwischen der Fallstudie und der statistischen Methode bewegt. Von der Fallstudie hat die
vergleichende Methode vor allem die bewusste Fallauswahl übernommen und von der
statistischen Methode die nomothetische Forschungslogik. Dabei unterscheidet sich die
statistische von der vergleichenden Methode nicht allein durch die Anwendung statistischer
Verfahren, sondern durch das Schließen von einer Stichprobe auf eine Grundgesamtheit,
während die vergleichende Methode nur Aussagen über die ausgewählten Fälle trifft.
Zusammenfassend lässt sich festhalten, dass die Unterscheidung der nicht-
experimentellen Methoden bei Lijphart in erster Linie auf der Zahl der Fälle basiert: „The
statistical method can be applied to many cases, the comparative method to relatively few
(but at least two) cases, and the case study method to one case“ (Lijphart 1971: 691).
Lijphart zieht daraus zwei Schlussfolgerungen: erstens, dass die Forschungslogik der ver-
gleichende Methode jener der statistischen Methode ähnelt und weniger der Fallstudie. Und
zweitens, dass die vergleichende Methode eine suboptimale Lösung ist und man wann
immer möglich die statistische Methode nutzen sollte: „If at all possible, one should gene-
rally use the statistical method“ (Lijphart 1971: 685). Dahinter steht eine wissenschaftsthe-
oretische Position, die davon ausgeht, dass es nur eine wissenschaftliche Forschungslogik
gibt, diese Logik im Kern eine quantitative sei und dass sich qualitative Forschung verbes-
sern ließe, in dem sie sich an den Standards der quantitativen Forschung ausrichtet. King,
Keohane und Verba (1994: 3) haben diese Position mit einer schlichten Formel auf den
Punkt gebracht: „Two styles of research, one logic of inference“. Dieser Standpunkt hat
eine bis heute andauernde lebhafte methodische Debatte ausgelöst und ist nicht ohne Wi-
derspruch geblieben4. Die prominente Gegenposition von Charles Ragin, nämlich die Un-
terscheidung zwischen fall- und variablenorientierten Forschungsstrategien, wird im fol-
genden Kapitel ausführlicher dargestellt.

5.2 Fallorientierte und variablenorientierte Forschungsstrategien


In der Literatur sind verschiedene Typen von Forschungsstrategien beschrieben worden,
ohne zu einer abschließenden Typologie zu gelangen (Przeworski u. Teune 1970, Skopcol

4
Den qualitativen Standpunkt vertretend siehe zum Beispiel die Beiträge in Brady u. Collier 2004.
116 Forschungsdesign

u. Somers 1980, Janoski 1991). Das konzeptionelle Gerüst zur Einordnung der verschiede-
nen Forschungsstrategien welches Charles Ragin verwendet, baut auf den Ausführungen im
vorangegangen Kapitel auf und steht keineswegs im Widerspruch zu diesen. Jedoch veror-
tet Ragin die Forschungsstrategien auf einem alternativen Kontinuum nach ihrer grundle-
genden kausalen Logik und nicht allein anhand der Anzahl der untersuchten Fälle. Für die
Analyse makrosozialer Phänomene gibt es nach Ragin zwei basale Forschungsstrategien
(Ragin u. Zaret 1983, Ragin 1987): die fallorientierte und die variablenorientierte Strategie.
Die fallorientierte Strategie geht von der Grundannahme aus, dass Fälle distinkte und
singuläre Einheiten bilden, die dennoch genügend gemeinsame Merkmale aufweisen, um
miteinander verglichen werden zu können. Die fallorientierte Strategie sieht Fälle als aus-
sagekräftige, aber komplexe Konfigurationen von Ereignissen und Strukturen und betrach-
tet sie als im jeweiligen historischen und kulturellen Kontext entstandene und eingebettete
Einheit. Die Fälle werden daher bewusst ausgewählt und nicht als homogene Beobachtung
per Zufallsprinzip in Form einer Stichprobe aus einer Menge von gleichfalls plausiblen
Fällen gezogen. Beim Vergleich von Fallstudien bedarf es großer Vorsicht und methodi-
scher Sorgfalt, da durch die analytische Aufgliederung der Fälle die Gefahr droht, dass
wichtige Informationen verloren gehen.
Die variablenorientierte Strategie hingegen beruft sich nicht auf die Existenz ver-
gleichbarer Einheiten, sondern beginnt mit dem Postulat allgemeingültiger Dimensionen
makrosozialer Varianz. In dieser Strategie werden Merkmale und ihre empirischen Ausprä-
gungen als partielle Verkörperung von zugrunde liegenden theoretischen Konzepten und
Prinzipien angesehen. Ausprägungen variieren in dem Maße, wie sie die theoretischen
Eigenschaften widerspiegeln. Die Aufgabe des Forschers ist es, diesen allgemeinen Mus-
tern und den Zusammenhängen zwischen Variablen auf die Spur zu kommen. Dazu werden
in Abhängigkeit vom theoretischen Konzept das getestet werden soll, die abhängigen und
unabhängigen Variablen definiert und die entsprechenden Daten für diese Indikatoren ge-
sammelt. Das resultierende empirische Verständnis beruht auf der Analyse von Kovarianz
innerhalb des Datensatzes, beobachtet und gemittelt über eine hohe Zahl von Fällen hin-
weg.
Um die Unterschiede zwischen den beiden Forschungsstrategien zu beschreiben, wer-
den in der Literatur verschiedene Begriffspaare verwendet. Die am häufigsten benutzte
Form ist die Charakterisierung als qualitative und quantitative Forschungsstrategien. Diese
Beschreibung überschneidet sich stark mit der Unterscheidung zwischen fall- und variab-
lenorientierten Forschungsstrategien. Dennoch sind diese Begriffe nicht völlig eindeutig.
So können quantitative Methoden der Datenanalyse, wie etwa statistische Verfahren, auch
in Einzelfallstudien angewendet werden. Ebenso können Daten, die mit qualitativen Me-
thoden erhoben wurden, etwa durch Beobachtung oder durch Befragung, natürlich mit
quantitativen Methoden ausgewertet werden. Richtig bleibt aber trotz dieser Einwände,
dass die überwiegende Mehrheit der fallorientierten Studien qualitativ arbeitet und die
überwiegende Mehrheit der variablenorientierten Studien quantitativ.
Tabelle 12 zeigt anhand von vier Dimensionen anschaulich die Unterschiede zwischen
den fallorientierten und den variablenorientierten Forschungsstrategien. Die beiden Strate-
gien werden hinsichtlich der Bedeutung von Fällen, dem Verständnis von Kausalität, dem
Erklärungsansatz und ihren Zielen gegenübergestellt.
Die vergleichende Methode als Forschungsansatz 117

Tabelle 12: Fallorientierte und variablenorientierte Forschungsstrategien


Fallorientiert Variablenorientiert
1. Blick auf Fälle
Singuläre Einheiten Beobachtung von Variablen (Ausprägung)
Kleine Fallzahl Große Fallzahl
Intensive Analyse Extensive Analyse der Variation
2. Verständnis von Kausalität
Multiple konjunkturelle Kausalität Uniforme Kausalität
Historisch gewachsene Kausalität Strukturelle Kausalität
Zeitliche Ablaufe statische Analyse / abgeleitete Zeitlichkeit
invarianter Zusammenhang probalistischer Zusammenhang
3. Erklärung
Integrative Darstellung Radikal analytisch
Interpretative Erklärungen Sparsame Erklärungen
Historischer Kontext spezifisch Universal / nomothetisch
4. Ziele
Wissen über Fälle Theoretisch relevantes Wissen generieren
Verständnis von Mustern in der Vielfalt Varianz erklären
Nutzung und Weiterentwicklung von Theorie Testen und Anpassen von Theorie

Quelle: Ragin 1994: 302

Die beiden Forschungsstrategien unterscheiden sich deutlich hinsichtlich der Auffassung


von Fällen im Untersuchungsdesign. In der fallorientierten Strategie werden Fälle als singu-
läre Einheiten aufgefasst, wegen ihrer jeweiligen Bedeutung für die Forschungsfrage be-
wusst ausgewählt und intensiv analysiert. Bei der variablenorientierten Strategie sind Fälle
nur beobachtete Ereignisse, gekennzeichnet durch verschiedene Ausprägungen von Merk-
malen. Je höher die Zahl der Fälle (und damit der Ereignisse) desto besser, da individuelle
Fälle nicht geeignet sind, um allgemeine theoretische Zusammenhänge erkennen zu lassen.
Ähnlich divergent ist das Verständnis von Kausalität. In der fallorientierten Strategie
werden Ursache-Wirkungs-Zusammenhänge im Kontext des Falles und seiner Historie
betrachtet. Zeitliche Abläufe spielen dabei eine wichtige Rolle und es wird nicht davon
ausgegangen, dass bestimmte Ereignisse (z.B. Demokratisierung) in allen Fällen auf eine
ähnliche Weise eintreten. Es wird im Gegenteil davon ausgegangen, dass ähnliche Ereignis-
se durch verschiedene Kombinationen von Ursachen hervorgerufen werden können („mul-
tiple conjunctural causation“, siehe Ragin 1987: 42ff). Die variablenorientierte Strategie
betrachtet Kausalität stärker aus einer strukturellen Perspektive. Die Korrelation zwischen
Variablen über eine hohe Zahl von Fällen hinweg zeigt in diesem Sinne das Wirken kausa-
ler Prozesse an. Da einzelne Fälle in der variablenorientierten Strategie nur eine unpräzise
Abbildung von allgemein gültigen Regelmäßigkeiten darstellen, wird davon ausgegangen,
dass die Zusammenhänge zwischen den Variablen probalistischer Natur sind. Dementspre-
chend werden in der variablenorientierten Strategie häufig Kausalmodelle verwendet, wel-
che die Mehrheit der Fälle erklären können. Etwaige Abweichungen von diesem Modell
werden dann als Fehler betrachtet.
118 Forschungsdesign

Erklärungen im Sinne der fallorientierten Strategie sind interpretative Darstellungen


der relevanten Faktoren. Diese geben Antworten auf die Frage wie bestimmte Bedingungen
in einem historischen Kontext zusammenwirken, um fallspezifische Ereignisse zu produzie-
ren. Die kausalen Bedingungen sind dabei integraler Bestandteil der Erklärung. Die variab-
lenorientierte Strategie sucht hingegen nach der elegantesten Lösung, das heißt mit mög-
lichst wenigen Variablen soll möglichst viel an Varianz der abhängigen Variable zwischen
den Fällen erklärt werden.
Schließlich unterscheiden sich die beiden Strategien auch hinsichtlich der verfolgten
Ziele. Bei der fallorientierten Strategie steht die Gewinnung von Wissen über den jeweili-
gen Fall im Vordergrund. Dieses Wissen wird genutzt für die Entwicklung bzw. Weiter-
entwicklung von Theorien. Demgegenüber besteht das vorrangige Interesse der variablen-
orientierten Forschungsstrategie darin, wissenschaftliche Theorien gezielt zu testen und
gegebenenfalls auf der Grundlage der empirischen Ergebnisse anzupassen.
Insgesamt betrachtet sind die methodischen Unterschiede zwischen den beiden For-
schungsstrategien relativ ausgeprägt. Die fallorientierte Forschung bevorzugt die intensive
Analyse weniger Fälle mit einer Vielzahl von kausalen Bedingungen und unterschiedlichen
Ergebnissen. Die variablenorientierte Forschungsstrategie untersucht typischerweise weni-
ge Variablen in möglichst vielen Fällen. Um die Kluft zwischen den beiden basalen For-
schungsstrategien zu überbrücken, propagiert Ragin seit Ende der achtziger Jahre eine dritte
Forschungsstrategie: die Qualitativ Vergleichende Analyse. Der Darstellung und Erläute-
rung dieser alternativen Forschungsstrategie ist das folgende Unterkapitel gewidmet.

5.3 Der konfigurative Vergleich als alternative Forschungsstrategie


Die „Qualitative Comparative Analysis (QCA)“ die Charles Ragin als alternative Strategie
in seinem Buch 1987 erstmals vorgestellt hatte, schlägt eine Brücke zwischen der fallorien-
tierten und der variablenorientierten Herangehensweise. Die alternative Strategie versucht
Elemente beider Welten miteinander zu vereinen –die analytische Tiefe der qualitativen
Forschung mit der analytischen Breite der quantitativ vergleichenden Forschung. Grundla-
ge für die Einführung von QCA war die Überzeugung, dass die bestmögliche Sozialfor-
schung die intensive Einzelfallstudie mit dem extensiven breit angelegten Vergleich ver-
binden muss. Das Wort „qualitativ“ in QCA zeigt jedoch, dass sich Ragin mit seiner Alter-
native eher auf der Seite der fallorientierten Forschungsstrategien positioniert hat.
Ausgehend von diesem ersten Impuls hat sich QCA mittlerweile als wichtige methodi-
sche Innovation etabliert. Statt der ursprünglichen Bezeichnung als „vergleichende Metho-
de“ (Ragin 1987; Collier 1991, 1993) werden in der neueren Literatur zunehmend andere
Begriffe verwendet. So spricht Berg-Schlosser (2003: 103-125) von makro-qualitativ ver-
gleichenden Methoden und das Handbuch von Rihoux und Ragin (2008) benutzt den Be-
griff „konfigurativ-vergleichende Methoden“ für QCA und verwandte Techniken. Letzterer
wird daher auch in dieser Arbeit verwendet.
Prinzipiell eignet sich QCA für die Analyse jedweder Anzahl von Fällen, aber in der
Forschungspraxis hat sich diese Strategie bei der Analyse von mittleren Fallzahlen (zwi-
schen 5 und 50)5 als besonders hilfreich erwiesen. In dieser Größenordnung besteht für den

5
Berg-Schlosser (2003: 103) nennt den Bereich von 3 bis 20 Fällen als mittlere Fallzahlen.
Die vergleichende Methode als Forschungsansatz 119

Forschenden noch die Möglichkeit sich einerseits mit den individuellen Merkmalen jedes
Falles vertraut zu machen und andererseits fallübergreifende Muster herauszuarbeiten.
Konfigurativ-vergleichende Methoden bewegen sich somit zwischen den fallorientierten
und den variablenorientierten Methoden, da versucht wird, zum einen die Komplexität von
Kausalität in den einzelnen Fällen zu erfassen und zum anderen verallgemeinerbare Aussa-
gen durch die Einbeziehung einer größeren Anzahl von Fällen zu ermöglichen. Die Schlüs-
sel für das Verständnis von QCA liegen somit einerseits in der Betrachtung von Fällen als
Konfiguration und andererseits in einem bestimmten Konzept von komplexer Kausalität.

Fälle als Konfiguration

In den konfigurativ-vergleichenden Methoden werden Fälle als Konfigurationen von kausal


relevanten Bedingungen verstanden und untersucht. Unter einer Konfiguration versteht man
eine Kombination von erfassten Werten zu einem Fall (Cronqvist 2007: 30). Fälle werden
dabei als ganzheitliche Einheit betrachtet. Soziale Zusammenhänge können demnach nur
durch die Beobachtung von Fällen als Ganzes erfasst werden (Ragin 1987: 167). Das heißt
die einzelnen Bestandteile eines Falles bedingen sich gegenseitig genauso, wie sie den Fall
als Ganzes bestimmen. Demgemäß kann jeder Bestandteil und jeder Aspekt eines Falles am
besten im Gesamtkontext des Falles verstanden werden.
Fälle als Konfigurationen zu sehen, bedeutet in diesem Sinne auch für die Möglichkeit
offen zu sein, dass jede logisch mögliche Kombination relevanter Umstände einen qualita-
tiv anderen Zustand beschreibt. Hinter diesem Verständnis steht das Argument, dass die
Werte einer Variablen nicht isoliert betrachtet werden können, sondern nur im Zusammen-
hang mit den Werten anderer relevanter Variablen (bzw. Bedingungen) (Ragin 1994: 306).
Die Betonung dieser Perspektive entspringt der Überzeugung, dass die Aspekte eines Falles
nicht neutral oder gar unabhängig vom Kontext sind und daher als Elemente einer Konfigu-
ration gesehen werden müssen (Schneider u. Wagemann 2007: 14).
Während Charles Ragin von einer „konfigurativen Welt“ ausgeht, in der der politische,
ökonomische, soziale und kulturelle Kontext der Fälle nicht vom zu erklärenden Phänomen
isolierbar ist, gehen King, Keohane und Verba (1994) von einer „Welt der Korrelationen“
aus, in der der Kontext für das Verständnis von Zusammenhängen nicht unbedingt notwen-
dig ist. Fälle, die über viele gemeinsame Merkmale verfügen und sich zum Beispiel nur bei
einem Merkmal unterscheiden, sind in der variablenorientierten Logik ähnliche Fälle. In der
konfigurativen Sichtweise werden die Werte relevanter Variablen kombiniert und jede
Kombination von Werten kann einen unterschiedlichen Typ von Fall darstellen. Das
Grundprinzip des konfigurativen Denkens ist somit die Idee, dass ein einziger Unterschied
zwischen zwei Fällen einen anderen Typus ausmachen kann, und der Unterschied daher
nicht nur gradueller sondern substantieller Natur ist: „This view of cases as configurations
implements the key principle of configurational thinking previously sketched – the idea that
a single difference between two cases may constitute a difference of kind“ (Ragin 2000:
73).
120 Forschungsdesign

Multiple und konjunktionale Kausalität

Die Motivation Ragins zur Entwicklung von QCA lag ferner in der Art von Kausalität, die
multivariaten Verfahren zu Grunde liegt. Bei der Untersuchung von Zusammenhängen
zwischen Variablen wird bei multivariaten Verfahren der durchschnittliche Effekt einer
oder mehrerer unabhängiger Variablen auf die abhängige Variable bei allen Fällen über-
prüft. Die einzelnen Variablen werden dabei isoliert betrachtet. Für Ragin hingegen können
soziale Phänomene nur durch ein vielschichtiges Modell von Komplexität erklärt werden.
Das Konzept von komplexer Kausalität besteht dabei aus zwei Bausteinen (Ragin 1994:
305): der Annahme kausaler Verknüpfungen und der Annahme kausaler Heterogenität. Die
erste Annahme argumentiert, dass mehrere Ursachen sich selten additiv zueinander verhal-
ten. Vielmehr wirken diese Ursachen häufig zusammen, sind miteinander verbunden und
verstärken dadurch gegenseitig ihre Wirkung. Die zweite Annahme der kausalen Heteroge-
nität beruht auf dem Argument, dass gleiche Wirkungen bzw. Outcomes auf verschiedenen
und zum Teil gegensätzlichen Ursachen beruhen. Dieser Sachverhalt wird in der Literatur
auch als „Äquifinalität“ bezeichnet (George u. Bennett 2005). Äquifinalität beschreibt die
Idee, dass multiple kausale Pfade zum gleichen Ergebnis führen können (Mahoney u. Goe-
rtz 2006: 11).
Konfigurativ-vergleichende Methoden sehen Kausalität also stets als ein aus mehreren
Konditionen zusammengesetztes Phänomen (konjunktionale Kausalität). Ferner muss ein
zu erklärender Outcome nicht stets auf die gleichen Gründe zurückzuführen sein, sondern
kann das Ergebnis sehr unterschiedlicher Konstellationen von Bedingungen sein (multiple
Kausalität). An die Methode besteht daher der Anspruch, dass sie in der Lage ist, diese
komplexen Kausalstrukturen zu erkennen (Ragin 1987: 26-33).
Formell kann man den Unterschied zwischen dem Kausalitätsverständnis in der quan-
titativen gegenüber der konfigurativen Tradition durch das Gegenüberstellen zweier Glei-
chungen darstellen, welche als Modelle der jeweiligen Tradition gelten können (Cronqvist
2007: 14; Mahoney u. Goertz 2006: 8).

(1) Y = (A*B*c) + (A*C*D*E) * = Logisches UND + = Logisches ODER


(2) Y = a + b1X1 + b2X2 + b3X3 + 

Die Gleichung (1) repräsentiert ein typisches mengentheoretisches Boolesches Modell von
Kausalität. Die Gleichung identifiziert zwei verschiedene Kombinationen von Bedingungen
die hinreichend für das Ergebnis (Y) sind, nämlich A*B*c oder A*C*D*E. Jede der beiden
Kombinationen ist dabei gleichwertig für die Lösung, das heißt sie sind funktional äquiva-
lent. Im Mittelpunkt des Booleschen Modells stehen also die Kombinationen von Bedin-
gungen und der individuelle Effekt einzelner Variablen findet wenig Beachtung. Es wird
kein Wettbewerb miteinander rivalisierender Kausalfaktoren modelliert, sondern kausale
Bedingungen zählen als Zutaten für eine komplexe Kausalbeziehung, die miteinander in
verschiedenen Formen kombiniert werden können (Ragin 2003: 8).
Demgegenüber repräsentiert die Gleichung (2) als lineare Regressionsgleichung ein
typisches statistisches Modell. Auch hier werden mehrere Komponenten mithilfe einer
Summenfunktion addiert, die die abhängige Variable Y produzieren. Die Logik der Glei-
chung beruht allerdings nicht auf boolescher Algebra, sondern auf linearer Algebra. Die
Summenzeichen unserer Regressionsgleichung sagen uns daher, dass bei einer Regression
Die vergleichende Methode als Forschungsansatz 121

die verschiedenen Teileffekte zu einem gemeinsamen Effekt aufaddiert werden. Die Addi-
tion führt somit zu einer unifinalen und nicht zu einer äquifinalen Lösung. Mit anderen
Worten beschreibt nur ein Weg, nämlich a + b1X1 + b2X2 + b3X3 +  in obiger Gleichung,
wie Y zustande kommt (Schneider u. Wagemann 2007: 78). Im Mittelpunkt der quantitati-
ven Forschung stehen die Bestimmung der geschätzten Effekte der einzelnen Variablen und
der durchschnittliche Einfluss den jede unabhängige Variable auf die abhängige Variable
ausübt. In der statistischen Regressionsgleichung stellen die unabhängigen Variablen folg-
lich keine Alternativen zueinander dar.

Hinreichende und notwendige Bedingungen

Ein weiterer fundamentaler Unterschied zwischen konfigurativen und statistischen Metho-


den, besteht darin, dass sich erstere zur Untersuchung von notwendigen und hinreichenden
Bedingungen eignen, während statistische Methoden Kovariationen zwischen Variablen
herausarbeiten. Die Beschreibung von Konditionen als hinreichende Bedingungen (suffi-
cient conditions) und notwendige Bedingungen (necessary conditions) ist ein zentrales
Element der konfigurativ-vergleichenden Methoden. Eine Bedingung kann dann als hinrei-
chend angesehen werden, wenn sie für jeden untersuchten Fall zu dem zu untersuchenden
Outcome führt (Schneider u. Wagemann 2007: 32). Das heißt, unter all unseren Fällen darf
kein einziger Fall existieren, bei dem zwar die Bedingung vorliegt, der Outcome aber nicht.
Unter Outcome ist dabei derjenige Sachverhalt zu verstehen, den wir mit Hilfe der hinrei-
chenden und notwendigen Bedingungen erklären wollen. Für eine hinreichende Bedingung
gilt somit: Wann immer wir eine Bedingung X in unseren Untersuchungsfällen beobachten,
muss auch das Outcome vorliegen. Ist die der Fall, dann kann X als hinreichend für Y in-
terpretiert werden. Von einer notwendigen Bedingung spricht man dann, wenn diese Be-
dingung präsent sein muss, damit ein bestimmter Outcome eintritt. Eine Bedingung ist also
notwendig, wenn sie immer dann, wenn der Outcome vorliegt, ebenfalls vorliegt. Das be-
deutet, dass unter all unseren Fällen kein Fall gegeben sein darf, bei dem der Outcome zwar
vorhanden ist, die als notwendig erachtete Bedingung aber nicht (Schneider u. Wagemann
2007: 37). Andererseits kann es aber Fälle geben, bei denen zwar die notwendige Bedin-
gung vorliegt, der untersuchte Outcome aber nicht eingetreten ist.
Zusammengefasst lässt sich also festhalten, dass eine Bedingung dann als notwendig
erachtet wird, wenn die Bedingung zusammen mit dem Ereignis auftreten muss. Eine Be-
dingung gilt als hinreichend, wenn sie selbst das Ereignis hervorrufen kann. Während die
notwendige Bedingung rückwärtsgewandt ist und von Ereignissen ausgeht, ist die hinrei-
chende Bedingung vorwärtsgewandt und geht von den Bedingungen aus (Ragin 2000: 96-
109). In der Notation der Booleschen Algebra werden notwendige und hinreichende Bedin-
gungen wie folgt dargestellt, wobei Großbuchstaben in der Gleichung bedeuten, dass eine
Bedingung zutrifft, während Kleinbuchstaben für die Ausprägung „trifft nicht zu“ stehen
(Jahn 2006: 421):
122 Forschungsdesign

YÆ AC + Bc Keine der Bedingungen ABC ist notwendig oder hinreichend


YÆ AC + BC C ist notwendig, aber nicht hinreichend; die Gleichung kann auch
faktorisiert als YÆ C (A + B) notiert werden
YÆ AC A und C sind notwendig, aber nicht hinreichend
YÆ A + Bc A ist hinreichend, aber nicht notwendig
YÆ A A ist notwendig und hinreichend

Ein wesentliches Erkenntnisinteresse der konfigurativ-vergleichenden Methoden besteht


darin, hinreichende und notwendige Bedingungen nicht nur für einzelne Variablen heraus-
zuarbeiten, sondern auch für Kombinationen von Variablen. Innerhalb dieser Kombinatio-
nen stellen einzelne Variablen häufig sogenannte INUS-Bedingungen dar (INUS = insuffi-
cient but necessary part of a condition, which is itself unnecessary but sufficient for the
result). Also Bedingungen, die zwar kausal relevant sind, aber weder allein hinreichend
noch allein notwendig sind. Diese Art von verbundener Kausalität wird in herkömmlichen
statistischen Verfahren leicht übersehen und lässt sich auch mit Mills Differenz- und Kon-
kordanzmethoden nur schwer nachweisen. Hingegen ist QCA in der Lage, auch dann Kau-
salbeziehungen aufzudecken, wenn keine der Einzelvariablen allein hinreichend oder not-
wendig ist. Dies ist ein wesentlicher Vorteil gegenüber den anderen Methoden (Western
2001: 357).

5.3.1 Methoden des konfigurativen Vergleichs

Wie durch die vorangegangenen Ausführungen schon deutlich wurde, gibt es nicht die eine
konfigurativ-vergleichende Methode. Der Begriff der konfigurativen Methoden umfasst
eine Reihe von methodischen Techniken, deren Gemeinsamkeit darin besteht, dass sie
allesamt durch die Analyse von Konfigurationen innerhalb der untersuchten Fälle zu neuen
Erkenntnissen gelangen möchten. Voraussetzung eines konfigurative Vergleichs ist, dass
die Bedingungen aus denen Konfigurationen kombiniert werden stets identisch sind. Es
können also keine beliebigen Fälle miteinander verglichen werden, sondern für alle unter-
suchten Fälle müssen die gleichen, vorher festgelegten Variablenwerte erhoben werden
(Cronqvist 2007: 16).
Konfigurativ Methoden beruhen in ihrem Ursprung auf den von John Stuart Mill for-
mulierten Übereinstimmungs- und Differenzmethoden (Mill 1843). Bei der Übereinstim-
mungsmethode, auch Konkordanzmethode genannt, werden für eine größere Zahl von Fäl-
len, die ein gemeinsames Phänomen als abhängige Variable aufweisen, einer oder wenige
Faktoren als unabhängige Variablen isoliert, welche für alle Fälle den gleichen Wert besit-
zen. In dieser Gemeinsamkeit der bzw. den isolierten unabhängigen Variable(n) wird dann
die Ursache für das zu erklärende Phänomen gesehen. Richtung und Art der Kausalität
können dadurch allerdings nicht bestimmt werden (Berg-Schlosser 2003: 111). Die Kon-
kordanzmethode stellt sich schematisch wie folgt dar (Schneider u. Wagemann 2007: 74):
Die vergleichende Methode als Forschungsansatz 123

Tabelle 13: Schema der Konkordanzmethode


Unabhängige Variablen Fall 1 Fall 2
A Ja Ja
B Ja Nein
C Ja Nein
D Ja Nein
Abhängige Variable Y Ja Ja

Im Fall der Konkordanzmethode wird argumentiert, dass die Übereinstimmung bei einer
unabhängigen Variablen (hier A) bei ansonsten verschiedenen unabhängigen Variablen
(hier B, C und D) die Übereinstimmung von Y erklärt. Klassische Studien, die auf der
Konkordanzmethode beruhen, sind die Arbeiten von Barrington Moore (1966) über die
Entstehung von Diktaturen und Demokratien und Theda Skocpol (1979) über soziale Revo-
lutionen. Beide Arbeiten verwenden in der Analyse zusätzlich die Differenzmethode, um
die Anzahl von alternativen Erklärungen zu reduzieren.
Bei der Differenzmethode werden ähnliche unabhängige Variablen und stark variie-
rende abhängige Variablen untersucht. Das Forschungsdesign basiert also auf ähnlichen
Fällen und unterschiedlichen Ergebnissen. Schematisch kann die Differenzmethode folgen-
dermaßen dargestellt werden (Schneider u. Wagemann 2007: 73):

Tabelle 14: Schema der Differenzmethode


Unabhängige Variablen Fall 1 Fall 2
A Ja Ja
B Ja Ja
C Ja Ja
D Ja Nein
Abhängige Variable Y Ja Nein

Die Differenzmethode sagt dabei aus, dass der Unterschied bei der unabhängigen Variable
D welcher zwischen den beiden Fällen besteht, den Unterschied bei der abhängigen Variab-
le Y erklärt, dass dies der einzige Unterschied zwischen den beiden ansonsten identischen
Fällen ist. In der Praxis besteht die Differenzmethode in der Regel aus einer zweistufigen
Anwendung der Konkordanzmethode, bei der Fälle, die entweder die Anwesenheit einer
Ursache oder die Abwesenheit oder die gegenteilige Konstellation aufzeigen, ausgeschlos-
sen werden können. Dieses Verfahren wird auch als indirekte Differenzmethode bezeichnet
(Berg-Schlosser 2003: 112). Im ersten Schritt wird für eine vermutete kausale Ursache
ermittelt, ob sie in allen Fällen zutrifft. Ist dies der Fall, wird in einem zweiten Schritt über-
prüft, ob in Fällen, in denen die Ursache abwesend ist, auch die Wirkung nicht vorliegt. Ist
dies auch der Fall, dann gilt, dass die Wirkung nur dann eintritt, wenn auch die Ursache
vorliegt. Mit Hilfe des zweistufigen Vorgehens können so bestimmte nicht zutreffende
Fälle ausgeschlossen und simple monokausale Hypothesen zurückgewiesen werden. Eine
nähere Bestimmung der Wirkungsmuster ist aber auch durch dieses Verfahren nur ansatz-
weise möglich. Obwohl die Differenzmethode eine Verbesserung gegenüber der Konkor-
124 Forschungsdesign

danzmethode darstellt weist sie dennoch grundlegende Schwächen auf (Ragin 1987: 39-
42): erstens ist die Differenzmethode nicht dazu geeignet, multiple und verbundene Kausa-
litäten zu analysieren und zweitens lassen sich durch die Fokussierung auf negative Fälle
im zweiten Schritt des Verfahrens konkurrierende Hypothesen nicht immer zweifelsfrei
ausschließen.
Die von Mill eingeführte Logik des Vergleichens gibt dennoch einfache Untersu-
chungsdesigns vor, auf denen auch die im Folgenden vorgestellten weiterentwickelten
konfigurativen Methoden beruhen. Im ersten Abschnitt werden Versuchsanordnungen mög-
lichst ähnlicher („most similar“) und möglichst unterschiedlicher („most different“) Syste-
me vorgestellt. Hierdurch können dann systematisch Übereinstimmungen und Differenzen
im Millschen Sinne erfasst werden. Derartige Verfahren betrachten die insgesamt zugrunde
gelegte Menge von Variablen, allerdings ohne deren Interaktionen erfassen zu können. Der
zweite Abschnitt führt in drei verschiedene Varianten der Qualitative Comparative Analysis
(QCA) ein. Diese Verfahren basieren auf einer begrenzten Variablenauswahl, reduzieren
aber die verfügbaren Informationen unter Berücksichtigung unterschiedlicher Interaktions-
muster von Variablen auf größtmögliche Weise (Berg-Schlosser 2003: 113).

5.3.1.1 Untersuchungsanordnungen mit möglichst ähnlichen und möglichst


unterschiedlichen Fällen (MSDO/MDSO)

Die analytische Logik der indirekten Differenzmethode lässt sich noch weiter verbessern, in
dem das analytische Verfahren mit zwei Strategien zur Fallauswahl verknüpft wird, mit
deren Hilfe sichergestellt werden kann, dass die jeweils ausgewählten Fälle entweder mög-
lichst ähnlich („most similar systems design“ – MSSD) oder möglichst unterschiedlich
(„most different systems design“ – MDSD) sind. Im Gegensatz zu den oben vorgestellten
Analyseverfahren der Konkordanz- und Differenzmethode, werden bei diesen zwei Aus-
wahlstrategien die Fälle auf der Basis der unabhängigen Variablen ausgewählt (Jahn 2006:
233).
Das Untersuchungsdesign mit möglichst ähnlichen Fällen beruht auf der Annahme,
dass eine Anzahl theoretisch signifikanter Unterschiede zwischen sehr ähnlichen Fällen
gefunden werden können und dass diese Unterschiede zur kausalen Erklärung beitragen
(Berg-Schlosser 2003: 114). Schematisch lässt sich diese Logik mit dichotomisierten Vari-
ablen wie folgt darstellen (Przeworski u. Teune 1970: 37; Jahn 2006: 234):

Tabelle 15: Logik des Most Similar Systems Design


Länder Kontrollierte Variablen Experimentelle Variablen (expe- Abhängige
(externe Varianz) rimentelle Varianz) Variable
X1 X2 … Xk Xk+1 … Xn Y
A 1 1 … 0 1 … 1 1
B 1 1 … 0 0 … 0 0
C 1 1 … 0 1 … 1 1
D 1 1 … 0 1 … 1 1
E 1 1 … 0 0 … 0 0
Die vergleichende Methode als Forschungsansatz 125

Wie aus Tabelle 15 ersichtlich geht es bei einem Untersuchungsdesign mit möglichst ähnli-
chen Fällen darum, möglichst viele unabhängige Variablen, die alle den gleichen Wert für
die ausgewählten Fälle haben, analytisch auszuschließen. Diese unabhängigen Variablen
können nach dem Prinzip der indirekten Differenzmethode nicht die Unterschiede bei der
abhängigen Variable erklären. Variablen, welche für die ähnlichen Fälle unterschiedliche
Werte aufweisen, können als mögliche Erklärungen für das untersuchte Phänomen in Be-
tracht gezogen werden (Przeworski u. Teune 1970: 32-34). Durch dieses Vorgehen wird die
Zahl der unabhängigen Variablen reduziert. Aspekte, die ignoriert werden können, fließen
nicht als zusätzliche Variablen in die Untersuchung ein (Jahn 2006: 234). Im Kern geht es
also um die Forderung, die experimentelle Varianz zu maximieren und gleichzeitig die
externe Varianz zu minimieren. Das MSSD-Design kann sowohl für kleine als auch für
große Fallzahlen verwendet werden. Es bietet sich für relativ homogene Ländergruppen an,
wie zum Beispiel die skandinavischen oder die angelsächsischen Länder. Während das
Untersuchungsdesign bei Studien mit kleinen Fallzahlen wenig generalisierbare Ergebnisse
liefert, kann es mit einer größeren Fallzahl zu einer sehr effektiven Strategie werden.
Das most different systems design als entgegengesetzte Anordnung, die eine möglichst
große Heterogenität der ausgewählten Fälle anstrebt, beruht auf der Annahme, dass diese
Unterschiede sich auf wenige Variablen beschränken und genügend charakteristische Ge-
meinsamkeiten innerhalb der untersuchten Population verbleiben (Berg-Schlosser 2003:
114). Durch die Auswahl möglichst unterschiedlicher Fälle sollen Faktoren bestimmt wer-
den, die in den unterschiedlichen Fällen die gleichen Auswirkungen auf die zu erklärenden
Variablen haben. Dabei wird davon ausgegangen, dass systemische (kontextuelle) Unter-
schiede keinen Einfluss haben. Przeworski und Teune (1970: 34-39) haben das MDSD-
Design dementsprechend als eine Art Multi-Ebenenanalyse entwickelt. Ausgangspunkt der
Untersuchung ist eine Analyseebene unterhalb der systemischen Ebene. Dies können Indi-
viduen sein, aber auch Gruppen oder die lokale Ebene. In einem ersten Schritt werden dann
zunächst Hypothesen gebildet, die für diese Ebene einer Population zutreffen sollen. Erst
wenn sich auf dieser Ebene im Hinblick auf die abhängige Variable Unterschiede zwischen
den ausgewählten Fällen zeigen, wird die nächsthöhere Ebene in die Analyse einbezogen.
Mit den Worten von Przeworski und Teune ausgedrückt (1970: 39):

„If a population of individuals is sampled from several countries, then differences among indi-
viduals will be tested both within and across communities and within and across countries. If
communities differ, national factor will be examined; if neither countries nor communities dif-
fer, the entire analysis will remain at the individual level and no systemic factors will be consid-
ered. The level that reduces to the greatest extent the within-group variance will be considered.“

Ein solches Vorgehen ist allerdings sehr voraussetzungsvoll und in der Forschungspraxis
bislang selten vollständig umgesetzt und systematisch operationalisiert worden (Berg-
Schlosser 2003: 114). Eine allgemeinere Auffassung des most different systems design
beruht daher vereinfachend darauf, dass möglichst unterschiedliche Fälle auf der gleichen
Systemebene untersucht werden (Collier 1993).
Zusammenfassend lässt sich für die beiden Auswahlstrategien damit folgendes festhal-
ten: Stärke des MSSD-Ansatzes darin besteht, dass (fast) alle Länder, die den Auswahlkri-
terien entsprechen, auch in die Untersuchung einbezogen werden. Nur durch diese negative
Fallauswahl kann die externe Varianz kontrolliert werden. Das Design mit unterschiedli-
126 Forschungsdesign

chen Fällen (MDSD) bezieht seine analytische Stärke aus der Mehrebenenanalyse (Jahn
2006: 238).
Aufbauend auf den beiden Strategien zur Fallauswahl lassen sich unter Hinzuziehung
der Millschen Konkordanz- und Differenzmethoden dann entsprechende Forschungsdes-
igns konstruieren, wie zum Beispiel verschiedene Systeme mit demselben Ergebnis („most
different with same outcome“ – MDSO) oder die ähnlichsten Systeme mit unterschiedli-
chem Ergebnis („most similar with different outcomes“ – MSDO). Die MSDO/MDSO-
Verfahren bieten die Möglichkeit, nach formalisierten Regeln möglichst ähnliche bezie-
hungsweise möglichst unterschiedliche Fälle zu bestimmen. In einem zweistufigen Verfah-
ren werden zunächst die geeignetsten Fälle für eine solche Analyse identifiziert, um dann
durch die Betrachtung von unterschiedlichen Datenkategorien zu einem differenzierten Bild
von den Unterschieden und Ähnlichkeiten zwischen den Fällen zu gelangen (de Meur u.
Berg-Schlosser 1994).
Beim MSDO-Verfahren werden zuerst alle verfügbaren Variablen nach inhaltlichen
Gesichtspunkten in Kategorien eingeteilt. Innerhalb jeder Kategorie werden aus allen Paa-
ren von Fällen mit unterschiedlichem Outcome die Paare herausgesucht, welche die meis-
ten Ähnlichkeiten aufweisen. Für jedes Paar von Fällen mit unterschiedlichem Outcome
wird ein Ähnlichkeitswert bestimmt, welcher relativ zu dem ähnlichsten Paar angibt, wie
ähnlich sich die Fälle sind. In einer zweiten Stufe werden dann diese relativen Werte über
alle Kategorien betrachtet. Daraus können dann die ähnlichsten Fälle mit unterschiedlichem
Outcome identifiziert werden. Mit diesen Fällen kann anschließend eine Analyse nach dem
oben diskutierten most similar systems design durchgeführt werden, um Erklärungen für
das unterschiedliche Outcome zu erhalten. Ähnlich kann das MDSO Verfahren angewendet
werden, um unter den Fällen mit gleichem Outcome die Fälle herauszufiltern, welche am
unterschiedlichsten sind. Hierauf aufbauend können dann mit einem most different systems
design die Variablen bestimmt werden, welche mögliche Erklärungen für das identische
Outcome darstellen (Cronqvist 2007: 19).
Sowohl das MSDO- als auch das MDSO-Verfahren werden von quantitativ orientier-
ten Forschern stark kritisiert (King, Keohane u. Verba 1994: 142-144; Jahn 2006: 237). Im
Wesentlichen richtet sich die Kritik auf den Bias bei der Fallauswahl. Nach Ansicht von
Detlef Jahn „leiden solche Forschungsdesigns stark unter dem selection bias, da in ihnen
sowohl auf der abhängigen Variablen als auch aufgrund einer wesentlichen Kausalbezie-
hung die Fälle ausgewählt werden“ (Jahn 2006: 237). Die enge Verknüpfung zwischen der
Fallauswahlstrategie und der Analysemethode führe zu einer geringen Generalisierbarkeit
der Ergebnisse. Darüber hinaus bestehe bei dieser Art von Untersuchung die Schwierigkeit,
die externe Varianz zu kontrollieren.
Nichtsdestotrotz beziehen sich viele vergleichende Studien bei der Fallauswahl auf die
Analysemethoden von Mill, da sie wie gezeigt auch einige Vorteile bieten. So lassen sich
zum Beispiel mit den von de Meur und Berg-Schlosser weiterentwickelten MSDO/MDSO-
Verfahren auch konjunktionale Zusammenhänge zwischen Variablen analysieren (De
Meur, Bursens u. Gottcheiner 2006).

5.3.1.2 Qualitative Komparative Analyse (QCA)

Im Gegensatz zu den MSDO/MDSO-Verfahren, die extreme Konfigurationen von Fällen


unter Zugrundelegung hoher Variablenzahlen untersuchen, analysiert QCA alle Fälle
Die vergleichende Methode als Forschungsansatz 127

gleichzeitig mit einer jeweils begrenzten Zahl von Variablen (Berg-Schlosser 2003: 116).
QCA bietet ein formelles Verfahren für die Analyse mittlerer Fallzahlen an. Die mit QCA
durchgeführten Berechnungen laufen nach festgelegten Regeln ab und die so gewonnenen
Ergebnisse sind intersubjektiv nachvollziehbar, da sie nicht von der durchführenden Person
abhängig sind. Die qualitativ-komparative Analyse basiert auf der Booleschen Algebra, die
Mitte des 19. Jahrhundert von George Boole entwickelt wurde. Eine Grundvoraussetzung
ist zunächst, dass alle Variablen, also sowohl die unabhängigen Variablen („Bedingungen“)
als auch die abhängige Variable („Outcome“), dichotomisiert werden. Dies bedeutet, dass
die empirischen Daten nicht als Rohwerte in die Analyse einbezogen werden, sondern als
Aussagen in der Form von „trifft zu“ und „trifft nicht zu“. Es werden also die An- und
Abwesenheit einer Bedingung bzw. eines Ereignisses in der Analyse hinterfragt, etwa ob
ein Land über ein hohes Bruttoinlandsprodukt verfügt oder nicht. In der qualitativ-
komparativen Analyse muss dementsprechend vorher konzeptionell festgelegt werden, ab
wann von einem hohen Bruttoinlandsprodukt gesprochen werden soll. Anstelle eines inter-
vallskalierten BIP-Wertes wie in der klassischen Regressionsanalyse, wird in QCA ein
Boolescher Wert zugeordnet, welcher angibt, ob die Aussage „Für X liegt das BIP über
dem Schwellenwert S“ zutrifft oder nicht. Der entsprechende Boolesche Wert wäre im
ersten Fall WAHR (1), im letzteren Fall FALSCH (0). Die Daten werden also im Verhältnis
zu einem theoretisch begründeten Konzept interpretiert, weshalb Ragin (2000: 9) auch von
qualitativen Daten spricht. Die Bezeichnung qualitativ bezieht sich in QCA dabei nicht auf
qualitative Datenerhebungsmethoden, wie etwa teilnehmende Beobachtung und Tiefenin-
terviews oder qualitative Interpretationen wie zum Beispiel in der Hermeneutik (Jahn 2006:
419). Die Verwendung von qualitativen Aussagen über eine Variable hat den Vorteil, dass
quantitativ nicht direkt beobachtbare theoretische Konzepte (Grad des Korporatismus oder
der Demokratie), nicht erst für die technische Analyse quantifiziert werden müssen, son-
dern direkt als qualitative Eigenschaft kodiert werden können (Cronqvist 2007: 21). Durch
die erzwungene Dichotomisierung der Variablen kann es jedoch zu Informationsverlusten
kommen.
QCA-Daten werden in sogenannten Wahrheitstabellen erfasst. Jede potentielle kausale
Bedingung und jeder Outcome erhalten je eine Spalte. Der Eintrag (1) in einer Datenzelle
besagt, dass das Phänomen der betreffenden Spalte zutrifft. Der Eintrag (0) bedeutet hinge-
gen, dass das Phänomen nicht zutrifft. In den Zeilen werden somit Konfigurationen (und
nicht etwa Fälle) dargestellt. Die Anzahl der logisch möglichen Kombinationen entspricht
2k, wobei k für die Anzahl der Bedingungen steht. Die Zahl der Kombinationsmöglichkei-
ten steigt also exponentiell an. Was bei zwei Bedingungen (22 = 4 Kombinationsmöglich-
keiten) noch sehr übersichtlich erscheint, wird bei zehn analysierten Bedingungen (210 =
1024 Kombinationsmöglichkeiten) schnell zu einem methodischen und empirischen Prob-
lem.
Die Boolesche Addition und Multiplikation unterscheidet sich dabei von der her-
kömmlichen Algebra. Ein Plus (+) ist im Booleschen Sinne als ODER zu lesen. Die Logik
der Addition in der Booleschen Algebra besteht darin, dass, wenn zu addierende Ausprä-
gungen zutreffen, auch das Ergebnis zutrifft. Das heißt: wenn die Bedingung A zutrifft oder
die Bedingung B zutrifft, dann trifft auch der Outcome Y als Funktion der unabhängigen
Variablen zu. In diesem Sinne ist 1 plus 0 gleich 1 und 0 plus 1 ist auch gleich 1. Wenn
beide Bedingungen zutreffen, dann trifft das Ergebnis ebenfalls zu, also 1 plus 1 ist eben-
falls gleich 1. Bei der Multiplikation ist das Malzeichen (*) als UND zu lesen. In unserem
128 Forschungsdesign

Beispiel bedeutet dies, dass Y nur dann zutrifft, wenn auch A und B zutreffen. In allen
anderen Kombinationen – A trifft zu, B trifft nicht zu bzw. A trifft nicht zu, B trifft zu –
trifft der Outcome Y nicht zu. Also ergibt in diesem Fall nur 1*1 als Ergebnis 1.
Das Ziel von QCA besteht darin Gleichungen aufzustellen, die erklären unter welchen
Bedingungen eine Funktion (Y), also der Outcome eintritt. Mit Hilfe der Booleschen Al-
gebra lassen sich die theoretisch möglichen Kombinationen der Bedingungen auf die be-
stimmten Fällen gemeinsamen geringstmöglichen Elemente als Lösungen („Hauptimpli-
kanten“) reduzieren. Durch die Minimierung der Booleschen Konfigurationen werden Mus-
ter berechnet, die ausschließlich in Fällen auftreten, in denen sich ein bestimmter Outcome
beobachten lässt. Ein hypothetisches Beispiel einer Wahrheitstabelle mit vier Bedingungen
soll die analytische Vorgehensweise von QCA verdeutlichen (siehe Tabelle 16)6.
Unser hypothetisches Beispiel versucht die Frage zu klären, unter welchen Bedingun-
gen ein Staat demokratisch stabil bleibt. Als potentiell kausal relevant für die Stabilität
einer Demokratie wurden drei Bedingungen identifiziert: ob die Demokratie durch einen
gewaltsamen Umsturz (Bedingung A) zustande kam, ob das es in dem Land eine ethnisch
homogene Bevölkerung (B) gibt und ob das Parteiensystem des Landes pluralistisch ist (C).
Wir fragen also, welche der Bedingungen A, B und C hinreichend und notwendig für das
Auftreten des Outcomes Y sind.

Tabelle 16: Hypothetisches Beispiel einer Wahrheitstabelle mit


Komplementärbedingungen
Bedingungen Outcome
Zeile A B C a b c Y
1 0 0 0 1 1 1 1
2 0 0 1 1 1 0 1
3 0 1 0 1 0 1 1
4 0 1 1 1 0 0 1
5 1 0 0 0 1 1 0
6 1 0 1 0 1 0 1
7 1 1 0 0 0 1 0
8 1 1 1 0 0 0 0
Y = Stabile Demokratie
A = Gewaltsamer Umsturz
B = Ethnische Homogenität der Bevölkerung
C = Pluralistisches Parteiensystem

Die einfachste und schnellste Möglichkeit, um zu einer Lösungsformel für die hinreichen-
den Bedingungen zu gelangen ist der sogenannte Quine-McClusky-Algorithmus. Bei die-
sem Verfahren werden in einem ersten Schritt alle Kombinationen der Bedingungen aufge-
schrieben, die in Zeilen mit einem positiven Outcome (Y = 1) stehen. Die Anwesenheit
einer Bedingung wird dabei durch Großbuchstaben gekennzeichnet, während die Abwesen-

6
Das hypothetische Beispiel ist aus dem QCA-Lehrbuch von Schneider und Wagemann (2007: 65ff) entnom-
men.
Die vergleichende Methode als Forschungsansatz 129

heit einer Bedingung, auch Komplementärbedingung genannt, mit einem Kleinbuchstaben


gekennzeichnet wird. In unserem hypothetischen Beispiel beschreibt somit „A“ den Um-
stand eines gewaltsamen Umsturzes, während „a“ einen gewaltlosen Umsturz markiert.
Wie der Tabelle zu entnehmen ist, liegt in den Zeilen 1, 2, 3, 4 und 6 ein positives
Outcome vor. In Zeile 1 werden die Bedingungen durch die Kombination „abc“ beschrie-
ben, während die Kombination in Zeile 2 „abC“ lautet. Verknüpfen wir diese Zeilen nun
mit einem logischen ODER-Symbol, dann ergibt sich folgende Lösungsformel:

abc + abC + aBc + aBC + AbC Æ Y

Alle fünf Kombinationen sind hinreichende Bedingungen, denn sie führen alle getrennt
voneinander zum Outcome Y, und können daher mit dem logischen ODER zu einer gülti-
gen Kausalaussage verknüpft werden. Die ist die einfachste Form eine Wahrheitstabelle in
einer Lösungsformel zu erfassen. Die fünf Kombinationen werden auch als „primitive Aus-
drücke“ (primitive expressions) bezeichnet, da eine Lösungsformel basierend auf primitiven
Ausdrücken noch redundante Aussagen enthält und daher gleichsam einer Rohfassung ist.
In einem zweiten Schritt werden diese redundanten Aussagen mittels Boolescher Al-
gebra dann minimiert, um zu einer einfacheren und sparsameren Lösungsformel zu kom-
men. So können wir zum Beispiel die Kombination „abc“ und „abC“ vereinfachen, da „ab“
in beiden Fällen den Outcome hervorruft, unabhängig davon, ob die Bedingung C anwe-
send (Großbuchstabe C) oder abwesend (Kleinbuchstabe c) ist. Die Bedingungen C und c
sind mit anderen Worten im Kontext von „ab“ logisch redundant für die Erklärung des
Outcomes Y. (Schneider u. Wagemann 2007: 66). Ebenso können wir die Terme „aBc“ und
„aBC“ zu „aB“ zusammenfassen und gelangen damit zu folgendem Zwischenergebnis:

ab + aB + AbC Æ Y

Diese Lösungsformel lässt sich mit dem paarweisen Vergleich noch weiter minimieren und
die ersten beiden Terme „ab“ und „aB“ zu „a“ zusammenfassen. Die nicht mehr zu verein-
fachende Lösungsformel lautet demnach:

a + AbC Æ Y

Bezogen auf unser Beispiel heißt dies, dass ein nicht-gewaltsamer Umsturz eine notwendi-
ge Bedingung für eine stabile Demokratie ist. Allerdings kann in Fällen mit einer ethnisch
nicht-homogenen Bevölkerung und einem pluralistischen Parteiensystem der Umsturz auch
gewaltsam sein und in dieser Kombination dennoch zu einer stabilen Demokratie führen.
Die Ergebnisse in QCA bestehen, wie unser Beispiel verdeutlicht, immer aus Ausprä-
gungskombinationen von Fällen unter Eliminierung von ambivalenten Ausprägungen von
Bedingungen. Dabei sind mehrere Hauptimplikanten als alternative Ergebnisse möglich,
wenn verschiedene Ursachenkombinationen (Konfigurationen) zu dem gleichen Ergebnis
führen (Äquifinalität). Ein wesentlicher Aspekt der QCA-Analyse besteht darin, dass die
Ausprägungskombinationen immer auf die konkreten Fälle bezogen sind. Damit ist es in
der Analyse möglich, sich zugleich auf die Ausprägung der Variablen und auf die dahinter
stehenden Fälle zu beziehen (Jahn 2006: 420). Durch diese Verknüpfung der Logiken der
130 Forschungsdesign

fallorientierten und der variablenorientierten Logik in ein und derselben Analysetechnik


lässt sich QCA für verschiedene Zwecke einsetzen (Berg-Schlosser 2003: 117). So kann es:
 die untersuchten Fälle im Hinblick auf die abhängige Variable („Outcome“) in der
kürzestmöglichen widerspruchsfreien Weise beschreiben bzw. widersprüchliche Aus-
sagen aufdecken;
 in der einschlägigen theoretischen Literatur aufgestellte Hypothesen testen, auf ihre
Reichweite prüfen und sie ggf. falsifizieren;
 unter Einbeziehung weiterer logisch denkbarer Kombinationen eigene kürzestmögliche
Lösungsformeln entwickeln und so zur Theoriebildung beitragen.

Neben diesen Vorzügen hat QCA, wie alle anderen Methoden, auch einige Schwächen
(Berg-Schlosser 2003: 118). Eine liegt wie bereits gezeigt in der begrenzten Anzahl von
unabhängigen Variablen, die gleichzeitig untersucht werden können, da die exponentiell
anwachsende Zahl der Kombinationsmöglichkeiten gewisse Grenzen setzt. Eine weitere
Schwäche ist die notwendige Dichotomisierung der Daten und die damit verbundenen In-
formationsverluste.
Um insbesondere dem letztgenannten Problem der Dichotomisierung entgegenzuwir-
ken sind neben der klassischen Variante des QCA, dem so genannten Crisp-Set QCA
(„csQCA“), welche in unserem oben angeführten Beispiel verwendet wurde, weitere Vari-
anten entwickelt worden: das Multi-Value QCA („mvQCA“) und das Fuzzy-Set QVA
(„fsQCA“). Diese beiden alternativen Varianten sollen im Folgenden abschließend kurz
dargestellt werden.

Multi-Value Qualitative Comparative Analysis (mvQVA)

Der wesentliche Unterschied von Multi-Value QCA gegenüber dem klassischen QCA ist,
dass mvQCA es ermöglicht, auch mehrwertige Bedingungen in die Analyse zu integrieren.
Damit entfällt der Zwang zur Dichotomisierung aller Variablen. Die mehrwertige Analyse
in mvQCA setzt also nicht mehr voraus, dass alle Bedingungen dichotom [0,1] kodiert sind,
wie dies in QCA der Fall ist, sondern erlaubt auch mehrstufige nominale und ordinale Be-
dingungen (Cronqvist 2007: 68). Intervallskalierte Daten (z.B. BIP pro Kopf) können aller-
dings auch in mvQCa nicht direkt benutzt werden, sondern müssen zu einer ordinal skalier-
ten Bedingung umkodiert werden. Die Kodierung von intervallskalierten Daten wird durch
die Festlegung von Schwellenwerten (thresholds) durchgeführt, mit denen die Daten in
mehrwertige ordinal skalierten Bedingungen transformiert werden. Diese Erweiterung
betrifft allerdings nur die kausal relevanten Bedingungen, nicht jedoch den Outcome. Die-
ser muss auch in mvQCA wie gehabt dichotom operationalisiert werden.
Im Prinzip können die Bedingungen beliebig fein unterteilt werden, allerdings führt
eine große Zahl von möglichen Werten schnell zu einer Individualisierung von Fällen,
wodurch sinnvolle Reduktionsschritte für die Lösungsformel sehr erschwert werden. In der
Praxis werden die Bedingungen deshalb in der Regel mit drei oder vier möglichen Werten
kodiert (Cronqvist 2004; Cronqvist u. Berg-Schlosser 2006). Die Einbindung mehrstufiger
Bedingungen steigert jedoch die Anzahl möglichen Kombinationen und damit die Komple-
xität der Analyse. Ist in QCA die Anzahl der der möglichen Kombinationen durch die An-
zahl der Bedingungen begrenzt, so hängt diese in mvQCA auch von der Zahl der möglichen
Die vergleichende Methode als Forschungsansatz 131

Werte der verschiedenen Bedingungen ab. Gibt es in einem Datensatz zwei dichotome
Bedingungen sowie je eine dreistufige Bedingung und eine vierstufige Bedingung, so gibt
es KM = 2 * 2 * 3 * 4 = 48 logisch mögliche Kombinationen.
Das Ziel von mvQCA ist es, wie in QCA, die Komplexität der Datensätze so weit wie
möglich zu reduzieren und die Hauptimplikanten für eine sparsame Lösungsformel zu fin-
den. Die Berechnung erfolgt in mvQCA ebenfalls dreiteilig (Cronqvist 2007: 71). Zuerst
wird die Wahrheitstabelle erstellt, von Cronqvist auch Konfigurationstabelle genannt, in der
Fälle mit der gleichen Konfiguration zusammengefasst werden. Danach werden die Haup-
timplikanten berechnet und dann aus diesen Hauptimplikanten die kürzestmögliche Lö-
sungsformel zusammengesetzt.
Der Hauptvorteil von mvQCA gegenüber csQCA besteht in der Minimierung der In-
formationsverluste während der Kodierung, durch die Möglichkeit mehrere Werte anzuge-
ben. Cronqvist argumentiert, dass mvQCA eine Erweiterung von QCA ist und sich vor
allem für die Analyse von genuin mittleren Fallzahlen eignet, also dem Bereich ungefähr
zwischen 15 und 35 Fällen. In der Literatur werden die Vor- und Nachteile von mvQCA
jüngst ausführlicher diskutiert (Schneider u. Wagemann 2007: 262-265; Vink u. van Vliet
2007). Während Vink und van Vliet mvQCA kritisch gegenüberstehen und dem Ansatz
nennenswerte Verbesserungen bezüglich der zentralen Probleme der qualitativen kompara-
tiven Analyse weitgehend absprechen, etwa bei den Problemen der begrenzten empirischen
Vielfalt oder widersprüchlichen Konfigurationen, sehen Schneider und Wagemann den
Beitrag von mvQCA positiver, unter der Voraussetzung, dass nur wenige multi-kategoriale
Bedingungen in eine ansonsten auf dichotomen Bedingungen basierende Analyse aufge-
nommen werden.

Fuzzy-Set Qualitative Comparative Analysis (fsQCA)

Fuzzy-Set QCA ist durch das gleichnamige Buch von Charles Ragin (2000) in die Diskus-
sion eingeführt worden. Fuzzy Sets lassen sich als „unscharfe Mengen“ übersetzen. Fuzzy-
Werte erweitern die von csQCA bekannte Dichotomie von 0 und 1 bei der Kodierung der
Bedingungen und des Outcomes auf alle Werte im Intervall [0;1]. Diese Werte können als
Grad der Mitgliedschaft eines Falles in einer Menge interpretiert werden (Schneider u.
Wagemann 2007: 184). Der Wert 1 gibt an, dass ein Fall vollständig zu einer Menge ge-
hört, während der Wert 0 angibt, dass der Fall gar nicht dazu gehört. Die Werte zwischen 0
und 1 geben eine abgestufte Mitgliedschaft an. Fuzzy-Sets sind also nichts anderes als
Mengen, die zusätzlich zu einer Vollmitgliedschaft und einer absoluten Nicht-Mitglied-
schaft eines Fall auch Abstufungen der Mitgliedschaft zulassen.
Um die Abstufungen der Idealfälle und die Mitgliedschaftswerte in den Fuzzy-Men-
gen zu quantifizieren, werden so genannte Fuzzy-Werte verwendet und die Abstufungen in
Fuzzy-Mitgliedschaftswerten mit sprachlichen Qualifizierungen belegt (Ragin 2000: 156).
So könnten die Fuzzy-Werte für die Stabilität einer Demokratie wie folgt sprachlich be-
schrieben werden (Schneider u. Wagemann 2007: 178):
132 Forschungsdesign

Tabelle 17: Beschreibung von Fuzzy-Mitgliedswerten, 4 Stufen


1 wird vergeben im Falle perfekt stabiler Demokratien
0,7 wird vergeben im Fall von Demokratien, die eher stabil als nicht-stabil sind
0,3 wird vergeben im Fall von Demokratien, die eher nicht-stabil als stabil sind
0 wird vergeben im Falle perfekt nicht-stabiler Demokratien

Diese Fuzzy-Skala lässt sich noch weiter ausdifferenzieren, wenn theoretische Gründe oder
die empirische Evidenz dafür sprechen. Für unscharfe Mengen ist es dabei weder notwen-
dig, dass Elemente für jeden unscharfen Mitgliedswert existieren, noch dass die Abstände
zwischen den Werten gleich groß sind.
Die jeweiligen Werte der untersuchten Bedingungen zusammengefasst ergeben wieder
die Konfigurationen der einzelnen Fälle, welche dann für die Berechnung von notwendigen
und hinreichenden Bedingungen herangezogen werden. Betrachteten wir hierzu eine Da-
tenmatrix, die drei Bedingungen A, B, C und das Outcome y enthält sowie der Einfachheit
halber nur zwei Fälle (Schneider u. Wagemann 2007: 188):

Bedingungen Outcome
Zeile A B C Y
1 1 0,8 0,9 0,7
2 0,7 0,2 0,4 0,4
Y = Stabile Demokratie
A = Gewaltsamer Umsturz
B = Ethnische Homogenität der Bevölkerung
C = Pluralistisches Parteiensystem

Die Komplementärbedingung berechnet sich durch die Negation einer Mitgliedschaft in


einer Fuzzy-Menge, also anhand der Formel: r = 1 - R
Bezogen auf unsere Datenmatrix heißt dies beispielhaft für den ersten Fall: b = 1 – 0,8
= 0,2. Das Beispielland in der ersten Zeile hat also eine Mitgliedschaft in der Menge „Eth-
nisch nicht-homogene Bevölkerung“ (b) von 0,2. Gleichzeitig hat es eine Mitgliedschaft in
der Menge „Ethnisch homogene Bevölkerung“ (B) von 0,8.
Die Addition und Multiplikation ist in der fsQCA-Variante ebenfalls anders als im
klassischen QCA. Werden zwei Bedingungen multipliziert (logisches UND), dann wird
diese Schnittmenge durch das Minimum der beiden Merkmalsbedingungen bestimmt. Für
den zweiten Fall in der obigen Tabelle bedeutet das:

AB = min (A, B) = min (0,7 , 0,2) = 0,2

Werden zwei Bedingungen addiert (logisches ODER), so wird die Vereinigungsmenge


hingegen durch das Maximum der beiden Merkmalsbedingungen bestimmt. Ergo:

A + B = max (A, B) = max (0,7 , 0,2) = 0,7


Die vergleichende Methode als Forschungsansatz 133

Auf diesen grundlegenden Regeln aufbauend, geschieht die Berechnung der notwendigen
und hinreichenden Bedingungen in fsQCA dann wie folgt: Zuerst werden alle notwendigen
Bedingungen berechnet, in dem für jede Bedingung sowie deren Komplement überprüft
wird, ob sie für das Outcome notwendig ist. Eine notwendige Bedingung liegt dann vor,
wenn der Wert der Bedingung größer oder gleich dem Wert des Outcomes ist. In einem
zweiten Schritt werden dann die hinreichenden Bedingungen berechnet. Hierzu wird für
jede Konfiguration von Bedingungen überprüft, ob sie eine hinreichende Bedingung dar-
stellen. Berücksichtigt werden hierbei aber nur Konfigurationen, die sämtliche notwendigen
Bedingungen enthalten. Ist zum Beispiel die Kombination „Ab“ eine notwendige Bedin-
gung, dann werden nur Kombinationen von Bedingungen berücksichtig in denen „Ab“
vorliegt. Als hinreichend gilt eine Bedingung dann, wenn der kombinierte Wert der Bedin-
gung kleiner ist als der Wert des Outcomes.
Als Ergebnis liefert die Analyse mit fsQCA dann eine Menge von Hauptimplikanten,
welche aus der Minimierung der hinreichenden Bedingungen hervorgegangen ist. Für die
Ausdrücke gilt dabei, dass sie im probalistischen Sinne hinreichend sind, um ein untersuch-
tes Phänomen zu erklären und dabei auch im probalistischen Sinne notwendige Bedingun-
gen berücksichtigen (Cronqvist 2007: 24). Das folgende Beispiel (siehe Tabelle 18) soll das
analytische Vorgehen in fsQCA verdeutlichen.

Tabelle 18: Fuzzy-Mitgliedschaften von 18 Ländern zur Analyse des Aufbaus eines
Wohlfahrtsstaates
Land Bedingungen Outcome
L G K H Generöser Wohl-
fahrtstaat (W)
Australien 0.25 0.4 0.17 0.25 0.26
Österreich 0.7 0.64 0.83 0.67 0.72
Belgien 0.54 0.84 0.83 0.29 0.79
Kanada 0 0.06 0.05 0.1 0.26
Dänemark 0.85 0.81 0.83 0.86 0.86
Finnland 0.56 0.86 0.83 0.72 0.76
Frankreich 0.12 0.1 0.33 0.31 0.57
Deutschland 0.43 0.2 0.67 0.3 0.68
Irland 0.11 0.63 0.67 0.84 0.67
Italien 0.1 0.39 0.5 0.55 0.64
Japan 0 0.04 0.33 0.95 0.52
Niederlande 0.33 0.17 0.83 0.27 0.69
Neuseeland 0.4 0.54 0.17 0.15 0.56
Norwegen 0.95 0.53 0.83 0.95 0.95
Schweden 0.98 1 0.95 0.7 0.98
Schweiz 0.34 0.13 0.67 0.1 0.53
Großbritannien 0.61 0.34 0.5 0.15 0.63
USA 0 0.04 0.05 0.05 0.09
134 Forschungsdesign

L = starke Linksparteien
G = starke Gewerkschaften
K = Korporatismus
H = soziokulturelle Homogenität
Quelle: Ragin (2000: 292)

Die Analyse der 18 empirischen Fälle verläuft in zwei Schritten. Zunächst wird untersucht,
ob notwendige Bedingungen vorliegen. Für die vier Bedingungen L, G, K und H sowie ihre
Komplemente l, g, k und h wird getrennt voneinander untersucht, ob sie notwendige Bedin-
gungen für den Outcome W sind. Hierzu müssen acht Tests (2k) durchgeführt werden, je
einmal für die positive und die negative Zugehörigkeit jeder Variable zu einer Menge. Ra-
gin hat dazu einen Test mit einer Wahrscheinlichkeitsproportion von 0,8 (fast immer not-
wendig) mit einem Signifikanzniveau von 0,05 durchgeführt.7 Die Ergebnisse der Analyse
zeigt Tabelle 19.

Tabelle 19: Analyse notwendiger Bedingungen in fsQCA


Variable Anzahl der Ereignisse Beobachtbarer Anteil
links 9 0,50
Links 2 0,11

gewerkschaften 9 0,50
GEWERKSCHAFTEN 4 0,22

korporatismus 6 0,33
KORPORATISMUS 6 0,33

homogenität 9 0,50
HOMOGENITÄT 4 0,22
Anzahl der getesteten Fälle (Ereignis > 0): 18
Test Proportion: 0.8; *p < 0.05
Quelle: Jahn 2006: 431

In unserem vorliegenden Beispiel existieren also keine notwendigen Bedingungen. Der


höchste Wert, der erreicht wird, liegt bei 0,50 und damit deutlich unterhalb der Wahr-
scheinlichkeitsproportion von 0,8.
Für die Berechnung der hinreichenden Bedingungen werden die Daten aus Tabelle 19
mit Hilfe des Fuzzy-Wahrheitstabellen-Algorithmus in eine Wahrheitstabelle mit 16 Zeilen
übertragen. Hierzu wird für jede der 16 Zeilen (Merkmalskombinationen) zunächst ermit-
telt, wie viele der 18 Länder einen Mitgliedschaftswert über 0,5 haben. Danach wird für
jene Zeilen, die über genügend Fälle verfügen und als mögliche hinreichende Bedingung in
Frage kommen, ermittelt, ob sie ausreichend konsistent sind. In Anlehnung an Schneider

7
Ragin (2000: 107-119) gibt folgende Wahrscheinlichkeitsproportionen an: 0,8 (trifft fast immer zu); 0,65 (trifft
gewöhnlich zu); und 0,5 (trifft öfter zu als nicht). Auch empfiehlt er verschiedene Signifikanzniveaus (0,1;
0,05; 0,01), die zusammen mit der Wahrscheinlichkeitsproportion eine gewisse Anzahl von Ausnahmen erlau-
ben (siehe die Tabelle 4.9 in Ragin 2000: 114).
Die vergleichende Methode als Forschungsansatz 135

und Wagemann (2007: 235) soll hier gelten, dass mindestens ein Fall pro Zeile einen Mit-
gliedschaftswert von über 0,5 haben muss (ansonsten gilt die Zeile als logisches Rudiment)
und dass empirisch relevante Kombinationen dann als hinreichende Bedingungen für den
Outcome (W) gelten, wenn der entsprechende Konsistenzwert gleich 1 ist. Durch dieses
Vorgehen erhalten wir als Ergebnis die folgende Tabelle 20.
Im Gegensatz zur Wahrheitstabelle in csQCA bedeutet der Wert „1“ beim Outcome
hier nicht „der Outcome liegt vor“, sondern dass diese Kombination eine ausreichend kon-
sistente hinreichende Bedingung ist. Unter Beachtung unserer Vorgaben zur Fallzahl und
zur Konsistenz zeigt sich, dass die Kombinationen der Bedingungen in den Zeilen 1, 2 und
3 hinreichende Bedingungen für den Outcome „Generöser Wohlfahrtsstaat“ (W=1) sind.
Die Merkmalskombinationen in den Zeilen 4, 5, 6 und 7 sind hingegen nicht konsistent
genug für eine hinreichende Bedingung (W=0). Die Zeilen 8-16 beschreiben jene logisch
möglichen Kombinationen der Bedingungen, für die es keine ausreichende empirische
Evidenz gibt (W=?).

Tabelle 20: Analyse der hinreichenden Bedingungen in fsQCA durch Wahrheitstabelle


mit vier Bedingungen
Bedingungen Outcome
Zeile L G K H W Fallzahl* Konsistenz
1 1 1 1 1 1 5 1
2 0 1 1 1 1 1 1
3 1 1 1 0 1 1 1
4 0 0 0 0 0 4 0.68
5 0 0 1 0 0 3 0.97
6 0 0 0 1 0 1 0.96
7 0 1 0 0 0 1 0.96
8 0 0 1 1 ? 0 1
9 0 1 0 1 ? 0 1
10 0 1 1 0 ? 0 1
11 1 0 0 0 ? 0 1
12 1 0 0 1 ? 0 1
13 1 0 1 0 ? 0 1
14 1 0 1 1 ? 0 1
15 1 1 0 0 ? 0 1
16 1 1 0 1 ? 0 1
* Anzahl der Länder mit einem Mitgliedschaftswert von mehr als 0,5.
Die Untersuchungsfälle verteilen sich wie folgt auf die Zeilen der Wahrheitstabelle (in Klammern der Mitglied-
schaftswert im Outcome W):
Zeile 1: LGKH: Österreich (0,64); Dänemark (0,81); Finnland (0,56), Norwegen (0,53); Schweden (0,7)
Zeile 2: lGKH: Irland (0,63)
Zeile 3: LGKh: Belgien (0,54)
Zeile 4: lgkh: Australien (0,6); Kanada (0,9); Frankreich (0,67); USA (0,95)
136 Forschungsdesign

Zeile 5: lgKh: Deutschland (0,57); Niederlande (0,67); Schweiz (0,66)


Zeile 6: lgkH: Japan (0,67)
Zeile 7: lGkh: Neuseeland (0,54)
Zeilen 8-16: nicht besetzt (logische Rudimente)
Quelle: Schneider u. Wagemann 2007: 236

Für die Bestimmung der Lösungsformel müssen nur noch die hinreichenden Bedingungen
aus den Zeilen 1-3 minimiert werden. Geschieht dies ohne Zuhilfenahme vereinfachender
Annahmen über die logischen Rudimente (d.h. diese Zeilen werden als „0“ gesetzt und wie
„w“ behandelt), dann erhalten wir das folgende Ergebnis:

LGKH + lGKH + LGKh Æ W


LGK + GKH Æ W
GK (L + H) Æ W

Zwei Wege führen also zu einem positiven Outcome. Generöse Wohlfahrtsstaaten treten in
Ländern mit starken Gewerkschaften (G) und einem stark ausgeprägten korporatistischen
industriellen System (K) in Verbindung mit entweder starken Linksparteien (L) oder einer
starken soziokulturellen Homogenität (H) auf. Durch das Ausklammern von „GK“ wird
dabei hervorgehoben, dass die Kombination aus starken Gewerkschaften und einem stark
korporatistischen System in allen hinreichenden Lösungen vorkommt, die zum Outcome
(W) führen.
Der Vorteil der Fuzzy-Set QCA besteht vor allem darin, dass konfigurative Zusam-
menhänge erfasst werden und Schlussfolgerungen über die analysierten Fälle hinaus getrof-
fen werden können. Der wesentliche Unterschied zu QCA besteht darin, dass die Variablen
differenzierter kodiert werden und dass Wahrscheinlichkeitsbedingungen in die Berech-
nungen einfließen (Jahn 2006: 434). Da die Signifikanz der notwendigen und hinreichenden
Bedingungen in fsQCA mit einem probalistischen Test überprüft werden muss und diese
Tests auf einer gewissen Mindestzahl von Fällen beruhen, empfiehlt Cronqvist (2007: 25)
diese Methode für Analysen von mittleren Fallzahlen in der Größenordnung von 30 und
mehr Fällen zu verwenden. Ragin hingegen verwendet in seinem Buch mehrere Beispiele,
in denen deutlich weniger Fälle analysiert werden, wie etwa das oben vorgestellte Beispiel
der Analyse des generösen Wohlfahrtsstaates in 18 OECD-Ländern (Ragin 2000: 298).

5.4 Methoden des fallinternen Vergleichs


Die in den vorangegangenen Kapiteln vorgestellten konfigurativen Methoden des fallüber-
greifenden Vergleichs lassen sich sehr gut mit Methoden des fallinternen Vergleichs kom-
binieren, mit denen ausgewählte Fälle zusätzlich intensiv analysiert werden können. Für die
vergleichende Fallstudienforschung hat Alexander George (George 1979; George u.
McKeown 1985; George u. Bennett 2005: 67-72) die Methode des strukturiert-fokussierten
Vergleichs als einer Form des kontrollierten Vergleichs entwickelt. Die Logik dieses Ver-
fahrens besteht darin, dass die gleichen Konzepte und Variablen in allen untersuchten Fäl-
len systematisch erhoben und analysiert werden (Jahn 2006: 337). Diese Strukturierung des
Forschungsprozesses macht die vergleichende Analyse erst möglich. Ferner sollen die Fälle
Die vergleichende Methode als Forschungsansatz 137

nicht als Ganzes holistisch erfasst werden, sondern die Analyse sich auf ausgewählte Teil-
aspekte konzentrieren. Nur diese analytisch abgeleiteten Teilaspekte der Fälle werden dann
miteinander verglichen.
Der strukturiert-fokussierte Vergleich besteht im Kern aus einem dreistufigen Vorge-
hen. Der erste Schritt ist die Entwicklung des Forschungsdesigns. Diese erste Phase umfasst
die Bearbeitung von fünf Aufgaben (George u. Bennett 2005: 72ff):

a. Zunächst sollen die Forschungsfrage, der Untersuchungsgegenstand und die For-


schungsziele genau spezifiziert werden. Dabei ist zu bestimmen, welches empirische
Phänomen untersucht werden soll und für welche Klasse von Ereignissen der Fall
stellvertretend ist, mithin was durch den Fall eigentlich beschrieben und erklärt wer-
den soll. Des Weiteren ist zu klären, welche theoretischen Erklärungen es für das zu
untersuchenden Phänomen gibt und ob es sich hierbei um rivalisierende Erklärungen
handelt. Schließlich sind die Theorieelemente auszuwählen, die eine Einschätzung o-
der Verfeinerung durch die eigene Studie erfahren sollen.
b. Danach soll eine Forschungsstrategie entwickelt werden, das heißt es werden for-
schungsleitende Hypothesen formuliert und die Elemente (Bedingungen und Variab-
len) bestimmt, die in einen kontrollierten Vergleich aufgenommen werden sollen: (i)
Was ist die abhängige Variable (bzw. der Outcome)? (ii) Welche unabhängigen und
intervenierenden Variablen machen das theoretische Modell aus? (iii) Welche Variab-
len sollen konstant gehalten werden zwischen den Fällen und welche Variablen sollen
variieren (erklärte Varianz)?
c. Anschließend müssen die konkreten Fälle für die Untersuchung ausgewählt werden.
Die Fälle sollen in Einklang mit den Forschungszielen und der Forschungsstrategie
ausgewählt werden und nicht nur deshalb, weil sie interessant, wichtig oder einfach zu
untersuchen sind. Die Fälle sind stattdessen so auszuwählen, dass sichergestellt ist,
dass sie die erforderliche Kontrolle und Varianz für die Untersuchung des For-
schungsproblems bieten. Das primäre Kriterium für die Auswahl der Fälle ist dement-
sprechend ihre Relevanz für die Forschungsfrage. Die Population (Grundgesamtheit)
bzw. Teilmenge aus der die Fälle entnommen werden, muss klar definiert werden.
d. Darauf folgend müssen Maßstäbe für die Bandbreite der Varianz angegeben werden,
in der sich die abhängigen und unabhängigen Variablen theoretisch bewegen können.
Die Varianz wird in einigen Fällen am besten durch qualitative Begriffe beschrieben,
während in anderen Fällen quantitative Kategorien besser geeignet sein können. In je-
dem Fall muss entschieden werden, wie viele Kategorien zur Beschreibung der Vari-
anz genutzt werden sollen. Eine geringe Zahl von Kategorien zu nutzen – zum Bei-
spiel bei dichotomen Variablen – bedeutet im Ergebnis zwar sparsame Erklärungen,
aber es beinhaltet gleichzeitig das potentielle Risiko wichtige Informationen und Nu-
ancen zu verlieren, während eine große Zahl an Kategorien zur Beschreibung der Va-
rianz im Gegensatz dazu eine Menge an Informationen bedeutet, es aber an knappen
Erklärungen mangelt.
e. Abschließend werden die Anforderungen an die Daten festgelegt, die in den Fallstu-
dien verwendet werden sollen. Dazu muss die Art der Information spezifiziert werden,
die etwa aus Experteninterviews erfasst werden soll und wie diese durch andere In-
formationsquellen (Dokumente, statistische Informationen, Literatur etc.) abgesichert
138 Forschungsdesign

und überprüft werden kann. Dabei spielt es eine wesentliche Rolle, dass die Informati-
onen standardisiert werden und somit zwischen den Fällen vergleichbar sind.

Die fünf beschriebenen Aufgaben sollten als einzelne Komponenten eines integrierten Gan-
zen betrachtet werden. Natürlich sind die fünf Aufgaben miteinander verwoben und gegen-
seitig voneinander abhängig. Die Integration der fünf Aufgaben in ein stimmiges For-
schungsdesign stellt den Forscher vor eine große Herausforderung, die, wie George und
Bennett betonen (2005: 88), nicht immer im ersten Anlauf bewältigt werden kann. Umso
wichtiger ist es, Schleifen und Rückkopplungen einzubauen, um Konkretisierungen und
Verbesserungen an den Ergebnissen der einzelnen Aufgaben vornehmen zu können, bevor
das endgültige Forschungsdesign den gestellten Anforderungen entspricht.
Der zweite Schritt im Rahmen des strukturierten, fokussierten Vergleichs ist die
Durchführung der Fallstudie auf der Grundlage des im ersten Schritt entwickelten For-
schungsdesigns. Das Produkt dieses zweiten Schrittes sind Erklärungen – „Antworten“ wie
George und Bennett (2005: 89) schreiben - für das Ergebnis eines Falles. Dabei müssen alle
möglichen Erklärungen für einen Fall in der Fallstudie berücksichtigt werden. Und solange
keine der Theorien sich als erklärungskräftiger gegenüber konkurrierenden Theorien her-
ausgestellt hat, müssen alle Theorien mit einer gewissen Erklärungskraft beibehalten wer-
den. Anders als statistische Verfahren verfügen Fallstudien nicht über klare Kriterien, wie
die Fakten eine Theorie unterstützen und ab wann eine Theorie in ausreichendem Maße
unterstützt wird (Jahn 2006: 338). Da der Forscher selbst über die Annahme oder Ableh-
nung einer Theorie entscheidet, muss er so offen wie möglich für alternative Erklärungsan-
sätze sein.
Der dritte und finale Schritt ist die Anbindung der empirischen Ergebnisse an die theo-
retische Diskussion. Die Ergebnisse von Fallstudien können sowohl für das Testen von
Theorien genutzt werden als auch zur Theorieentwicklung beitragen. Durch das induktive
Vorgehen können Fallstudien mittels Plausibilitätsprüfungen und der Analyse abweichen-
der Fälle neue oder vernachlässigte Variablen, Hypothesen, kausale Pfade, Kausalmecha-
nismen, Typen oder Interaktionswirkungen aufzeigen. In diesem Sinne können Fallstudien
auf drei Wegen einen Beitrag zur Theorieentwicklung leisten (George u. Bennett 2005:
109): Erstens können Theorien und ihre inhärenten Erklärungen durch die Ergebnisse von
Fallstudien unterstützt, geschwächt oder überhaupt erst etabliert werden. Zweitens kann das
Ergebnis, dass eine Theorie einen bestimmten Fall und sein Ergebnis erklärt oder eben
nicht erklärt, durch die Erarbeitung von Typologien auf ähnliche Fälle generalisiert werden.
Und drittens können die Ergebnisse von Fallstudien unter Umständen auch theoretische
Aussagen über andere Typen von Fällen möglich machen.
Entsprechend können Fallstudien auch auf verschiedenen Wegen einen Beitrag zur
Überprüfung von Theorien leisten (George u. Bennett 2005: 117-123). Selten werden Theo-
rien dabei pauschal verworfen, das Ziel von Fallstudien ist vielmehr existierende Theorie zu
präzisieren und zu verfeinern. Dies kann zum Beispiel durch die Verwendung konkurrie-
render Theorien in einer Fallstudie erreicht werden oder durch die Überprüfung typologisie-
render Theorien anhand von geeigneten Fällen. Im letzteren Fall kann auch die Typologie-
bildung selbst durch die gezielte Auswahl von Grenzfällen überprüft werden. Ferner kön-
nen Theorien an so genannten „wichtigen Fällen“ überprüft werden, also Fällen, die als
zentraler Beweis für die Erklärungskraft und Validität einer Theorie gelten können.
Die vergleichende Methode als Forschungsansatz 139

Aufbauend auf dem Ansatz des strukturiert-fokussierten Vergleichs werden in der


Fallstudienforschung verschiedene Methoden bzw. analytische Verfahren für den kontrol-
lierten Vergleich zwischen Fällen und dem fallinternen Vergleich verwendet. In der Litera-
tur werden vor allem drei fallorientierte Methoden diskutiert (siehe z.B. George u. Bennett
2005: 151; Blatter u. Blume 2008: 316): der kontrollierte Vergleich, die Prozess-Analyse
und die Kongruenzmethode. Als fallinterne Methoden des Vergleichs können im engeren
Sinne aber nur die beiden letztgenannten Methoden gelten. Die wesentlichen Inhalte und
Grundlagen der drei analytischen Verfahren werden in den folgenden Unterkapiteln kurz
dargestellt.

5.4.1 Kontrollierter Vergleich („Kovariation“)

Unter dem Begriff „Kontrollierter Vergleich“ verstehen George und Bennett (2005: 153-
160) in ihrem Buch die Vergleichende Methode nach Lijphart bzw. die Anwendung der
Millschen Methoden. Andere Autoren verwenden hierfür den Begriff des „kovariaten An-
satzes“ (Blatter u. Blume 2008). Da dieser methodische Ansatz in Kapitel 4.3.1 schon aus-
führlich beschrieben wurde, sollen an dieser Stelle nur die wesentlichen Punkte rekapitu-
liert werden.
Prominent vertreten wird der kovariate Ansatz gegenwärtig von John Gerring (2007).
Im Kern handelt es sich bei dem kovariaten Ansatz, wie Hall es ausdrückt, um den kleinen
Bruder der statistischen Analyse: „the comparative method is essentially the statistical
method writ small“ (Hall 2006: 26). Gemeint ist damit, dass im Zentrum des kovariaten
Ansatzes ebenfalls die Suche nach kausalen Effekten steht. Analytisch untersucht werden
die Zusammenhänge zwischen den Indikatoren für abhängige Variablen und unabhängige
Variablen. Zwei Bedingungen müssen erfüllt sein, um kausale Aussagen über den Zusam-
menhang zwischen zwei oder mehreren unabhängigen und abhängigen Variablen machen
zu können. Erstens müssen andere Variablen, die einen Einfluss auf das Ergebnis haben
könnten, kontrolliert werden. Beim kontrollierten Vergleich wird die Minimierung der
externen Varianz durch die bewusste Fallauswahl erreicht, womit ausgewählte Variablen
konstant gehalten werden. Die Validität der Schlussfolgerungen wird durch die bewusste
Fallauswahl erhöht, so dass der Vergleich zwischen den Fällen einem sozialen Experiment
möglichst nahe kommt. Zweitens muss der kovariate Zusammenhang zwischen zwei Vari-
ablen analytisch sinnvoll sein, das heißt die empirischen Beobachtungen müssen mit theo-
retischen Aussagen verknüpft werden. In diesem Sinne setzt der kontrollierte Vergleich
theoretisch oder empirisch deduzierte forschungsleitende Hypothesen voraus.
Generalisierende Schlussfolgerungen über die erklärenden Variablen erfolgen bei die-
sem Ansatz vom Spezifischen auf das Universale, das heißt die Ergebnisse aus den unter-
suchten Fällen werden auf eine größere Population von Fällen übertragen, die nicht direkt
untersucht wurden. Die Fallauswahl orientiert sich dementsprechend an der Position der
Fälle in der größeren Population (z.B. typisch, extrem, etc.). Die Grenzen der größeren
Population müssen dabei eindeutig bestimmt und analytisch begründet sein. Mit Generali-
sierungen werden die Schlussfolgerungen sozusagen in die „Breite“ der Fälle weiterentwi-
ckelt.
140 Forschungsdesign

5.4.2 Prozess-Analyse

Die systematische Prozess-Analyse steht geradezu sinnbildlich für das klassische Verständ-
nis von Fallstudien. Hierbei wird das untersuchte Ereignis, etwa eine politische Entschei-
dung oder ein soziales Phänomen, in seiner Entstehung kontextualisiert. Im Zentrum der
Forschungsanstrengungen steht dementsprechend die fallinterne Suche nach kausalen Me-
chanismen und Kausalketten:

„The process-tracing method attempts to identify the intervening causal processes – the causal
chain and causal mechanisms – between an independent variable (or variables) and the outcome
of the dependent variable“ (George u. Bennett 2005: 206).

Als Kausalmechanismen gelten dabei unmittelbar nicht beobachtbare physische, soziale


und psychologische Prozesse, durch die rational agierende Akteure kontextgebunden han-
deln (George u. Bennett 2005: 137; Jahn 2006: 346). Das Ziel von Prozessanalysen ist es,
etwaige Verbindungen zwischen den Variablen möglichst detailliert nachzuvollziehen,
weniger die Anzahl der Beobachtungen zu einzelnen Beobachtungen zu erhöhen (Blatter,
Janning u. Wagemann 2007: 158). Die Analysestrategie des „causal process tracing“
(George u. Bennett 2005: 205-232) formalisiert dieses Verfahren, in dem die Kausalitäts-
pfade eines Ereignisses im Zeitverlauf nachgezeichnet werden. Die Forschungslogik, die
hinter der systematischen Prozessanalyse steckt, besteht darin, dass der einzelne Fall in
unterschiedliche Phasen bzw. Etappen aufgeteilt wird und für jede dieser Etappen die Kau-
salität oder zumindest das Beziehungsgeflecht dargelegt und interpretiert wird. Damit wer-
den innerhalb des Falles die Beobachtungspunkte erhöht, was einer höheren Zahl von „Be-
obachtungsfällen“ entspricht (Jahn 2006: 333). Für die Verbindung der Zwischenschritte
können Hypothesen aus der Theorie abgeleitet werden.
In der Literatur werden verschiedenen Varianten der Prozessanalyse diskutiert. So
kann sie eher historisierend deskriptiv oder eher formalisiert-analytisch angewendet wer-
den. Die gewählte Form der Analyse kann sich dabei unter anderem an den vermuteten
Kausalitätsmustern ausrichten (George u. Bennett 2005: 213). Das Verständnis der Pro-
zessanalyse von George und Bennett orientiert sich stark an historiographischen Analysen
und Methoden. Konsequenterweise präsentieren sie bei ihrer Darstellung der verschiedenen
Formen der Prozessanalyse am ausführlichsten den Typ der „beschreibenden (atheoreti-
schen) Erzählung“. Dabei steht primär die chronologische Darstellung der empirischen
Informationen im Vordergrund, die dann in einem zweiten Schritt in eine analytische bzw.
theoriegeleitete Analyse überführt wird. Dieses Vorgehen zielt vor allem darauf ab, die
fallspezifische Validität der Schlussfolgerungen aus einer historiographischen Prozessana-
lyse sicherzustellen (Blatter, Janning u. Wagemann 2007: 158).
Eine weitere Möglichkeit zur systematischen Strukturierung von Fallstudien besteht in
analytischen Narrativen (Bates et al. 1998). Diese Form der Prozessanalyse trachtet viel
stärker als die beschreibende Erklärung danach, die entscheidenden Verbindungen zwi-
schen den Prozessvariablen und dem Ergebnis durch theoretische Modelle darzustellen und
zu überprüfen. Zu diesem Zweck verbindet der Ansatz analytische Verfahren aus den Sozi-
alwissenschaften mit narrativen Verfahren der Geschichtswissenschaft. Der narrative Teil
besteht aus der Betrachtung von Prozessen, besonderen Ereignissen und Kontexten. Der
analytische Aspekt besteht in expliziten und formalen Begründungskonzepten, die für die
Darstellung und Erklärung der Ereignisse genutzt werden. Seine besondere Stärke kann
Die vergleichende Methode als Forschungsansatz 141

dieser Ansatz entfalten, wenn die qualitative narrative Methode mit einer hoch formalisier-
ten Theorie verknüpft wird. Bates et al. verwenden zum Beispiel die Rational Choice-
Theorie. Um das Ereignis zu erklären, werden die Einzelentscheidungen dann dahingehend
untersucht, ob sie mit den aus der Theorie abgeleiteten Aussagen konform sind. Dazu wur-
den bei Bates et al. beispielsweise folgende Fragen gestellt: Würde ein rationaler Akteur
sich in Anbetracht der zu erwartenden Reaktion anderer Akteure so verhalten? Spiegeln
sich die Motive der Akteure in deren Verhalten wider? Sind die Reaktionen optimale Ent-
scheidungen angesichts der Handlungsalternativen, Spielregeln und verfügbaren Informati-
onen? Die konsistente Beantwortung von Fragen anhand der zugrunde liegenden Theorie
übertragt das Narrativ in ein analytisches Narrativ. Im Gegensatz zur deskriptiven Pro-
zessanalyse, bei der die einzelnen Schritte häufig nicht theoriegeleitet dargestellt werden,
kommt der kontinuierlichen Verbindung zwischen Theorie und Empirie beim analytischen
Narrativ eine besondere Rolle zu. Der Forschungsprozess durch analytische Narrative ist
abgeschlossen, wenn alle empirisch überprüfbaren theoretischen „Gedankenspiele“ durch-
geführt wurden (Jahn 2006: 234).
Zusammenfassend lassen sich drei verschiedene Stärken der unterschiedlichen Formen
der Prozessanalyse unterscheiden (Blatter, Janning u. Wagemann 2007: 157):

1. Der konkrete empirische Nachweis von kausalen Mechanismen und Kausalketten, die
zu einem bestimmten Ergebnis führen (als komplementäres Element zum Nachweis
von kausalen Effekten);
2. Die Erfassung von sequentiellen und situativen Interaktionswirkungen zwischen Ein-
flussfaktoren als primär induktiver Beitrag zu einer konfigurativen Analyse; und
3. Die Aufteilung einzelner Untersuchungseinheiten in zeitliche Perioden, um durch
Vergleiche zwischen diesen Einheiten und deren historischer Abfolge, aber auch durch
Veränderungen in der abhängigen und den unabhängigen Variablen, kausale Effekte
zu identifizieren.

Der Vorteil von Prozessanalysen besteht im Wesentlichen darin, dass zeitlich weit ausei-
nander liegende Ereignisse analytisch aufeinander bezogen werden können. Dabei können
durch die Prozessanalyse sowohl Scheinkorrelationen als auch Aquifinalitäten aufgedeckt
werden. Der hauptsächliche Beitrag den Prozessfallstudien für die theoretische Diskussion
leisten, besteht in der Präzisierung bereits bestehender Theorien, weitaus geringer ist der
Beitrag für die Überprüfung von Theorien.

5.4.3 Der Vergleich mit Theorien: Kongruenz-Methode und Pattern Matching

Von den gerade beschriebenen Prozessanalysen lassen sich fallinterne Methoden abgren-
zen, die sich sowohl bei der Fallauswahl als auch in der konkreten Analyse konsequent an
einer oder mehreren Theorien ausrichten. Entscheidend für die Fallauswahl ist bei diesen
Methoden nicht mehr, wie sich die Fälle zueinander verhalten, sondern was sie in Bezug
auf eine Theorie erwarten lassen bzw. schließlich nach der empirischen Untersuchung dar-
über aussagen.
George und Bennett (2005: 181-204) bezeichnen dieses Verfahren als Kongruenzme-
thode. Charakteristisches Merkmal für diese Methode ist, dass der Forscher mit einer Theo-
142 Forschungsdesign

rie beginnt und dann überprüft, ob diese Theorie das Ergebnis bzw. Outcome eines be-
stimmten Falles erklären kann. Der Begriff Kongruenz bedeutet im Allgemeinen deckungs-
gleich, in diesem Fall ist also die Deckungsgleichheit zwischen den theoretischen Erwar-
tungen und den empirischen Beobachtungen gemeint. Im Gegensatz zu der im vorherigen
Kapitel dargestellten Prozessanalyse konzentriert sich die Kongruenzmethode nicht auf den
zeitlichen Ablauf und die Identifikation der Kausalmechanismen, sondern auf die Überein-
stimmung der aus Theorien abgeleiteten Prognosen mit den empirischen Ergebnissen. Der
erste Schritt bei der Anwendung der Kongruenzmethode ist deswegen die genaue Spezifi-
kation der theoretischen Kausalannahmen und die Festlegung, welches Ergebnis bei wel-
chen Ausgangsbedingungen zu erwarten ist. Im zweiten Schritt wird dann am empirischen
Fall überprüft, inwieweit die theoretischen Erwartungen der empirischen Evidenz entspre-
chen und somit eine Kongruenz gegeben ist. Der dritte Schritt besteht in der kritischen
Kontrolle der Gültigkeit der Schlussfolgerungen durch die Suche nach weiteren Anhalts-
punkten innerhalb des Falles und durch weitere Vergleiche mit verschiedenen Theorien
(Blatter, Janning u. Wagemann 2007: 151). Um die kausale Signifikanz einer festgestellten
Kongruenz zu bewerten sollte sich der Forscher zwei Fragen stellen (George u. Bennett
2005: 185): (1) Ist die Übereinstimmung nur oberflächlich oder tatsächlich kausal signifi-
kant? und (2) Handelt es sich bei der bzw. den unabhängigen Variable(n) um notwendige
Bedingungen für das Ergebnis und welche Erklärungskraft und Prognosefähigkeit besitzen
diese Variablen? Um zu überprüfen, ob die festgestellte Kovarianz nur oberflächlich ist,
sollte der empirische Fall nach weiteren kausal relevanten Erklärungsfaktoren untersucht
werden, die möglicherweise die unabhängige und abhängige Variable gleichgerichtet beein-
flussen. Joachim Blatter wirft George und Bennett an dieser Stelle vor, ihren Kongruenztest
viel zu sehr auf die Frage der Kovarianz zwischen Variablen auszurichten und die interpre-
tative Dimension der Kongruenzmethode zu vernachlässigen (Blatter u. Blume 2008; Blat-
ter, Janning u. Wagemann 2007: 153). Nach seiner Lesart lässt sich die Kongruenzmethode
auch so verstehen, dass die Übereinstimmung der theoretischen Variablen mit der Empirie
über deren Kovarianz hinausreichen muss und die Übereinstimmung von Theorie und Em-
pirie qualitativ sowohl in Bezug auf die abhängigen als auch die unabhängigen Variablen
bewertet werden sollte. Abhängige und unabhängige Variablen stellen hierbei komplexe
Konstrukte dar, die nicht einfach mit quantifizierbaren Indikatoren gemessen werden kön-
nen. Aus dieser Perspektive ist die Basis der Kongruenzmethode weniger die Kovarianz
zwischen abhängiger und unabhängiger Variable, sondern die Kongruenz zwischen vielfäl-
tigen deskriptiven und prognostischen Elementen einer Theorie und den entsprechenden
empirischen Tatbeständen eines Falles.
Eine seit langem bekannte Spielart der Kongruenzmethode ist das Aufspüren von
Mustern innerhalb eines Falles, das so genannte pattern matching (Campbell 1975). Dieses
Verfahren hilft bei der Identifizierung typischer Konstellationsmuster von Variablen in
einer Fallstudie. Unter Rückgriff auf Theorien und der Berücksichtigung der Literatur kann
es auf einen Forschungsgegenstand bezogen werden und entspricht in dieser Hinsicht der
theorieorientierten, interpretativen Fallstudie (Jahn 2006: 333). Campbell hat das Verfahren
ursprünglich entwickelt, weil sich Hypothesen aus fallübergreifenden Untersuchungen
oftmals in Fallstudien nicht bestätigten: „Small-N researchers routinely find their argu-
ments cannot be sustained when within-case hypotheses are assessed“ (Campbell 1975:
182). In diesem Sinne kann pattern matching mittels Fallstudien dazu beitragen, die
Schwächen der fallübergreifenden Analysen zu mindern und eine zusätzliche Bestätigung
Die vergleichende Methode als Forschungsansatz 143

für die Ergebnisse und Schlussfolgerungen liefern. Das Verfahren des pattern matching ist
sehr hilfreich, um die Zahl der potentiellen Erklärungen zu minimieren, in dem es systema-
tisch mögliche erklärende Variablen aussortiert. Im Ergebnis führt dies zu deutlich sparsa-
meren Erklärungen.
Den Kern des pattern matching bildet die Prognose-Matrix („prediction matrix“). Die
Prognose-Matrix legt auf der Grundlage der Theorie das „Muster“ fest, welches durch die
Daten der empirischen Fälle entweder bestätigt oder nicht bestätigt wird. Die Aussagen in
der Matrix entsprechen theoretischen Hypothesen. Der erste Schritt im Rahmen des pattern
matching ist für den Forscher dementsprechend sich vertraut zu machen mit den Theorien,
die den empirischen Untersuchungsfall potentiell erklären könnten. Nachdem die Aussagen
dieser Theorien in die Prognose–Matrix eingegeben wurden, werden im zweiten Schritt die
empirischen Daten mit den theoretischen Aussagen abgeglichen. Dazu werden alle Über-
einstimmungen und Abweichungen in einer Tabelle mit entsprechenden Werten bzw. Aus-
prägungen notiert. Diese Ergebnistabelle kann dann in einem weiteren Schritt mit Hilfe von
statistischen Verfahren ausgewertet werden, um die Signifikanz der untersuchten Theorien
anhand der Zahl der bestätigten und unbestätigten Vorhersagen festzumachen. Als beson-
ders wertvoll erweist sich dieses Verfahren, wenn rivalisierende Theorien getestet werden
sollen. Aber pattern matching kann auch zur Theorieentwicklung beitragen, etwa in dem
die bestätigten theoretischen Aussagen als „benchmark“ für die Weiterentwicklung oder
Präzisierung bestehender Theorien genutzt werden.

5.5 Kombinierter Ansatz als methodische Schlussfolgerung


In den vorangegangenen Kapiteln sind die Unterschiede der idiographischen und der nomo-
thetischen Forschungsstrategien erläutert und ein recht umfassender Überblick über die
verschiedenen fallübergreifenden und fallinternen Methoden des Vergleichs in der Politik-
wissenschaft gegeben worden. Bis zum diesem Punkt sollte dem Leser deutlich geworden
sein, dass es „die“ Methode der vergleichenden Politikwissenschaft nicht gibt. Jede der
beschriebenen Methoden hat ihre eigenen Stärken und Schwächen. Selbst innerhalb der
Vergleichenden Methode, die für die hier vorliegende Untersuchung methodisch als zentral
erachtetet wird, bieten sich dem Forscher noch diverse Optionen zur methodischen Ausge-
staltung des Forschungsdesigns an.
Die zugrunde liegende Forschungsfrage und die mittlere Fallzahl sprechen in hohem
Maße für die Anwendung einer konfigurativen Analyse bei der alle Fälle gleichzeitig mit
einer begrenzten Anzahl von Variablen untersucht werden können. Hierfür bietet sich me-
thodisch die qualitative komparative Analyse von Ragin an, insbesondere in der Form der
Fuzzy-set QCA. Darüber hinaus scheint es methodisch sehr sinnvoll, ergänzend zu der
makro-qualitativ vergleichenden Analyse, auch Fallstudien in ausgewählten Ländern in das
Forschungsdesign zu integrieren. Der Hauptgrund hierfür ist, dass durch diesen kombinier-
ten methodischen Ansatz die fallübergreifende Analyse kausaler Effekte durch eine fallin-
terne Analyse von Kausalmechanismen in ihrer analytischen Erklärungskraft deutlich ver-
bessert werden kann. Fallstudien können im Rahmen einer solchen kombinierten verglei-
chenden Untersuchung einen unterschiedlichen Status einnehmen (Jahn 2006: 332). Einmal
können durch Einzelfallstudien jene Theorieelemente identifiziert werden, die dann durch
die vergleichende Methode auf mehrere Fälle übertragen und getestet werden. In diesem
144 Forschungsdesign

Fall spricht Detlef Jahn von der „Servicefunktion“ der Fallstudie für die vergleichende
Methode. Andererseits kann das Verhältnis zwischen Fallstudie und vergleichender Metho-
de aber auch umgekehrt sein. Bei einem solchen Vorgehen schafft die vergleichende Me-
thode die Grundlage für besser erklärende Fallstudien. Dieser Ansatz vertritt die Auffas-
sung, dass die breit angelegte vergleichende Methode durch eine intensive Analyse einzel-
ner Fälle ergänzt werden muss.
Im Rahmen dieser Untersuchung werden beide genannten Möglichkeiten zur Kombi-
nation genutzt, so dass in Anlehnung an Jahn (2006: 414) von einem verzahnten For-
schungsdesign gesprochen werden kann. Eine solche Studie bemüht sich sowohl die Logik
der Fallstudie als auch der vergleichenden konfigurativen Analyse zugleich explorativ und
hypothesenbestätigend anzuwenden. Dementsprechend wechseln sich im Rahmen dieser
Studie Fallstudien und vergleichende Analysen ab und durch jeden Analyseschritt entwi-
ckelt sich die Untersuchung weiter. Dies bedeutet, dass durch die folgende Analyse nicht
nur die Ergebnisse des anderen Verfahrens illustriert und verifiziert werden, sondern das
neue Aspekte gefunden werden und diese dann wieder anhand des alternatives Analysever-
fahrens weiterverfolgt werden.
Den ersten Schritt in diesem wechselseitigen methodischen Vorgehen stellt in diesem
Sinne die Diskussion der bisherigen Erfahrungen mit strategischer Umweltplanung in aus-
gewählten Industrie- und Entwicklungsländern in Kapitel 3 des zweiten Abschnitts dar. Die
darin enthaltenen explorativen Fallstudien zu nationalen Umweltplänen in insgesamt acht
ausgewählten Industrie- und Entwicklungsländern bilden das Fundament für die Analyse
der nationalen Umweltaktionsprogramme in Mittel- und Osteuropa. Die empirischen Er-
gebnisse und theoretischen Schlussfolgerungen aus diesem Kapitel fließen dementspre-
chend in den zweiten Schritt der Untersuchung ein, nämlich die vergleichende konfigurati-
ve Analyse nationaler Umweltaktionsprogramme in Mittel- und Osteuropa mittels fsQCA.
Im abschließenden dritten Schritt werden die durch die fallübergreifende Analyse ermittel-
ten Muster in der Grundgesamtheit durch spezifische Fallstudien zu diesen Mustern in
ausgewählten Ländern Mittel- und Osteuropas anhand einer systematischen Prozessanalyse
illustriert.
Die Anlehnung an die konfigurative Forschungsstrategie Ragins in Kombination mit
systematischen Prozessanalysen hat für das Forschungsdesign der Untersuchung folgende
zentrale Implikationen:
 Die Zahl der Fälle bewegt sich im mittleren Bereich
 Ziel der Arbeit ist es, sowohl fallübergreifende Aussagen zu gewinnen (cross-case
analysis) als auch die einzelnen Fälle für sich genommen zu verstehen und zu erklären
(within case analysis)
 In der Konsequenz wird die Untersuchung methodisch durch die Kombination von
konfigurativ-vergleichender Analyse (QCA) und Einzelfallstudien geprägt
 Die Methodik und die Indikatorenauswahl weisen eine Nähe zur qualitativen For-
schung auf

Aufbauend auf diesen methodischen Schlussfolgerungen wird im nächsten Kapitel das


analytische Konzept der Untersuchung operationalisiert.

View publication stats

Das könnte Ihnen auch gefallen