Beruflich Dokumente
Kultur Dokumente
net/publication/300728277
CITATIONS READS
0 21,568
1 author:
Ralf Nordbeck
University of Natural Resources and Life Sciences Vienna
57 PUBLICATIONS 506 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Regioflood - Regional Floodplain Management and Risk Transfer Mechanisms: assessing options for climate adaptation View project
All content following this page was uploaded by Ralf Nordbeck on 29 July 2019.
Mit dem Begriff Forschungsdesign wird der Vorgang der empirischen Überprüfung theore-
tischer Hypothesen bezeichnet (Atteslander 2008: 44). Dies beinhaltet zum einen die Aus-
wahl der Untersuchungsmethoden und Erhebungsinstrumente und zum anderen die Gegen-
standsbenennung und die Definition von Begriffen, Variablen und Indikatoren. Es handelt
sich also um einen Übersetzungsvorgang, bei dem die relevanten Begriffe operationalisiert
werden und sich durch die Festlegung des Merkmals- oder Variablenkatalogs eine empiri-
sche Konkretisierung und Umsetzung der einzelnen Fragestellungen ergibt, die durch die
Untersuchung angegangen werden sollen. Operationalisierung heißt, dass man die theoreti-
schen Begriffe durch konkrete Indikatoren und Merkmale (bzw. Variablen) zu fassen ver-
sucht. Durch die entsprechenden Merkmale wird letztlich bestimmt, welche Daten erhoben
werden müssen, um die Überprüfung der forschungsleitenden Hypothesen zu ermöglichen
(Atteslander 2008: 274).
Dieser dritte Abschnitt gliedert sich dementsprechend in zwei Kapitel. Das erste Kapi-
tel ist den Untersuchungsmethoden gewidmet und präsentiert die vergleichende Methode
als Forschungsansatz (Kapitel 5). Die Schwerpunkte des Kapitels liegen auf der Darstellung
von unterschiedlichen Forschungsstrategien einerseits und von verschiedenen Methoden
des konfigurativen und fallinternen Vergleichs andererseits. Letzteres beinhaltet insbeson-
dere eine Darstellung und Einführung in die unterschiedlichen Varianten der Qualitativen
Komparativen Analyse (QCA). Das zweite Kapitel operationalisiert das im vorangegange-
nen zweiten Abschnitt entwickelte analytische Konzept der Untersuchung (Kapitel 6). Es
umfasst neben der Begründung für die Fallauswahl und dem eigentlichen Operationalisie-
rungsvorgang auch ein Unterkapitel zu den Methoden der Datenerhebung.
unreflektiert durchgeführt wird, sondern ein logisches Vorgehen zugrunde liegt. Durch den
Vergleich soll überprüft werden, ob eine Generalisierung über mehrere Fälle hinweg stand-
hält. Der Vergleich ist also nicht das Ziel, sondern vielmehr Mittel zum Zweck (Jahn 2006:
164). Dementsprechend besteht die vergleichende Forschung laut Przeworski (1987: 35)
nicht aus Vergleichen, sondern aus Erklärungen. Durch Vergleiche wird getestet, ob etab-
lierte Erklärungen sich bewähren oder modifiziert werden müssen. Vergleichen als Metho-
de bedeutet in diesem Sinne, dass man den Vergleich zur Kontrolle verwendet (Sartori
1994: 16). Diese Kontrollfunktion macht den Vergleich zu einem wissenschaftlichen In-
strument.
Allgemein gilt, dass der Gegenstandsbereich der vergleichenden Politikwissenschaft
das Politische ist, also öffentliche mit Legitimität verbundene Entscheidungen. Der Ver-
gleich kann sich dabei auf sehr unterschiedliche Gegenstandsbereiche beziehen, zum Bei-
spiel auf die sozio-politischen Rahmenbedingungen von Staaten und Nationen, die politi-
schen Institutionen (Regierungsformen, Verfassungen oder Wahlsysteme), politische Pro-
zesse (Parteien, Verbände, Interessenvermittlung, Regimewechsel) oder Politikfelder (Sozi-
alpolitik, Wirtschaftspolitik, Umweltpolitik) (siehe Jahn 2006: 35ff.). Entscheidend ist, so
wird immer wieder mit einer Volksweisheit gemahnt, dass nicht Äpfel mit Birnen vergli-
chen werden. Dies führt zu der Frage, wann es sich bei den Untersuchungsgegenständen im
übertragenden Sinne um Äpfel und Birnen handelt. Gemeint ist, dass sich zwei Untersu-
chungsgegenstände in ihren Eigenschaften und Charakteristika völlig unterscheiden. Ein
Vergleich ist in diesem Fall genauso sinnlos, wie zwei völlig identische Gegenstände mit-
einander zu vergleichen. Sinnvolle Vergleiche beinhalten demnach Fälle, deren Eigenschaf-
ten zum Teil gleich sind und bei anderen Eigenschaften nicht gleich sind (Sartori 1994: 17).
Ob Untersuchungsgegenstände vergleichbar sind, hängt also vom Erkenntnisziel und den
Vergleichskriterien ab (Abromeit u. Stoiber 2006: 19). Vergleiche „hinken“ dementspre-
chend, wenn die Vergleichskriterien beliebig gewählt und nicht aus dem Erkenntnisziel
abgeleitet sind oder wenn die Kriterien nicht für alle Fälle gleichermaßen relevant sind.
Schwieriger als die voran gegangenen Fragen, warum und was wir vergleichen, ist die
Frage zu beantworten wie wir vergleichen. Ganz grundlegend hängt die Vorgehensweise
vom Erkenntnisziel ab. Die gewünschte Erkenntnis bestimmt die Wahl der Vergleichskrite-
rien und der Variablen, und diese wiederum bestimmen die Auswahl der passenden Metho-
den (Abromeit u. Stoiber 2006: 26). Die Unterscheidung zwischen idiographischem und
nomothetischem Vorgehen führt in den Sozialwissenschaften zu zwei unterschiedlichen
Erkenntnisinteressen: dem Verstehen und dem Erklären (Smelser 1976). Erklären und Ver-
stehen sind zwei Begriffe, die seit dem 19. Jahrhundert die methodologische Diskussion der
Sozialwissenschaften bestimmen. Sie sind zugleich Ausdruck verschiedener Denktraditio-
nen (naturwissenschaftlich vs. geisteswissenschaftlich) und verschiedener Auffassungen
vom Objektbereich (Objekt vs. Subjekt) (Lamnek 2005: 243). Die ideographische For-
schungspraxis zielt darauf ab, den Forschungsgegenstand (soziales Handeln) im Lichte der
Intentionen des Handelnden zu rekonstruieren, den Sinnzusammenhang aufzuzeigen und
damit „verstehbar“ zu machen (Schnell, Hill u. Esser 1999: 88). Verstehen heißt hierbei,
dass Deutungshypothesen im Sinne des interpretativen Paradigmas anhand bewährter Prüf-
kriterien auf ihre Gültigkeit hin überprüft werden (Jahn 2006: 162). Hierzu dient das her-
meneutische Verfahren, dessen Eigenart es ist, dass es unmittelbar mit den Erfahrungen des
Forschers zusammenhängt und sich zumindest teilweise intersubjektiven Prüfverfahren
entzieht. Soziale Realität wird dabei als soziales Konstrukt aufgefasst und interpretiert. Der
Die vergleichende Methode als Forschungsansatz 111
Verstehensansatz geht davon aus, dass die Zugehörigkeit des Forschers zum untersuchten
Gegenstandsbereich und die symbolische Strukturierung des Objektbereichs ein anderes
wissenschaftliches Vorgehen voraussetzt als die in den Naturwissenschaften betriebene
Form der Erklärung. Verstehendes Nachvollziehen der Sinngehalte menschlicher Äußerun-
gen und Handlungen steht hier für analytische Zerlegung und theoretische Erklärung (Lam-
nek 2005: 79).
Die moderne Politikwissenschaft begnügt sich jedoch in der Regel nicht mit der indi-
vidualisierenden Beschreibung von Eigentümlichkeiten spezieller, vielleicht einzigartiger
Phänomene und Ereignisse. Sie sucht darüber hinaus nach allgemein gültigen Gesetz- oder
Regelmäßigkeiten, mit denen nicht nur die gegenwärtigen Fälle erklärt, sondern auch zu-
künftige vorausgesagt werden können (Berg-Schlosser u. Stammen 1992: 121). Mit Erklä-
rung ist dabei die logische Ableitung eines Satzes aus singulären Randbedingungen und
allgemeinen Aussagen, im besten Fall (Kausal-) Gesetzen, gemeint (Jahn 2006: 161). Das
nomothetische Vorgehen besteht also darin, auf der Basis des empirischen Materials Hypo-
thesen als Verallgemeinerungen und Zusammenfassung der gemachten Beobachtungen
aufzustellen und diese dann noch allgemeiner in Theorien zu fassen. Beim deduktiv-
nomologischen Modell von Hempel (1977) wird von einer Hypothese ausgegangen, die
sich von einer Theorie ableiten lässt. Aus allgemeinen (nomologischen) Gesetzen wird ein
beobachteter Sachverhalt erklärt, indem man die Erklärung in einem Explanans-
Explanandum-Modell logisch ableitet (deduziert). Allerdings sind in den Sozialwissen-
schaften die deduktiven Schlüsse meist nicht deterministisch (trifft immer zu), sondern
lediglich probalistisch (trifft meistens zu). Dies liegt zum einen daran, dass sozialwissen-
schaftliche Erklärungen zumeist nicht monokausal sind, sondern eine Fülle von Ursachen
und Interaktionen umfassen, zum anderen, weil handelnde Akteure bewusst oder unbewusst
gegen „soziale Regeln“ verstoßen (Jahn 2006: 162). Die Folge ist, dass sozialwissenschaft-
liche Aussagen abgeschwächt werden müssen, und Hypothesen als relative wenn-dann-
Aussagen entstehen (wenn Bedingung A, dann meistens Ereignis X).
In Anlehnung an Smelser (1976: 204) lassen sich das idiographische und nomothe-
tische Vorgehen in ihren grundsätzlichen Positionen wie folgt darstellen:
Der Gegensatz zwischen dem idiographischen und dem nomothetischen Verfahren ist in der
modernen Politikwissenschaft nicht mehr so ausgeprägt und wirkt nicht mehr so polarisie-
rend wie es häufig in der Vergangenheit der Fall war. Es wird mittlerweile anerkannt, dass
beide Verfahren ihre Berechtigung haben und sich sogar ergänzen können (Bennet 2004).
Dennoch hilft uns die analytische Unterscheidung bei der näheren Beschreibung der ver-
gleichenden Politikwissenschaft. So gilt in der vergleichenden Politikwissenschaft tenden-
ziell die Teilung zwischen Regionalforschern, die empirisch-historisch (idiographisch)
arbeiten, und Komparativisten, die empirisch-analytisch (nomothetisch) vorgehen. Je stär-
ker das Auffinden von allgemein gültigen Aussagen im Zentrum der Analyse steht, desto
geringer ist die Bedeutung der Untersuchungsfälle. Der Vergleich als nomothetisches Ver-
fahren rückt Variablen und deren Beziehungen zueinander in den Vordergrund und ver-
nachlässigt die Besonderheiten der Untersuchungsfälle. Insgesamt neigt die vergleichende
Politikwissenschaft stärker zum nomothetischen Vorgehen als zum idiographischen, umso
mehr, wenn sie auf der vergleichenden Methode aufbaut. Fallorientierte Studien hingegen
sind eher idiographisch und weniger nomothetisch angelegt. Fallstudien stehen daher mehr
als andere Methoden der Politikwissenschaft vor dem Dilemma, einerseits dem individuel-
len Untersuchungsgegenstand gerecht zu werden, andererseits die analytischen Variablen
systematisch zu erfassen und somit einen sinnvollen Vergleich mit anderen Fällen zu er-
möglichen (Berg-Schlosser u. Stammen 1992: 132).
Das Dilemma zwischen der Konzentration auf Variablen (nomothetisch) oder Fälle
(idiographisch) ist in der vergleichenden Politikwissenschaft daher besonders prekär. Einer-
seits müssen die Aussagen vom Fall abstrahieren, um nomothetische Aussagen treffen zu
können, andererseits stellen Fälle bedeutende Elemente in der vergleichenden Politikwis-
senschaft dar, so dass zumindest auf deren abweichende Besonderheiten idiographisch
eingegangen werden muss (Jahn 2006: 166). Lösungen für dieses Problem ergeben sich
durch die Verwendung unterschiedlicher Analysestrategien der vergleichenden Politikwis-
senschaft, welche im nächsten Kapitel ausführlich dargestellt werden.
Wissenschaftliche
Methode
Nicht-experimentelle Vergleichende Me-
Methode thode
Fallstudie
Die statistische Methode ist eine Alternative zu der experimentellen Methode, insofern als
sie eine künstliche Versuchsanordnung schafft, indem die Variablen durch gesonderte Aus-
wertungen untersucht werden. Während beim Experiment eine Variable kontrolliert verän-
dert wird, werden in der statistischen Methode die untersuchten Einheiten in Untergruppen
eingeteilt. Die technischen Kriterien, um einen Zusammenhang zwischen zwei (oder meh-
reren) Variablen abschätzen zu könne, sind die partielle Korrelation und die Signifikanz
114 Forschungsdesign
bzw. Streuung. Letztere gibt Auskunft darüber, ob die Unterschiede zwischen zwei Unter-
gruppen groß genug sind, um von einem Zusammenhang in der Grundgesamtheit ausgehen
zu können, d.h. dass das Ergebnis der Stichprobe, in der ein Zusammenhang gefunden
worden ist, auch für die gesamte Population zutrifft (Jahn 2006: 176). Die Statistik bietet
eine Vielzahl von mathematischen Verfahren um diese partiellen Korrelationen zu erken-
nen und somit die fehlende (experimentelle) Kontrolle über die Fälle teilweise zu kompen-
sieren. In diesem Sinne kann die statistische Methode als eine Annäherung an ein experi-
mentelles Forschungsdesign betrachtet werden (Lijphart 1971: 684).
Unter der Vergleichenden Methode versteht Lijphart eher eine breit angelegte For-
schungsstrategie als eine bestimmte Methode. Ziel der vergleichenden Methode ist es, Hy-
pothesen über Zusammenhänge zwischen Variablen empirisch zu testen, wobei die Fälle
gezielt ausgewählt werden, um die Varianz der abhängigen Variable(n) zu maximieren und
gleichzeitig die Varianz der Kontrollvariable(n) zu minimieren (Lijphart 1975: 164). Die
Logik des methodischen Vorgehens entspricht dabei der statistischen Methode. Lijphart
grenzt die statistische von der vergleichenden Methode nur dadurch voneinander ab, dass
die Fallzahl bei der vergleichenden Methode zu gering ist, um Verfahren der schließenden
Statistik anwenden zu können. Der Nachteil liegt darin, dass auf der Basis von Fallstudien
nur sehr eingeschränkt generalisierbare Aussagen möglich sind und es infolgedessen auch
nur begrenzte Möglichkeiten gibt Theorien zu testen.
In der obigen Tabelle 11 sind die unterschiedlichen Methoden hinsichtlich ihrer wissen-
schaftstheoretischen Logik, ihrer Vor- und Nachteile sowie ihrer verschiedenen Strategien
zusammengefasst. Die Tabelle zeigt anschaulich, dass sich die vergleichende Methode
zwischen der Fallstudie und der statistischen Methode bewegt. Von der Fallstudie hat die
vergleichende Methode vor allem die bewusste Fallauswahl übernommen und von der
statistischen Methode die nomothetische Forschungslogik. Dabei unterscheidet sich die
statistische von der vergleichenden Methode nicht allein durch die Anwendung statistischer
Verfahren, sondern durch das Schließen von einer Stichprobe auf eine Grundgesamtheit,
während die vergleichende Methode nur Aussagen über die ausgewählten Fälle trifft.
Zusammenfassend lässt sich festhalten, dass die Unterscheidung der nicht-
experimentellen Methoden bei Lijphart in erster Linie auf der Zahl der Fälle basiert: „The
statistical method can be applied to many cases, the comparative method to relatively few
(but at least two) cases, and the case study method to one case“ (Lijphart 1971: 691).
Lijphart zieht daraus zwei Schlussfolgerungen: erstens, dass die Forschungslogik der ver-
gleichende Methode jener der statistischen Methode ähnelt und weniger der Fallstudie. Und
zweitens, dass die vergleichende Methode eine suboptimale Lösung ist und man wann
immer möglich die statistische Methode nutzen sollte: „If at all possible, one should gene-
rally use the statistical method“ (Lijphart 1971: 685). Dahinter steht eine wissenschaftsthe-
oretische Position, die davon ausgeht, dass es nur eine wissenschaftliche Forschungslogik
gibt, diese Logik im Kern eine quantitative sei und dass sich qualitative Forschung verbes-
sern ließe, in dem sie sich an den Standards der quantitativen Forschung ausrichtet. King,
Keohane und Verba (1994: 3) haben diese Position mit einer schlichten Formel auf den
Punkt gebracht: „Two styles of research, one logic of inference“. Dieser Standpunkt hat
eine bis heute andauernde lebhafte methodische Debatte ausgelöst und ist nicht ohne Wi-
derspruch geblieben4. Die prominente Gegenposition von Charles Ragin, nämlich die Un-
terscheidung zwischen fall- und variablenorientierten Forschungsstrategien, wird im fol-
genden Kapitel ausführlicher dargestellt.
4
Den qualitativen Standpunkt vertretend siehe zum Beispiel die Beiträge in Brady u. Collier 2004.
116 Forschungsdesign
u. Somers 1980, Janoski 1991). Das konzeptionelle Gerüst zur Einordnung der verschiede-
nen Forschungsstrategien welches Charles Ragin verwendet, baut auf den Ausführungen im
vorangegangen Kapitel auf und steht keineswegs im Widerspruch zu diesen. Jedoch veror-
tet Ragin die Forschungsstrategien auf einem alternativen Kontinuum nach ihrer grundle-
genden kausalen Logik und nicht allein anhand der Anzahl der untersuchten Fälle. Für die
Analyse makrosozialer Phänomene gibt es nach Ragin zwei basale Forschungsstrategien
(Ragin u. Zaret 1983, Ragin 1987): die fallorientierte und die variablenorientierte Strategie.
Die fallorientierte Strategie geht von der Grundannahme aus, dass Fälle distinkte und
singuläre Einheiten bilden, die dennoch genügend gemeinsame Merkmale aufweisen, um
miteinander verglichen werden zu können. Die fallorientierte Strategie sieht Fälle als aus-
sagekräftige, aber komplexe Konfigurationen von Ereignissen und Strukturen und betrach-
tet sie als im jeweiligen historischen und kulturellen Kontext entstandene und eingebettete
Einheit. Die Fälle werden daher bewusst ausgewählt und nicht als homogene Beobachtung
per Zufallsprinzip in Form einer Stichprobe aus einer Menge von gleichfalls plausiblen
Fällen gezogen. Beim Vergleich von Fallstudien bedarf es großer Vorsicht und methodi-
scher Sorgfalt, da durch die analytische Aufgliederung der Fälle die Gefahr droht, dass
wichtige Informationen verloren gehen.
Die variablenorientierte Strategie hingegen beruft sich nicht auf die Existenz ver-
gleichbarer Einheiten, sondern beginnt mit dem Postulat allgemeingültiger Dimensionen
makrosozialer Varianz. In dieser Strategie werden Merkmale und ihre empirischen Ausprä-
gungen als partielle Verkörperung von zugrunde liegenden theoretischen Konzepten und
Prinzipien angesehen. Ausprägungen variieren in dem Maße, wie sie die theoretischen
Eigenschaften widerspiegeln. Die Aufgabe des Forschers ist es, diesen allgemeinen Mus-
tern und den Zusammenhängen zwischen Variablen auf die Spur zu kommen. Dazu werden
in Abhängigkeit vom theoretischen Konzept das getestet werden soll, die abhängigen und
unabhängigen Variablen definiert und die entsprechenden Daten für diese Indikatoren ge-
sammelt. Das resultierende empirische Verständnis beruht auf der Analyse von Kovarianz
innerhalb des Datensatzes, beobachtet und gemittelt über eine hohe Zahl von Fällen hin-
weg.
Um die Unterschiede zwischen den beiden Forschungsstrategien zu beschreiben, wer-
den in der Literatur verschiedene Begriffspaare verwendet. Die am häufigsten benutzte
Form ist die Charakterisierung als qualitative und quantitative Forschungsstrategien. Diese
Beschreibung überschneidet sich stark mit der Unterscheidung zwischen fall- und variab-
lenorientierten Forschungsstrategien. Dennoch sind diese Begriffe nicht völlig eindeutig.
So können quantitative Methoden der Datenanalyse, wie etwa statistische Verfahren, auch
in Einzelfallstudien angewendet werden. Ebenso können Daten, die mit qualitativen Me-
thoden erhoben wurden, etwa durch Beobachtung oder durch Befragung, natürlich mit
quantitativen Methoden ausgewertet werden. Richtig bleibt aber trotz dieser Einwände,
dass die überwiegende Mehrheit der fallorientierten Studien qualitativ arbeitet und die
überwiegende Mehrheit der variablenorientierten Studien quantitativ.
Tabelle 12 zeigt anhand von vier Dimensionen anschaulich die Unterschiede zwischen
den fallorientierten und den variablenorientierten Forschungsstrategien. Die beiden Strate-
gien werden hinsichtlich der Bedeutung von Fällen, dem Verständnis von Kausalität, dem
Erklärungsansatz und ihren Zielen gegenübergestellt.
Die vergleichende Methode als Forschungsansatz 117
5
Berg-Schlosser (2003: 103) nennt den Bereich von 3 bis 20 Fällen als mittlere Fallzahlen.
Die vergleichende Methode als Forschungsansatz 119
Forschenden noch die Möglichkeit sich einerseits mit den individuellen Merkmalen jedes
Falles vertraut zu machen und andererseits fallübergreifende Muster herauszuarbeiten.
Konfigurativ-vergleichende Methoden bewegen sich somit zwischen den fallorientierten
und den variablenorientierten Methoden, da versucht wird, zum einen die Komplexität von
Kausalität in den einzelnen Fällen zu erfassen und zum anderen verallgemeinerbare Aussa-
gen durch die Einbeziehung einer größeren Anzahl von Fällen zu ermöglichen. Die Schlüs-
sel für das Verständnis von QCA liegen somit einerseits in der Betrachtung von Fällen als
Konfiguration und andererseits in einem bestimmten Konzept von komplexer Kausalität.
Die Motivation Ragins zur Entwicklung von QCA lag ferner in der Art von Kausalität, die
multivariaten Verfahren zu Grunde liegt. Bei der Untersuchung von Zusammenhängen
zwischen Variablen wird bei multivariaten Verfahren der durchschnittliche Effekt einer
oder mehrerer unabhängiger Variablen auf die abhängige Variable bei allen Fällen über-
prüft. Die einzelnen Variablen werden dabei isoliert betrachtet. Für Ragin hingegen können
soziale Phänomene nur durch ein vielschichtiges Modell von Komplexität erklärt werden.
Das Konzept von komplexer Kausalität besteht dabei aus zwei Bausteinen (Ragin 1994:
305): der Annahme kausaler Verknüpfungen und der Annahme kausaler Heterogenität. Die
erste Annahme argumentiert, dass mehrere Ursachen sich selten additiv zueinander verhal-
ten. Vielmehr wirken diese Ursachen häufig zusammen, sind miteinander verbunden und
verstärken dadurch gegenseitig ihre Wirkung. Die zweite Annahme der kausalen Heteroge-
nität beruht auf dem Argument, dass gleiche Wirkungen bzw. Outcomes auf verschiedenen
und zum Teil gegensätzlichen Ursachen beruhen. Dieser Sachverhalt wird in der Literatur
auch als „Äquifinalität“ bezeichnet (George u. Bennett 2005). Äquifinalität beschreibt die
Idee, dass multiple kausale Pfade zum gleichen Ergebnis führen können (Mahoney u. Goe-
rtz 2006: 11).
Konfigurativ-vergleichende Methoden sehen Kausalität also stets als ein aus mehreren
Konditionen zusammengesetztes Phänomen (konjunktionale Kausalität). Ferner muss ein
zu erklärender Outcome nicht stets auf die gleichen Gründe zurückzuführen sein, sondern
kann das Ergebnis sehr unterschiedlicher Konstellationen von Bedingungen sein (multiple
Kausalität). An die Methode besteht daher der Anspruch, dass sie in der Lage ist, diese
komplexen Kausalstrukturen zu erkennen (Ragin 1987: 26-33).
Formell kann man den Unterschied zwischen dem Kausalitätsverständnis in der quan-
titativen gegenüber der konfigurativen Tradition durch das Gegenüberstellen zweier Glei-
chungen darstellen, welche als Modelle der jeweiligen Tradition gelten können (Cronqvist
2007: 14; Mahoney u. Goertz 2006: 8).
Die Gleichung (1) repräsentiert ein typisches mengentheoretisches Boolesches Modell von
Kausalität. Die Gleichung identifiziert zwei verschiedene Kombinationen von Bedingungen
die hinreichend für das Ergebnis (Y) sind, nämlich A*B*c oder A*C*D*E. Jede der beiden
Kombinationen ist dabei gleichwertig für die Lösung, das heißt sie sind funktional äquiva-
lent. Im Mittelpunkt des Booleschen Modells stehen also die Kombinationen von Bedin-
gungen und der individuelle Effekt einzelner Variablen findet wenig Beachtung. Es wird
kein Wettbewerb miteinander rivalisierender Kausalfaktoren modelliert, sondern kausale
Bedingungen zählen als Zutaten für eine komplexe Kausalbeziehung, die miteinander in
verschiedenen Formen kombiniert werden können (Ragin 2003: 8).
Demgegenüber repräsentiert die Gleichung (2) als lineare Regressionsgleichung ein
typisches statistisches Modell. Auch hier werden mehrere Komponenten mithilfe einer
Summenfunktion addiert, die die abhängige Variable Y produzieren. Die Logik der Glei-
chung beruht allerdings nicht auf boolescher Algebra, sondern auf linearer Algebra. Die
Summenzeichen unserer Regressionsgleichung sagen uns daher, dass bei einer Regression
Die vergleichende Methode als Forschungsansatz 121
die verschiedenen Teileffekte zu einem gemeinsamen Effekt aufaddiert werden. Die Addi-
tion führt somit zu einer unifinalen und nicht zu einer äquifinalen Lösung. Mit anderen
Worten beschreibt nur ein Weg, nämlich a + b1X1 + b2X2 + b3X3 + in obiger Gleichung,
wie Y zustande kommt (Schneider u. Wagemann 2007: 78). Im Mittelpunkt der quantitati-
ven Forschung stehen die Bestimmung der geschätzten Effekte der einzelnen Variablen und
der durchschnittliche Einfluss den jede unabhängige Variable auf die abhängige Variable
ausübt. In der statistischen Regressionsgleichung stellen die unabhängigen Variablen folg-
lich keine Alternativen zueinander dar.
Wie durch die vorangegangenen Ausführungen schon deutlich wurde, gibt es nicht die eine
konfigurativ-vergleichende Methode. Der Begriff der konfigurativen Methoden umfasst
eine Reihe von methodischen Techniken, deren Gemeinsamkeit darin besteht, dass sie
allesamt durch die Analyse von Konfigurationen innerhalb der untersuchten Fälle zu neuen
Erkenntnissen gelangen möchten. Voraussetzung eines konfigurative Vergleichs ist, dass
die Bedingungen aus denen Konfigurationen kombiniert werden stets identisch sind. Es
können also keine beliebigen Fälle miteinander verglichen werden, sondern für alle unter-
suchten Fälle müssen die gleichen, vorher festgelegten Variablenwerte erhoben werden
(Cronqvist 2007: 16).
Konfigurativ Methoden beruhen in ihrem Ursprung auf den von John Stuart Mill for-
mulierten Übereinstimmungs- und Differenzmethoden (Mill 1843). Bei der Übereinstim-
mungsmethode, auch Konkordanzmethode genannt, werden für eine größere Zahl von Fäl-
len, die ein gemeinsames Phänomen als abhängige Variable aufweisen, einer oder wenige
Faktoren als unabhängige Variablen isoliert, welche für alle Fälle den gleichen Wert besit-
zen. In dieser Gemeinsamkeit der bzw. den isolierten unabhängigen Variable(n) wird dann
die Ursache für das zu erklärende Phänomen gesehen. Richtung und Art der Kausalität
können dadurch allerdings nicht bestimmt werden (Berg-Schlosser 2003: 111). Die Kon-
kordanzmethode stellt sich schematisch wie folgt dar (Schneider u. Wagemann 2007: 74):
Die vergleichende Methode als Forschungsansatz 123
Im Fall der Konkordanzmethode wird argumentiert, dass die Übereinstimmung bei einer
unabhängigen Variablen (hier A) bei ansonsten verschiedenen unabhängigen Variablen
(hier B, C und D) die Übereinstimmung von Y erklärt. Klassische Studien, die auf der
Konkordanzmethode beruhen, sind die Arbeiten von Barrington Moore (1966) über die
Entstehung von Diktaturen und Demokratien und Theda Skocpol (1979) über soziale Revo-
lutionen. Beide Arbeiten verwenden in der Analyse zusätzlich die Differenzmethode, um
die Anzahl von alternativen Erklärungen zu reduzieren.
Bei der Differenzmethode werden ähnliche unabhängige Variablen und stark variie-
rende abhängige Variablen untersucht. Das Forschungsdesign basiert also auf ähnlichen
Fällen und unterschiedlichen Ergebnissen. Schematisch kann die Differenzmethode folgen-
dermaßen dargestellt werden (Schneider u. Wagemann 2007: 73):
Die Differenzmethode sagt dabei aus, dass der Unterschied bei der unabhängigen Variable
D welcher zwischen den beiden Fällen besteht, den Unterschied bei der abhängigen Variab-
le Y erklärt, dass dies der einzige Unterschied zwischen den beiden ansonsten identischen
Fällen ist. In der Praxis besteht die Differenzmethode in der Regel aus einer zweistufigen
Anwendung der Konkordanzmethode, bei der Fälle, die entweder die Anwesenheit einer
Ursache oder die Abwesenheit oder die gegenteilige Konstellation aufzeigen, ausgeschlos-
sen werden können. Dieses Verfahren wird auch als indirekte Differenzmethode bezeichnet
(Berg-Schlosser 2003: 112). Im ersten Schritt wird für eine vermutete kausale Ursache
ermittelt, ob sie in allen Fällen zutrifft. Ist dies der Fall, wird in einem zweiten Schritt über-
prüft, ob in Fällen, in denen die Ursache abwesend ist, auch die Wirkung nicht vorliegt. Ist
dies auch der Fall, dann gilt, dass die Wirkung nur dann eintritt, wenn auch die Ursache
vorliegt. Mit Hilfe des zweistufigen Vorgehens können so bestimmte nicht zutreffende
Fälle ausgeschlossen und simple monokausale Hypothesen zurückgewiesen werden. Eine
nähere Bestimmung der Wirkungsmuster ist aber auch durch dieses Verfahren nur ansatz-
weise möglich. Obwohl die Differenzmethode eine Verbesserung gegenüber der Konkor-
124 Forschungsdesign
danzmethode darstellt weist sie dennoch grundlegende Schwächen auf (Ragin 1987: 39-
42): erstens ist die Differenzmethode nicht dazu geeignet, multiple und verbundene Kausa-
litäten zu analysieren und zweitens lassen sich durch die Fokussierung auf negative Fälle
im zweiten Schritt des Verfahrens konkurrierende Hypothesen nicht immer zweifelsfrei
ausschließen.
Die von Mill eingeführte Logik des Vergleichens gibt dennoch einfache Untersu-
chungsdesigns vor, auf denen auch die im Folgenden vorgestellten weiterentwickelten
konfigurativen Methoden beruhen. Im ersten Abschnitt werden Versuchsanordnungen mög-
lichst ähnlicher („most similar“) und möglichst unterschiedlicher („most different“) Syste-
me vorgestellt. Hierdurch können dann systematisch Übereinstimmungen und Differenzen
im Millschen Sinne erfasst werden. Derartige Verfahren betrachten die insgesamt zugrunde
gelegte Menge von Variablen, allerdings ohne deren Interaktionen erfassen zu können. Der
zweite Abschnitt führt in drei verschiedene Varianten der Qualitative Comparative Analysis
(QCA) ein. Diese Verfahren basieren auf einer begrenzten Variablenauswahl, reduzieren
aber die verfügbaren Informationen unter Berücksichtigung unterschiedlicher Interaktions-
muster von Variablen auf größtmögliche Weise (Berg-Schlosser 2003: 113).
Die analytische Logik der indirekten Differenzmethode lässt sich noch weiter verbessern, in
dem das analytische Verfahren mit zwei Strategien zur Fallauswahl verknüpft wird, mit
deren Hilfe sichergestellt werden kann, dass die jeweils ausgewählten Fälle entweder mög-
lichst ähnlich („most similar systems design“ – MSSD) oder möglichst unterschiedlich
(„most different systems design“ – MDSD) sind. Im Gegensatz zu den oben vorgestellten
Analyseverfahren der Konkordanz- und Differenzmethode, werden bei diesen zwei Aus-
wahlstrategien die Fälle auf der Basis der unabhängigen Variablen ausgewählt (Jahn 2006:
233).
Das Untersuchungsdesign mit möglichst ähnlichen Fällen beruht auf der Annahme,
dass eine Anzahl theoretisch signifikanter Unterschiede zwischen sehr ähnlichen Fällen
gefunden werden können und dass diese Unterschiede zur kausalen Erklärung beitragen
(Berg-Schlosser 2003: 114). Schematisch lässt sich diese Logik mit dichotomisierten Vari-
ablen wie folgt darstellen (Przeworski u. Teune 1970: 37; Jahn 2006: 234):
Wie aus Tabelle 15 ersichtlich geht es bei einem Untersuchungsdesign mit möglichst ähnli-
chen Fällen darum, möglichst viele unabhängige Variablen, die alle den gleichen Wert für
die ausgewählten Fälle haben, analytisch auszuschließen. Diese unabhängigen Variablen
können nach dem Prinzip der indirekten Differenzmethode nicht die Unterschiede bei der
abhängigen Variable erklären. Variablen, welche für die ähnlichen Fälle unterschiedliche
Werte aufweisen, können als mögliche Erklärungen für das untersuchte Phänomen in Be-
tracht gezogen werden (Przeworski u. Teune 1970: 32-34). Durch dieses Vorgehen wird die
Zahl der unabhängigen Variablen reduziert. Aspekte, die ignoriert werden können, fließen
nicht als zusätzliche Variablen in die Untersuchung ein (Jahn 2006: 234). Im Kern geht es
also um die Forderung, die experimentelle Varianz zu maximieren und gleichzeitig die
externe Varianz zu minimieren. Das MSSD-Design kann sowohl für kleine als auch für
große Fallzahlen verwendet werden. Es bietet sich für relativ homogene Ländergruppen an,
wie zum Beispiel die skandinavischen oder die angelsächsischen Länder. Während das
Untersuchungsdesign bei Studien mit kleinen Fallzahlen wenig generalisierbare Ergebnisse
liefert, kann es mit einer größeren Fallzahl zu einer sehr effektiven Strategie werden.
Das most different systems design als entgegengesetzte Anordnung, die eine möglichst
große Heterogenität der ausgewählten Fälle anstrebt, beruht auf der Annahme, dass diese
Unterschiede sich auf wenige Variablen beschränken und genügend charakteristische Ge-
meinsamkeiten innerhalb der untersuchten Population verbleiben (Berg-Schlosser 2003:
114). Durch die Auswahl möglichst unterschiedlicher Fälle sollen Faktoren bestimmt wer-
den, die in den unterschiedlichen Fällen die gleichen Auswirkungen auf die zu erklärenden
Variablen haben. Dabei wird davon ausgegangen, dass systemische (kontextuelle) Unter-
schiede keinen Einfluss haben. Przeworski und Teune (1970: 34-39) haben das MDSD-
Design dementsprechend als eine Art Multi-Ebenenanalyse entwickelt. Ausgangspunkt der
Untersuchung ist eine Analyseebene unterhalb der systemischen Ebene. Dies können Indi-
viduen sein, aber auch Gruppen oder die lokale Ebene. In einem ersten Schritt werden dann
zunächst Hypothesen gebildet, die für diese Ebene einer Population zutreffen sollen. Erst
wenn sich auf dieser Ebene im Hinblick auf die abhängige Variable Unterschiede zwischen
den ausgewählten Fällen zeigen, wird die nächsthöhere Ebene in die Analyse einbezogen.
Mit den Worten von Przeworski und Teune ausgedrückt (1970: 39):
„If a population of individuals is sampled from several countries, then differences among indi-
viduals will be tested both within and across communities and within and across countries. If
communities differ, national factor will be examined; if neither countries nor communities dif-
fer, the entire analysis will remain at the individual level and no systemic factors will be consid-
ered. The level that reduces to the greatest extent the within-group variance will be considered.“
Ein solches Vorgehen ist allerdings sehr voraussetzungsvoll und in der Forschungspraxis
bislang selten vollständig umgesetzt und systematisch operationalisiert worden (Berg-
Schlosser 2003: 114). Eine allgemeinere Auffassung des most different systems design
beruht daher vereinfachend darauf, dass möglichst unterschiedliche Fälle auf der gleichen
Systemebene untersucht werden (Collier 1993).
Zusammenfassend lässt sich für die beiden Auswahlstrategien damit folgendes festhal-
ten: Stärke des MSSD-Ansatzes darin besteht, dass (fast) alle Länder, die den Auswahlkri-
terien entsprechen, auch in die Untersuchung einbezogen werden. Nur durch diese negative
Fallauswahl kann die externe Varianz kontrolliert werden. Das Design mit unterschiedli-
126 Forschungsdesign
chen Fällen (MDSD) bezieht seine analytische Stärke aus der Mehrebenenanalyse (Jahn
2006: 238).
Aufbauend auf den beiden Strategien zur Fallauswahl lassen sich unter Hinzuziehung
der Millschen Konkordanz- und Differenzmethoden dann entsprechende Forschungsdes-
igns konstruieren, wie zum Beispiel verschiedene Systeme mit demselben Ergebnis („most
different with same outcome“ – MDSO) oder die ähnlichsten Systeme mit unterschiedli-
chem Ergebnis („most similar with different outcomes“ – MSDO). Die MSDO/MDSO-
Verfahren bieten die Möglichkeit, nach formalisierten Regeln möglichst ähnliche bezie-
hungsweise möglichst unterschiedliche Fälle zu bestimmen. In einem zweistufigen Verfah-
ren werden zunächst die geeignetsten Fälle für eine solche Analyse identifiziert, um dann
durch die Betrachtung von unterschiedlichen Datenkategorien zu einem differenzierten Bild
von den Unterschieden und Ähnlichkeiten zwischen den Fällen zu gelangen (de Meur u.
Berg-Schlosser 1994).
Beim MSDO-Verfahren werden zuerst alle verfügbaren Variablen nach inhaltlichen
Gesichtspunkten in Kategorien eingeteilt. Innerhalb jeder Kategorie werden aus allen Paa-
ren von Fällen mit unterschiedlichem Outcome die Paare herausgesucht, welche die meis-
ten Ähnlichkeiten aufweisen. Für jedes Paar von Fällen mit unterschiedlichem Outcome
wird ein Ähnlichkeitswert bestimmt, welcher relativ zu dem ähnlichsten Paar angibt, wie
ähnlich sich die Fälle sind. In einer zweiten Stufe werden dann diese relativen Werte über
alle Kategorien betrachtet. Daraus können dann die ähnlichsten Fälle mit unterschiedlichem
Outcome identifiziert werden. Mit diesen Fällen kann anschließend eine Analyse nach dem
oben diskutierten most similar systems design durchgeführt werden, um Erklärungen für
das unterschiedliche Outcome zu erhalten. Ähnlich kann das MDSO Verfahren angewendet
werden, um unter den Fällen mit gleichem Outcome die Fälle herauszufiltern, welche am
unterschiedlichsten sind. Hierauf aufbauend können dann mit einem most different systems
design die Variablen bestimmt werden, welche mögliche Erklärungen für das identische
Outcome darstellen (Cronqvist 2007: 19).
Sowohl das MSDO- als auch das MDSO-Verfahren werden von quantitativ orientier-
ten Forschern stark kritisiert (King, Keohane u. Verba 1994: 142-144; Jahn 2006: 237). Im
Wesentlichen richtet sich die Kritik auf den Bias bei der Fallauswahl. Nach Ansicht von
Detlef Jahn „leiden solche Forschungsdesigns stark unter dem selection bias, da in ihnen
sowohl auf der abhängigen Variablen als auch aufgrund einer wesentlichen Kausalbezie-
hung die Fälle ausgewählt werden“ (Jahn 2006: 237). Die enge Verknüpfung zwischen der
Fallauswahlstrategie und der Analysemethode führe zu einer geringen Generalisierbarkeit
der Ergebnisse. Darüber hinaus bestehe bei dieser Art von Untersuchung die Schwierigkeit,
die externe Varianz zu kontrollieren.
Nichtsdestotrotz beziehen sich viele vergleichende Studien bei der Fallauswahl auf die
Analysemethoden von Mill, da sie wie gezeigt auch einige Vorteile bieten. So lassen sich
zum Beispiel mit den von de Meur und Berg-Schlosser weiterentwickelten MSDO/MDSO-
Verfahren auch konjunktionale Zusammenhänge zwischen Variablen analysieren (De
Meur, Bursens u. Gottcheiner 2006).
gleichzeitig mit einer jeweils begrenzten Zahl von Variablen (Berg-Schlosser 2003: 116).
QCA bietet ein formelles Verfahren für die Analyse mittlerer Fallzahlen an. Die mit QCA
durchgeführten Berechnungen laufen nach festgelegten Regeln ab und die so gewonnenen
Ergebnisse sind intersubjektiv nachvollziehbar, da sie nicht von der durchführenden Person
abhängig sind. Die qualitativ-komparative Analyse basiert auf der Booleschen Algebra, die
Mitte des 19. Jahrhundert von George Boole entwickelt wurde. Eine Grundvoraussetzung
ist zunächst, dass alle Variablen, also sowohl die unabhängigen Variablen („Bedingungen“)
als auch die abhängige Variable („Outcome“), dichotomisiert werden. Dies bedeutet, dass
die empirischen Daten nicht als Rohwerte in die Analyse einbezogen werden, sondern als
Aussagen in der Form von „trifft zu“ und „trifft nicht zu“. Es werden also die An- und
Abwesenheit einer Bedingung bzw. eines Ereignisses in der Analyse hinterfragt, etwa ob
ein Land über ein hohes Bruttoinlandsprodukt verfügt oder nicht. In der qualitativ-
komparativen Analyse muss dementsprechend vorher konzeptionell festgelegt werden, ab
wann von einem hohen Bruttoinlandsprodukt gesprochen werden soll. Anstelle eines inter-
vallskalierten BIP-Wertes wie in der klassischen Regressionsanalyse, wird in QCA ein
Boolescher Wert zugeordnet, welcher angibt, ob die Aussage „Für X liegt das BIP über
dem Schwellenwert S“ zutrifft oder nicht. Der entsprechende Boolesche Wert wäre im
ersten Fall WAHR (1), im letzteren Fall FALSCH (0). Die Daten werden also im Verhältnis
zu einem theoretisch begründeten Konzept interpretiert, weshalb Ragin (2000: 9) auch von
qualitativen Daten spricht. Die Bezeichnung qualitativ bezieht sich in QCA dabei nicht auf
qualitative Datenerhebungsmethoden, wie etwa teilnehmende Beobachtung und Tiefenin-
terviews oder qualitative Interpretationen wie zum Beispiel in der Hermeneutik (Jahn 2006:
419). Die Verwendung von qualitativen Aussagen über eine Variable hat den Vorteil, dass
quantitativ nicht direkt beobachtbare theoretische Konzepte (Grad des Korporatismus oder
der Demokratie), nicht erst für die technische Analyse quantifiziert werden müssen, son-
dern direkt als qualitative Eigenschaft kodiert werden können (Cronqvist 2007: 21). Durch
die erzwungene Dichotomisierung der Variablen kann es jedoch zu Informationsverlusten
kommen.
QCA-Daten werden in sogenannten Wahrheitstabellen erfasst. Jede potentielle kausale
Bedingung und jeder Outcome erhalten je eine Spalte. Der Eintrag (1) in einer Datenzelle
besagt, dass das Phänomen der betreffenden Spalte zutrifft. Der Eintrag (0) bedeutet hinge-
gen, dass das Phänomen nicht zutrifft. In den Zeilen werden somit Konfigurationen (und
nicht etwa Fälle) dargestellt. Die Anzahl der logisch möglichen Kombinationen entspricht
2k, wobei k für die Anzahl der Bedingungen steht. Die Zahl der Kombinationsmöglichkei-
ten steigt also exponentiell an. Was bei zwei Bedingungen (22 = 4 Kombinationsmöglich-
keiten) noch sehr übersichtlich erscheint, wird bei zehn analysierten Bedingungen (210 =
1024 Kombinationsmöglichkeiten) schnell zu einem methodischen und empirischen Prob-
lem.
Die Boolesche Addition und Multiplikation unterscheidet sich dabei von der her-
kömmlichen Algebra. Ein Plus (+) ist im Booleschen Sinne als ODER zu lesen. Die Logik
der Addition in der Booleschen Algebra besteht darin, dass, wenn zu addierende Ausprä-
gungen zutreffen, auch das Ergebnis zutrifft. Das heißt: wenn die Bedingung A zutrifft oder
die Bedingung B zutrifft, dann trifft auch der Outcome Y als Funktion der unabhängigen
Variablen zu. In diesem Sinne ist 1 plus 0 gleich 1 und 0 plus 1 ist auch gleich 1. Wenn
beide Bedingungen zutreffen, dann trifft das Ergebnis ebenfalls zu, also 1 plus 1 ist eben-
falls gleich 1. Bei der Multiplikation ist das Malzeichen (*) als UND zu lesen. In unserem
128 Forschungsdesign
Beispiel bedeutet dies, dass Y nur dann zutrifft, wenn auch A und B zutreffen. In allen
anderen Kombinationen – A trifft zu, B trifft nicht zu bzw. A trifft nicht zu, B trifft zu –
trifft der Outcome Y nicht zu. Also ergibt in diesem Fall nur 1*1 als Ergebnis 1.
Das Ziel von QCA besteht darin Gleichungen aufzustellen, die erklären unter welchen
Bedingungen eine Funktion (Y), also der Outcome eintritt. Mit Hilfe der Booleschen Al-
gebra lassen sich die theoretisch möglichen Kombinationen der Bedingungen auf die be-
stimmten Fällen gemeinsamen geringstmöglichen Elemente als Lösungen („Hauptimpli-
kanten“) reduzieren. Durch die Minimierung der Booleschen Konfigurationen werden Mus-
ter berechnet, die ausschließlich in Fällen auftreten, in denen sich ein bestimmter Outcome
beobachten lässt. Ein hypothetisches Beispiel einer Wahrheitstabelle mit vier Bedingungen
soll die analytische Vorgehensweise von QCA verdeutlichen (siehe Tabelle 16)6.
Unser hypothetisches Beispiel versucht die Frage zu klären, unter welchen Bedingun-
gen ein Staat demokratisch stabil bleibt. Als potentiell kausal relevant für die Stabilität
einer Demokratie wurden drei Bedingungen identifiziert: ob die Demokratie durch einen
gewaltsamen Umsturz (Bedingung A) zustande kam, ob das es in dem Land eine ethnisch
homogene Bevölkerung (B) gibt und ob das Parteiensystem des Landes pluralistisch ist (C).
Wir fragen also, welche der Bedingungen A, B und C hinreichend und notwendig für das
Auftreten des Outcomes Y sind.
Die einfachste und schnellste Möglichkeit, um zu einer Lösungsformel für die hinreichen-
den Bedingungen zu gelangen ist der sogenannte Quine-McClusky-Algorithmus. Bei die-
sem Verfahren werden in einem ersten Schritt alle Kombinationen der Bedingungen aufge-
schrieben, die in Zeilen mit einem positiven Outcome (Y = 1) stehen. Die Anwesenheit
einer Bedingung wird dabei durch Großbuchstaben gekennzeichnet, während die Abwesen-
6
Das hypothetische Beispiel ist aus dem QCA-Lehrbuch von Schneider und Wagemann (2007: 65ff) entnom-
men.
Die vergleichende Methode als Forschungsansatz 129
Alle fünf Kombinationen sind hinreichende Bedingungen, denn sie führen alle getrennt
voneinander zum Outcome Y, und können daher mit dem logischen ODER zu einer gülti-
gen Kausalaussage verknüpft werden. Die ist die einfachste Form eine Wahrheitstabelle in
einer Lösungsformel zu erfassen. Die fünf Kombinationen werden auch als „primitive Aus-
drücke“ (primitive expressions) bezeichnet, da eine Lösungsformel basierend auf primitiven
Ausdrücken noch redundante Aussagen enthält und daher gleichsam einer Rohfassung ist.
In einem zweiten Schritt werden diese redundanten Aussagen mittels Boolescher Al-
gebra dann minimiert, um zu einer einfacheren und sparsameren Lösungsformel zu kom-
men. So können wir zum Beispiel die Kombination „abc“ und „abC“ vereinfachen, da „ab“
in beiden Fällen den Outcome hervorruft, unabhängig davon, ob die Bedingung C anwe-
send (Großbuchstabe C) oder abwesend (Kleinbuchstabe c) ist. Die Bedingungen C und c
sind mit anderen Worten im Kontext von „ab“ logisch redundant für die Erklärung des
Outcomes Y. (Schneider u. Wagemann 2007: 66). Ebenso können wir die Terme „aBc“ und
„aBC“ zu „aB“ zusammenfassen und gelangen damit zu folgendem Zwischenergebnis:
ab + aB + AbC Æ Y
Diese Lösungsformel lässt sich mit dem paarweisen Vergleich noch weiter minimieren und
die ersten beiden Terme „ab“ und „aB“ zu „a“ zusammenfassen. Die nicht mehr zu verein-
fachende Lösungsformel lautet demnach:
a + AbC Æ Y
Bezogen auf unser Beispiel heißt dies, dass ein nicht-gewaltsamer Umsturz eine notwendi-
ge Bedingung für eine stabile Demokratie ist. Allerdings kann in Fällen mit einer ethnisch
nicht-homogenen Bevölkerung und einem pluralistischen Parteiensystem der Umsturz auch
gewaltsam sein und in dieser Kombination dennoch zu einer stabilen Demokratie führen.
Die Ergebnisse in QCA bestehen, wie unser Beispiel verdeutlicht, immer aus Ausprä-
gungskombinationen von Fällen unter Eliminierung von ambivalenten Ausprägungen von
Bedingungen. Dabei sind mehrere Hauptimplikanten als alternative Ergebnisse möglich,
wenn verschiedene Ursachenkombinationen (Konfigurationen) zu dem gleichen Ergebnis
führen (Äquifinalität). Ein wesentlicher Aspekt der QCA-Analyse besteht darin, dass die
Ausprägungskombinationen immer auf die konkreten Fälle bezogen sind. Damit ist es in
der Analyse möglich, sich zugleich auf die Ausprägung der Variablen und auf die dahinter
stehenden Fälle zu beziehen (Jahn 2006: 420). Durch diese Verknüpfung der Logiken der
130 Forschungsdesign
Neben diesen Vorzügen hat QCA, wie alle anderen Methoden, auch einige Schwächen
(Berg-Schlosser 2003: 118). Eine liegt wie bereits gezeigt in der begrenzten Anzahl von
unabhängigen Variablen, die gleichzeitig untersucht werden können, da die exponentiell
anwachsende Zahl der Kombinationsmöglichkeiten gewisse Grenzen setzt. Eine weitere
Schwäche ist die notwendige Dichotomisierung der Daten und die damit verbundenen In-
formationsverluste.
Um insbesondere dem letztgenannten Problem der Dichotomisierung entgegenzuwir-
ken sind neben der klassischen Variante des QCA, dem so genannten Crisp-Set QCA
(„csQCA“), welche in unserem oben angeführten Beispiel verwendet wurde, weitere Vari-
anten entwickelt worden: das Multi-Value QCA („mvQCA“) und das Fuzzy-Set QVA
(„fsQCA“). Diese beiden alternativen Varianten sollen im Folgenden abschließend kurz
dargestellt werden.
Der wesentliche Unterschied von Multi-Value QCA gegenüber dem klassischen QCA ist,
dass mvQCA es ermöglicht, auch mehrwertige Bedingungen in die Analyse zu integrieren.
Damit entfällt der Zwang zur Dichotomisierung aller Variablen. Die mehrwertige Analyse
in mvQCA setzt also nicht mehr voraus, dass alle Bedingungen dichotom [0,1] kodiert sind,
wie dies in QCA der Fall ist, sondern erlaubt auch mehrstufige nominale und ordinale Be-
dingungen (Cronqvist 2007: 68). Intervallskalierte Daten (z.B. BIP pro Kopf) können aller-
dings auch in mvQCa nicht direkt benutzt werden, sondern müssen zu einer ordinal skalier-
ten Bedingung umkodiert werden. Die Kodierung von intervallskalierten Daten wird durch
die Festlegung von Schwellenwerten (thresholds) durchgeführt, mit denen die Daten in
mehrwertige ordinal skalierten Bedingungen transformiert werden. Diese Erweiterung
betrifft allerdings nur die kausal relevanten Bedingungen, nicht jedoch den Outcome. Die-
ser muss auch in mvQCA wie gehabt dichotom operationalisiert werden.
Im Prinzip können die Bedingungen beliebig fein unterteilt werden, allerdings führt
eine große Zahl von möglichen Werten schnell zu einer Individualisierung von Fällen,
wodurch sinnvolle Reduktionsschritte für die Lösungsformel sehr erschwert werden. In der
Praxis werden die Bedingungen deshalb in der Regel mit drei oder vier möglichen Werten
kodiert (Cronqvist 2004; Cronqvist u. Berg-Schlosser 2006). Die Einbindung mehrstufiger
Bedingungen steigert jedoch die Anzahl möglichen Kombinationen und damit die Komple-
xität der Analyse. Ist in QCA die Anzahl der der möglichen Kombinationen durch die An-
zahl der Bedingungen begrenzt, so hängt diese in mvQCA auch von der Zahl der möglichen
Die vergleichende Methode als Forschungsansatz 131
Werte der verschiedenen Bedingungen ab. Gibt es in einem Datensatz zwei dichotome
Bedingungen sowie je eine dreistufige Bedingung und eine vierstufige Bedingung, so gibt
es KM = 2 * 2 * 3 * 4 = 48 logisch mögliche Kombinationen.
Das Ziel von mvQCA ist es, wie in QCA, die Komplexität der Datensätze so weit wie
möglich zu reduzieren und die Hauptimplikanten für eine sparsame Lösungsformel zu fin-
den. Die Berechnung erfolgt in mvQCA ebenfalls dreiteilig (Cronqvist 2007: 71). Zuerst
wird die Wahrheitstabelle erstellt, von Cronqvist auch Konfigurationstabelle genannt, in der
Fälle mit der gleichen Konfiguration zusammengefasst werden. Danach werden die Haup-
timplikanten berechnet und dann aus diesen Hauptimplikanten die kürzestmögliche Lö-
sungsformel zusammengesetzt.
Der Hauptvorteil von mvQCA gegenüber csQCA besteht in der Minimierung der In-
formationsverluste während der Kodierung, durch die Möglichkeit mehrere Werte anzuge-
ben. Cronqvist argumentiert, dass mvQCA eine Erweiterung von QCA ist und sich vor
allem für die Analyse von genuin mittleren Fallzahlen eignet, also dem Bereich ungefähr
zwischen 15 und 35 Fällen. In der Literatur werden die Vor- und Nachteile von mvQCA
jüngst ausführlicher diskutiert (Schneider u. Wagemann 2007: 262-265; Vink u. van Vliet
2007). Während Vink und van Vliet mvQCA kritisch gegenüberstehen und dem Ansatz
nennenswerte Verbesserungen bezüglich der zentralen Probleme der qualitativen kompara-
tiven Analyse weitgehend absprechen, etwa bei den Problemen der begrenzten empirischen
Vielfalt oder widersprüchlichen Konfigurationen, sehen Schneider und Wagemann den
Beitrag von mvQCA positiver, unter der Voraussetzung, dass nur wenige multi-kategoriale
Bedingungen in eine ansonsten auf dichotomen Bedingungen basierende Analyse aufge-
nommen werden.
Fuzzy-Set QCA ist durch das gleichnamige Buch von Charles Ragin (2000) in die Diskus-
sion eingeführt worden. Fuzzy Sets lassen sich als „unscharfe Mengen“ übersetzen. Fuzzy-
Werte erweitern die von csQCA bekannte Dichotomie von 0 und 1 bei der Kodierung der
Bedingungen und des Outcomes auf alle Werte im Intervall [0;1]. Diese Werte können als
Grad der Mitgliedschaft eines Falles in einer Menge interpretiert werden (Schneider u.
Wagemann 2007: 184). Der Wert 1 gibt an, dass ein Fall vollständig zu einer Menge ge-
hört, während der Wert 0 angibt, dass der Fall gar nicht dazu gehört. Die Werte zwischen 0
und 1 geben eine abgestufte Mitgliedschaft an. Fuzzy-Sets sind also nichts anderes als
Mengen, die zusätzlich zu einer Vollmitgliedschaft und einer absoluten Nicht-Mitglied-
schaft eines Fall auch Abstufungen der Mitgliedschaft zulassen.
Um die Abstufungen der Idealfälle und die Mitgliedschaftswerte in den Fuzzy-Men-
gen zu quantifizieren, werden so genannte Fuzzy-Werte verwendet und die Abstufungen in
Fuzzy-Mitgliedschaftswerten mit sprachlichen Qualifizierungen belegt (Ragin 2000: 156).
So könnten die Fuzzy-Werte für die Stabilität einer Demokratie wie folgt sprachlich be-
schrieben werden (Schneider u. Wagemann 2007: 178):
132 Forschungsdesign
Diese Fuzzy-Skala lässt sich noch weiter ausdifferenzieren, wenn theoretische Gründe oder
die empirische Evidenz dafür sprechen. Für unscharfe Mengen ist es dabei weder notwen-
dig, dass Elemente für jeden unscharfen Mitgliedswert existieren, noch dass die Abstände
zwischen den Werten gleich groß sind.
Die jeweiligen Werte der untersuchten Bedingungen zusammengefasst ergeben wieder
die Konfigurationen der einzelnen Fälle, welche dann für die Berechnung von notwendigen
und hinreichenden Bedingungen herangezogen werden. Betrachteten wir hierzu eine Da-
tenmatrix, die drei Bedingungen A, B, C und das Outcome y enthält sowie der Einfachheit
halber nur zwei Fälle (Schneider u. Wagemann 2007: 188):
Bedingungen Outcome
Zeile A B C Y
1 1 0,8 0,9 0,7
2 0,7 0,2 0,4 0,4
Y = Stabile Demokratie
A = Gewaltsamer Umsturz
B = Ethnische Homogenität der Bevölkerung
C = Pluralistisches Parteiensystem
Auf diesen grundlegenden Regeln aufbauend, geschieht die Berechnung der notwendigen
und hinreichenden Bedingungen in fsQCA dann wie folgt: Zuerst werden alle notwendigen
Bedingungen berechnet, in dem für jede Bedingung sowie deren Komplement überprüft
wird, ob sie für das Outcome notwendig ist. Eine notwendige Bedingung liegt dann vor,
wenn der Wert der Bedingung größer oder gleich dem Wert des Outcomes ist. In einem
zweiten Schritt werden dann die hinreichenden Bedingungen berechnet. Hierzu wird für
jede Konfiguration von Bedingungen überprüft, ob sie eine hinreichende Bedingung dar-
stellen. Berücksichtigt werden hierbei aber nur Konfigurationen, die sämtliche notwendigen
Bedingungen enthalten. Ist zum Beispiel die Kombination „Ab“ eine notwendige Bedin-
gung, dann werden nur Kombinationen von Bedingungen berücksichtig in denen „Ab“
vorliegt. Als hinreichend gilt eine Bedingung dann, wenn der kombinierte Wert der Bedin-
gung kleiner ist als der Wert des Outcomes.
Als Ergebnis liefert die Analyse mit fsQCA dann eine Menge von Hauptimplikanten,
welche aus der Minimierung der hinreichenden Bedingungen hervorgegangen ist. Für die
Ausdrücke gilt dabei, dass sie im probalistischen Sinne hinreichend sind, um ein untersuch-
tes Phänomen zu erklären und dabei auch im probalistischen Sinne notwendige Bedingun-
gen berücksichtigen (Cronqvist 2007: 24). Das folgende Beispiel (siehe Tabelle 18) soll das
analytische Vorgehen in fsQCA verdeutlichen.
Tabelle 18: Fuzzy-Mitgliedschaften von 18 Ländern zur Analyse des Aufbaus eines
Wohlfahrtsstaates
Land Bedingungen Outcome
L G K H Generöser Wohl-
fahrtstaat (W)
Australien 0.25 0.4 0.17 0.25 0.26
Österreich 0.7 0.64 0.83 0.67 0.72
Belgien 0.54 0.84 0.83 0.29 0.79
Kanada 0 0.06 0.05 0.1 0.26
Dänemark 0.85 0.81 0.83 0.86 0.86
Finnland 0.56 0.86 0.83 0.72 0.76
Frankreich 0.12 0.1 0.33 0.31 0.57
Deutschland 0.43 0.2 0.67 0.3 0.68
Irland 0.11 0.63 0.67 0.84 0.67
Italien 0.1 0.39 0.5 0.55 0.64
Japan 0 0.04 0.33 0.95 0.52
Niederlande 0.33 0.17 0.83 0.27 0.69
Neuseeland 0.4 0.54 0.17 0.15 0.56
Norwegen 0.95 0.53 0.83 0.95 0.95
Schweden 0.98 1 0.95 0.7 0.98
Schweiz 0.34 0.13 0.67 0.1 0.53
Großbritannien 0.61 0.34 0.5 0.15 0.63
USA 0 0.04 0.05 0.05 0.09
134 Forschungsdesign
L = starke Linksparteien
G = starke Gewerkschaften
K = Korporatismus
H = soziokulturelle Homogenität
Quelle: Ragin (2000: 292)
Die Analyse der 18 empirischen Fälle verläuft in zwei Schritten. Zunächst wird untersucht,
ob notwendige Bedingungen vorliegen. Für die vier Bedingungen L, G, K und H sowie ihre
Komplemente l, g, k und h wird getrennt voneinander untersucht, ob sie notwendige Bedin-
gungen für den Outcome W sind. Hierzu müssen acht Tests (2k) durchgeführt werden, je
einmal für die positive und die negative Zugehörigkeit jeder Variable zu einer Menge. Ra-
gin hat dazu einen Test mit einer Wahrscheinlichkeitsproportion von 0,8 (fast immer not-
wendig) mit einem Signifikanzniveau von 0,05 durchgeführt.7 Die Ergebnisse der Analyse
zeigt Tabelle 19.
gewerkschaften 9 0,50
GEWERKSCHAFTEN 4 0,22
korporatismus 6 0,33
KORPORATISMUS 6 0,33
homogenität 9 0,50
HOMOGENITÄT 4 0,22
Anzahl der getesteten Fälle (Ereignis > 0): 18
Test Proportion: 0.8; *p < 0.05
Quelle: Jahn 2006: 431
7
Ragin (2000: 107-119) gibt folgende Wahrscheinlichkeitsproportionen an: 0,8 (trifft fast immer zu); 0,65 (trifft
gewöhnlich zu); und 0,5 (trifft öfter zu als nicht). Auch empfiehlt er verschiedene Signifikanzniveaus (0,1;
0,05; 0,01), die zusammen mit der Wahrscheinlichkeitsproportion eine gewisse Anzahl von Ausnahmen erlau-
ben (siehe die Tabelle 4.9 in Ragin 2000: 114).
Die vergleichende Methode als Forschungsansatz 135
und Wagemann (2007: 235) soll hier gelten, dass mindestens ein Fall pro Zeile einen Mit-
gliedschaftswert von über 0,5 haben muss (ansonsten gilt die Zeile als logisches Rudiment)
und dass empirisch relevante Kombinationen dann als hinreichende Bedingungen für den
Outcome (W) gelten, wenn der entsprechende Konsistenzwert gleich 1 ist. Durch dieses
Vorgehen erhalten wir als Ergebnis die folgende Tabelle 20.
Im Gegensatz zur Wahrheitstabelle in csQCA bedeutet der Wert „1“ beim Outcome
hier nicht „der Outcome liegt vor“, sondern dass diese Kombination eine ausreichend kon-
sistente hinreichende Bedingung ist. Unter Beachtung unserer Vorgaben zur Fallzahl und
zur Konsistenz zeigt sich, dass die Kombinationen der Bedingungen in den Zeilen 1, 2 und
3 hinreichende Bedingungen für den Outcome „Generöser Wohlfahrtsstaat“ (W=1) sind.
Die Merkmalskombinationen in den Zeilen 4, 5, 6 und 7 sind hingegen nicht konsistent
genug für eine hinreichende Bedingung (W=0). Die Zeilen 8-16 beschreiben jene logisch
möglichen Kombinationen der Bedingungen, für die es keine ausreichende empirische
Evidenz gibt (W=?).
Für die Bestimmung der Lösungsformel müssen nur noch die hinreichenden Bedingungen
aus den Zeilen 1-3 minimiert werden. Geschieht dies ohne Zuhilfenahme vereinfachender
Annahmen über die logischen Rudimente (d.h. diese Zeilen werden als „0“ gesetzt und wie
„w“ behandelt), dann erhalten wir das folgende Ergebnis:
Zwei Wege führen also zu einem positiven Outcome. Generöse Wohlfahrtsstaaten treten in
Ländern mit starken Gewerkschaften (G) und einem stark ausgeprägten korporatistischen
industriellen System (K) in Verbindung mit entweder starken Linksparteien (L) oder einer
starken soziokulturellen Homogenität (H) auf. Durch das Ausklammern von „GK“ wird
dabei hervorgehoben, dass die Kombination aus starken Gewerkschaften und einem stark
korporatistischen System in allen hinreichenden Lösungen vorkommt, die zum Outcome
(W) führen.
Der Vorteil der Fuzzy-Set QCA besteht vor allem darin, dass konfigurative Zusam-
menhänge erfasst werden und Schlussfolgerungen über die analysierten Fälle hinaus getrof-
fen werden können. Der wesentliche Unterschied zu QCA besteht darin, dass die Variablen
differenzierter kodiert werden und dass Wahrscheinlichkeitsbedingungen in die Berech-
nungen einfließen (Jahn 2006: 434). Da die Signifikanz der notwendigen und hinreichenden
Bedingungen in fsQCA mit einem probalistischen Test überprüft werden muss und diese
Tests auf einer gewissen Mindestzahl von Fällen beruhen, empfiehlt Cronqvist (2007: 25)
diese Methode für Analysen von mittleren Fallzahlen in der Größenordnung von 30 und
mehr Fällen zu verwenden. Ragin hingegen verwendet in seinem Buch mehrere Beispiele,
in denen deutlich weniger Fälle analysiert werden, wie etwa das oben vorgestellte Beispiel
der Analyse des generösen Wohlfahrtsstaates in 18 OECD-Ländern (Ragin 2000: 298).
nicht als Ganzes holistisch erfasst werden, sondern die Analyse sich auf ausgewählte Teil-
aspekte konzentrieren. Nur diese analytisch abgeleiteten Teilaspekte der Fälle werden dann
miteinander verglichen.
Der strukturiert-fokussierte Vergleich besteht im Kern aus einem dreistufigen Vorge-
hen. Der erste Schritt ist die Entwicklung des Forschungsdesigns. Diese erste Phase umfasst
die Bearbeitung von fünf Aufgaben (George u. Bennett 2005: 72ff):
und überprüft werden kann. Dabei spielt es eine wesentliche Rolle, dass die Informati-
onen standardisiert werden und somit zwischen den Fällen vergleichbar sind.
Die fünf beschriebenen Aufgaben sollten als einzelne Komponenten eines integrierten Gan-
zen betrachtet werden. Natürlich sind die fünf Aufgaben miteinander verwoben und gegen-
seitig voneinander abhängig. Die Integration der fünf Aufgaben in ein stimmiges For-
schungsdesign stellt den Forscher vor eine große Herausforderung, die, wie George und
Bennett betonen (2005: 88), nicht immer im ersten Anlauf bewältigt werden kann. Umso
wichtiger ist es, Schleifen und Rückkopplungen einzubauen, um Konkretisierungen und
Verbesserungen an den Ergebnissen der einzelnen Aufgaben vornehmen zu können, bevor
das endgültige Forschungsdesign den gestellten Anforderungen entspricht.
Der zweite Schritt im Rahmen des strukturierten, fokussierten Vergleichs ist die
Durchführung der Fallstudie auf der Grundlage des im ersten Schritt entwickelten For-
schungsdesigns. Das Produkt dieses zweiten Schrittes sind Erklärungen – „Antworten“ wie
George und Bennett (2005: 89) schreiben - für das Ergebnis eines Falles. Dabei müssen alle
möglichen Erklärungen für einen Fall in der Fallstudie berücksichtigt werden. Und solange
keine der Theorien sich als erklärungskräftiger gegenüber konkurrierenden Theorien her-
ausgestellt hat, müssen alle Theorien mit einer gewissen Erklärungskraft beibehalten wer-
den. Anders als statistische Verfahren verfügen Fallstudien nicht über klare Kriterien, wie
die Fakten eine Theorie unterstützen und ab wann eine Theorie in ausreichendem Maße
unterstützt wird (Jahn 2006: 338). Da der Forscher selbst über die Annahme oder Ableh-
nung einer Theorie entscheidet, muss er so offen wie möglich für alternative Erklärungsan-
sätze sein.
Der dritte und finale Schritt ist die Anbindung der empirischen Ergebnisse an die theo-
retische Diskussion. Die Ergebnisse von Fallstudien können sowohl für das Testen von
Theorien genutzt werden als auch zur Theorieentwicklung beitragen. Durch das induktive
Vorgehen können Fallstudien mittels Plausibilitätsprüfungen und der Analyse abweichen-
der Fälle neue oder vernachlässigte Variablen, Hypothesen, kausale Pfade, Kausalmecha-
nismen, Typen oder Interaktionswirkungen aufzeigen. In diesem Sinne können Fallstudien
auf drei Wegen einen Beitrag zur Theorieentwicklung leisten (George u. Bennett 2005:
109): Erstens können Theorien und ihre inhärenten Erklärungen durch die Ergebnisse von
Fallstudien unterstützt, geschwächt oder überhaupt erst etabliert werden. Zweitens kann das
Ergebnis, dass eine Theorie einen bestimmten Fall und sein Ergebnis erklärt oder eben
nicht erklärt, durch die Erarbeitung von Typologien auf ähnliche Fälle generalisiert werden.
Und drittens können die Ergebnisse von Fallstudien unter Umständen auch theoretische
Aussagen über andere Typen von Fällen möglich machen.
Entsprechend können Fallstudien auch auf verschiedenen Wegen einen Beitrag zur
Überprüfung von Theorien leisten (George u. Bennett 2005: 117-123). Selten werden Theo-
rien dabei pauschal verworfen, das Ziel von Fallstudien ist vielmehr existierende Theorie zu
präzisieren und zu verfeinern. Dies kann zum Beispiel durch die Verwendung konkurrie-
render Theorien in einer Fallstudie erreicht werden oder durch die Überprüfung typologisie-
render Theorien anhand von geeigneten Fällen. Im letzteren Fall kann auch die Typologie-
bildung selbst durch die gezielte Auswahl von Grenzfällen überprüft werden. Ferner kön-
nen Theorien an so genannten „wichtigen Fällen“ überprüft werden, also Fällen, die als
zentraler Beweis für die Erklärungskraft und Validität einer Theorie gelten können.
Die vergleichende Methode als Forschungsansatz 139
Unter dem Begriff „Kontrollierter Vergleich“ verstehen George und Bennett (2005: 153-
160) in ihrem Buch die Vergleichende Methode nach Lijphart bzw. die Anwendung der
Millschen Methoden. Andere Autoren verwenden hierfür den Begriff des „kovariaten An-
satzes“ (Blatter u. Blume 2008). Da dieser methodische Ansatz in Kapitel 4.3.1 schon aus-
führlich beschrieben wurde, sollen an dieser Stelle nur die wesentlichen Punkte rekapitu-
liert werden.
Prominent vertreten wird der kovariate Ansatz gegenwärtig von John Gerring (2007).
Im Kern handelt es sich bei dem kovariaten Ansatz, wie Hall es ausdrückt, um den kleinen
Bruder der statistischen Analyse: „the comparative method is essentially the statistical
method writ small“ (Hall 2006: 26). Gemeint ist damit, dass im Zentrum des kovariaten
Ansatzes ebenfalls die Suche nach kausalen Effekten steht. Analytisch untersucht werden
die Zusammenhänge zwischen den Indikatoren für abhängige Variablen und unabhängige
Variablen. Zwei Bedingungen müssen erfüllt sein, um kausale Aussagen über den Zusam-
menhang zwischen zwei oder mehreren unabhängigen und abhängigen Variablen machen
zu können. Erstens müssen andere Variablen, die einen Einfluss auf das Ergebnis haben
könnten, kontrolliert werden. Beim kontrollierten Vergleich wird die Minimierung der
externen Varianz durch die bewusste Fallauswahl erreicht, womit ausgewählte Variablen
konstant gehalten werden. Die Validität der Schlussfolgerungen wird durch die bewusste
Fallauswahl erhöht, so dass der Vergleich zwischen den Fällen einem sozialen Experiment
möglichst nahe kommt. Zweitens muss der kovariate Zusammenhang zwischen zwei Vari-
ablen analytisch sinnvoll sein, das heißt die empirischen Beobachtungen müssen mit theo-
retischen Aussagen verknüpft werden. In diesem Sinne setzt der kontrollierte Vergleich
theoretisch oder empirisch deduzierte forschungsleitende Hypothesen voraus.
Generalisierende Schlussfolgerungen über die erklärenden Variablen erfolgen bei die-
sem Ansatz vom Spezifischen auf das Universale, das heißt die Ergebnisse aus den unter-
suchten Fällen werden auf eine größere Population von Fällen übertragen, die nicht direkt
untersucht wurden. Die Fallauswahl orientiert sich dementsprechend an der Position der
Fälle in der größeren Population (z.B. typisch, extrem, etc.). Die Grenzen der größeren
Population müssen dabei eindeutig bestimmt und analytisch begründet sein. Mit Generali-
sierungen werden die Schlussfolgerungen sozusagen in die „Breite“ der Fälle weiterentwi-
ckelt.
140 Forschungsdesign
5.4.2 Prozess-Analyse
Die systematische Prozess-Analyse steht geradezu sinnbildlich für das klassische Verständ-
nis von Fallstudien. Hierbei wird das untersuchte Ereignis, etwa eine politische Entschei-
dung oder ein soziales Phänomen, in seiner Entstehung kontextualisiert. Im Zentrum der
Forschungsanstrengungen steht dementsprechend die fallinterne Suche nach kausalen Me-
chanismen und Kausalketten:
„The process-tracing method attempts to identify the intervening causal processes – the causal
chain and causal mechanisms – between an independent variable (or variables) and the outcome
of the dependent variable“ (George u. Bennett 2005: 206).
dieser Ansatz entfalten, wenn die qualitative narrative Methode mit einer hoch formalisier-
ten Theorie verknüpft wird. Bates et al. verwenden zum Beispiel die Rational Choice-
Theorie. Um das Ereignis zu erklären, werden die Einzelentscheidungen dann dahingehend
untersucht, ob sie mit den aus der Theorie abgeleiteten Aussagen konform sind. Dazu wur-
den bei Bates et al. beispielsweise folgende Fragen gestellt: Würde ein rationaler Akteur
sich in Anbetracht der zu erwartenden Reaktion anderer Akteure so verhalten? Spiegeln
sich die Motive der Akteure in deren Verhalten wider? Sind die Reaktionen optimale Ent-
scheidungen angesichts der Handlungsalternativen, Spielregeln und verfügbaren Informati-
onen? Die konsistente Beantwortung von Fragen anhand der zugrunde liegenden Theorie
übertragt das Narrativ in ein analytisches Narrativ. Im Gegensatz zur deskriptiven Pro-
zessanalyse, bei der die einzelnen Schritte häufig nicht theoriegeleitet dargestellt werden,
kommt der kontinuierlichen Verbindung zwischen Theorie und Empirie beim analytischen
Narrativ eine besondere Rolle zu. Der Forschungsprozess durch analytische Narrative ist
abgeschlossen, wenn alle empirisch überprüfbaren theoretischen „Gedankenspiele“ durch-
geführt wurden (Jahn 2006: 234).
Zusammenfassend lassen sich drei verschiedene Stärken der unterschiedlichen Formen
der Prozessanalyse unterscheiden (Blatter, Janning u. Wagemann 2007: 157):
1. Der konkrete empirische Nachweis von kausalen Mechanismen und Kausalketten, die
zu einem bestimmten Ergebnis führen (als komplementäres Element zum Nachweis
von kausalen Effekten);
2. Die Erfassung von sequentiellen und situativen Interaktionswirkungen zwischen Ein-
flussfaktoren als primär induktiver Beitrag zu einer konfigurativen Analyse; und
3. Die Aufteilung einzelner Untersuchungseinheiten in zeitliche Perioden, um durch
Vergleiche zwischen diesen Einheiten und deren historischer Abfolge, aber auch durch
Veränderungen in der abhängigen und den unabhängigen Variablen, kausale Effekte
zu identifizieren.
Der Vorteil von Prozessanalysen besteht im Wesentlichen darin, dass zeitlich weit ausei-
nander liegende Ereignisse analytisch aufeinander bezogen werden können. Dabei können
durch die Prozessanalyse sowohl Scheinkorrelationen als auch Aquifinalitäten aufgedeckt
werden. Der hauptsächliche Beitrag den Prozessfallstudien für die theoretische Diskussion
leisten, besteht in der Präzisierung bereits bestehender Theorien, weitaus geringer ist der
Beitrag für die Überprüfung von Theorien.
Von den gerade beschriebenen Prozessanalysen lassen sich fallinterne Methoden abgren-
zen, die sich sowohl bei der Fallauswahl als auch in der konkreten Analyse konsequent an
einer oder mehreren Theorien ausrichten. Entscheidend für die Fallauswahl ist bei diesen
Methoden nicht mehr, wie sich die Fälle zueinander verhalten, sondern was sie in Bezug
auf eine Theorie erwarten lassen bzw. schließlich nach der empirischen Untersuchung dar-
über aussagen.
George und Bennett (2005: 181-204) bezeichnen dieses Verfahren als Kongruenzme-
thode. Charakteristisches Merkmal für diese Methode ist, dass der Forscher mit einer Theo-
142 Forschungsdesign
rie beginnt und dann überprüft, ob diese Theorie das Ergebnis bzw. Outcome eines be-
stimmten Falles erklären kann. Der Begriff Kongruenz bedeutet im Allgemeinen deckungs-
gleich, in diesem Fall ist also die Deckungsgleichheit zwischen den theoretischen Erwar-
tungen und den empirischen Beobachtungen gemeint. Im Gegensatz zu der im vorherigen
Kapitel dargestellten Prozessanalyse konzentriert sich die Kongruenzmethode nicht auf den
zeitlichen Ablauf und die Identifikation der Kausalmechanismen, sondern auf die Überein-
stimmung der aus Theorien abgeleiteten Prognosen mit den empirischen Ergebnissen. Der
erste Schritt bei der Anwendung der Kongruenzmethode ist deswegen die genaue Spezifi-
kation der theoretischen Kausalannahmen und die Festlegung, welches Ergebnis bei wel-
chen Ausgangsbedingungen zu erwarten ist. Im zweiten Schritt wird dann am empirischen
Fall überprüft, inwieweit die theoretischen Erwartungen der empirischen Evidenz entspre-
chen und somit eine Kongruenz gegeben ist. Der dritte Schritt besteht in der kritischen
Kontrolle der Gültigkeit der Schlussfolgerungen durch die Suche nach weiteren Anhalts-
punkten innerhalb des Falles und durch weitere Vergleiche mit verschiedenen Theorien
(Blatter, Janning u. Wagemann 2007: 151). Um die kausale Signifikanz einer festgestellten
Kongruenz zu bewerten sollte sich der Forscher zwei Fragen stellen (George u. Bennett
2005: 185): (1) Ist die Übereinstimmung nur oberflächlich oder tatsächlich kausal signifi-
kant? und (2) Handelt es sich bei der bzw. den unabhängigen Variable(n) um notwendige
Bedingungen für das Ergebnis und welche Erklärungskraft und Prognosefähigkeit besitzen
diese Variablen? Um zu überprüfen, ob die festgestellte Kovarianz nur oberflächlich ist,
sollte der empirische Fall nach weiteren kausal relevanten Erklärungsfaktoren untersucht
werden, die möglicherweise die unabhängige und abhängige Variable gleichgerichtet beein-
flussen. Joachim Blatter wirft George und Bennett an dieser Stelle vor, ihren Kongruenztest
viel zu sehr auf die Frage der Kovarianz zwischen Variablen auszurichten und die interpre-
tative Dimension der Kongruenzmethode zu vernachlässigen (Blatter u. Blume 2008; Blat-
ter, Janning u. Wagemann 2007: 153). Nach seiner Lesart lässt sich die Kongruenzmethode
auch so verstehen, dass die Übereinstimmung der theoretischen Variablen mit der Empirie
über deren Kovarianz hinausreichen muss und die Übereinstimmung von Theorie und Em-
pirie qualitativ sowohl in Bezug auf die abhängigen als auch die unabhängigen Variablen
bewertet werden sollte. Abhängige und unabhängige Variablen stellen hierbei komplexe
Konstrukte dar, die nicht einfach mit quantifizierbaren Indikatoren gemessen werden kön-
nen. Aus dieser Perspektive ist die Basis der Kongruenzmethode weniger die Kovarianz
zwischen abhängiger und unabhängiger Variable, sondern die Kongruenz zwischen vielfäl-
tigen deskriptiven und prognostischen Elementen einer Theorie und den entsprechenden
empirischen Tatbeständen eines Falles.
Eine seit langem bekannte Spielart der Kongruenzmethode ist das Aufspüren von
Mustern innerhalb eines Falles, das so genannte pattern matching (Campbell 1975). Dieses
Verfahren hilft bei der Identifizierung typischer Konstellationsmuster von Variablen in
einer Fallstudie. Unter Rückgriff auf Theorien und der Berücksichtigung der Literatur kann
es auf einen Forschungsgegenstand bezogen werden und entspricht in dieser Hinsicht der
theorieorientierten, interpretativen Fallstudie (Jahn 2006: 333). Campbell hat das Verfahren
ursprünglich entwickelt, weil sich Hypothesen aus fallübergreifenden Untersuchungen
oftmals in Fallstudien nicht bestätigten: „Small-N researchers routinely find their argu-
ments cannot be sustained when within-case hypotheses are assessed“ (Campbell 1975:
182). In diesem Sinne kann pattern matching mittels Fallstudien dazu beitragen, die
Schwächen der fallübergreifenden Analysen zu mindern und eine zusätzliche Bestätigung
Die vergleichende Methode als Forschungsansatz 143
für die Ergebnisse und Schlussfolgerungen liefern. Das Verfahren des pattern matching ist
sehr hilfreich, um die Zahl der potentiellen Erklärungen zu minimieren, in dem es systema-
tisch mögliche erklärende Variablen aussortiert. Im Ergebnis führt dies zu deutlich sparsa-
meren Erklärungen.
Den Kern des pattern matching bildet die Prognose-Matrix („prediction matrix“). Die
Prognose-Matrix legt auf der Grundlage der Theorie das „Muster“ fest, welches durch die
Daten der empirischen Fälle entweder bestätigt oder nicht bestätigt wird. Die Aussagen in
der Matrix entsprechen theoretischen Hypothesen. Der erste Schritt im Rahmen des pattern
matching ist für den Forscher dementsprechend sich vertraut zu machen mit den Theorien,
die den empirischen Untersuchungsfall potentiell erklären könnten. Nachdem die Aussagen
dieser Theorien in die Prognose–Matrix eingegeben wurden, werden im zweiten Schritt die
empirischen Daten mit den theoretischen Aussagen abgeglichen. Dazu werden alle Über-
einstimmungen und Abweichungen in einer Tabelle mit entsprechenden Werten bzw. Aus-
prägungen notiert. Diese Ergebnistabelle kann dann in einem weiteren Schritt mit Hilfe von
statistischen Verfahren ausgewertet werden, um die Signifikanz der untersuchten Theorien
anhand der Zahl der bestätigten und unbestätigten Vorhersagen festzumachen. Als beson-
ders wertvoll erweist sich dieses Verfahren, wenn rivalisierende Theorien getestet werden
sollen. Aber pattern matching kann auch zur Theorieentwicklung beitragen, etwa in dem
die bestätigten theoretischen Aussagen als „benchmark“ für die Weiterentwicklung oder
Präzisierung bestehender Theorien genutzt werden.
Fall spricht Detlef Jahn von der „Servicefunktion“ der Fallstudie für die vergleichende
Methode. Andererseits kann das Verhältnis zwischen Fallstudie und vergleichender Metho-
de aber auch umgekehrt sein. Bei einem solchen Vorgehen schafft die vergleichende Me-
thode die Grundlage für besser erklärende Fallstudien. Dieser Ansatz vertritt die Auffas-
sung, dass die breit angelegte vergleichende Methode durch eine intensive Analyse einzel-
ner Fälle ergänzt werden muss.
Im Rahmen dieser Untersuchung werden beide genannten Möglichkeiten zur Kombi-
nation genutzt, so dass in Anlehnung an Jahn (2006: 414) von einem verzahnten For-
schungsdesign gesprochen werden kann. Eine solche Studie bemüht sich sowohl die Logik
der Fallstudie als auch der vergleichenden konfigurativen Analyse zugleich explorativ und
hypothesenbestätigend anzuwenden. Dementsprechend wechseln sich im Rahmen dieser
Studie Fallstudien und vergleichende Analysen ab und durch jeden Analyseschritt entwi-
ckelt sich die Untersuchung weiter. Dies bedeutet, dass durch die folgende Analyse nicht
nur die Ergebnisse des anderen Verfahrens illustriert und verifiziert werden, sondern das
neue Aspekte gefunden werden und diese dann wieder anhand des alternatives Analysever-
fahrens weiterverfolgt werden.
Den ersten Schritt in diesem wechselseitigen methodischen Vorgehen stellt in diesem
Sinne die Diskussion der bisherigen Erfahrungen mit strategischer Umweltplanung in aus-
gewählten Industrie- und Entwicklungsländern in Kapitel 3 des zweiten Abschnitts dar. Die
darin enthaltenen explorativen Fallstudien zu nationalen Umweltplänen in insgesamt acht
ausgewählten Industrie- und Entwicklungsländern bilden das Fundament für die Analyse
der nationalen Umweltaktionsprogramme in Mittel- und Osteuropa. Die empirischen Er-
gebnisse und theoretischen Schlussfolgerungen aus diesem Kapitel fließen dementspre-
chend in den zweiten Schritt der Untersuchung ein, nämlich die vergleichende konfigurati-
ve Analyse nationaler Umweltaktionsprogramme in Mittel- und Osteuropa mittels fsQCA.
Im abschließenden dritten Schritt werden die durch die fallübergreifende Analyse ermittel-
ten Muster in der Grundgesamtheit durch spezifische Fallstudien zu diesen Mustern in
ausgewählten Ländern Mittel- und Osteuropas anhand einer systematischen Prozessanalyse
illustriert.
Die Anlehnung an die konfigurative Forschungsstrategie Ragins in Kombination mit
systematischen Prozessanalysen hat für das Forschungsdesign der Untersuchung folgende
zentrale Implikationen:
Die Zahl der Fälle bewegt sich im mittleren Bereich
Ziel der Arbeit ist es, sowohl fallübergreifende Aussagen zu gewinnen (cross-case
analysis) als auch die einzelnen Fälle für sich genommen zu verstehen und zu erklären
(within case analysis)
In der Konsequenz wird die Untersuchung methodisch durch die Kombination von
konfigurativ-vergleichender Analyse (QCA) und Einzelfallstudien geprägt
Die Methodik und die Indikatorenauswahl weisen eine Nähe zur qualitativen For-
schung auf