Sie sind auf Seite 1von 476

Studien des Leibniz-Instituts Hessische Stiftung

Friedens- und Konfliktforschung

Elvira Rosert

Die Nicht-Entstehung
internationaler
Normen
Permissive Effekte in
der humanitären Rüstungskontrolle
Studien des Leibniz-Instituts Hessische
Stiftung Friedens- und Konfliktforschung
In der Schriftenreihe werden grundlegende Forschungsergebnisse aus dem Insti-
tut, Beiträge zum friedens- und sicherheitspolitischen Diskurs sowie Begleitpu-
blikationen zu den wissenschaftlichen Tagungen der HSFK veröffentlicht. Die
Studien unterliegen einem externen Gutachterverfahren. Die Reihe wird her-
ausgegeben vom Leibniz-Institut Hessische Stiftung Friedens- und Konfliktfor-
schung (HSFK/PRIF), Frankfurt am Main.

Weitere Bände in der Reihe http://www.springer.com/series/15640


Elvira Rosert

Die Nicht-Entstehung
internationaler Normen
Permissive Effekte in der humanitären
Rüstungskontrolle
Elvira Rosert
Hamburg, Deutschland

Dissertation Goethe-Universität Frankfurt, 2016

Ergänzendes Material zu diesem Buch finden Sie auf http://extras.springer.com.

Studien des Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung


ISBN 978-3-658-25041-6 ISBN 978-3-658-25042-3  (eBook)
https://doi.org/10.1007/978-3-658-25042-3

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National­


bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Springer VS
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die
nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen,
Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa­
tionen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind.
Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder
implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt
im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten
und Institutionsadressen neutral.

Springer VS ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH
und ist ein Teil von Springer Nature
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Danksagung

Lange bevor ich mit der Arbeit an diesem Buch begonnen habe, hatte eine
Irritation in mir seinen Kerngedanken gesät: Die Irritation über die Selbst-
verständlichkeit, mit der wir den Tod von Soldaten in Kriegen hinnehmen
– im Kontrast zu der Empörung, die der Tod von Zivilisten in uns auslöst.
Nina Tannenwalds Konzept der permissiven Effekte wurde für mich zum
theoretischen Hebel, um über die gegenseitige Bedingtheit der beiden Sei-
ten solcher Dichotomien wie Soldatin/Zivilistin nachzudenken. Auch
wenn ich mit der Norm gegen Streumunition einen anderen empirischen
Fall ausgewählt habe, ist das vorliegende Buch das Ergebnis dieses Nach-
denkens über den Zusammenhang von Verboten und Erlaubnissen sowie
von Inhumanität und Akzeptabilität – und der Erforschung solcher Kon-
strukte an den Normen des humanitären Völkerrechts.
In dem langen Denk- und Forschungsprozess, den dieses Buch weni-
ger abschließt als vielmehr in einem Zwischenstadium dokumentiert,
standen mir viele Menschen intellektuell und – nicht minder wichtig –
emotional zur Seite. Harald Müller gab mir die Möglichkeit, an der Hessi-
schen Stiftung Friedens- und Konfliktforschung (HSFK) in Frankfurt am
Main zu promovieren und übernahm die Erstbetreuung meiner Disserta-
tion, aus der dieses Buch hervorgegangen ist. Im Lichte unser beider Aus-
gangsannahmen über mein Promotionsthema bzw. meine Promotions-
themen (diese umfassten zu verschiedenen Zeitpunkten die Rüstungs-
kontrollpolitik Chinas, Indiens und/oder Russlands und sollten in ir-
gendeiner Form mit der Securitization Theory verbunden werden) ist die
Richtung, die der Forschungsprozess genommen hat, für uns beide si-
cherlich überraschend. Umso dankbarer bin ich für die Freiheit, die ich
bei der Entwicklung und Durchführung dieses Vorhabens genießen durf-
te, zumal diese Freiheit stets mit Interesse, Zuversicht und Ermutigung

VI Danksagung

sowie mit ebenso schnellem wie kritischem, aber konstruktivem Feed-


back von Seiten meines Betreuers einherging. Harald Müllers Kreativität
und Produktivität, seine theoretische Schärfe, sein schier unendliches
Wissen über das gesamte Feld der Rüstungskontrolle und seine Fähigkeit,
Forschung mit Policyrelevanz zu verbinden, waren für dieses Projekt und
bleiben für mich persönlich ein wichtiger Quell der Inspiration.
Großer Dank gebührt auch Tanja Brühl, und das bei Weitem nicht
nur dafür, dass sie meine Promotion als Zweitbetreuerin in der gesamten
Zeit mit Engagement, Offenheit und Weichenstellung begleitet hat. Sie
hat es mir ermöglicht, an der Goethe-Universität Frankfurt Teil eines
Teams zu werden, in dem ich von ihr viel über Führung, Kooperation
und Management lernen durfte. Tanja Brühl war es auch, die bei mir
noch während des Studiums das Interesse für internationale Normen
weckte – und ich bin dankbar, dass wir unser Gespräch über dieses For-
schungsgebiet noch viele Jahre mit Gewinn fortsetzen konnten. Dankbar
bin ich auch für den Blick über den Tellerrand des Dissertationsprojektes
hinaus, den unsere Zusammenarbeit für mich bedeutete: Dieser Blick galt
immer auch der Friedens- und Konfliktforschung, den Vereinten Natio-
nen und verschiedenen internationalen Politikfeldern jenseits der Rüs-
tungskontrolle, etwa der Umweltpolitik oder den Menschenrechten. Der
besondere Stellenwert, den ich der universitären Lehre beimesse und die
Art, wie ich meine Lehrveranstaltungen ausgestalte, sind durch Tanja
Brühls Vorbild geprägt.
Nach einer Zeit der Suche in Frankfurt hat es der Zeit der Ruhe in
Vancouver bedurft, damit dieses Vorhaben klare Konturen gewinnen
konnte. Ich danke Richard Price für die Bereitschaft, mich als Gastfor-
scherin an der University of British Columbia aufzunehmen und für die
Ermutigung, permissive Effekte als Erklärungsansatz für die Nicht-
Entstehung von Normen auszuloten. Für die unkomplizierte und unbü-
rokratische Finanzierung dieses Forschungsaufenthaltes danke ich der
Goethe-Universität Frankfurt, ihren Freunden und Förderern sowie
der HSFK.
Frank Schimmelfennigs erhellende Arbeiten zu Forschungsdesigns
und insbesondere zu (effizientem) Process Tracing haben grundlegende
Einsichten für die Konzeption dieses Projektes geliefert. Deshalb, wie
Danksagung VII

auch aufgrund seiner viel rezipierten Beiträge zu internationalen Nor-


men, lag es nahe, ihn für ein Drittgutachten anzufragen. Für die schnelle
Anfertigung des Gutachtens und für die wertvollen Hinweise zur Weiter-
entwicklung meines Argumentes bin ich Frank Schimmelfennig sehr
dankbar. Als inhaltliche Bereicherung empfand ich auch die Disputation,
weshalb ich der Kommission, die neben dem Erstgutachter und der
Zweitgutachterin aus Nicole Deitelhoff, Sigrid Roßteutscher und Claudius
Wagemann bestand, für die kritischen und anregenden Fragen danke.
Ich hatte das Privileg, dieses Projekt in der Phase seines Werdens in
verschiedenen Kolloquien, Seminaren, Workshops und Konferenzen zur
Diskussion zu stellen. Allen voran sei das Doktorandenkolloquium der
HSFK genannt – ein einzigartiges Forum für ehrliche, konstruktive und
kompetente Kritik, für welches das Erleben des gemeinsamen Promovie-
rens (und bisweilen auch des Nicht-Promovierens) konstitutiv ist. Das
Forschungskolloquium von Tanja Brühl an der Goethe-Universität wird
mir neben der produktiven Arbeitsatmosphäre auch aufgrund seiner Zu-
sammensetzung aus BA- und MA-Studierenden, Doktorand/-innen und
PostDocs in Erinnerung bleiben. Es hat mich gelehrt, dass Forschungs-
projekte, egal auf welchem Niveau, doch immer vor ähnlichen Entschei-
dungen stehen und dass die wichtigsten und hilfreichsten Fragen mitun-
ter von denjenigen kommen, die von sich denken, sie seien ja noch ganz
am Anfang. Diese gewinnbringende Erfahrung machte ich auch mit Stu-
dierenden in meinen Seminaren, in denen ich das Promotionsprojekt
einige Male vorstellte.
Im Rahmen diverser ISA-Panels kommentierten Richard Price, Judith
Kelley, Rebecca Sanders und Charli Carpenter Ausschnitte meines Argu-
ments und trugen damit zu seiner Schärfung bei. Auf dem PhD Work-
shop „Transnational Dimensions of Global Governance" an der Hebrew
University in Jerusalem war der Austausch mit teilnehmenden Dokto-
rand/innen aus Deutschland, Israel und Schweden ebenso bereichernd
wie die Kommentare von Arie Kacowicz. Besonders dankbar bin ich Tal
Dingott Alkopher für ihren Vorschlag, Mechanismen zu formulieren, um
meine These zu stützen – auch wenn ich erst einige Monate später, näm-
lich in einem Process-Tracing-Kurs bei Derek Beach in der ECPR Method
School begriff, dass Mechanismen wirklich das fehlende Puzzlestück sind.

VIII Danksagung

Sophie Behr, meine studentische Mitarbeiterin an der Universität


Hamburg, und Karl Buchacher, mein studentischer Mitarbeiter am Insti-
tut für Friedensforschung und Sicherheitspolitik an der Universität Ham-
burg (IFSH) haben mich bei der Fertigstellung der Druckfassung des Ma-
nuskripts – darunter bei der Literatur- und Datenrecherche, der Erstellung
der Graphiken und beim Lektorat – hervorragend unterstützt. Ihnen
beiden danke ich für ihren beispielhaften Einsatz, ihre Sorgfalt und ihren
Perfektionismus. Elke Flatau und Karin Siepmann vom Springer VS Ver-
lag haben bei unzähligen Formatierungsfragen geholfen; ihr wachsamer
Blick hat das Erscheinungsbild des Gesamtdokuments enorm verbessert.
Das tolle Team unseres Kinderladens sowie Jacqueline Fort, Célia Ma-
zoyer, Margarita Onuchina und Neslihan Sertkaya haben dafür gesorgt,
dass ich mir für dieses Projekt ausreichend und ohne schlechtes Gewissen
Zeit nehmen konnte – dankeschön!
Dass ich die Herausforderung der Promotion mit Erfolg, Spaß und
ohne (größere) psychische Schäden meistern konnte, verdanke ich vielen
fantastischen Kolleginnen und Kollegen und Freundinnen und Freun-
den. Dem Team der Professur für Internationale Institutionen und Frie-
densprozesse an der Goethe-Universität – am Anfang bestehend aus Tan-
ja Brühl, Matthias Hofferberth, Klaus Roscher und Andrea Stork, später
auch aus Cornelia Frank, Marika Gereke, Anne Peltner und Julia Leib –
fühle ich mich bis heute verbunden. Gleiches gilt für den Programmbe-
reich I der HSFK und die große Doktorandenclique (danke für den groß-
artigen Doktorhut!), und insbesondere für die besten, lustigsten, ver-
ständnisvollsten, diskussionsfreudigsten und zeitweise auch geschwät-
zigsten Büronachbarn aller Zeiten: Marco Fey und Carsten Rauch.
Unser Diss-Team, zu dem Marco Fey, Marcel Heires und Annika Poppe
gehörten, hat mich durch die (etwas längere) Endphase des Dissertati-
onsprojektes getragen; die Writing Group mit Caroline Fehl, Dirk Peters
und Eva Ottendörfer durch die Überarbeitung des Manuskripts zum Buch
und in Zeitschriftenartikel. Vielen Dank dafür, dass ich mit Euch das
Freud und Leid des Schreibens teilen darf.
Marco Fey danke ich für seine Freundschaft, die bereits während des
Studiums begann. Ich habe in zahllosen Gesprächen über mein Projekt
von seiner theoretischen und methodischen Kompetenz sowie seinem
Danksagung IX

Rüstungskontrollwissen profitiert – und in noch mehr Gesprächen über


diverse Lebensentscheidungen von seiner Loyalität, seiner Empathie und
seinem Weitblick. Ich bin dankbar, dass unsere Verbindung auch nach
Ende der gemeinsamen Zeit an der HSFK und in Frankfurt nicht abreißt.
Während meiner Promotionszeit sind tolle Wissenschaftlerinnen zu
engen Freundinnen geworden. Simone Claar bewundere ich für ihr un-
ermüdliches politisches Engagement und for speaking truth to power.
Charlotte Danys Blick fürs Wesentliche, ihre Gelassenheit und ihr Mut zu
immer neuen Großprojekten haben auf mich über Jahre so motivierend
wie entspannend gewirkt. Caroline Fehl beeindruckt mich immer wieder
mit klaren und unkonventionellen Argumenten und ihrem Sinn für das
Richtige. Katja Freistein und ich werden uns wohl nie über den Normen-
begriff einigen können, aber ohne ihren Scharfsinn, Humor und die au-
ßergewöhnliche Expertise in wissenschaftlichen wie auch sehr menschli-
chen Fragen wäre vieles etwas trister und fader. An Eva Ottendörfer
schätze ich besonders ihren trockenen Humor, ihre Direktheit und ihr
kulturelles Interesse. Vielen Dank für Eure Ratschläge, Unterstützung und
die vielen heiteren Stunden.
Das Zusammensein mit Freundinnen und Freunden erinnert mich
immer wieder daran, wie schön das Leben ist. Von Herzen danken möch-
te ich Juliane Hölzinger, Christina Heger, Miriam Hinterschuster, Claudia
Eltermann, Janna Pissarskoi, Sonja Schirmbeck, Katrin Bachmann, Mar-
cus Beverungen, Annabel Franceschini, Giorgio Franceschini, Suna
Gökçe, Eva Herschinger, Gregor Hofmann, Uğur Kizilkaya, Max Lesch,
Aviv Melamud, Anne Peltner, Annika Poppe, Carsten Rauch, Christiane
Rittershausen, Frank Sauer, Patrick Schreiner, Anna Stanzick, Oxana Um-
anzew und Iris Wurm.
Meinen Eltern, Tanja und Waldemar Rosert, danke ich für alles, was
sie uns Kindern ermöglicht haben, trotz der vielen Umbrüche, die die
Migration nach Deutschland für ihr Leben bedeutet hat. Sie haben im-
mer an uns geglaubt ohne Druck auszuüben und uns die Freiheit gelas-
sen, uns nach unseren eigenen Vorstellungen zu entwickeln. Nun sind
sie begeisterte Großeltern – insbesondere meiner Mutter danke ich für die
viele Zeit, die sie mir in den letzten Jahren geschenkt hat, indem sie sich
hingebungsvoll um meine Kinder gekümmert hat.

X Danksagung

Dass ich die Dissertation in einem passablen Zustand einreichen


konnte, habe ich der großartigen Hilfe meiner Geschwister – Eduard und
Diana Rosert – beim Korrekturlesen und bei der Erstellung der Graphiken
zu verdanken. Ohne Eddies Programmiertalent, dank dem ich große Teile
des Materials automatisiert zusammenstellen konnte, hätte ich die empi-
rische Untersuchung vielleicht auf ein etwas vernünftigeres Maß begren-
zen müssen. Eddie und Diana füllten außerdem mit großer Leidenschaft
ihre Rollen als Onkel und Tante aus, sodass ich schreiben oder mich er-
holen konnte. Besonders dankbar bin ich aber dafür, dass, obwohl wir
nun wirklich erwachsen sind, es sich immer noch nicht so anfühlt, wenn
wir zusammen sind.
Mein Mann, Marcel Heires, hat an diesem Projekt den größten Anteil.
Mit seiner Klugheit und seinem Pragmatismus ist Marcel seit Jahren mein
erster und wichtigster Ansprechpartner für alle unausgereiften Ideen und
gelegentliche Geistesblitze – im Gespräch mit ihm habe ich dieses Pro-
motionsvorhaben entwickelt; ohne ihn hätte ich es nicht zu Ende ge-
führt. Wieviel mir sein Vertrauen, seine Begeisterung für alle meine Pro-
jekte und seine bedingungslose Unterstützung bedeuten, lässt sich nicht
in Worte fassen. Ich bin täglich dankbar für das Glück, mein Leben mit
ihm und mit Maxim und Amalia verbringen zu dürfen – es ist Marcels
Verdienst, dass in diesem Leben Wissenschaft und Familie Platz haben.
In Liebe und Dankbarkeit widme ich ihm dieses Buch.

Hamburg, November 2018


Inhalt

Tabellen .................................................................................................................... XV
Abbildungen ............................................................................................................ XVII
Abkürzungen ............................................................................................................ XXI

Teil I Problemaufriss und Anlage der Studie: Streubomben im toten Winkel


des humanitären Völkerrechts ............................................................................. 1

1 Einleitung ............................................................................................................. 3
Puzzle und Fragestellung: Warum wurde die Norm gegen Streumunition
nicht schon früher verabschiedet? ............................................................................. 8
Waffeneinsatzverbote in den Internationalen Beziehungen .................................... 17
Lücken der Normenforschung: Nicht-Entstehung, nicht-intendierten Effekte
und die nachteiligen Interaktion von Normen .......................................................... 24
Das Argument: Permissive Effekte als Erklärungsansatz für die Nicht-
Entstehung von Normen ........................................................................................... 28
Das Forschungsdesign in Kürze: Modellgenerierung und deduktive
Fallanalyse ................................................................................................................. 32

2 Das humanitäre Völkerrecht und die Norm gegen Streumunition ....................... 37


Untersuchungsfeld: Waffenverbote im humanitären Völkerrecht ........................... 37
Untersuchungsfall: Die lange Nicht-Entstehung der Streubombennorm ................. 60
Zwischenfazit: Inkonsistenzen in der Praxis der Waffeneinsatzverbote ................... 82

3 Das Forschungsdesign: Eine theoriegeleitete Erklärung der Nicht-


Entstehung der Streumunitionsnorm .................................................................. 85
Fragestellung und Forschungsziele: Fallerklärung und Theoriegenerierung ............ 86
Theorieevaluation mittels der Kovarianzanalyse ...................................................... 91
Theoriegenerierung mittels eines Erklärungsmodells .............................................. 93
Ausblick auf das folgende Kapitel ........................................................................... 108

XII Inhalt

Teil II Der theoretische Rahmen: Internationale Normen und permissive


Effekte .............................................................................................................. 111

4 Theorieerfassung: Bestandsaufnahme und Erklärungspotential der


Normenforschung ............................................................................................ 113
Konzeptionelle Grundlagen: Definition und Wirkungen von Normen .................... 114
Die Entstehung von Normen im Fokus der Normenforschung ............................... 120
Im Einsatz für die Norm: Normunternehmer .......................................................... 123
Strategien von Normunternehmern ....................................................................... 133
Zusammenfassung und Ausblick auf das folgende Kapitel ..................................... 149

5 Theorieevaluation: Kovarianzanalyse zur Ermittlung der


Erklärungsgrenzen und des Erklärungspotentials der bestehenden Ansätze ..... 151
Outcomes: Instanzen von Entstehung und Nicht-Entstehung von Normen in
den Fällen Napalm, Landminen und Streumunition ............................................... 152
Erklärungsfaktoren in Within-Case- und Cross-Case-Vergleichen .......................... 155
Erforderliche und tatsächliche Kovariationsmuster und kausale
Schlussfolgerungen ................................................................................................. 167
Zusammenfassung und Ausblick auf das folgende Kapitel ..................................... 172

6 Theorieformulierung: Permissive Effekte und die Nicht-Entstehung von


Normen ............................................................................................................ 173
Schritt 1: Der Normentstehungsprozess und die Nicht-Entstehung von
Normen ................................................................................................................... 174
Schritt 2: Permissive Effekte ................................................................................... 197
Schritt 3: Permissive Effekte im Normentstehungsprozess .................................... 219
These: Die Nicht-Entstehung der Streumunitionsnorm als Ergebnis
permissiver Effekte ................................................................................................. 224

Teil III Geglückte und gescheiterte Einsatzverbote: Napalm und Streumunition ...... 229

7 Das Modell im Test ........................................................................................... 231


Operationalisierung des Modells ............................................................................ 231
Methodische Herangehensweise ............................................................................ 236
Datenmaterial und Untersuchungszeiträume ........................................................ 252
Zusammenfassung und Ausblick auf die Prozessanalysen ...................................... 258
Inhalt XIII

8 Streumunition vs. Napalm: Prozessanalyse der Nicht-Entstehung der


Streumunitionsnorm in den 1970er Jahren ....................................................... 259
Die Konkurrenz im Porträt: Napalm ........................................................................ 259
Das empirische Material im Überblick .................................................................... 277
Der Mechanismus der Blockade im Test: Die Salienz von Napalm im
Vergleich mit der Salienz von Streumunition .......................................................... 281
Der Mechanismus der Ex-Negativo-Legitimierung im Test: Das Framing von
Napalm im Vergleich mit dem Framing von Streumunition ................................... 301
Fazit: Permissive Effekte der Entstehung der Norm gegen Napalm ....................... 326

9 Erfolg nach zweimaligem Scheitern: Prozessanalyse der Entstehung der


Streumunitionsnorm 1945-2008 ....................................................................... 333
Das empirische Material im Überblick .................................................................... 334
Die Salienz von Streumunition ................................................................................ 338
Das Framing von Streumunition ............................................................................. 352
Fazit: Nicht-Entstehung und Entstehung der Norm gegen Streumunition ............. 375

10 Abschlussbetrachtung: Theorie, Empirie und Praxis der Entstehung und


Nicht-Entstehung von Normen des Waffeneinsatzes ........................................ 383
Die lange Nicht-Entstehung der Streumunitionsnorm als permissiver Effekt:
Ergebnisse, Argument und Reflexion der Herangehensweise ................................ 383
Empirische Erkenntnisse: Normen des Waffeneinsatzes und die Entwicklung
des humanitären Völkerrechts ................................................................................ 394
Theoretische Erkenntnisse: Normentstehung, Norminteraktionen und
Framing ................................................................................................................... 402
Forschungsperspektiven für die Normenforschung und für das Feld
humanitärer Rüstungskontrolle .............................................................................. 410
Politische Implikationen und Handlungsempfehlungen ......................................... 413

Literatur ................................................................................................................... 419



Tabellen

Tabelle 1: Das Forschungsdesign im Überblick ......................................................... 35


Tabelle 2: Streubomben und die Prinzipien des HuV ................................................ 69
Tabelle 3: Funktionen von Normen ........................................................................ 118
Tabelle 4: Förderliche und hinderliche Problem- und Frame-
Eigenschaften ......................................................................................... 139
Tabelle 5: Ziele und Strategien der Normunternehmer ......................................... 149
Tabelle 6: Outcome-Matrix ..................................................................................... 153
Tabelle 7: Framing .................................................................................................. 157
Tabelle 8: Existenz der Normunternehmer ............................................................. 158
Tabelle 9: Organisationale Kapazitäten .................................................................. 159
Tabelle 10: Zielkonflikte ............................................................................................ 160
Tabelle 11: Organisationale Eigeninteressen und Präferenzen der
Gatekeeper ............................................................................................. 162
Tabelle 12: Strategisches Vorgehen und Aktivitätsniveau der
Normunternehmer ................................................................................. 162
Tabelle 13: Institutionelle Bedingungen ................................................................... 164
Tabelle 14: Institutionelle Zyklen als Gelegenheitsfenster ....................................... 164
Tabelle 15: Personelle Wechsel als Gelegenheitsfenster ......................................... 165
Tabelle 16: Trigger-Ereignisse als Gelegenheitsfenster ............................................ 166
Tabelle 17: Konstellation der Normadressaten ........................................................ 167
Tabelle 18: Kovariationsmuster und kausale Relevanz ............................................. 169
Tabelle 19: Kovariationsmuster: Outcomes und Ausprägungen der
Erklärungsfaktoren ................................................................................. 170
Tabelle 20: Merkmale der Agenda-Ebenen .............................................................. 182
Tabelle 21: Modelle des Agenda-Setting ................................................................. 183
Tabelle 22: Modelle des Agenda-Setting ................................................................. 184
Tabelle 23: Agenden-Diffusionsmodell der Normentstehung .................................. 196
Tabelle 24: Intendierte und nicht-intendierte Effekte von Normen:
prohibitiv und permissiv, imperativ und omissiv ................................... 202
Tabelle 25: Evidenzen und Indikatoren der Salienz .................................................. 235

XVI Tabellen

Tabelle 26: Evidenzen und Indikatoren des Framings .............................................. 236


Tabelle 27: Napalm und die Prinzipien des HuV ....................................................... 268
Tabelle 28: Frequenzquotienten von Napalm und Streumunition ........................... 291
Tabelle 29: Streumunition: Verteilung von Frequenz, Mobilisierung
und öffentlichem Druck auf Untersuchungszeiträume .......................... 345
Tabelle 30: Relative Häufigkeiten stigmatisierender Attribute im
Vergleich ................................................................................................. 363

Abbildungen

Abbildung 1: Untersuchungszeiträume, Fallkonfiguration und


Fallstudien .............................................................................................. 106
Abbildung 2: Adressaten und Strategien der Normunternehmer ............................... 140
Abbildung 3: Vergleiche nach der Differenzmethode ................................................. 155
Abbildung 4: Vergleiche nach der Konkordanzmethode ............................................. 155
Abbildung 5: Identifikation notwendiger Bedingungen .............................................. 168
Abbildung 6: Identifikation hinreichender Bedingungen ............................................ 168
Abbildung 7: Modelle der Normevolution ................................................................... 176
Abbildung 8: Phasen der Normentstehung ................................................................. 189
Abbildung 9: Permissiver Effekt nach Tannenwald ..................................................... 199
Abbildung 10: Prohibitive und permissive Effekte ........................................................ 205
Abbildung 11: Prohibitive und permissive Effekte in
Normentstehungsprozessen .................................................................. 206
Abbildung 12: Permissive Mechanismen in Normentstehungsprozessen ..................... 206
Abbildung 13: Attentionaler Mechanismus: Blockade ................................................. 214
Abbildung 14: Konstitutiver Mechanismus: Ex-Negativo-Legitimierung ....................... 218
Abbildung 15: Erklärungsmodell: Permissive Effekte im
Normentstehungsprozess und Formen der Nicht-
Entstehung ............................................................................................. 225
Abbildung 16: Zusammensetzung des empirischen Materials nach
Quellen im Untersuchungszeitraum p1 .................................................. 278
Abbildung 17: Sprecher im Napalmdiskurs und im Streumunitionsdiskurs .................. 280
Abbildung 18: Sprecher nach Zugehörigkeit zu politischen Blöcken im
Untersuchungszeitraum p1 .................................................................... 280
Abbildung 19: Frequenz von Napalm und Streumunition im
Gesamtdiskurs ........................................................................................ 282
Abbildung 20: Prominenz von Napalm und Streumunition im
Gesamtdiskurs ........................................................................................ 283
Abbildung 21: Frequenz von Napalm und Streumunition im öffentlichen
Diskurs .................................................................................................... 284
Abbildung 22: Frequenz von Napalm und Streumunition im Verlauf des
öffentlichen Diskurses ............................................................................ 285

XVIII Abbildungen

Abbildung 23: Frequenz von Napalm und Streumunition im öffentlichen


Diskurs nach Konfliktzeiträumen ............................................................ 286
Abbildung 24: Mobilisierung im Streumunitionsdiskurs und im
Napalmdiskurs im Verlauf ...................................................................... 287
Abbildung 25: Mobilisierung im Streumunitionsdiskurs und im
Napalmdiskurs nach Konfliktzeiträumen ............................................... 288
Abbildung 26: Öffentlicher Druck im Streumunitionsdiskurs und im
Napalmdiskurs im Verlauf ...................................................................... 289
Abbildung 27: Öffentlicher Druck im Streumunitionsdiskurs und im
Napalmdiskurs nach Konfliktzeiträumen ............................................... 290
Abbildung 28: Prominenz von Napalm und Streumunition im
öffentlichen Diskurs ............................................................................... 292
Abbildung 29: Prominenzverläufe von Napalm und von Streumunition
im öffentlichen Diskurs .......................................................................... 294
Abbildung 30: Frequenz von Napalm und Streumunition im
institutionellen Diskurs ........................................................................... 296
Abbildung 31: Der institutionelle Streumunitionsdiskurs und der
institutionelle Napalmdiskurs im Verlauf ............................................... 297
Abbildung 32: Der institutionelle Streumunitionsdiskurs und der
institutionelle Napalmdiskurs im Verlauf ............................................... 298
Abbildung 33: Prominenz von Napalm und Streumunition im
institutionellen Diskurs ........................................................................... 299
Abbildung 34: Konflikte im Napalmdiskurs und im Streumunitionsdiskurs .................. 302
Abbildung 35: Nutzer im Napalmdiskurs und im Streumunitionsdiskurs ...................... 303
Abbildung 36: Angriffsobjekte im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 304
Abbildung 37: Opfer im Napalmdiskurs und im Streumunitionsdiskurs ....................... 305
Abbildung 38: Sprechakte im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 307
Abbildung 39: Stigmatisierung und Frequenz im Verlauf des
Napalmdiskurses und des Streumunitionsdiskurses .............................. 308
Abbildung 40: Stigmatisierende Anteile im Verlauf des Napalmdiskurses .................... 308
Abbildung 41: Stigmatisierende Anteile im Verlauf des
Streumunitionsdiskurses ........................................................................ 309
Abbildungen XIX

Abbildung 42: Verletzungswirkungen im Napalmdiskurs und im


Streumunitionsdiskurs ........................................................................... 310
Abbildung 43: Attribut-Wolke zu Napalm ..................................................................... 311
Abbildung 44: Attribut-Wolke zu Streumunition ........................................................... 312
Abbildung 45: Stigmatisierende Attribute im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 313
Abbildung 46: Sozialer Druck im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 315
Abbildung 47: Unterstützung und Ablehnung der Normen gegen Napalm
und Streumunition ................................................................................. 316
Abbildung 48: Befürwortung der Normen gegen Napalm und
Streumunition im Verlauf ....................................................................... 317
Abbildung 49: Norminhalte im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 318
Abbildung 50: Referenzen zu anderen Waffen im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 321
Abbildung 51: Normative Referenzen im Napalmdiskurs und im
Streumunitionsdiskurs ........................................................................... 322
Abbildung 52: Humanitärvölkerrechtliche Referenzen im Napalmdiskurs
und im Streumunitionsdiskurs ............................................................... 323
Abbildung 53: Zusammensetzung des empirischen Materials nach
Quellen im Streumunitionsdiskurs ......................................................... 335
Abbildung 54: Sprecher im Streumunitionsdiskurs ....................................................... 337
Abbildung 55: Sprecher nach Zugehörigkeit im Streumunitionsdiskurs ........................ 337
Abbildung 56: Frequenz von Streumunition im öffentlichen und im
institutionellen Diskurs ........................................................................... 339
Abbildung 57: Diskurse um Streumunition, Napalm und Landminen im
Verlauf .................................................................................................... 340
Abbildung 58: Prominenz von Streumunition im öffentlichen und im
institutionellen Diskurs ........................................................................... 341
Abbildung 59: Frequenz von Streumunition im öffentlichen Diskurs ............................ 342
Abbildung 60: Frequenz von Streumunition im öffentlichen Diskurs im
Verhältnis zu Untersuchungszeiträumen ............................................... 343
Abbildung 61: Der öffentliche Streumunitionsdiskurs im Verlauf ................................. 343

XX Abbildungen

Abbildung 62: Mobilisierung und sozialer Druck im öffentlichen


Streumunitionsdiskurs im Verlauf .......................................................... 344
Abbildung 63: Prominenz von Streumunition im öffentlichen Diskurs ......................... 346
Abbildung 64: Prominenz von Streumunition im öffentlichen Diskurs im
Verlauf .................................................................................................... 347
Abbildung 65: Frequenz von Streumunition im institutionellen Diskurs ....................... 350
Abbildung 66: Der institutionelle Streumunitionsdiskurs im Verlauf ............................ 349
Abbildung 67: Prominenz von Streumunition im institutionellen Diskurs .................... 351
Abbildung 68: Konflikte im Streumunitionsdiskurs (relative Häufigkeiten) .................. 353
Abbildung 69: Nutzer im Streumunitionsdiskurs ........................................................... 355
Abbildung 70: Angriffsobjekte im Streumunitionsdiskurs ............................................. 355
Abbildung 71: Opfer im Streumunitionsdiskurs ............................................................ 356
Abbildung 72: Sprechakte im Streumunitionsdiskurs .................................................... 358
Abbildung 73: Stigmatisierende Anteile im Verlauf des
Streumunitionsdiskurses ........................................................................ 358
Abbildung 74: Verletzungswirkungen im Streumunitionsdiskurs .................................. 359
Abbildung 75: Attribut-Wolke von Streumunition in cmp1 ........................................... 361
Abbildung 76: Attribut-Wolke von Streumunition in cmp2 ........................................... 361
Abbildung 77: Attribut-Wolke von Streumunition in cmp3 ........................................... 362
Abbildung 78: Stigmatisierende Attribute im Streumunitionsdiskurs ........................... 364
Abbildung 79: Sozialer Druck im Streumunitionsdiskurs ............................................... 367
Abbildung 80: Unterstützung und Ablehnung der Streumunitionsnorm ...................... 367
Abbildung 81: Befürwortung der Norm gegen Streumunition im Verlauf .................... 368
Abbildung 82: Norminhalte im Streumunitionsdiskurs ................................................. 369
Abbildung 83: Referenzen zu anderen Waffen im Streumunitionsdiskurs .................... 371
Abbildung 84: Normative Referenzen im Streumunitionsdiskurs ................................. 372
Abbildung 85: Humanitärvölkerrechtliche Referenzen im
Streumunitionsdiskurs ........................................................................... 373

Abkürzungen

ADHC Ad-hoc-Komitee
AP Associated Press
Art. Artikel (jur.)
CCM Convention on Cluster Munitions (Übereinkommen über Streumunition)
CCMOS Oslo-Prozess zur Verhandlung des Übereinkommens über Streumunition
CCW Convention on Certain Conventional Weapons (Konvention über beson-
dere konventionelle Waffen, UN-Waffenübereinkommen)
CCWMN Hauptverhandlungen der UN-Konferenz über besondere konventionelle
Waffen
CCWMSP Treffen der Vertragsparteien zur UN-Konferenz über besondere konven-
tionelle Waffen
CCWPC Vorbereitungskomitee zur Konferenz über besondere konventionelle
Waffen
CCWREV1 Erste Überprüfungskonferenz der Konvention über besondere konventi-
onelle Waffen
CCWREV2 Zweite Überprüfungskonferenz der Konvention über besondere konven-
tionelle Waffen
CCWREV3 Dritte Überprüfungskonferenz der Konvention über besondere konventi-
onelle Waffen
CDDH Conférence Diplomatique sur la Réaffirmation et le Développement du
Droit International Humanitaire Applicable dans les Conflits Armés (Dip-
lomatische Konferenzen über die Neubestätigung und Weiterentwicklung
des in bewaffneten Konflikten anwendbaren humanitären Völkerrechts)
CMC Cluster Munitions Coalition
ECOSOC Economic and Social Council (Wirtschafts- und Sozialrat der Vereinten
Nationen)
ELR Elvira Rosert
ERW Explosive Remnants of War (explosive Munitionsrückstände)
EU Europäische Union
GA General Assembly (UN-Generalversammlung)
GA1 Erster Ausschuss der UN-Generalversammlung
GA3 Dritter Ausschuss der UN-Generalversammlung
GA6 Sechster Ausschuss der UN-Generalversammlung
GAPLN Plenum der UN-Generalversammlung

XXII Abkürzungen

GGE Group of Governmental Experts (Gruppe der Regierungsexperten des


Internationalen Komitee vom Roten Kreuz)
GRD The Guardian
HLKO Haager Landkriegsordnung
HRW Human Rights Watch
HuV Humanitäres Völkerrecht
IB Internationale Beziehungen (wissenschaftliche Disziplin)
ICBL International Campaign to Ban Landmines
ICRC International Committee of the Red Cross (Internationales Komitee vom
Roten Kreuz)
ICRCCGE Konferenzen der Regierungsexperten des Internationalen Komitees vom
Roten Kreuz
IO/IOs Internationale Organisation(en)
MOTAPM Mines Other Than Anti-Personnel Mines
NATO North Atlantic Treaty Organization
NGO/NGOs Non-Governmental Organization(s) (Nichtregierungsorganisation(en))
NYT New York Times
TOP Tagesordnungspunkt
UK United Kingdom (Großbritannien)
UN United Nations (Vereinte Nationen)
UNCCW United Nations Conference on Prohibitions or Restrictions of Use of
Certain Conventional Weapons Which May be Deemed to be Excessively
Injurious or to Have Indiscriminate Effects (UN-Konferenz über besonde-
re konventionelle Waffen)
UNESCO United Nations Educational, Scientific and Cultural Organization (UN-
Organisation für Erziehung, Wissenschaft und Kunst)
UNICEF United Nations Children’s Fund (UN-Kinderhilfswerk)
USA United States of America
UTC United Technology Center
UXO Unexploded Ordnance (explosive Munitionsrückstände)
WMD Weapons of Mass Destruction (Massenvernichtungswaffen)
ZPI Erstes Zusatzprotokoll zu den Genfer Konventionen
ZPII Zweites Zusatzprotokoll zu den Genfer Konventionen
ZPIII Drittes Zusatzprotokoll zu den Genfer Konventionen

Teil I


Problemaufriss und Anlage der Studie:
Streubomben im toten Winkel des humanitären
Völkerrechts

1 Einleitung

Der jüngste Meilenstein humanitärer Rüstungskontrolle wurde vor nun-


mehr fast zehn Jahren gesetzt: Am 3./4. Dezember 2008 unterzeichneten
fast hundert Staaten die Konvention über Streumunition (Convention on
Cluster Munitions, CCM). Damit endete der Anfang 2007 begonnene Oslo-
Prozess und die Staatengemeinschaft bekannte sich zu der Absicht, auf
den Einsatz von Streumunition, aber auch auf die Lagerung, Herstellung
und Weitergabe dieser Waffen zu verzichten. Inzwischen gehören 104
Vertragsstaaten und weitere 16 Unterzeichner der Konvention an.1 Ob-
wohl einige Nicht-Vertragsstaaten in den letzten Jahren vereinzelt Streu-
bomben eingesetzt haben, gilt der Vertrag als ein effektives humanitär-
völkerrechtliches Instrument, welches Streumunition dauerhaft von den
Einsatzfeldern verbannen und Soldaten wie Zivilisten2 vor ihrer grausa-
men Wirkung bewahren soll.
Der Erfolg und die Schnelligkeit des Oslo-Prozesses lassen allerdings
die lange Vorgeschichte des Streubombenverbots in Vergessenheit gera-
ten: Streumunition war bereits vor 50 Jahren wegen ihres massiven Ein-
satzes in Vietnam (und danach in Laos und Kambodscha) erstmals in
Verruf geraten. Damals versuchten humanitäre Organisationen und eini-
ge Staaten, als besonders inhuman erachtete Waffen, darunter auch
Streubomben, international zu ächten. Die Bemühungen endeten im Jahr
1980 mit der Verabschiedung der Konvention über besondere konventi-
onelle Waffen (Convention on Certain Conventional Weapons, CCW) – sie

1
http://www.stopclustermunitions.org/en-gb/the-treaty/treaty-status.aspx,
1.11.2018.
2
Ich verwende männliche und weibliche Personenbezeichnungen im zufälligen
Wechsel.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_1

4 Einleitung

enthielt zwar Normen gegen Waffen mit unentdeckbaren Splittern, Antiper-


sonenminen3 und Brandwaffen, ließ jedoch Streubomben außen vor. Eben-
sowenig waren Streubomben Thema auf der ersten CCW-
Überprüfungskonferenz 1995, obwohl wenige Jahre zuvor Millionen von
ihnen gegen den Irak eingesetzt worden waren. Kurz danach wurde aller-
dings als Ergebnis der 1992 gestarteten International Campaign to Ban Land-
mines (ICBL) der Vertrag zum Verbot von Antipersonenminen verabschiedet.
Bei Streubomben4 handelt es sich um mit Submunition gefüllte Behäl-
ter, welche die Submunition nach ihrem Abwurf freisetzen (Borrie 2006:
5, Krepon 1974: 596). Sie sind in über 30 Konflikten eingesetzt worden
und haben Zehntausende ziviler Opfer gefordert. Zumindest einigen gel-
ten sie als die für Zivilisten gefährlichste Waffe der modernen Kriegsfüh-
rung nach Nuklearwaffen (McDonnell 2002: 50): Erstens steigt durch die
Flächenwirkung die Wahrscheinlichkeit, bei Angriffen irrtümlich Zivilis-
ten zu treffen. Zweitens explodieren nicht alle Submunitionen beim Ab-
wurf, sondern werden zu Blindgängern, die noch Jahrzehnte nach dem
Ende von Konflikten Zivilisten gefährden (Maresca 2006: 28, Borrie 2006:
7, Cave et al. 2006: 25). Das in der Streubombenkonvention beschlossene
Einsatzverbot für Streumunition begründet sich auf ebendiesen Gefahren
und damit auf dem Verstoß gegen das Diskriminierungsgebot. Einige
Experten sind der Ansicht, dass Streumunition auch gegen das Verbot
unnötigen Leides verstößt, weil sie durch zahlreiche kleine Splitter ver-
letzt, die schwer zu entfernen sind, und weil überlebende Streumuniti-
onsopfer häufig entstellt und verstümmelt sind (Prokosch 1976: 343-344,
Prokosch 1995: 89, McDonnell 2002: 69-70).
In der miteinander verwobenen Geschichte von Krieg und Technolo-
gie gab es immer wieder Kritik an bestimmten Waffen, doch die meisten
Verbotsaufrufe sind wirkungslos verhallt – Waffeneinsatzverbote stellen

3
Ich verwende Antipersonenminen und Landminen synonym; Antifahrzeugmi-
nen sind nicht gemeint.
4
Ich verwende die Bezeichnungen Streubomben und Streumunition synonym. Die
englischen Bezeichnungen „cluster bombs“ oder „cluster munitions“ werden von
einigen als irreführend kritisiert, da sie die Wirkungsweise der Waffen verschlei-
ern, basiert diese doch auf Streuung und Fragmentierung und mitnichten auf Zu-
sammenballung (Nixon 2007: 165).
Einleitung 5

nach wie vor eher die Ausnahme als die Regel dar (Price 1995: 73-74).
Streumunition zählt heute glücklicherweise zu diesen Ausnahmen, und
die erfolgreiche Entstehung der Streumunitionsnorm infolge der Mitte
der 2000er Jahre gestarteten Kampagne ist mittlerweile gut erforscht.5
Dieses Buch allerdings motiviert die Beobachtung, dass das Verbot erst
nach mehreren Jahrzehnten – in denen mit Streumunition weiteres Leid
verursacht worden ist – möglich wurde. Seine Fragestellung lautet daher:
Warum ist das Streumunitionsverbot nicht schon früher verabschiedet worden?
Anders formuliert, will ich erforschen, wie die lange Nicht-Entstehung
der Streumunitionsnorm zu erklären ist.
Die Leitthese, die ich entwickle und überprüfe, lautet, dass die lange
Nicht-Entstehung der Norm gegen Streumunition durch permissive Ef-
fekte der Normen gegen Napalm und gegen Landminen erklärt werden
kann. Als permissive Effekte bezeichne ich, in Anlehnung an die Defini-
tion von Nina Tannenwald (1999: 437-438, 442, 2007: 46-47) von Ver-
botsnormen ausgehende nicht-intendierte Effekte, welche darin beste-
hen, dass die nicht von der jeweiligen Norm erfassten Verhaltensweisen
und Objekte wenig Aufmerksamkeit erhalten (attentionale Dimension),
im Umkehrschluss als relativ akzeptabel gelten (konstitutive Dimension)
und weiter ausgeführt bzw. eingesetzt werden (regulative Dimension).
Tannenwald schreibt permissive Effekte vor allem starken, existierenden
Normen zu – doch ich argumentiere, dass sich diese gerade, wenn nicht
sogar primär, in Entstehungsprozessen von Normen entfalten. Wie die
Normenforschung zeigt, kommt es schließlich gerade in diesen darauf
an, die Aufmerksamkeit auf bestimmte Probleme zu lenken und be-
stimmte Praktiken zu stigmatisieren. Das wiederum stellt andere Proble-
me in den Schatten.
Ich erforsche also, ob die Entstehung des Napalmverbots und die Ent-
stehung des Landminenverbots verhindert haben, dass das Streubom-
benverbot früher entsteht. Haben beide Normen (zu verschiedenen Zeit-
punkten) große Teile der öffentlichen und politischen Aufmerksamkeit
absorbiert und damit Streubomben aus deren Fokus verdrängt? Ließen

5
Adachi 2017, Bolton/Nash 2010, Borrie 2009, Docherty 2012, Petrova 2008,
2016, 2018, Rappert/Moyes 2009, Vlaskamp 2010, Wisotzki 2008.

6 Einleitung

die Stigmatisierungen von Napalm und Landminen Streubomben im


Vergleich dazu als weniger problematisch erscheinen? Haben andere
Normsetzungsprozesse durch die Verhinderung eines Verbots dazu beige-
tragen, dass Streubomben weiterhin eingesetzt werden durften?
Wie solche Prozesse möglicherweise ablaufen, d. h. welche Mechanis-
men permissive Effekte erzeugen, modelliere ich erst theoretisch und
demonstriere es anschließend empirisch. Die empirische Analyse umfasst
zwei Teile: In einer Querschnittsfallstudie teste ich das Modell detailliert,
indem ich mit einer Prozessanalyse permissive Effekte in den Fällen Na-
palm/Streumunition systematisch aufspüre. In einer Längsschnittfallstu-
die untersuche ich die Entwicklung der Norm gegen Streumunition über
Zeit und ziehe hierfür den Fall Landminen schlaglichtartig heran, um
plausibel zu machen, dass sich ein ähnlicher Prozess zum zweiten Mal
abgespielt hat.
Mein Vorhaben ist theoretisch in dreifacher Weise an die Forschung
zu internationalen Normen angebunden. Die Normenforschung hat sich
erstens ertragreich mit der Entstehung von Normen befasst und in zahlrei-
chen Fallstudien die hierfür relevanten Akteure, zielführenden Strategien
und Erfolgsbedingungen identifiziert. Prozesse gescheiterter oder gar
nicht erst initiierter Normsetzung waren jedoch lange Zeit ein unbeach-
tetes Phänomen und sind erst in den letzten Jahren auf die Forschungsa-
genda gerückt. Das Buch leistet einen Beitrag zu diesem Forschungsfokus,
indem es die lange Geschichte der Nicht-Entstehung der Norm gegen
Streumunition rekonstruiert.
Zweitens hat sich die Normenforschung schwerpunktmäßig mit der
Wirkung von Normen befasst und dabei unterschiedliche Effekte von
Normen identifiziert sowie rationalistische wie konstruktivistische Me-
chanismen, welche die Wirkung von Normen überzeugend erklären,
formuliert. Das Forschungsinteresse gilt jedoch hauptsächlich intendierten
Effekten von Normen, wohingegen nicht-intendierte Effekte bis auf wenige
Ausnahmen unbeachtet bleiben. Dies ist die zweite Forschungslücke, zu
deren Schließung ich beitragen will, indem ich mit den permissiven Ef-
fekten einen Typus nicht-intendierter Effekte konzipiere und ein dazuge-
höriges Erklärungsmodell entwickle.
Einleitung 7

Drittens hat die Normenforschung gezeigt, wie entstehende Normen


von wechselseitigen Interaktionen, welche in Konzepten der Anschlussfä-
higkeit (fit) und des Andockens (grafting) erfasst sind, profitieren. Zwar
bestätigt sich auch in diesem Buch, dass solche Mechanismen maßgeb-
lich für die Entstehung von Normen sind. Doch weil ich die Konkurrenz
zwischen Normen in deren Entstehungsphase erforsche, stehen hier sol-
che Interaktionen im Zentrum, die zumindest für eine der Normen nach-
teilig sind. Meine Studie verdeutlicht, dass wir es hier mit widersprüchli-
chen Prozessen zu tun haben – Normen fördern nicht nur andere Nor-
men, sondern behindern diese auch.
Mit Frieden und Fortschritt als erkenntnisleitenden Interessen hat das
Buch zudem das politische Ziel, Bestehendes kritisch zu hinterfragen und
auf dieser Basis Aussagen über Alternativen zu ermöglichen (Diez 2014:
392). Auch wenn man stets anerkennen muss, dass sich die Wirkung der
eigenen Arbeit nur selten sofort, bestenfalls längerfristig und häufig auch
gar nicht einstellt, folgt dieses Buch meiner Überzeugung, dass Wissen-
schaft betrieben werden sollte, um gesellschaftlichen Wandel zu beför-
dern. So ist die Wahl meines Forschungsgegenstandes der Auffassung
geschuldet, dass das Verbot von Streumunition, so es denn früher mög-
lich gewesen wäre, das Leben tausender Menschen gerettet hätte, weil
Einsatzverbote bestimmter Waffenarten ausgesprochen effektiv sind
(Garcia 2015: 60). Bleiben sie aus, wie im Fall von Streumunition, hat
dies fatale Konsequenzen. Deshalb ist es wichtig, zu verstehen, warum
die Normentstehung in einigen Fällen gelingt und in anderen nicht.
Dieses Buch demonstriert, wie kontingent und beeinflussbar die Kon-
struktion bestimmter Waffenarten als inhuman – und damit der Erfolg
oder Misserfolg von Waffenverbotsprozessen – ist. Es offenbart einerseits
die Macht der öffentlichen Wahrnehmung. Andererseits offenbart es das
alarmierende Ungleichgewicht zwischen der Problematik, die bestimmte
Waffenarten verursachen, und der öffentlichen Aufmerksamkeit, die
diesen zuteilwird. Um Missverständnissen vorzubeugen: Ich argumentie-
re keineswegs, dass manche Waffen zu Unrecht verboten werden und
ihnen unverdiente Aufmerksamkeit zuteilwird, sondern weise darauf hin,
dass manche Waffen zu Unrecht nicht verboten werden – neben den
Waffen, die ins globale Scheinwerferlicht geraten, gibt es auch andere

8 Einleitung

nicht minder problematische Waffen. Das Buch versteht sich deshalb als
Plädoyer gegen die Kontingenz und für eine systematische Analyse der
humanitärvölkerrechtlichen Vereinbarkeit aller in Kriegen eingesetzten
und, im Sinne präventiver Rüstungskontrolle, neu entwickelten Waffen,
auf die eine institutionalisierte und routinisierte Praxis von Waffenein-
satzverboten folgen muss.
Die Einleitung führt im Folgenden in knapper Form durch die Argu-
mentation, bevor diese in den einzelnen Kapiteln voll entfaltet wird.
Zunächst zeige ich auf, dass sich naheliegende Erklärungen des Rätsels
der langen Nicht-Entstehung bei genauem Hinsehen als unbefriedigend
entpuppen. Anschließend ordne ich das Buch in den empirischen und in
den theoretischen Forschungsstand ein und zeige dabei die Forschungs-
lücken auf, zu denen es beiträgt. Das theoretische Argument wird im
Anschluss umrissen. Danach skizziere ich den argumentativen Weg dieser
Studie, indem ich knapp ihr Forschungsdesign und ihren Aufbau darlege.

Puzzle und Fragestellung: Warum wurde die Norm gegen


Streumunition nicht schon früher verabschiedet?
Da es sich bei Waffeneinsatzverboten immer um Ausnahmen handelt, ist
auch die letztendlich erfolgreiche Entstehung der Streumunitionsnorm
ein Rätsel für sich – für welches die Forschung allerdings schon überzeu-
gende Erklärungsangebote bereitstellt. Ich nehme hier daher eine ergän-
zende Perspektive ein, indem ich argumentiere, dass der erfolgreichen
Entstehung eine lange Nicht-Entstehung vorausgegangen ist, welche
ebenfalls ein Puzzle darstellt. Die Klärung dieses Rätsels hat dieses Buch
zum Ziel. Was macht aber seine Fragestellung zu einem Rätsel, im Unter-
schied zu einer bloßen Frage? Und was verspreche ich mir davon, nicht
bloß eine Frage, sondern ein Rätsel zum Ausgangspunkt zu nehmen?
Aus der Feststellung, dass jedes Puzzle eine Frage impliziert, doch sich
nicht jede Frage auf ein Puzzle bezieht, folgt, dass puzzle-orientierte Fra-
gestellungen eine besondere Unterform von Fragestellungen sind (Zinnes
1980: 318). Was sie besonders macht, ist, dass sie informiert formuliert
werden, d. h. dass die Forscherin bereits vorhandene Informationen zur
Kenntnis nimmt und diese so zusammenstellt, dass vor ihrem Hinter-
Puzzle und Fragestellung 9

grund eine bestimmte Beobachtung rätselhaft erscheint (Zinnes 1980:


338). Das Rätsel kann sich daraus ergeben, dass die Beobachtung kontra-
intuitiv ist, weil sie nicht zu den Erwartungen passt, die aus dem Infor-
mationsstand folgen, oder auch daraus, dass sich die Beobachtung mit
den vorhandenen Informationen nicht erklären lässt (Zinnes 1980: 338,
Shapiro/Wendt 2005: 40).
Da eine puzzle-orientierte Forschung die Verarbeitung von vorhande-
nen Informationen voraussetzt, bindet sie das Vorhaben an den bisheri-
gen Forschungsstand an und hilft dabei, dessen Erklärungsgrenzen zu
erkennen. Dies geschieht, weil Puzzles die wechselseitige Bezüglichkeit
von Theorie und Empirie sicherstellen. Sie schützen sowohl vor einem
theoretischen Glasperlenspiel, welches um seiner selbst Willen geschieht,
statt unser Verständnis von der Welt zu verbessern, als auch vor Empiri-
zismus, welcher zwar das Verständnis von einzelnen Aspekten dieser
Welt verbessert, jedoch keine über den Einzelfall hinausgehenden
Schlussfolgerungen zulässt. Ein Rätsel verdeutlicht also die theoretische
Bedeutung der empirischen Beobachtung, indem gezeigt wird, was seine Er-
klärung zum theoretischen Erkenntnisgewinn beitragen kann; und es
verdeutlicht die empirische Bedeutung der Theorie, indem gezeigt wird, was
deren Anwendung zum empirischen Erkenntnisgewinn beitragen kann.
Verglichen mit offenen Fragen, stellt ein Puzzle drittens sicher, dass der
Forschungsprozess einen klaren Fokus aufweist, denn die Sinnhaftigkeit
und Funktionalität der einzelnen analytischen Schritte lässt sich an ih-
rem Beitrag zur Lösung des Puzzles bemessen.
Was genau macht nun das Rätsel dieses Buches aus und ist die lange
Nicht-Entstehung der Norm gegen Streubomben tatsächlich eins?
Schließlich könnte man einwenden, dass es eine Menge nicht verbotener
Waffen gibt, sodass Verregelungen weiterhin die rätselhafte Ausnahme
darstellen, während Nicht-Verregelungen der Normalfall und damit nicht
rätselhaft sind. Es stellt sich die weitere Schwierigkeit, dass im Unter-
schied zum einen Zeitpunkt, an dem eine Norm entstanden ist (zumin-
dest, wenn wir von formalisierten Normen sprechen), potentiell unend-
lich viele Zeitpunkte existieren, an denen eine Norm nicht entstanden
ist. Nicht zuletzt liegen materialistische Erklärungen des ausgebliebenen
Verbots nahe, wonach die Waffen möglicherweise schlicht nicht inhu-

10 Einleitung

man genug oder die militärischen Interessen der Staaten an diesen Waf-
fen schlicht zu stark waren. Nun gilt es also, zum einen zu zeigen, dass
die Nicht-Verregelung in diesem Fall rätselhaft ist, weil das Verbot zu
bestimmten Zeitpunkten tatsächlich erwartet werden konnte, und zum
anderen, dass naheliegende Erklärungen nicht überzeugend sind.
Um mit der ersten Herausforderung umzugehen, bediene ich mich des
sogenannten Prinzips der Möglichkeit (possibility principle), welches zur
Identifikation negativer Fälle (negative cases oder non-cases) in Bereichen
vorgeschlagen wird, in denen positive Fälle ohnehin die Ausnahme sind
(Mahoney/Goertz 2004: 654). Demnach qualifizieren sich solche Fälle als
Nicht-Fälle, in denen das positive Ergebnis möglich war, aber nicht ein-
getreten ist (Mahoney/Goertz 2004: 655). Dass das Ergebnis möglich war,
wird angenommen, wenn wenigstens eine unabhängige Variable der
relevanten Theorie das Auftreten des positiven Ergebnisses erwarten lässt
und zugleich keine unabhängige Variable vorliegt, welche der relevanten
Theorie zufolge das positive Ergebnis verhindert (letzteres wäre ein Aus-
schlusskriterium) (Mahoney/Goertz 2004: 657-658).
Beide Anforderungen sind anspruchsvoll, weil sie voraussetzen, dass
potentielle begünstigende wie auch verhindernde Variablen bereits theo-
retisch etabliert sind, und außerdem, dass die Forscherin bereits im Vor-
feld der eigentlichen Forschung über sehr genaue Kenntnisse des Falles
verfügt. Für das konkrete Phänomen, um das es in meinem Forschungs-
projekt geht – die Nicht-Entstehung von Normen – sind sie aufgrund des
derzeitigen Standes der Theorie deshalb nicht anwendbar. Wie in der
theoretischen Bestandsaufnahme gezeigt wird, gibt es zwar Bedingungen,
die immer wieder als relevant für die Entstehung von Normen benannt
werden, aber sie sind bislang nicht fallübergreifend als notwendige oder
hinreichende Bedingungen etabliert. Außerdem gibt es bislang ebenso-
wenig etablierte verhindernde Bedingungen, die den Untersuchungsfall in
meiner Arbeit irrelevant werden lassen würden.
Somit ist hier zwar das Prinzip der Möglichkeit maßgeblich – ein ne-
gativer Fall liegt also dann vor, wenn eine Gelegenheit zur Normentstehung
nicht in der Normentstehung resultiert. Die Gelegenheit selbst identifi-
ziere ich jedoch nicht theoretisch, sondern empirisch, und zwar auf zwei
Puzzle und Fragestellung 11

Weisen.6 Erstens stellt es offensichtlich eine Gelegenheit zur Norment-


stehung dar, wenn die entsprechende Waffenart Gegenstand internatio-
naler Verhandlungen über die Regulierung von Waffeneinsätzen wurde.
Dies war bei Streubomben erstmalig 1974 im Zusammenhang mit den
Verhandlungen der ersten beiden Zusatzprotokolle (ZPI und ZPII) zu den
Genfer Konventionen der Fall. Zweitens werte ich es als Normentste-
hungsgelegenheit, wenn andere Fälle zu einem bestimmten Zeitpunkt ein
positives Outcome hatten, sprich, verregelt wurden. Dies ist einmal eben-
falls 1974 der Fall, da die damaligen Verhandlungen auch Brandwaffen
und Antipersonenminen umfassten, welche schließlich 1980 in der Kon-
vention über besondere konventionelle Waffen reguliert wurden. Eine
weitere Normentstehungsgelegenheit sehe ich zu Beginn der 1990er Jah-
re, als sich die Kampagne für ein Verbot von Landminen formierte und
zum Ottawa-Prozess führte, in dem das Verbot erreicht wurde.
Für den Fall des Streubombenverbots ergeben sich daraus zwei Zeit-
punkte – bzw., da wir es mit Normsetzungsprozessen zu tun haben, eher
zwei Zeitperioden – p1 und p2, in denen sich Normentstehungsgelegen-
heiten nicht in eine Norm übersetzt haben: Die 1970er Jahre, als Streu-
bomben sowohl auf der Agenda waren als auch andere Waffennormen
erfolgreich verhandelt wurden; und die 1990er Jahre, als Streubomben
zwar nicht auf die Agenda gesetzt wurden, jedoch erneut andere Waffen-
normen erfolgreich verhandelt wurden. Erst in den 2000er Jahren (p3)
resultierte aus der Normentstehungsgelegenheit auch ein positives Er-
gebnis – das 2008 im Rahmen des Oslo-Prozesses verabschiedete Verbot
von Streumunition.
Das Prinzip der Möglichkeit fördert zudem eine doppelte Varianz zu-
tage, die das Forschungsrätsel begründet. Erstens beobachten wir eine
diachrone Varianz, d. h. eine Varianz innerhalb des gleichen Falles zu unter-
schiedlichen Zeitpunkten, die sich in den unterschiedlichen Ergebnissen

6
Siehe z. B. Anna Holzscheiter (2010: 68) für eine empirische Vorgehensweise:
Auch die Autorin erkennt an, dass es im Prinzip eine Vielzahl diskursiver non-
events, d. h. im Prozess verlorengegangener Fälle gibt – durch eine umfassende
Diskursanalyse sei es allerdings möglich, die Existenz bestimmter Aspekte zu
früheren Zeitpunkten zu entdecken, wodurch wiederum ihr Fehlen zu späteren
Zeitpunkten deutlich wird.

12 Einleitung

der Perioden p1 (eine gescheiterte Normsetzung in den 1970ern), p2 (ein


Verzicht auf eine Normsetzung in den 1990ern) und p3 (eine erfolgreiche
Normsetzung in den 2000er Jahren) zeigt. Zweitens beobachten wir eine
synchrone Varianz, d. h. eine Varianz zwischen unterschiedlichen Fällen zu
gleichen Zeitpunkten, die sich in unterschiedlichen Verhandlungsergebnis-
sen in p1 (keine Regulierung von Streubomben, eine schwache Regulie-
rung von Landminen, eine strengere Regulierung von Brandwaffen) und
in p2 (keine Regulierung von Streubomben, eine strenge Regulierung von
Landminen) zeigt. Das Verbot von Streubomben kann also aus zwei
Gründen als spät charakterisiert werden: Einmal, weil von der ersten
Verbotsbemühung bis zum Verbot selbst über 30 Jahre vergangen sind,
und einmal, weil andere Waffenarten, die zeitgleich auf der internationa-
len Agenda auftauchten, früher verboten worden sind.
Nun muss auch die zweite wichtige Anforderung an ein Rätsel erfüllt
werden – es gilt aufzuzeigen, dass naheliegende Erklärungen nicht über-
zeugend bzw. nicht vollständig zur Lösung des Rätsels beitragen und
deshalb ein weiterer Erklärungsversuch notwendig ist. Die Varianz inner-
halb des Falles könnte möglicherweise ein fehlendes Problembewusstsein
über die gravierenden humanitären Folgen von Streubombeneinsätzen
erklären, welches der Auffassung einiger Autoren zufolge erst durch den
Angriff auf die serbische Stadt Niš während der NATO-Intervention in
Kosovo entstand (Bring 2002: 53, Petrova 2008: 80, Goose 2008: 221).
Diese Erklärung überzeugt nicht, weil die Existenz des Verbotsversuches
demonstriert, dass die Waffen sehr wohl bereits nach ihrem ersten mas-
siven Einsatz als problematisch wahrgenommen wurden. Gegen das feh-
lende Problembewusstsein spricht auch die Tatsache, dass bei der Grün-
dung der ICBL zu Beginn der 1990er Jahre in Erwägung gezogen wurde,
die Kampagne sowohl auf Streumunition als auch auf Landminen auszu-
richten (Wiebe 2003: 97, Goose 2008: 221, 236). Doch selbst wenn das
Problembewusstsein tatsächlich gefehlt hätte oder nur sehr begrenzt vor-
handen war, taugt dies nur bedingt als Erklärung und wäre selbst erklä-
rungsbedürftig: Aus konstruktivistischer Forschung über Normentste-
hung ist hinreichend bekannt, dass ein Problembewusstsein nicht ein-
fach vorhanden oder nicht vorhanden ist, sondern von Akteuren aktiv
Puzzle und Fragestellung 13

hergestellt werden muss, sodass sich die Frage stellt, weshalb dies in dem
konkreten Fall unterblieben bzw. nicht geglückt ist.
Könnte das späte Verbot möglicherweise materialistisch durch die ver-
änderte Natur des Problems erklärt werden – sind Streubomben vielleicht
gar nicht spät verboten worden, sondern zu einem Zeitpunkt, zu dem sie
überhaupt erst zu einem ernstzunehmenden Problem wurden? Dies wäre
beispielsweise der Fall, wenn die Waffen immer häufiger und in immer
größeren Mengen eingesetzt worden wären sowie immer mehr zivile
Opfer gefordert hätten. Doch hier gibt es keine eindeutigen Trends. Zwar
ist richtig, dass Streumunition in den 1990er Jahren in mehr Konflikten
als zuvor eingesetzt wurde (Human Rights Watch 2010: 14), allerdings
handelte es sich dabei selten um systematische Einsätze, sondern eher
um Einzelfälle. Ebenso nahmen die absoluten Zahlen der abgeworfenen
Munitionen ab (Cooper 2011: 144). Im Vietnamkrieg überstiegen letztere
um ein Mehrfaches die Zahlen des Afghanistankrieges und des 2. Golf-
krieges. Zugleich sind im Kosovo-Krieg – der als Katalysator des Verbots
gilt – weniger Streubomben eingesetzt worden als in den vorherigen Kon-
flikten (sicherlich auch aufgrund der kurzen Konfliktdauer). Auch die
Opferzahlen sind von Einsatz zu Einsatz gesunken (aufgrund erhöhter
Zielgenauigkeit und veränderter Zielpraktiken)7 und die Art und Stärke
der Verletzungen durch Streumunition sind weitgehend gleich geblieben.
Die absolute Zahl der Opfer von Blindgängern stieg freilich über Zeit,
doch auch dieses Argument wird dadurch relativiert, dass mit geringeren
Einsatzmengen und technischen Verbesserungen auch die Wahrschein-
lichkeit sank, Opfer von Blindgängern zu werden.
Ist dies möglicherweise ein Hinweis darauf, dass die militärische Nütz-
lichkeit dieser Waffen für die Erfolgsaussichten ausschlaggebend war?

7
Die Angaben zu den zivilen Opfern des Vietnamkrieges variieren zwischen
100.000 und 2.000.000. Auch wenn sie mangels Datenverfügbarkeit nicht einzel-
nen Waffenarten zugerechnet werden können, so kann man davon ausgehen,
dass in diesem Konflikt, aufgrund der Gesamtzahlen an Opfern und Streubomben
auch die meisten Zivilisten durch Streubomben verletzt und getötet wurden. Für
den Zweiten Golfkrieg werden 4.000 Streubombenopfer angegeben – für den Ko-
sovo-Konflikt 250. Schätzungen zu Opferzahlen finden sich in Human Rights
Watch 2010: 7-12, 21 und auf http://necrometrics.com/20c1m.htm#Vietnam,
1.11.2018.

14 Einleitung

Anders gefragt: War der Widerstand der Staaten gegen die Norm stärker,
wenn sie sich gerade in Konflikten massiv dieser Waffen bedienten, und
war er schwächer, wenn sie sich gerade in weniger bzw. in kürzeren Kon-
flikten wiederfanden, in denen Streubomben in einem deutlich geringeren
Ausmaß zum Einsatz kamen? Werden also Waffeneinsatzverbote erst mög-
lich, wenn rationale Kalküle der Staaten nicht mehr dagegen sprechen?
Das Argument der militärischen Nützlichkeit lässt sich sicherlich
nicht von der Hand weisen, wohl aber relativieren. Erstens demonstrie-
ren die Streubombeneinsätze in den 1990er und 2000er Jahren, dass diese
Waffen offensichtlich auch weiterhin militärisch nützlich waren. Zwei-
tens war auch der erfolgreiche Normsetzungsversuch mitnichten kon-
sensual, sondern vom Widerstand einiger Staaten begleitet, die sowohl
Verhandlungen in der UN-Konferenz über besondere konventionelle
Waffen verhinderten als auch den Oslo-Prozess zu torpedieren versuch-
ten. Ihre Nicht-Unterzeichnung der schließlich verabschiedeten Konven-
tion begründeten die Gegner mehrfach und unumwunden damit, dass
Streubomben aus ihrer Sicht nach wie vor militärisch unverzichtbar seien
(Hertwig 2007: 226, Justen 2009: 6, Human Rights Watch 2010: 109-110,
129). Drittens stoßen Normsetzungsversuche, in allen Bereichen und
immer auf Widerstand, wie das Konzept der „norm antipreneurs“ poin-
tiert erfasst (Bloomfield 2016, Bloomfield/Scott 2017) – dennoch gelin-
gen sie gelegentlich.
Wie erklärungsstark sind die angesprochenen Aspekte für die fallüber-
greifende Varianz? Dass das Problembewusstsein über die Wirkungen von
Napalm und Landminen das Problembewusstsein über die Wirkungen
von Streubomben überstieg, ist offensichtlich. Doch dies ist selbst erklä-
rungsbedürftig. Wieso ist die eine Waffenart, jedoch nicht die andere als
öffentliches Problem aufgebaut und wahrgenommen worden? Statt in
einer Kampagne zu versuchen, das öffentliche Bewusstsein für die inhu-
manen Wirkungen beider Waffen zu stärken, entschied sich die ICBL für
eine „one-issue-advocacy“ – die Erfolgsaussichten für ein Landminenver-
bot sollten nicht dadurch geschmälert werden, dass man Landminen mit
Streumunition verknüpft, deren Verregelung man nicht für wahrschein-
lich hielt (Wiebe 2003: 97, Goose 2008: 221, 236).
Puzzle und Fragestellung 15

Erklärt die unterschiedliche militärische Nützlichkeit der Waffen, wa-


rum Einsatzbeschränkungen für Napalm beschlossen werden konnten
und warum die Aktivisten weniger Widerstand gegen eine Landminen-
norm als gegen eine Streumunitionsnorm erwarteten? Gegen die An-
nahme, dass Napalm im Vergleich zur Streumunition als weniger nütz-
lich und daher als eher verzichtbar galt, spricht zum einen dessen massi-
ver Einsatz im Vietnamkrieg. Zum anderen spricht dagegen, dass die Ver-
botsgegner während der Verhandlungen Studien vorlagen, die die Effizi-
enz und militärische Überlegenheit von Brandwaffen belegten Neer 2013:
189-190. Auch Landminen erfüllten offensichtlich für viele Staaten einen
militärischen Zweck – sonst wäre die Welt nicht mit ihnen übersät. Dass
ihr militärischer Nutzen im Laufe des Prozesses als gering eingeschätzt
wurde, war erst Resultat erfolgreicher Überzeugungsversuche der huma-
nitären Akteure (Price 1998: 614) und kann deshalb nicht selbst als Erklä-
rung ausreichen.
Wären Streubomben die unter humanitären Gesichtspunkten am we-
nigsten gefährliche Waffenart, könnte dies die unterschiedliche Priorisie-
rung der Waffenarten und die Reihenfolge, in der sie verboten wurden,
erklären. Doch dies ist mitnichten der Fall. Zwar ist richtig, dass Landmi-
nen für Hunderttausende zivile Opfer – überall auf der Welt und nicht
nur in einigen wenigen Konflikten – verantwortlich und nach diesem
Kriterium sicher die problematischere der beiden (bzw. der drei) Waffen-
arten sind.8 Gemessen am Verhältnis zwischen Verletzten und Getöteten
gelten allerdings Streubomben als eine der tödlichsten Waffenarten
überhaupt – ihre Letalitätsrate wird auf über 25 Prozent geschätzt, und ist
dadurch etwa doppelt so hoch wie die von Landminen (Krepon 1974:
597, Docherty 2002: 9, McDonnell 2002: 50, 74). Nach den Kriterien des

8
Die Opferzahlen (einschließlich Todesopfer und Verletzter) wurden längere Zeit
auf 10.000 bis 15.000 jährlich geschätzt. Seit 1999 lagen sie mit Ausnahme des
Jahres 2002 dauerhaft unter 10.000 und es gibt einen insgesamt sinkenden
Trend; im Jahr 2014 wurden weitere 3.308 Opfer gezählt (wobei hier Land-
minenopfer und Opfer explosiver Munitionsrückstände gemeinsam erfasst wur-
den). Zahlen nach ICBL/CMC 2014: 31,
http://www.the-monitor.org/index.php/content/view/full/18725#h1,
http://www.the-monitor.org/index.php/publications/display?url=lm/2013/sub/
Casualties_and_Victim_Assistance.html, 1.11.2018.

16 Einleitung

Internationalen Komitees vom Roten Kreuz (International Committee of the


Red Cross, ICRC)9 verursacht Streumunition schwerere Verletzungen:
Landminen verletzen ihre Opfer i. d. R. „nur“ an den Gliedmaßen, wo-
hingegen Streubomben sowohl an den Gliedmaßen als auch am ganzen
Körper verletzen, und so außer zu Amputationen auch zu Verstümme-
lungen am Oberkörper und im Gesicht führen (McDonnell 2002: 57).
Zudem ist es schwieriger, Streubombenverletzte zu behandeln, weil sie im
gesamten Körper von sehr feinen oder schwer identifizierbaren Splittern
übersät sein können.
Die Opferzahlen von Napalm und Streumunition im Vietnamkrieg
lassen sich aufgrund der unzureichenden Datenlage nicht vergleichen,
doch aufgrund der massiven Nutzung beider Waffen gibt es keinen
Grund, zu vermuten, dass Streumunition weniger Opfer gefordert hätte
als Napalm. Der Vergleich der verletzenden Wirkungen von Streubom-
ben und Napalm ergibt kein eindeutiges Bild. Nach den ICRC-Kriterien
ist es nicht möglich, zu bestimmen, ob Brand- oder Splitterverletzungen
mehr Leid verursachen – vielmehr führen beide Arten von Verletzungen
bei den Überlebenden zu grausamen Entstellungen und Verstümmelun-
gen. Ebenso ist die Behandlung beider Verletzungsarten schwierig.
Die Vergleiche der Opferzahlen und der Grausamkeit von Verletzun-
gen klingen nicht nur zynisch, sondern sind es zweifellos auch. Schließ-
lich ist jedes – zivile oder nicht-zivile – Kriegsopfer eines zu viel. Den-
noch verdeutlichen sie die Kontingenz solch schwerwiegender Entschei-
dungen wie der, welche Waffen legal im Krieg eingesetzt werden können
und welche nicht. Humanitärvölkerrechtliche Maßstäbe zur Beurteilung
der Inhumanität von Waffen schlagen sich weder konsequent in der
Prioritätensetzung humanitärer Akteure nieder noch übersetzen sie sich
in den humanitärvölkerrechtlichen Status bestimmter Waffen. Das lange
ausgebliebene Verbot von Streumunition ist nur ein Beispiel aus einer
Reihe von Waffen, die bislang nicht verregelt wurden, ohne dass erkenn-
bar wäre, warum diese unter humanitärvölkerrechtlichen Gesichtspunk-
ten akzeptabler sein sollten als die verregelten Waffen (Carpenter 2011).

9
Die Kriterien sind in Dokumentationen des SIrUS-Project enthalten: Coupland
1997 und Holdstock et al. 1998.
Waffeneinsatzverbote in den Internationalen Beziehungen 17

Dazu zählen etwa uranummantelte Munition, Flechetten, kleinkalibrige


Schnellgeschosse oder Phosphorbomben.
Die fatalen Folgen dieser Inkonsistenz machen es umso wichtiger, zu
erforschen, wieso es dazu kommt. Zu verstehen, was Verregelungsbemü-
hungen motiviert oder blockiert, ist nicht nur für den hier untersuchten
Fall relevant. Vielmehr soll dieses Buch Schlussfolgerungen für die ge-
samte Praxis humanitärvölkerrechtlicher Regulierung von Waffeneinsät-
zen erlauben und dazu beitragen, zukünftige folgenträchtige Nicht-
Verbote zu vermeiden.

Waffeneinsatzverbote in den Internationalen Beziehungen


Rüstungskontrolle umfasst freilich mehr als nur den Einsatz bestimmter
Waffen – z. B. auch Rüstungsvolumen, Rüstungsexporte oder den Besitz
bestimmter Waffentypen (Larsen 2002: 1). Auch die Streubombenkon-
vention regelt neben dem Einsatz auch die Entwicklung, Produktion,
Beschaffung, Lagerung und Weitergabe dieser Waffen. In diesem Buch
allerdings stehen humanitärvölkerrechtliche Aspekte im Vordergrund,
und damit Normen des Nicht-Einsatzes, also Einsatzverbote und Einsatz-
beschränkungen. Im Folgenden fasse ich die Forschungsergebnisse zent-
raler Studien zu Waffeneinsatzverboten – insbesondere zu den in diesem
Buch untersuchten Fällen – zusammen. Dabei hebe ich die für meine
Arbeit relevanten theoretisch-konzeptionellen und empirischen Erkennt-
nisse hervor, benenne Forschungslücken und zeige, zu welchen von
ihnen dieses Buch beiträgt.
Waffeneinsatznormen im Besonderen und Sicherheitsnormen im All-
gemeinen stellen nicht nur bedeutende Forschungsfelder der Normenfor-
schung, sondern auch „hard cases“ dar, die von Anfang an gern genutzt
wurden, um die eigene Erklärungskraft unter Beweis zu stellen. Schließ-
lich demonstriert die Bereitschaft der Staaten, sich an humanitärvölker-
rechtliche Waffeneinsatznormen zu halten und dadurch auf militärische
Vorteile zu verzichten, dass für sie mitnichten nur materielle Interessen,
sondern auch normative Überlegungen handlungsleitend sind. Das For-
schungsgebiet ist zudem eng mit der Forschung zu Nichtregierungsorga-
nisationen (non-governmental organisations, NGOs) bzw. transnationalen

18 Einleitung

Bewegungen verbunden (Khagram et al. 2003: 11). Denn nachdem die


Zivilgesellschaft lange Zeit, wenn überhaupt, dann nur in „low-politics“-
Bereichen als relevanter Akteur vorkam (Price 1998: 614, Knopf 2012:
169), belegten schließlich zwei fulminante Rüstungskontrollerfolge –
zunächst die Landminenkonvention und dann die Streumunitionskon-
vention – die Macht der Zivilgesellschaft, sicherheitspolitischen Wan-
del herbeizuführen.
Die Entstehung und Wirkung der Normen rund um inhumane Waf-
fen wurde zunächst im Bereich der Massenvernichtungswaffen (weapons
of mass destruction, WMD), und etwas später auch im Bereich der kon-
ventionellen Waffen erforscht. So rekonstruiert Nina Tannenwald (1999,
2005b, 2007) die Entstehung des nuklearen Tabus und weist nach, dass
und wie die Norm des Nicht-Einsatzes auf US-Entscheidungsträger wirkte.
Frank Sauer (2016) leuchtet mit der Angst ein konstitutives Element des
nuklearen Tabus aus – und widerspricht mit seinem Argument, dass das
nukleare Tabu Abschreckung behindere, der Auffassung, dass sich beide
ergänzten.10 Richard Price (1995, 1997, 1998) hat die Prozesse der Stigma-
tisierung von Chemiewaffen und von Landminen nachvollzogen, wäh-
rend Thomas M. Dolan (Dolan 2013) aufzeigte, wie Normkonflikte die
Bereitschaft steigern können, das Chemiewaffentabu zu verletzen. Patri-
cia Shamai (2015) untersucht das Stigma gegen die gesamte Kategorie der
WMD. Studien zu jüngeren Normsetzungsprozessen treiben die Theorie-
bildung voran: Ingvild Bode und Hendrik Huelss (2018) betonen die Rol-
le der Praxis in Regulierungsversuchen autonomer Waffensysteme; Re-
becca Davis Gibbons (2018) und Marianne Hanson (2018) identifizieren
das humanitäre Reframing als einen Erfolgsfaktor für die Verabschiedung
des Atomwaffenverbotsvertrags, während Orli Zahava (2017) den argu-
mentativen Widerstand dagegen analysiert.
Für dieses Buch ist dieser Forschungszweig in zweierlei Hinsicht rele-
vant: Erstens zeigt sich dort die Bedeutung der diskursiven Konstruktion
von Inhumanität; die zentralen Figuren in Waffendiskursen (beispiels-
weise Konfliktcharakter, Einsatzzweck, Feindbilder, Destruktivität, Asso-
ziationen mit Gift, die Angst vor dem Ersticken, zivile Opfer, vergleichba-

10
Siehe auch meine Rezension des Buches (Rosert 2016).
Waffeneinsatzverbote in den Internationalen Beziehungen 19

re Waffen, Spätfolgen, Zivilisation und Waffen der Schwachen bzw. der


Starken) geben Anhaltspunkte dafür, in welcher Gestalt moralische und
humanitärvölkerrechtliche Prinzipien empirisch auftreten. Zweitens wer-
den dort einige für die Normentstehung wesentliche Faktoren identifi-
ziert. So spielen neben der öffentlichen Meinung, der internationalen Re-
putation der Nutzer und der individuellen Überzeugungen der Entschei-
dungsträger auch strategische Elemente im Handeln der Normunterneh-
mer eine große Rolle. Dazu gehören die Vernetzung über Informations-
und Kommunikationstechnologien, direkter Zugang zu Entscheidungsträ-
gern, Koalitionsbildung mit anderen politischen Akteuren und schließlich
„Grafting“ (Price 1998: 627-631), d. h. die Herstellung von diskursiven
Verbindungen mit bereits etablierten normativen Referenzpunkten.
Erst neuerdings brechen einige Arbeiten mit der in diesem For-
schungsfeld herrschenden Tradition der Einzelfallstudien und nehmen
eine vergleichende Perspektive ein – hierdurch sowie durch ihre Erklä-
rungsansätze sind sie für dieses Buch besonders relevant. Charli Carpen-
ter (2011) wirft die Frage auf, weshalb einige Waffen zum Gegenstand
öffentlicher Kritik (und infolgedessen humanitärvölkerrechtlicher Verre-
gelung) werden und andere nicht (etwa kanzerogene Uranmunition). Sie
kommt zum Ergebnis, dass große humanitäre Organisationen über die
Auswahl entscheiden und dadurch zu Gatekeepern werden. Neil Cooper
(2011) erforscht nicht unterschiedliche Waffengattungen, sondern unter-
schiedliche Bereiche der Rüstungskontrolle, und zwar die Regulierung der
Waffeneinsätze und die Regulierung des Waffenhandels. Er argumentiert,
dass die Konzentration der öffentlichen Aufmerksamkeit auf Verbote von
„pariah weapons“ dazu geführt habe, dass der internationale Waffen-
handel nur schwach reguliert wurde. Dass Coopers Argument meinem
ähnelt, stärkt die Plausibilität meiner Intuition. Allerdings demonstriert
der Autor zwar, dass die von ihm beobachteten Prozesse zeitlich zusam-
menfielen – ohne jedoch aufzuzeigen, auf welcher Basis er die kausale
Verbindung herstellt.
Eine Reihe von Studien befasst sich mit den drei in diesem Buch be-
handelten Waffenarten – Streumunition, Landminen und Napalm. Die
Entstehung der Norm gegen Landminen ist aufgrund des Alters und der
Brisanz des Falls am besten erforscht, schließlich war es das erste voll-

20 Einleitung

ständige Verbot einer tatsächlich genutzten konventionellen Waffenart,


zu dessen Erreichen zudem die Zivilgesellschaft einen erheblichen Beitrag
geleistet hat. Die zentrale Studie von Price (1998) zu Erfolgsbedingungen
des Prozesses und Erfolgsstrategien der Normunternehmer habe ich oben
bereits erwähnt. Caroline Fehls (2012, Kapitel 4) Analyse erklärt die Ver-
handlungsdynamik im Konflikt zwischen den USA auf der einen und
Kanada und Europa auf der anderen Seite. Die ambivalente Rolle der UN-
Konferenz über besondere konventionelle Waffen (United Nations Con-
ference on Prohibitions or Restrictions of Use of Certain Conventional
Weapons Which May be Deemed to be Excessively Injurious or to Have
Indiscriminate Effects, UNCCW) betont M. Patrick Cottrell (2009), der
einerseits ihre Delegitimierung untersucht, andererseits aber aufzeigt,
dass sie für die Normentstehung unabdingbar war. Beschrieben wurden
auch die Rolle der Antilandminenbewegung (Bernstein 2008,
Matthew/Rutherford 2003, Rutherford 2011), das Zusammenspiel unter-
schiedlicher Akteursgruppen (Thakur/Maley 1999, Brem/Rutherford
2001, Rutherford 2003) sowie die Positionen und das Verhalten ausge-
wählter Staaten (Beier 2002 zu Indien, Kitchen 2002 zu Kanada und
USA). Alan (2012) und Adam Bower (2015, 2017) beleuchten die (er-
staunliche) Effektivität der Norm, insbesondere angesichts der Nicht-
Mitgliedschaft der Großmächte in diesem Vertrag. Mit Kolleg/innen habe
ich an anderer Stelle argumentiert, die Anti-Landminen-Norm sei so
stark, dass sie selbst die Entwicklung technischer Alternativen zu Anti-
Personen-Landminen bremst (Rosert et al. 2013: 127-131). Einige kriti-
sche Stimmen hinterfragen die Legitimität des Prozesses aufgrund seines
exklusiven Charakters, der Dominanz globaler NGO-Eliten sowie des
westlichen Konzeptes der „Zivilisiertheit“ (Anderson 2000, Chapnick
2003, Latham 2001).
Diese gute Literaturlage war maßgeblich für meine Entscheidung, die-
sem Fall einen geringeren Stellenwert beizumessen. So ist der Beitrag, den
ich unter meiner Fragestellung dazu noch leisten kann, wesentlich gerin-
ger als in den Fällen Napalm und Streumunition. Von Vorteil ist aller-
dings, dass ich die für mein Argument benötigten Informationen vorran-
gig aus der Sekundärliteratur beziehen kann, was die Notwendigkeit,
eigene Daten zu erheben, reduziert.
Waffeneinsatzverbote in den Internationalen Beziehungen 21

Obwohl die Norm gegen Streumunition gut zehn Jahre jünger ist als
die Norm gegen Landminen, ist der Oslo-Prozess, der zu ihrer Entstehung
geführt hat, mittlerweile ebenfalls gut erforscht. Ein Teil der Literatur, der
bereits im Vorfeld des Prozesses erschienen ist, sensibilisiert für die Prob-
lematik, die Streubomben verursachen (Docherty 2002, Wisotzki 2002,
McDonnell 2002) oder diskutiert den Einsatz von Streumunition unter
humanitärvölkerrechtlichen Gesichtspunkten (McGrath 2000b,
McDonnell 2002). Nach Abschluss der Konvention widmeten sich einige
Autoren ihren Stärken und Schwächen (Bosold 2008, Docherty 2009)
oder offen gebliebenen Punkten – etwa der, ob die Konvention auch ein
Investitionsverbot in Streumunition vorschreibt (Hertwig/Norpoth 2010).
Ein großer Teil der Literatur analysiert auch in diesem Fall den Nor-
mentstehungsprozess. Nur wenige (meistens ältere) Arbeiten (Forsythe
1975, Kalshoven 1975, aber auch Adachi 2017) gehen in der Geschichte
zurück und beschreiben die Rot-Kreuz-Konferenzen, in welche Streu-
bomben noch als potentiell inhumane Waffenart starteten, in deren Ver-
lauf sie jedoch als Problem verloren gingen und aus denen sie deshalb
unverregelt hervorgingen. Zum aktuellen Prozess hingegen gibt es zahl-
reiche Berichte, die dessen unterschiedliche Phasen schildern. Im Blick-
punkt stehen die Aktivitäten der 2003 gegründeten Cluster Munitions
Coalition, die erfolglosen Verhandlungen in der UNCCW sowie die Ver-
handlungsstationen des Oslo-Prozesses.11 Während Studien zum Land-
minenprozess die Rolle der Zivilgesellschaft besonders hervorheben, ist es
beim Streubombenprozess die Zusammenarbeit zwischen NGOs und
Mittelmächten (Bolton/Nash 2010). Auf der Suche nach den Erfolgsbe-
dingungen von Verregelung ziehen einige Autor/innen Parallelen zwi-
schen diesen beiden (und anderen) Prozessen (Wisotzki 2008, Rap-
pert/Moyes 2009, Alcalde 2014, Krause 2014, Garcia 2015, Petrova 2018).
Die Positionierungen von Staatengruppen und einzelner Staaten sowie
die von NGOs vorangetriebenen innerstaatlichen Debatten und Strate-
gien werden ebenfalls beleuchtet (Petrova 2008 zu Großbritannien, Vlas-
kamp 2010 zur EU).

11
Adachi 2017, Alley 2008, Borrie 2009, Goose 2008, Docherty 2009, Irene 2016,
Rappert/Moyes 2009, Van Woudenberg 2008.

22 Einleitung

In der Literatur besteht Einigkeit über drei Punkte: Der Einsatz von
Streumunition in Kosovo hat ein Window of Opportunity eröffnet, um
einen Normsetzungsprozess anzustoßen. Die Strategien, mit denen das
Verbot von Antipersonenminen erzielt wurde, haben dann als Vorbild
dafür gedient, wie diese Normentstehungsgelegenheit in einen Erfolg
umzuwandeln ist. Auch hat das Landminenverbot als diskursive Referenz
gedient, an die ein „Grafting“ gelungen ist. Auffällig sind ebenfalls drei
Punkte: Die Geschichte der Streumunitionsnorm bleibt auf die Zeit nach
der NATO-Intervention in Kosovo beschränkt – und das vorherige Aus-
bleiben der Norm damit unproblematisiert. Ebenso mangelt es an theore-
tischen Perspektiven auf die Normentstehung. Schließlich wird der Zu-
sammenhang mit der Norm gegen Landminen eher anekdotisch und
ausschließlich positiv hergestellt.
Dieses Buch setzt an ebendiesen Punkten an. Ich bestreite nicht, dass
die Kosovo-Intervention als Gelegenheitsfenster gedient hat, suche aber
durch eine breite historische Betrachtung nach Erklärungen dafür, wes-
halb vorherige Konflikte nicht als solche Fenster genutzt wurden. Die
zitierten Arbeiten aus den 1970er Jahren und auch andere, die einen
kurzen Diskurs in die Geschichte unternehmen, informieren zwar dar-
über, dass Streubomben wenig öffentliche Aufmerksamkeit erhielten und
ab einem bestimmten Punkt der Rot-Kreuz-Verhandlungen zur Weiter-
entwicklung des humanitären Völkerrechts nicht mehr zur Diskussion
standen (Krepon 1974: 600-604, Goose 2008: 220). Sie erklären aber
nicht, warum. Eine Studie (Prokosch 1995: 149-160) enthält eine genaue-
re Analyse der Verhandlungsdynamik und führt auf dieser Basis das
Nicht-Verbot von Streumunition auf die militärischen Interessen der
Nutzerstaaten zurück. Diese Erklärung ist sicherlich plausibel, reicht je-
doch vor dem Hintergrund der normtheoretisch inspirierten Waffenver-
botsforschung nicht aus. Schließlich laufen alle Einsatzverbote, auch die
verabschiedeten, einschließlich des mittlerweile angenommenen Streu-
bombenverbots den militärischen Interessen der Nutzerstaaten zuwider –
entscheidend ist, dass es manchmal möglich ist, diese Interessen zu
überwinden und manchmal nicht. Deshalb bleibt meine Frage, weshalb
es nicht gelungen ist, die Streumunitionsnorm damals schon gegen diese
Interessen durchzusetzen, weiterhin offen.
Waffeneinsatzverbote in den Internationalen Beziehungen 23

Im Unterschied zur Landminen- und zur Streumunitionsnorm fristet


die Norm gegen Brandwaffen, unter die Napalm fällt, bisher ein Schat-
tendasein in den Internationalen Beziehungen (IB) – keine Studie ist ih-
rer Entstehung gewidmet. Einzig in allgemeinen historischen Überbli-
cken zur Geschichte der Waffenverbote wird als Teil der Entstehungsge-
schichte der CCW auch die Norm gegen Brandwaffen angerissen (Rap-
pert 2006, Prokosch 1995, Burns 2009). Außerdem wird in Robert M.
Neers (2013) historischer Monographie „Napalm. An American Bio-
graphy“ der Stigmatisierungsprozess der Waffen beschrieben.
Es ist aus verschiedenen Gründen erstaunlich, dass die Norm gegen
Brandwaffen bisher so wenig in den Fokus der Forschung gerückt ist: So
ist es etwa rätselhaft, weshalb Brandwaffen, deren militärische Nützlich-
keit im Vietnamkrieg durch den massiven Einsatz demonstriert wurde,
dennoch reguliert werden konnten. Ferner ist interessant, dass die soziale
Norm gegen Brandwaffen wesentlich stärker ist als ihr Rechtskern:12 das
Protokoll III der CCW enthält kein absolutes Verbot von Brandwaffen,
sondern verbietet lediglich ihren Einsatz gegen zivile Ziele und verlangt
besondere Vorsichtsmaßnahmen, lässt jedoch den Einsatz gegen Kom-
battanten weiterhin unangetastet (Bring 1987). Dennoch sind Brandwaf-
fen seit der Verabschiedung der CCW geächtet und die wenigen Einsätze,
die es seitdem gab, haben massive Kritik auf sich gezogen (Neer 2013:
193-204). Neue Erkenntnisse über die Entstehung dieser wirkungsmäch-
tigen Norm gegen Brandwaffen zu erlangen, ist daher ein weiteres Ziel
neben dem primären Ziel dieses Buches, die (Nicht-)Entstehung der
Streumunitionsnorm zu erforschen.

12
Damit besteht eine interessante Parallele zum nuklearen Tabu: Trotz der starken
sozialen Stigmatisierung von Nuklearwaffen war die nukleare Nicht-Einsatznorm
bis vor kurzem gar nicht verrechtlicht und es war strittig, ob sie Teil des Völker-
gewohnheitsrechts ist (Farrell/Lambert 2001). Erst der im Juli 2017 verabschiede-
te Vertrag über das Verbot von Nuklearwaffen untersagt explizit, Nuklearwaffen
einzusetzen.

24 Einleitung

Lücken der Normenforschung: Nicht-Entstehung, nicht-


intendierten Effekte und die nachteiligen Interaktion von
Normen
Wie Normen entstehen, welche Akteure daran beteiligt sind, welche Me-
chanismen dabei wirken und welche Strategien erfolgversprechend sind,
kann mittlerweile als überzeugend theoretisch konzipiert und empirisch
demonstriert gelten. Als Normgenese im engeren Sinne ist Nicole Deitel-
hoff (2006: 45) zufolge die Herausbildung normativer Ansprüche zu ver-
stehen. Die Normgenese im weiteren Sinne folgt einem gemeinsamen
Muster: Zunächst werden als legitim angesehene oder zumindest unhin-
terfragte Verhaltensweisen delegitimiert und neue Verhaltensweisen als
angemessen definiert. Der Kreis der Kritiker der alten und der Befürworte-
rinnen der neuen Verhaltensweisen weitet sich sukzessive aus. Immer
mehr Staaten passen ihre Rechtsprechung und ihr Verhalten dement-
sprechend an, bis sich schließlich ein neuer Verhaltensstandard durch-
setzt – die Norm diffundiert.13
Die Akteure, die solche Prozesse vorantreiben, indem sie auf ein kol-
lektives Problembewusstsein hinwirken und Handlungsbereitschaft er-
zeugen, werden als Normunternehmer (norm entrepreneurs) bezeichnet
(Nadelmann 1990: 482, McElroy 1992: 180, Finnemore/Sikkink 1998:
912). Sie setzen neue Issues auf die Agenda, mobilisieren die Öffentlich-
keit und betreiben Lobbying bei den Entscheidungsträgern (Keck/Sikkink
1998: 2-3, Price 1998, Clark 2001). Durch „naming, blaming, and shaming“
üben Normunternehmer außerdem sozialen Druck aus, indem sie dieje-
nigen Akteure, die das kritisierte Verhalten üben, öffentlich exponieren.14
Bei diesem Mechanismus geht es vor allem um die Erhöhung der sozialen
Kosten nicht normkonformen Verhaltens (Flockhart 2006: 97, Rost
Rublee 2008: 422). Im Unterschied dazu impliziert der Mechanismus der
Überzeugung, dass Akteure zu echter Einsicht und zu Präferenzänderun-

13
Nadelmann 1990: 484, Jepperson et al. 1996: 54, Finnemore/Sikkink 1998: 895,
Checkel 1999: 85, Santa-Cruz 2005: 671.
14
Keck/Sikkink 1998: 23-24, Payne 2001: 41, Schimmelfennig 2001: 64, Liese 2006:
104.
Lücken der Normenforschung 25

gen fähig sind.15 Sowohl um sozialen Druck zu erzeugen als auch um zu


überzeugen, wurde ein bestimmtes Framing von Problemen, d. h. deren
gezielte Einbettung in interpretative und normative Strukturen, als för-
derlich für die Normentstehung identifiziert: Normunternehmerinnen
entnormalisieren die bestehende Praxis, emotionalisieren und dramati-
sieren den Sachverhalt, stellen die Anschlussfähigkeit des Normkandida-
ten an bestehende Normen her und verknüpfen das Problem mit einer
einfachen Botschaft.16
Das in sich schlüssige Theoriegebäude leidet jedoch an vier Proble-
men. Es wurde erstens nur an Erfolgsfällen, d. h. entstandenen Normen,
entwickelt. Gescheiterte oder gar nicht erst in Angriff genommene Norm-
setzungsprozesse kommen darin kaum vor.17 Fälle der Nicht-Entstehung
von Normen zu analysieren, würde kausalen Schlussfolgerungen jedoch
mehr Robustheit verleihen. Schließlich kann nur der Vergleich mit nega-
tiven Fällen Erklärungen dafür liefern, weshalb sozialer Druck manchmal
von Erfolg gekrönt ist und manchmal nicht, weshalb Überzeugung nicht
immer funktioniert und ob es sich bei den genannten Framing-Strategien
um notwendige oder um hinreichende Bedingungen handelt (Carpenter
2005: 297, Rosert 2012: 605-606, Mantilla 2013: 32-33).
Zweitens bietet der Zusammenhang zwischen Framing und den „ge-
framten“ Issues noch Forschungspotential. Offen bleibt etwa, ob sich
jeder Sachverhalt unter Anwendung der genannten Strategien beliebig
einrahmen lässt, sodass letztendlich jede Normsetzung schlicht eine Fra-
ge des richtigen Framings ist. Wenn nicht, ist danach zu fragen, wo die
Grenzen der Rahmbarkeit liegen und ob daraus folgt, dass bestimmte
Probleme, z. B. aufgrund ihrer Komplexität, schlicht nicht vermarktbar
sind und deshalb zu erwarten ist, dass dazugehörige Normsetzungspro-
zesse erfolglos ausgehen oder gar nicht erst angestoßen werden.

15
Checkel 2001: 562, Payne 2001: 42, Hawkins 2004, Deitelhoff 2009, Risse 2000b,
Müller 2004, Deitelhoff/Müller 2005.
16
Florini 1996: 376-377, Keck/Sikkink 1998: 19, Price 1998: 16-18, Crawford 2002:
101-102, Bailey 2008: 300-301.
17
Checkel 1998: 339, Risse 2001: 264, Carpenter 2007b: 644, Capie 2008: 638, Jose
2017: 238.

26 Einleitung

Drittens befindet sich die Forschung zu Entscheidungsdynamiken in-


nerhalb der Normunternehmerlandschaft, die im Vorfeld der Normset-
zungskampagnen stattfinden, noch am Anfang. Nach wie vor ist nicht
geklärt, wie Normunternehmer selbst auf Issues aufmerksam werden und
nach welchen Kriterien sie entscheiden, welche Issues sie in die Öffent-
lichkeit tragen und welche nicht (Carpenter 2007a: 100). Der Fokus auf
diese Selektionsprozesse führt zum vierten blinden Fleck: Die Forschung
konzentriert sich auf intendierte Effekte von Normen (wie die Änderung
entsprechender Verhaltensweisen) oder positive nicht-intendierte Effekte
(wie die Schaffung einer normativen Struktur, in welcher sich weitere
Normen ansiedeln können) und hat bisher recht wenig zu negativen
nicht-intendierten Effekten – bspw. Permissivität oder Normenkonflikte –
zu sagen.
Nur wenige Studien über Normen greifen bisher diese Forschungslü-
cken auf. So gibt es einige Arbeiten, die an Einzelfällen gescheiterte Pro-
zesse der Normsetzung untersucht haben. Zum Teil haben sie dabei
überprüft, ob diejenigen Faktoren, die als Erfolgsfaktoren der Norment-
stehung gelten, auch in ihren Fällen vorlagen. Dabei wurden die man-
gelnde Konsistenz der Kampagnen (Davies 2007) und die Ambiguität von
Normen (Bailey 2008) als Hindernisse für den Erfolg von Normen identi-
fiziert. Als spezifische Erklärungen der Nicht-Entstehung wurden unklare
Zuständigkeiten zwischen den Advocacy-Netzwerken, Konflikte mit an-
deren Issues und Schwierigkeiten der Normunternehmer, sich auf ein
Framing zu einigen, identifiziert (Carpenter 2007b). Unter dem Begriff
der „norm suppression“ analysiert Betcy Jose (2017) Strategien des Wi-
derstands gegen entstehende Normen – mit dem interessanten Twist,
dass der Widerstand in ihrem Fall (der Praxis gezielter Tötungen) von
Menschenrechtsorganisationen ausgeht.
Die Arbeiten, die sich mit der Konkurrenz zwischen Normen befassen,
bearbeiten vorrangig Anwendungskonflikte, zu denen es zwischen beste-
henden Normen, neuen und alten Normen oder internationalen und
nationalen Normen kommen kann, und untersuchen den Umgang der
Akteure mit diesen Konflikten (Sandholtz/Stiles 2009: 330, Jetschke 2011,
Dolan 2013, Peltner 2017, Saltnes 2017). Auch der gesamte Forschungs-
strang zu Lokalisierung und Kontestation berührt diese Thematik, da die
Lücken der Normenforschung 27

Hinterfragung von Normen in inhaltlichen Inkompatibilitäten, zumin-


dest aber in Spannungen begründet liegt, die zwischen verschiedenen
individuellen und kollektiven Überzeugungen sowie zwischen der loka-
len und der globalen Ebene bestehen (Arcudi 2016, Ayoub 2015, Lan-
tis/Wunderlich 2018, Niemann/Schillinger 2017, Ottendörfer 2016, San-
ders 2016, Wiener 2014, 2018, Wolff/Zimmermann 2016, Zimmermann
2017a, 2017b, Zimmermann et al. 2017).
Der doppelte theoretische Beitrag dieses Buches ergibt sich zum einen
aus der Wahl der abhängigen Variable und zum anderen aus der hierfür
formulierten Erklärung. Die abhängige Variable „Normentstehung“
zeichnet sich dadurch aus, dass sie neben einer positiven Ausprägung
auch zwei negative Ausprägungen aufweist, welche es zu erklären gilt.
Damit steht die Nicht-Entstehung von Normen im Mittelpunkt. Da ich
zur Klärung des Puzzles an die bestehende Forschung zur Entstehung und
Nicht-Entstehung von Normen anknüpfe und im ersten Schritt überprü-
fe, wie gut bestehende Erklärungen in meinem Fall greifen, erfolgt damit
auch ein Theorietest. Weil sich hierbei die Grenzen bestehender Erklä-
rungen zeigen, entwickle ich ein eigenes Modell, welches die Nicht-
Entstehung einer Norm durch permissive Effekte erklären kann.
In dem Erklärungsmodell, das mit den permissiven Effekten eine neue
unabhängige Variable vorschlägt, besteht der wichtigste theoretische
Beitrag dieses Projektes. Ich greife damit Tannenwalds Konzept auf und
führe die Arbeit in dreifacher Hinsicht weiter: Ich präzisiere das Konzept
der permissiven Effekte, arbeite seine verschiedenen Dimensionen heraus
und formuliere Wirkungsmechanismen. Außerdem integriere ich die
permissiven Effekte in ein Erklärungsmodell, das aufzeigt, wie hierdurch
die Entstehung von Normen be- bzw. verhindert werden kann. Schließ-
lich operationalisiere ich das Modell und wende es empirisch an. Das
Modell selbst und dessen unterschiedliche Bausteine fügen sich in einige
der zuvor benannten Forschungslücken: Mit den permissiven Effekten
nehme ich eine Form bisher unbeachteter negativer nicht-intendierter
Effekte von Normen in den Blick. Damit werden auch die Strategien des
Framings dahingehend problematisiert, als auch die Umkehrschlüsse
offengelegt werden, die ein bestimmtes Framing impliziert.

28 Einleitung

Das Argument: Permissive Effekte als Erklärungsansatz für die


Nicht-Entstehung von Normen
Das Kernargument dieses Buches lautet, dass das Streumunitionsverbot
deshalb erst so spät beschlossen wurde, weil die Entstehung dieser Norm
zu zwei früheren Zeitpunkten durch permissive Effekte anderer Normen
verhindert wurde – und zwar der Norm gegen Brandwaffen und der
Norm gegen Landminen, die sich ebenfalls im Entstehungsprozess be-
fanden. Dieser Anfangsverdacht, den das Buch zu einem Erklärungsan-
satz ausbaut, speist sich aus drei Quellen: Dem Hinweis von Michael
Krepon (1974: 600-604), dass Streumunition kaum öffentlich präsent
gewesen sei, weil das durch die Anti-Napalm-Proteste sensibilisierte US-
Militär diese Waffe heimlich eingeführt habe; der bei der Gründung der
ICBL zu Beginn der 1990er Jahre dokumentierten Entscheidung, Streu-
munition nicht neben Landminen zum Gegenstand der Kampagne zu
machen (Wiebe 2003: 97, Goose 2008: 221, 236); und dem von Nina
Tannenwald (1999: 437-438, 442, 2007: 46-47) formulierten theoreti-
schen Konzept der permissiven Effekte.
Die beiden empirischen Punkte harmonieren mit der theoretischen
Idee, weshalb ich letztere in diesem Buch weiterverfolge. Hierfür ist es
notwendig, den Ansatz der permissiven Effekte, welchen Tannenwald
nur am Rande und daher knapp einführt, weiterzuentwickeln. Zum einen
muss das Konzept der permissiven Effekte weiter spezifiziert werden; zum
anderen muss ein Erklärungsmodell formuliert werden, welches erfasst,
wie permissive Effekte zur Nicht-Entstehung von Normen führen. Ich
entwickle das theoretische Argument in drei Schritten: Aufbauend auf der
Normenforschung, deren Ansätze ich mit Ansätzen aus der Policy- und
der Agenda-Setting-Forschung ergänze, schlage ich zunächst ein Ver-
laufsmodell der Normentstehung vor, das Agenden-Diffusionsmodell. Im
zweiten Schritt konzeptualisiere ich die permissiven Effekte, d. h. definie-
re, was ich darunter verstehe, aus welchen Dimensionen sie bestehen
und durch welche Mechanismen sie entstehen. Im dritten Schritt führe
ich das Normentstehungsmodell und die permissiven Effekte zu einem
Modell zusammen, dem Modell der Nicht-Entstehung von Normen
durch permissive Effekte.
Das Argument 29

Das Agenden-Diffusionsmodel basiert auf einem funktionalistischen


Verständnis von Normen als Problemlösungsversuchen und konzipiert
die Normentstehung als zweidimensionalen Prozess. Eine der zwei Di-
mensionen ist die Definition von Problemen; die andere die Agenda, auf
der das Problem vorrangig bearbeitet wird. Anhand der Veränderungen
der beiden Dimensionen unterscheide ich vier Sequenzen: die Anerken-
nung eines Problems, die Schaffung eines Issues, den Aufbau eines
Normkandidaten und die Aushandlung einer Norm. Das erfolgreiche
Durchlaufen der jeweiligen Sequenzen erhöht die Entstehungschancen
einer Norm, weil hierdurch die beiden für die Normentstehung als rele-
vant anerkannten Mechanismen – öffentlicher Druck und Überzeugung –
aktiviert und verstärkt werden. Sie treiben die Agenda-Diffusion des Prob-
lems voran und begünstigen die Verabschiedung einer Norm.
In der ersten Sequenz des Agenden-Diffusionsmodells werden Sach-
verhalte, die auf der Agenda der Normunternehmer erscheinen, von die-
sen als Probleme anerkannt und die Normunternehmer stoßen Normset-
zungsprozesse an. In der zweiten Sequenz setzen Normunternehmer
Probleme auf die öffentliche Agenda und bauen diese, durch Herstellung
eines kollektiven Problemverständnisses, zu öffentlichen Angelegenhei-
ten (Issues) auf. Dies geschieht mit dem Ziel, die Normadressaten zur
Issue-Adoption zu bewegen, sodass der Normsetzungsprozess auf institu-
tioneller Ebene angestoßen wird. In der dritten Sequenz setzen die Nor-
munternehmer Issues auf die institutionell-deliberative Agenda und bau-
en, durch die Konstruktion einer Norm als Problemlösung, Normkandi-
daten auf. Dies geschieht mit dem Ziel, andere Normadressaten zur
Adoption des Normkandidaten zu bewegen, sodass der Normsetzungs-
prozess die Verhandlungsebene erreicht. In der vierten Sequenz setzen
die Normadressaten Normkandidaten auf die institutionell-
entscheidungsorientierte Agenda und generieren daraus, durch Konkreti-
sierung und Festschreibung, eine Norm. Wird diese angenommen, wird
zumindest eine normative Problemlösung erreicht (wenn auch nicht
notwendigerweise eine faktische).
Als permissive Effekte bezeichne ich in Anlehnung an Tannenwald
von Verbotsnormen ausgehende nicht-intendierte Effekte, welche drei
Dimensionen umfassen: Die attentionale Dimension besteht darin, dass

30 Einleitung

das Lenken von Aufmerksamkeit auf bestimmte Probleme die Aufmerk-


samkeit von anderen Problemen ablenkt; die konstitutive Dimension be-
steht darin, dass die Stigmatisierung bestimmter Praktiken andere Prakti-
ken, die nicht von der Norm erfasst werden, als relativ akzeptabel er-
scheinen lässt; die regulative Dimension besteht darin, dass diese Prakti-
ken weiter ausgeführt werden. Während die konstitutive und die regula-
tive Dimension der in der Normenforschung gängigen Unterscheidung
in bedeutungsstiftende und verhaltenslenkende Effekte von Normen
entsprechen, handelt es sich bei der attentionalen Dimension um eine
Ergänzung, die mir durch Tannenwalds Fokus auf Aufmerksamkeit sinn-
voll erscheint.
Tannenwald verbindet permissive Effekte mit bereits entstandenen
Normen – ich argumentiere hingegen, dass permissive Effekte primär in
Entstehungsprozessen von Normen auftreten. Dies ist der Fall, weil sich
die Dimensionen der Normenwirkung sequentiell anordnen lassen. Zwei
davon – die attentionale und die konstitutive Dimension – kommen be-
reits und vor allem im Entstehungsprozess zum Tragen. Die dritte – regu-
lative Dimension – ist erst nach der Entstehung einer Norm zu erwarten.
Ein Problem muss zunächst Beachtung finden und die problemverursa-
chende Praktik stigmatisiert werden, bevor eine Norm entsteht, die zur
(problemlösenden) Verhaltensänderung führt. Entsprechend entfalten
sich auch die nicht-intendierten Pendants dieser Wirkungen sequentiell:
Wenn ein Problem, dessen Lösung in Form einer Normsetzung gerade
vorangetrieben wird, soviel Aufmerksamkeit absorbiert, dass ein anderes
gar nicht beachtet wird (attentionale Dimension) und wenn die Praktik,
die das erste Problem verursacht, so stark stigmatisiert wird, dass eine
andere Praktik im Vergleich dazu relativ akzeptabel erscheint (konstituti-
ve Dimension), dann kann die Entstehung der dominanten Norm die
Entstehung der anderen Norm verhindern, weshalb die entsprechende
Praktik weiter ausgeführt werden darf (regulative Dimension).
Ich schlage zwei Mechanismen vor, die spezifizieren, wie permissive
Effekte in der attentionalen und in der konstitutiven Dimension eintre-
ten: den attentionalen Mechanismus der Blockade und den konstitutiven
Das Argument 31

Mechanismus der Ex-Negativo-Legitimierung.18 Der Mechanismus der


Blockade beschreibt einen Prozess, in dem zwei problematische Sachver-
halte auf knappe (individuelle, öffentliche, politische) Aufmerksamkeits-
ressourcen treffen, aufgrund derer es zu einer Selektionsleistung der Ak-
teure – und damit zur Konkurrenz um Aufmerksamkeit zwischen den
beiden Problemen – kommt. In diesem Prozess setzt sich eines der beiden
Probleme durch und absorbiert die Aufmerksamkeit, während das andere
Problem nicht beachtet wird. Der Mechanismus der Ex-Negativo-
Legitimierung beschreibt einen Prozess, in dem eine Praktik dadurch
stigmatisiert wird, dass sie außerhalb der Grenzen des Akzeptablen veror-
tet wird, wodurch eine Dichotomie zwischen dieser Praktik und anderen
Praktiken entsteht. Da Dichotomien als binäre Oppositionen funktionie-
ren – Eigenschaften, die der einen Seite zugeschrieben werden, werden
der anderen abgesprochen – ermöglicht diese Konstruktion den Akteu-
ren, aus der Bedeutung der stigmatisierten Praktik Schlussfolgerungen
über die nicht von der Stigmatisierung betroffenen Praktiken zu ziehen.
Diese erscheinen dadurch innerhalb der Grenzen des Akzeptablen.
Der Einwand liegt nahe, dass Verbote nichts erlauben können, was
bereits erlaubt war. Anders formuliert: Würden die Praktiken nicht auch
unabhängig davon, ob andere Praktiken verboten werden, wenig beachtet
und akzeptiert? Durch die Unterscheidung der Dimensionen und Me-
chanismen sowie den Fokus auf den Entstehungsprozess wird es möglich,
diesem Einwand zu begegnen. Denn entscheidend ist, dass permissive
Effekte nicht in der Erlaubnis, sondern im „Erlaubtlassen“ bestehen – es ist
nicht das Verbot selbst, das erlaubt, sondern dessen Entstehungsprozess,
der auf nur ein Problem fokussiert, dadurch andere ausblendet sowie
relativiert und dadurch ein anderes Verbot verhindert. Der prohibitive Ef-
fekt von Normen besteht somit darin, dass sie bestimmte Handlungen
verbieten und der permissive darin, dass sie die Ausführung anderer er-
laubt lassen.

18
Da mich die permissiven Effekte im Entstehungsprozess von Normen interessie-
ren, ist die regulative Dimension, die erst danach eintritt, hier nicht weiter rele-
vant.

32 Einleitung

Auf die Nicht-Entstehung der Streumunitionsverbots angewendet


heißt dies, dass zum ersten Zeitpunkt das entstehende Brandwaffenver-
bot und zum zweiten Zeitpunkt das entstehende Landminenverbot große
Teile der öffentlichen – medialen, gesellschaftlichen und politischen –
Aufmerksamkeit absorbiert und damit Streubomben aus deren Fokus
ferngehalten haben. Zudem ließen die Stigmatisierungen von Napalm
und Landminen Streubomben im Vergleich dazu als weniger problema-
tisch erscheinen, weshalb es nicht zu deren Verbot bzw. nicht einmal zu
Verbotsprozessen kam. Dies bedeutete im Ergebnis, dass Streumunition
weiterhin eingesetzt werden durfte und wurde. Wie ich überprüfe, ob sich
diese Erklärung empirisch bestätigt, umreiße ich im folgenden Abschnitt,
der das Forschungsdesign und den Aufbau der Arbeit zusammenfasst.

Das Forschungsdesign in Kürze: Modellgenerierung und


deduktive Fallanalyse
Der Ausgangspunkt dieses Buches liegt in einer rätselhaften Beobach-
tung: Obwohl die humanitären Auswirkungen von Streubomben auf die
Zivilbevölkerung schon im Zusammenhang mit dem Vietnamkrieg in
den 1960er Jahren international zum Thema wurden und nach ihrem
Einsatz im zweiten Golfkrieg zu Beginn der 1990er Jahre erneut ins Visier
der humanitären Akteure gerieten, wurde Streumunition erst im Jahr
2008 mit der Oslo-Konvention völkerrechtlich geächtet. Warum entstand
die Norm gegen Streumunition nicht schon früher? Dieses Rätsel ergibt
sich aus zwei Beobachtungen, nämlich einmal aus der Varianz innerhalb
des gleichen Falles zu unterschiedlichen Zeitpunkten, also über Zeit (ein ge-
scheiterter Normsetzungsversuch 1980, ein ausgebliebener Normset-
zungsversuch in den 1990ern und schließlich ein erfolgreicher Normset-
zungsversuch 2008), und einmal aus der Varianz zwischen unterschiedli-
chen Fällen zu gleichen Zeitpunkten (die erste Nicht-Entstehung der Streu-
munitionsnorm bei gleichzeitiger Entstehung der Brandwaffennorm; die
zweite Nicht-Entstehung der Streumunitionsnorm bei gleichzeitiger Ent-
stehung der Landminennorm).
Das Hauptziel dieser Studie ist demnach die Lösung eines Puzzles bzw.
eine Fallerklärung. Damit liegt ein Y-zentriertes Design vor, das darauf
Das Forschungsdesign in Kürze 33

abzielt, für die beobachtete doppelte Varianz Erklärungsfaktoren X zu


identifizieren und aufzuzeigen, wie diese Erklärungsfaktoren die jeweili-
gen Ausprägungen von Y hervorbrachten. Im Hinblick auf das Kausali-
tätsverständnis, das dieser Studie zugrunde liegt, offenbart die benannte
Zielsetzung dreierlei: Erstens bringt sie zum Ausdruck, dass die Arbeit
einen kausalanalytischen (in Abgrenzung etwa zu einem deskriptiven)
Anspruch verfolgt; zweitens wird durch die Within-Case- und Cross-Case-
Vergleiche deutlich, dass ich als ein Element von Kausalität die Kovariati-
on – d. h. das gemeinsame Auftreten bzw. Nicht-Auftreten sowie die mit-
einander einhergehende Veränderung der Faktoren X und Y verstehe;
drittens wird schließlich deutlich, dass ich Mechanismen als ein weiteres
Element von Kausalität erachte.
Auf welchem Wege gelange ich zu einer Erklärung? Da es sich bei dem
untersuchten Fall um eine internationale Norm handelt, knüpft die Ar-
beit theoretisch an die Normenforschung in den Internationalen Bezie-
hungen an. Aufgrund des reichhaltigen theoretischen Angebots liegt es
nahe, zunächst deduktiv vorzugehen und im ersten Schritt den theoreti-
schen Forschungsstand dahingehend aufzuarbeiten, dass im Ergebnis ein
Set potentiell relevanter Erklärungsfaktoren bestimmt wird. Im zweiten
Schritt führe ich eine Kovarianzanalyse durch, d. h. ich überprüfe auf
Basis des empirischen Forschungsstandes zu den jeweiligen Fällen, welche
der bereits etablierten Faktoren der Herausforderung standhalten kön-
nen, die festgestellte doppelte Varianz zu erklären.
Diese Überprüfung erfolgt in Anlehnung an die Millschen Methoden
des Fallvergleichs und beruht auf der Logik der Elimination. Ziel dieses
Schrittes ist es, diejenigen Erklärungsfaktoren aus der weiteren Betrach-
tung auszuschließen, die entweder konstant sind, obwohl die abhängige
Variable (Entstehung/Nicht-Entstehung) variiert, oder die variieren, ob-
wohl die abhängige Variable konstant bleibt. Die Faktoren werden also
dann als kausal irrelevant ausgeschlossen, wenn sie nicht mit dem zu
erklärenden Faktor kovariieren. Entsprechend suche ich in der Within-
Case-Analyse nach Unterschieden zwischen den zwei Zeiträumen p1 und
p2, in denen die Normentstehung ausblieb, und dem Zeitraum p3, in
dem sie schließlich erfolgreich verlief. In den Cross-Case-Analysen suche
ich einmal nach Unterschieden zwischen dem erfolglosen Fall Streubom-

34 Einleitung

ben und dem erfolgreichen Fall Napalm im Zeitraum p1 und einmal zwi-
schen dem erfolglosen Fall Streubomben und dem erfolgreichen Fall
Landminen im Zeitraum p2.
Im dritten – theoriegenerierenden – Schritt entwickle ich das oben
vorgestellte Erklärungsmodell, welches sowohl die aus dem Forschungs-
stand der Normenforschung abgeleiteten und nach der Kovarianzanalyse
als kausal relevant eingestuften Faktoren als auch weiterführende Ele-
mente rund um permissive Effekte integriert. Das Modell wird im vierten
Schritt empirisch auf seine Erklärungskraft hinsichtlich der Fragestellung
überprüft. Dies geschieht mittels der Kongruenzmethode – genauer, mit-
tels Process Tracing als einer ihrer Unterformen. Deren Anwendung um-
fasst ihrerseits vier Schritte: Erstens formuliere ich auf Basis des theoreti-
schen Modells Erwartungen, d. h. ich lege fest, welche Beobachtungen –
sogenannte Evidenzen – man empirisch vorfinden muss, um das Modell zu
bestätigen bzw. zu widerlegen (Spezifikation). Zweitens lege ich die Indika-
toren fest, mittels derer ich die Evidenzen erhebe (Operationalisierung). Drit-
tens führe ich die empirische Forschung durch, in welcher ich 4.392 Do-
kumente mit einer Kombination aus rahmen-, inhalts- und diskursanalyti-
schen Methoden analysiere (Datenerhebung und Datenauswertung). Viertens
vergleiche ich dabei die empirischen Ergebnisse mit den theoretischen
Erwartungen, um festzustellen, ob diese übereinstimmen, d. h. kongruent
sind, und ziehe theoretische Schlussfolgerungen (Kongruenztest).
Die Analyseschritte finden sich wie folgt im Aufbau des Buches wie-
der: Der erste, einführende Teil enthält zwei weitere Kapitel – Kapitel 2
vermittelt Hintergrundinformationen zum Untersuchungsfall Streumuni-
tion und bettet diesen im Forschungsfeld der Einsatzverbote im Rahmen
des humanitären Völkerrechts ein. In Kapitel 3 lege ich die einzelnen
Schritte und Entscheidungen des Forschungsdesigns detailliert dar und
begründe sie. Im folgenden zweiten Teil schließen zwei theoretische Ka-
pitel ein hybrides theoretisch-empirisches Kapitel ein: Kapitel 4 dient der
Erfassung des Forschungsstands zur Entstehung internationaler Normen
und der Identifikation potentieller Erklärungsfaktoren. Kapitel 5 dient
der Theorieevaluation – dort analysiere ich die Untersuchungsfälle mit-
tels einer Kovarianzanalyse und eruiere dabei die Erklärungsgrenzen der
Normenforschung. In Kapitel 6 entwickle ich das theoretische Modell,
Das Forschungsdesign in Kürze 35

das fortan als Erklärungsgrundlage dient. Im dritten Teil teste ich die
Erklärung empirisch: Kapitel 7 beschreibt meine methodische Herange-
hensweise, Kapitel 8 und 9 enthalten die Ergebnisse der Querschnitts-
und Längsschnittfallstudien. Das 10. Kapitel fasst die wichtigsten Er-
kenntnisse zusammen.

Schritt Forschungsstrategie Kapitel Ziel / Ergebnis

1. Deduktion 4: Theorieerfassung Identifikation potentieller


Erklärungsfaktoren aus dem
theoretischen Forschungs-
stand

2. Kovarianzanalyse 5: Theorieevaluation Ausschluss irrelevanter


Erklärungsfaktoren

3. Modellentwicklung 6: Theoriegenerierung Entwicklung eines Erklä-


rungsmodells

4. Kongruenzanalyse mit 7, 8, 9: Operationalisierung, Empirischer Test des Mo-


Process Tracing Methode und Fallstudien dells

5. Evaluation 10: Abschlussbetrachtung fallübergreifende Auswer-


tung der Ergebnisse und
Modifikation des Modells

Tabelle 1: Das Forschungsdesign im Überblick

Dieses Buch verfolgt damit mehrere Ziele: Das Puzzle der langen Nicht-
Entstehung der Norm gegen Streumunition zu lösen, ein theoretisches
Modell der Nicht-Entstehung von Normen infolge permissiver Effekte zu
entwickeln, und dieses Modell einer ersten empirischen Plausibilitätsprü-
fung zu unterziehen.

2 Das humanitäre Völkerrecht und die Norm gegen


Streumunition

Soziale Normen existieren nicht isoliert, sondern sind stets in normative


Strukturen, bestehend aus Prinzipien, Werten und anderen Normen,
eingebettet. In diesem Kapitel bette ich den Untersuchungsgegenstand
dieser Arbeit, die Norm gegen Streumunition, im Politikfeld humanitäres
Völkerrecht ein. Im ersten Teil des Kapitels befasse ich mich mit den
humanitärvölkerrechtlichen Grundlagen des Streubombenverbots. Im
zweiten Teil befasse ich mich mit der Problematik von Streumunition
und der Entstehungsgeschichte der Norm.

Untersuchungsfeld: Waffenverbote im humanitären Völkerrecht


Das Verbot von Streumunition begründet sich aus den Zielsetzungen und
Prinzipien des humanitären Völkerrechts (HuV). Diese lege ich in den
ersten beiden Abschnitten dar. In den zwei nachfolgenden Abschnitten
umreiße ich mit einem Fokus auf bisher verabschiedete Waffenverbote
die historische Entwicklung dieses Rechtsbereichs vor dem Ende des
Zweiten Weltkrieges und danach. Hierdurch wird deutlich, wie sich die
abstrakten humanitärvölkerrechtlichen Prinzipien in Normen konkreti-
sieren. Außerdem wird es möglich, das Streubombenverbot als einen Fall
innerhalb einer Klasse von Fällen einzuordnen.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_2

38 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Geltungsbereich, Entstehungsgeschichte und Zielsetzungen des


humanitären Völkerrechts
Der Geltungs- und Anwendungsbereich des HuV wird von seinen frühe-
ren, heute jedoch weniger üblichen Bezeichnungen „Kriegsvölkerrecht“
und später „das Recht des bewaffneten Konflikts“ umrissen: „Es [das
HuV, ELR] umfasst die Gesamtheit der Rechtsnormen, die dem Schutz
des Menschen in bewaffneten Konflikten dienen“ (Greenwood 1994: 8).
Es ist also das ius in bello, das Recht im Kriege, während das ius ad bellum
das Recht zum Kriege ist. In der zweiten Hälfte des 20. Jahrhunderts bür-
gerte sich die Bezeichnung humanitäres Völkerrecht (engl. International
Humanitarian Law) ein, welche die zentrale Zielsetzung dieses Rechtsge-
biets zum Ausdruck bringen sollte – nämlich Humanität bzw. Humanita-
rismus (Draper 1992: 240, Greenwood 1994: 8, Hobe/Kimminich 2004:
99). Auch die begriffliche Änderung von „Krieg“ zum „bewaffneten Kon-
flikt“ folgt einer bewussten Entscheidung: Damit beabsichtigt man, si-
cherzustellen, dass das Recht nicht nur in Kriegen, sondern bei jeglichen
Kampfhandlungen greift (Bothe 2001: 646, Greenwood 1994: 7, 9).
Mit dem Beginn von Kampfhandlungen beginnt also auch der Gel-
tungsbereich des HuV. Grundsätzlich gilt es zwar nur dann, wenn beide
Parteien entsprechende Verträge ratifiziert haben (Greenwood 1994: 8).
Heute kann man jedoch aus zwei Gründen von der quasi-automatischen
Geltung ausgehen: Erstens sind die wichtigsten Verträge von fast allen
Staaten ratifiziert worden; zweitens kann man auch für verbleibende
Nicht-Vertragsparteien eine gewohnheitsrechtliche Geltung annehmen
(Bothe 2001: 643).19 Das HuV gilt auch unabhängig davon, wer die
Kampfhandlungen initiiert hat (Bothe 2001: 644). Schließlich ist es bei
internationalen Streitigkeiten häufig mitnichten einfach, zu klären, wer
der Aggressor ist – und gälten die Schutzansprüche nicht auch für diese,
wäre der mit dem Aggressorstatus begründeten Nicht-Einhaltung der
Normen Tür und Tor geöffnet (Greenwood 2008: 10, Hobe/Kimminich
2004: 495). Auch bringt diese Bestimmung zum Ausdruck, dass sich das

19
Die vier Genfer Konventionen haben jeweils 196 Mitglieder; das erste Zusatzpro-
tokoll 174, das zweite 168, das dritte 75 (Stand: November 2018).
http://www.icrc.org/ihl.nsf/CONVPRES?OpenView, 1.11.2018.
Untersuchungsfeld 39

HuV primär auf den Schutz von Individuen – und nicht auf den Schutz
von Staaten – richtet, die für Aggressionshandlungen eines Staates keine
Verantwortung tragen, auch wenn sie dessen Angehörige sind (Green-
wood 2008: 10).
Die individualschutzrechtliche Ausrichtung des HuV bringt die Frage
nach dessen Verhältnis zu Menschenrechten auf. Dass das HuV existiert,
bedeutet keineswegs, dass Menschenrechte ab Konfliktbeginn außer Kraft
gesetzt seien. Vielmehr hat sich heute weitgehend ein Konsens darüber
herausgebildet, dass Menschenrechte immer gelten, das HuV jedoch in
Kriegszeiten ergänzend in Kraft tritt, um den Schutz auch in solchen
Situationen zu gewährleisten, welche durch Menschenrechte nicht ein-
deutig geregelt sind (Orakhelashvili 2008: 162). Dass beide Rechtsberei-
che nebeneinander bestehen, ist notwendig, weil sie unterschiedliche
Arten von Beziehungen zwischen Staat und Individuum verregeln: Men-
schenrechte primär die Beziehung zwischen einem Staat (bzw. seinen
Vertretern) und seinen eigenen Staatsbürgern, das HuV primär die im
Kriegsfall entstehende Beziehung zwischen einem Staat (bzw. seinen Ver-
tretern) und fremden Staatsbürgern (ob Zivilistinnen oder Soldatinnen)
(Draper 1992: 240, Provost 2003: 42, Greenwood 2008: 12).
Die Bestrebungen, dem Krieg durch Recht Schranken zu setzen, sind
so alt wie der Krieg selbst. Sie werden in der Regel in drei Phasen unter-
teilt. Für die erste Phase, die von der Antike bis zum 1648 beschlossenen
Westfälischen Frieden geht, ist die Herausbildung einer ritualisierten
Kriegskultur kennzeichnend, zu der verschiedene Elemente, von der for-
malen Kriegserklärung über die Regeln des Ritterkampfes bis hin zur Un-
terscheidung in Zivilisten und Kämpfer, gehörten (Burns 2009: 102). Die
zweite Phase der Formalisierung begann im 17. Jahrhundert, als die Miss-
achtung jeglicher bis dato existierender Normen im dreißigjährigen Krieg
die Notwendigkeit konkreter Bestimmungen aufzeigte. Daraufhin defi-
nierte der Philosoph Hugo Grotius in seinem 1625 erschienen Werk „De
jure belli ac pacis“ („Vom Recht des Krieges und des Friedens“), unter
welchen Voraussetzungen Kriege geführt werden dürfen, und zeigte die
Grenzen der Kriegsführung auf (Greenwood 1994: 14, Burns 2009: 111).
Mehr als 200 Jahre später läutete der Schweizer Bankier Henry Dunant
die dritte Phase ein, indem er – wiederum unter dem Eindruck der Gräuel

40 Das humanitäre Völkerrecht und die Norm gegen Streumunition

eines Krieges – nach der 1859 geführten Schlacht von Solferino die
Gründung einer neutralen internationalen Organisation zum Schutze der
Kriegsopfer initiierte: Das 1863 gegründete Internationale Komitee vom
Roten Kreuz verabschiedete ein Jahr später die Erste Genfer Konvention
zur Verbesserung des Loses der Verwundeten und Kranken der bewaffne-
ten Kräfte im Felde. Damit begann die Kodifizierung des modernen hu-
manitären Völkerrechts, die im 20. Jahrhundert, erneut als Reaktion auf
zwei Weltkriege, fortgesetzt wurde (Guillermand 1994: 211, Greenwood
1994: 11, Rosert 2010: 2).
Diese Geschichte verdeutlicht den engen Zusammenhang zwischen
der Entwicklung des HuV und den Zerstörungen in Kriegen. Zum einen
haben das Kriegsgeschehen und Veränderungen in seinem Ausmaß stets
als Anstöße gewirkt, den Krieg durch Recht einzuhegen. Zum anderen
nahm die Zerstörungskraft der Kriege immer weiter zu und erreichte ins-
besondere in den letzten 200 Jahren durch die massive Technologisie-
rung bisher ungesehene Ausmaße, bis schließlich in der Mitte des 20.
Jahrhunderts die Möglichkeit erreicht war, die gesamte Menschheit auf
Knopfdruck zu vernichten (Caron 2000: 7, Côté 2004: 154). So ist es kein
Zufall, dass ebendieses Jahrhundert dasjenige war, in dem nicht nur die
Zerstörung kulminierte, sondern auch das HuV einen Kodifizierungs-
schub erfuhr.
Die Regelsetzungsschübe sind auf eine Reihe von Motiven zurückzu-
führen. Als Kerngedanke gilt dabei die Menschlichkeit, die es auch in
einem Ausnahmezustand wie dem Krieg aufrechtzuerhalten gilt, indem
die Gewalt gedrosselt und das menschliche Leid gemindert wird (Bothe
2001: 644, Hobe/Kimminich 2004: 498, Rosert 2010: 2). Aus dem Ge-
waltverbot, welches seit seiner Verankerung in der UN-Charta im Jahr
1945 zu einer zentralen völkerrechtlichen Vorschrift wurde, ergibt sich
der Vorsorgecharakter des HuV – das ius in bello stellt Regeln auf, die auch
und gerade im Fall des Bruches des ius ad bellum gelten (Hobe/Kimminich
2004: 495). Mit anderen Worten bringt das HuV zum Ausdruck, dass
auch nach einem Rechtsbruch nicht der Zustand der Rechtlosigkeit ein-
tritt, und es hat zum Ziel, diejenigen Konflikte, die nicht verhindert wer-
den konnten, zumindest zu humanisieren (Sandoz 1981: 7, Bothe 2001:
642). Ferner sollen auch die Kriegsschäden begrenzt werden – aus öko-
Untersuchungsfeld 41

nomischen Erwägungen wie auch aus der Hoffnung heraus, dass es hier-
durch einfacher werde, zum Frieden zurückzukehren: „In diesem Sinne
hat das völkerrechtliche Kriegsrecht auch eine friedensfördernde Funkti-
on“ (Bothe 2001: 644).
Hinter der Einforderung von Kriegsvorschriften könnten auch macht-
politische und militärische Interessen stehen. So wird etwa der im Jahr
1130 vorgebrachte Vorschlag des Papstes Innocenz II, die Armbrust auf-
grund ihrer Unchristlichkeit zu verbieten, als ein Versuch interpretiert,
die Übermacht des Ritterstandes zu schützen (Croft 1996: 24, Mül-
ler/Schörnig 2006: 31-32, Burns 2009: 63).20 Die russischen Zaren Ale-
xander II und Nikolai II, die im 19. Jahrhundert mehrere Konferenzen
einberiefen, um Restriktionen von Rüstungsausgaben und Waffenent-
wicklungen zu verabschieden, sollen gehofft haben, ihre Gegner durch
entsprechende Regeln daran zu hindern, Russland militärisch zu überho-
len (af Jochnick/Normand 1994: 69-70). Einige Autoren kritisieren auch
das aktuelle HuV dafür, dass es vor allem den hochtechnologisierten
Armeen des Westens dienlich sei, die etwa aufgrund von Präzisionswaf-
fen eher in der Lage sind, humanitärvölkerrechtliche Vorschriften einzu-
halten, während weniger gut ausgestattete Armeen nicht nur technolo-
gisch benachteiligt sind, sondern aufgrund dieser Benachteiligung auch
nicht rechtskonform agieren können (Smith 2002: 362). Andere Autoren
begreifen das HuV grundsätzlich nicht als Instrument der Einhegung,
sondern der Legitimierung von Gewalt (af Jochnick/Normand 1994).
Wenngleich ich mich denjenigen anschließe, die zwar die Gefahr aner-
kennen, dass das Recht von den Kriegsparteien zum Schutze der eigenen
Kriegsführungsstrategien und -methoden instrumentalisiert werden
kann, scheint mir das Wesentliche dennoch die „wichtige gewaltbegren-
zende Wirkung“ dieses Rechtsbereichs zu sein (Bothe 2001: 644-655,
Ipsen 2004: 1212).

20
Da eine Armbrust verhältnismäßig leicht zu bedienen, aber dennoch effektiv war,
wurde sie in der Hand von Bauern und Handwerkern zur Gefahr für die in der
Kampfkunst ausgebildeten höheren Stände.

42 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Grundprinzipien des humanitären Völkerrechts


Die in Recht gegossenen Vorstellungen über das Wesen des Krieges fußen
zum wesentlichen Teil auf dem Contrat Social des Genfer Philosophen
Jean-Jacques Rousseau (1712-1778) (Draper 1992: 242, Blix 1988: 136).
Dieser definiert den Krieg als eine Interaktion zwischen Staaten, die mit
dem Ziel geführt werde, den gegnerischen Staat zu besiegen (Greenwood
1994: 14). Dabei ist entscheidend, dass die kriegerischen Interaktionen
zwischen Individuen nur in ihrer Funktion als Verteidiger – und nicht als
Angehörige – eines Staates stattfinden. Aus dieser Klarstellung leitet sich
das weitreichende Prinzip des Individualschutzes ab: Da die Entschei-
dung über Kriegshandlungen bei den Staaten liegt, die Individuen jedoch
die Hauptlast des Krieges tragen, stehen ihre Schutzansprüche und Rech-
te im Vordergrund und zwar sowohl in ihrer Eigenschaft als Soldaten als
auch als Zivilisten (Rosert 2010: 3).
Die Notwendigkeit, Individuen in bewaffneten Konflikten zu schüt-
zen, schlug sich im sogenannten Genfer Recht nieder. Dieser humanitär-
völkerrechtliche Rechtsstrang nahm im 19. Jahrhundert seinen Anfang
und besteht seit 1949 aus den vier Genfer Konventionen,21 deren beiden
Zusatzprotokollen von 1977 (ZPI, ZPII), und dem dritten Zusatzprotokoll
von 2005 (ZPIII).22 Das Genfer Recht ist aus der Perspektive der Konflikt-
opfer formuliert; ihm liegt eine „Wertentscheidung zugunsten des
menschlichen Lebens und seiner Existenzfähigkeit“ zugrunde und sein
Grundgedanke lautet, dass „der an den Feindseligkeiten unbeteiligte wie
auch der wehrlose Mensch (...) vor der Waffengewalt geschützt werden
[soll]“ (Ipsen 2004: 1211). Der Einschluss der Unbeteiligten und der
Wehrlosen in das Schutzprinzip bringt zum Ausdruck, dass dieses mit-
nichten nur für Zivilisten gilt, sondern auch für solche Kombattanten,
die hors de combat (franz. für „außer Gefecht“) sind. Sobald sie den Geg-
ner nicht mehr bedrohen, sind sie keine legitimen Ziele mehr (Cantrell
1977: 262, Bothe 2001: 654).

21
Drei davon sind Kombattanten (I. Verwundete im Feld; II. Verwundete zur See;
III. Kriegsgefangene) und eine den Zivilisten (IV. Zivilisten) gewidmet.
22
I. Internationale Konflikte; II. Nicht-internationale Konflikte; III. Roter Kristall als
zusätzliches Schutzzeichen.
Untersuchungsfeld 43

Für dieses Buch relevanter ist allerdings das Haager Recht, das seine
Bezeichnung der Haager Landkriegsordnung verdankt und dessen Wur-
zeln ebenfalls bei Rousseau zu verorten sind.23 Dieser Rechtsstrang ist aus
der Perspektive von Kombattanten verfasst und leitet deren Rechte und
Pflichten aus dem Prinzip der militärischen Notwendigkeit ab. Das Haa-
ger Recht erkennt das Schädigungsinteresse der Parteien, welches aus dem
legitimen Kriegsziel, der Zerstörung des gegnerischen Staates folgt. Zu-
gleich erlegt es diesem Schranken auf, indem es grundsätzlich feststellt,
dass das Recht der Konfliktparteien bei der Gewaltanwendung nicht un-
beschränkt ist und konkrete Bestimmungen hinsichtlich zulässiger
Kampfziele, Kampfmittel und Kampfmethoden trifft (Blix 1988: 136,
Bothe 2001: 642, Greenwood 2008: 21).
Als einziges legitimes Ziel der Gewaltanwendung wird die Zerstörung
des Gegners festgelegt. Dies fixiert den Bezugspunkt für die Entschei-
dung, was als militärisch notwendig gelten darf: Demnach ist solche Ge-
walt verboten, die „zur Erreichung dieses einzig legitimen Ziels nicht
erforderlich und damit in diesem Sinne überflüssig ist“ (Bothe 2001:
646). Der Feind sei mit einem „Mindestaufwand an Zeit, Menschenleben
und Einsatzmitteln“ zu unterwerfen (Blix 1988: 137, Greenwood 1994:
26). Diese beiden Grundprinzipien, Individualschutz und militärische
Notwendigkeit, konkretisieren sich in drei weiteren Prinzipien: dem Dis-
kriminierungsgebot, dem Verbot des unnötigen Leides und dem Gebot
der Verhältnismäßigkeit.

Diskriminierungsgebot
Rousseaus Kriegskonzept begründet nicht nur den allgemeinen Schutz
von Individuen, sondern etabliert durch die Definition verschiedener

23
Obwohl die Trennung der beiden Rechtsbereiche nach gängiger Meinung als
überwunden gelten kann, da sie in den beiden Zusatzprotokollen zu den Genfer
Konventionen zusammengeführt werden und zudem beide humanitären Zwe-
cken dienen (Ipsen 2004: 1202), behalte ich hier die Trennung bei, um der unter-
schiedlichen Fokussierung der Rechtsstränge – auf Schutzansprüche einerseits
und auf zulässige Mittel der Schädigung des Gegners andererseits – Rechnung zu
tragen.

44 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Kategorien von Individuen ein zentrales humanitärvölkerrechtliches


Prinzip, nämlich die Unterscheidung in Zivilisten (in Rousseaus Worten
„einfache Menschen“) und Kombattanten (in Rousseaus Worten „Vertei-
diger des Landes“). Als Zivilisten zählen nach der heutigen Rechtsauffas-
sung alle Personen, die nicht Teil der regulären Streitkräfte sind (Aldrich
2000: 51). Streitkräfte24 setzen sich aus Kombattanten, d. h. an Kampf-
handlungen unmittelbar beteiligten Personen, und aus Nicht-
Kombattanten, d. h. an Kampfhandlungen nicht unmittelbar beteiligten
Personen (z. B. Militärgeistliche, die Militärverwaltung oder Köche) zu-
sammen (Ipsen 2008: 79-82, Hobe/Kimminich 2004: 513).25
Die Unterscheidung in Zivilisten und Kombattanten beinhaltet ers-
tens, dass nur Angehörige von Streitkräften zur straffreien Teilnahme an
Kampfhandlungen berechtigt sind – Zivilisten machen sich durch die
Teilnahme an Kampfhandlungen strafbar (Bothe 2001: 657, Ipsen 2008:
82). Zweitens ist der Kriegsgefangenenstatus den Mitgliedern von Streit-
kräften vorbehalten (Ipsen 2008: 82). Drittens folgt daraus schließlich das
für das Haager Recht wichtigste Prinzip – das „Diskriminierungsgebot“,
auch als „Prinzip der zivilen Immunität“ oder „Verbot des unterschieds-
losen Angriffs“ bezeichnet. Es verbietet grundsätzlich, Zivilisten zu An-
griffsobjekten zu machen (Best 1991: 17, Oeter 1994: 99, Ho-
be/Kimminich 2004: 512). Lediglich diejenigen Personen, die selbst Ge-
walt anwenden oder androhen – sprich, Kombattanten oder illegal kämp-
fende Zivilisten, die durch die Teilnahme an Kampfhandlungen ihren
Schutzanspruch verlieren – dürfen zu Angriffszielen werden (Baxter 1988:
103, Ipsen 2008: 83).
Die Geschichte des Diskriminierungsgebots reicht weit hinter Rousse-
au zurück. In diversen Denktraditionen – von Platon bishin zu seinem
chinesischen Zeitgenossen Sun Tzu – wurde dazu ermahnt, Kampfhand-

24
Zu Streitkräften zählen nach Art. 43 und 44 des I. Zusatzprotokolls nicht nur
reguläre Streitkräfte, sondern etwa auch Angehörige von Freiwilligenarmen, so-
fern sie einer verantwortlichen Person mit Befehlsgewalt gehorchen, sich durch
sichtbare Erkennungszeichen von Zivilisten unterscheiden, sowie ihre Waffen of-
fen tragen und sich an das Recht halten (Aldrich 2000: 43, Ipsen 2008: 84-86).
25
Die alltagssprachlich häufig synonyme Verwendung von Nicht-Kombattanten
und Zivilisten ist demnach falsch.
Untersuchungsfeld 45

lungen nur gegen direkte Gegner zu richten und Zivilisten zu schonen,


da von letzteren keine Bedrohung ausgehe und sie sich nicht verteidigen
können (Bellamy 2004: 838, Best 1991: 17). Im 19. Jahrhundert begann
die schrittweise Kodifizierung dieses völkergewohnheitsrechtlichen
Grundsatzes. Als erstes Dokument ist der Lieber Code zu nennen – ein 157
Artikel umfassender Kodex zu den Gebräuchen des Krieges, den der ame-
rikanische Jurist Francis Lieber in den Jahren 1861-1863 zusammenstell-
te, und der in Art. 22 die zentrale Feststellung trifft: Der unbewaffnete
Bürger sei zu schützen.
Eine – wenn auch zunächst eher schwache – internationale rechtliche
Bedeutung erlangte das Prinzip durch die Haager Landkriegsordnung
(HLKO), die auf der ersten und zweiten Haager Friedenskonferenz
(1899/1907) angenommen wurde. Artikel 25 bis 28 der HLKO verboten,
unverteidigte Städte und Dörfer zu bombardieren sowie dort zu brand-
schatzen und geboten, bestimmte Objekte wie religiöse und kulturelle
Stätten oder Krankenhäuser vor Kampfhandlungen zu schützen (Aldrich
2000: 50). Die Norm, Städte nicht zu bombardieren, wurde im Ersten
Weltkrieg missachtet (zunächst durch den Einsatz von Zeppelinen und
später von Flugzeugen als Bombenträger); sie wurde im Zweiten Welt-
krieg durch die massiven Städtebombardements vollends ad absurdum
geführt – schließlich bombardierten die Alliierten die Städte gerade mit
dem Ziel, die Zivilbevölkerung zu terrorisieren und dadurch den Gegner
zu demoralisieren (Aldrich 2000: 49, Bellamy 2004: 841, Burns 2009:
103).26 Der Schutz von Zivilisten wurde auch in der danach angenomme-
nen vierten Genfer Konvention nur unwesentlich verbessert: Explizite
Angriffsverbote wurden auf Krankenhäuser und Schutzzonen beschränkt
und nicht für zivile Objekte als solches formuliert (Aldrich 2000: 50).
Erst 1977 erfuhr das Diskriminierungsgebot eine erhebliche Aufwer-
tung durch seine umfassende Verrechtlichung im 1. Zusatzprotokoll zu
den Genfer Konventionen. Das Protokoll schreibt in Art. 48 vor, dass die
Konfliktparteien jederzeit zivile von militärischen Objekten zu unter-
scheiden und militärische Operationen ausschließlich gegen letztere zu

26
Lag im Ersten Weltkrieg der Anteil ziviler Opfer noch bei 5 %, waren es im Zwei-
ten Weltkrieg bereits 50 % (Oeter 2008: 121).

46 Das humanitäre Völkerrecht und die Norm gegen Streumunition

richten hätten. In Art. 51 verbietet es explizit, Zivilisten zu Angriffszielen


zu erklären oder nicht-diskriminierende Angriffe durchzuführen. Art. 52
verengt die Kategorie militärischer Ziele auf lediglich solche Objekte, die
effektiv zu militärischen Handlungen beitragen, und deren Zerstörung
einen erkennbaren militärischen Vorteil bringt. Ferner werden in Art. 57
und 58 die Konfliktparteien zu Vorsichtsmaßnahmen zum Schutz von
Zivilisten bei und vor Angriffen verpflichtet (Aldrich 2000: 51, Oeter
1994: 127-128, Bring 2002: 40-41). Mit diesen Bestimmungen, die das
Prinzip militärischer Notwendigkeit mit dem Prinzip des Individual-
schutzes vereinen, wurde das Diskriminierungsgebot nicht nur zum – für
die Vertragsparteien des 1. Zusatzprotokolls – bindenden Recht, sondern
auch konkretisiert.
Der Tatsache, dass prinzipiell jede Waffe nicht-diskriminierend, d. h.
gegen militärische Ziele und Zivilisten gleichermaßen, eingesetzt werden
kann, trägt bereits das allgemeine Zielverbot Rechnung. Doch daraus lässt
sich auch ableiten, welche Waffen grundsätzlich gegen das Prinzip ver-
stoßen und deshalb verboten sind: Erstens solche Waffen, die aufgrund
fehlender Zielgenauigkeit nicht gegen spezifische Ziele gerichtet werden
können; zweitens solche, die prinzipiell zwar diskriminierungsfähig sind,
deren üblicher Gebrauch jedoch nicht-diskriminierend ist; und drittens
solche, deren Gebrauch vielleicht keine direkten nicht-diskriminierenden
Effekte, jedoch mögliche nicht-diskriminierende Folgeeffekte hat (Baxter
1973: 48, Blix 1974: 26, Bothe 2001: 648).

Verbot unnötigen Leides


Im Unterschied zum Diskriminierungsgebot zielt das Verbot unnötigen
Leides auf den Schutz von Kombattanten. Es reguliert, wie und mit wel-
chen Mitteln Gewalthandlungen zu erfolgen haben. Dabei werden die
Grenzen dessen, was als unnötiges Leid zu werten ist und was als nötiges
Leid zum Kriegsgeschehen dazugehört, durch das Prinzip der militäri-
schen Notwendigkeit gezogen: „Das Zufügen körperlicher wie seelischer
Leiden ist nur insoweit gerechtfertigt, als es im Hinblick auf das ange-
strebte militärische Ziel wirklich notwendig ist“ (Oeter 1994: 97). „Not-
wendigkeit“ bzw. „nötiges Leid“ ergeben sich also zum einen aus dem
Untersuchungsfeld 47

Verhältnis zum angestrebten Ziel – jegliches über die Zielerreichung hin-


aus zugefügte Leid ist unnötig; zum anderen ergeben sie sich aus dem
Verhältnis zu anderen verfügbaren Mitteln – eine bestimmte Art der Ge-
waltanwendung kann auch dann unnötiges Leid verursachen, wenn eine
„mildere“ Alternative zur Erreichung des angestrebten Ziels zur Verfü-
gung gestanden hätte (Oeter 1994: 97, Rosert 2010: 5). Aus dieser relati-
ven Bestimmung folgt allerdings nicht, dass das Verbot unnötigen Leides
ausschließlich situativ greift: Sicher sind Einsatzarten, Einsatzausmaße
oder Einsatzentscheidungen auch in Anbetracht der Umstände zu bewer-
ten. Doch die Rechtsentwicklung in diesem Bereich zeigt, dass auch Waf-
fenarten aufgrund der Einschätzung verboten wurden, dass ihr Einsatz
grundsätzlich unnötiges Leid verursache, sie also qua ihrer Natur unter
keinen Umständen so eingesetzt werden könnten, dass sie in einem an-
gemessenen Verhältnis zum durch ihren Einsatz erreichten militärischen
Ziel stehen könnten.
Wenngleich die Rechtsfigur des unnötigen Leides auf einer abstrakten
Ebene einleuchtet, bleibt es weiterhin schwierig, daraus Anhaltspunkte
abzuleiten, was konkret als unnötiges Leid einzustufen ist. Das größte
Problem stellt dabei der Begriff des Leides (engl. „suffering“) dar, dessen
Ausmaß ein subjektives Empfinden darstellt, welches von Person zu Per-
son stark variieren kann (Blix 1988: 138). Der gelegentlich ebenfalls ver-
wendete, jedoch weniger prominente Begriff „Verletzungen“ (engl. „inju-
ries“) wäre hingegen nach medizinischen Gesichtspunkten quantifizier-
bar und scheint daher objektiver (Oeter 1994: 97). Zwar sind im Ersten
Zusatzprotokoll beide Begriffe schließlich in die Phrase „superfluous inju-
ry or unnecessary suffering“ zusammenflossen, um zum Ausdruck zu
bringen, dass beides als inhuman verstanden wird, doch die Frage, an-
hand welcher Kriterien man entsprechende Klassifikationen vornehmen
soll, ist weiterhin offen geblieben (Blix 1974: 24, Wei 1989: 380).
Um das Verbot unnötigen Leides zu konkretisieren, startete das Inter-
nationale Komitee vom Roten Kreuz Mitte der 1990er Jahre das Projekt
Superfluous Injury or Unnecessary Suffering, abgekürzt SIrUS-Projekt (Coup-
land 1997, Holdstock et al. 1998). Das ICRC holte Meinungen von Juris-
ten, Waffeningenieuren und Medizinern, die Kriegsopfer behandelten,
ein und wertete die eigene ICRC-Datenbank mit Informationen über

48 Das humanitäre Völkerrecht und die Norm gegen Streumunition

mehr als 25.000 im Krieg verwundete Patienten aus. Dabei wurden Fakto-
ren wie die Größe der Wunden, die Mortalitätsraten, der Anteil von Ver-
letzungen am Körperstamm und an den Gliedmaßen, die Länge der
Krankenhausaufenthalte, die Anzahl notwendiger Operationen und Blut-
transfusionen sowie das Ausmaß dauerhafter Behinderungen erhoben
(Holdstock et al. 1998: 244-245). Auf dieser Basis erarbeitete das ICRC
Kriterien, die es fortan möglich machen sollten, die völkerrechtliche
Konformität von Waffen anhand der durch sie verursachten Verletzun-
gen festzustellen (Holdstock et al. 1998: 243, Daoust 2001: 539).
Nach den ICRC-Kriterien reicht das Verursachen eines der vier fol-
genden Effekte durch eine Waffenart aus, um vom unnötigen Leid oder
überflüssigen Verletzungen zu sprechen: 1) Bestimmte Krankheiten, be-
stimmte abnormale physiologische oder psychologische Zustände, be-
stimmte und dauerhafte Behinderungen oder Verstümmelungen; 2) Mor-
talitätsraten von über 25 % im Feld und über 5 % in Krankenhäusern; 3)
Verwundungen dritten Grades; 4) Verletzungen, für die es keine aner-
kannte Behandlungsmethode gibt (Coupland 1997: 23-25). Das ICRC
stellte fest, dass es mit dieser Kriteriensammlung nicht beabsichtige, den
Einsatz anderer Waffen in irgendeiner Form zu legitimieren – es wolle
jedoch der Tatsache Rechnung tragen, dass bestimmte Waffen messbar
mehr Schaden als andere verursachen (Holdstock et al. 1998: 248, Coup-
land 1997: 26-27). Nach dem ersten Bericht haben zwar weitere Exper-
tentreffen stattgefunden, doch im Jahr 2001 stoppte das ICRC das Pro-
jekt. Die SIrUS-Kriterien sind nie verrechtlicht worden; auch haben seit-
dem keine weiteren Versuche stattgefunden, das Prinzip des unnötigen
Leides und der überflüssigen Verletzungen zu stärken.

Gebot der Verhältnismäßigkeit


Das Gebot der Verhältnismäßigkeit (Proportionalität) entstammt ur-
sprünglich der Theorie des Gerechten Krieges (und somit dem ius ad bel-
lum), welche als eine Voraussetzung dafür das Gleichgewicht zwischen
Untersuchungsfeld 49

Mitteln und Zwecken ansah (Gardam 2006: 9).27 So bedeutet der Grund-
satz beispielsweise, dass sich Selbstverteidigungsmaßnahmen an der „Art
und Intensität (...) des Angriffs zu orientieren“ haben (Hobe/Kimminich
2004: 314-315). Auch im humanitären Völkerrecht gilt Proportionalität
inzwischen völkergewohnheitsrechtlich (Aldrich 2000: 52). Hier wird
von den Konfliktparteien gefordert, den durch eine militärische Maß-
nahme zugefügten Schaden gegen den durch diese Maßnahme angestreb-
ten militärischen Vorteil abzuwägen. Ist das Verhältnis zwischen Schaden
und Vorteil unangemessen – d. h. wird ersterer als unverhältnismäßig
hoch bzw. letzterer als entsprechend unverhältnismäßig gering – einge-
schätzt, müssen die Konfliktparteien auf die jeweilige Maßnahme ver-
zichten (af Jochnick/Normand 1994: 53).
Auch die beiden bisher diskutierten Prinzipien implizieren den Ver-
hältnismäßigkeitsgrundsatz. In das Verbot unnötigen Leides ist die Ori-
entierung am angestrebten militärischen Vorteil bereits eingeschrieben
(Hertwig 2007: 220). Das Diskriminierungsgebot ist Verhältnismäßig-
keitsüberlegungen insofern unterworfen, als zwar gezielte Angriffe auf
zivile Ziele unter allen Umständen verboten sind, nicht jedoch alle An-
griffe, aufgrund derer mit zivilen Opfern zu rechnen sei. Wie Art. 51 (5b)
des I. Zusatzprotokolls bestimmt, sind nur solche Angriffe völkerrechts-
widrig, bei denen der Schaden an zivilen Objekten (welche sich bei-
spielsweise in der Nähe der anvisierten militärischen Objekte befinden)
außer Verhältnis zum durch den Angriff erzielten militärischen Vorteil
steht (Aldrich 2000: 52, Bothe 2001: 648, Bring 2002: 44).
Anhand von Extrembeispielen lässt sich vergleichsweise leicht kon-
struieren, was als (un)verhältnismäßig einzustufen ist,28 jedoch ist die
Entscheidung in Einzelfällen schwierig, da sich sowohl die angemessene
Zahl ziviler Opfer als auch der angemessene militärische Vorteil genauen

27
Zugleich ist Verhältnismäßigkeit auch ein allgemeiner, im Rechtsstaatsprinzip
begründeter, Rechtsgrundsatz, welcher vor allem im Verwaltungsrecht relevant
ist (Maurer 2011: 259-260).
28
Beispielsweise wäre ein Angriff auf zahlreiche militärische Einheiten trotz sich in
ihrer Nähe befindlicher einzelner Zivilisten verhältnismäßig, wohingegen der
Angriff auf einzelne Soldaten inmitten einer großen Menge von Zivilisten unver-
hältnismäßig wäre (Bothe 2001: 648).

50 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Bestimmungen entziehen (Bothe 2001: 648). Dass Richtwerte zu akzep-


tablen zivilen Opfern fehlen, hat einen guten Grund – man stelle sich
bloß vor, ausbuchstabieren zu müssen, wieviele zivile Opfer einen militä-
rischen Vorteil wert sind (Rosert 2010: 5). Dennoch erfüllt die Notwen-
digkeit, diesen Grundsatz im Vorfeld konkreter Operationen anzuwenden
oder zur Einschätzung der Völkerrechtskonformität bestimmter Waffen-
arten heranzuziehen, eine wichtige Schutzfunktion (Aldrich 2000: 52).

Meilensteine des Haager Rechts vor dem Zweiten Weltkrieg


Eine Reihe konkreter Waffenverbote, die zusammen das Haager Recht
bilden, basiert auf diesen Prinzipien. Dass Kampfmittel im Fokus des
Haager Rechts stehen, wirft notwendigerweise die Frage nach dessen
Verhältnis zur Rüstungskontrolle auf. Versteht man Rüstungskontrolle
umfassend als „jede[n] Verzicht auf den vollen Einsatz aller vorhandenen
kriegerischen Mittel zur Erreichung irgendwelcher Ziele“ (Forndran 1970:
99) und als jegliche Vereinbarungen, die zwischen Staaten in Bezug auf
ihre militärischen Kapazitäten – sei es das Rüstungsvolumen, die Waffen-
typen, die Stationierungsorte, Bereitschaftsgrade oder die Einsätze be-
stimmter Waffen – getroffen werden (Larsen 2002: 1), erscheint das Haa-
ger Recht als ein Teilbereich der Rüstungskontrolle (Bring 1987: 275). Im
Unterschied zu solchen Rüstungskontrollnormen, die den Besitz be-
stimmter Waffenarten quantitativ regulieren, ist Rüstungskontrolle im
Rahmen des Haager Rechts qualitativ ausgerichtet, da sie den Einsatz spe-
zifischer Waffen, auf Basis ihrer Eigenschaften, reguliert (Vagts 2000: 31).29
Seit etwa zwei Jahrzehnten werden Waffeneinsatzbestimmungen
nicht isoliert verabschiedet, sondern in umfassende Regime der humani-
tären Rüstungskontrolle eingebettet. Diese Regime (die Landminenkon-
vention von 1997, das Protokoll zur Räumung explosiver Kampfmittel-
rückstände von 2003 wie auch die Streubombenkonvention von 2008)
verpflichten beispielsweise auch zur Opferhilfe oder zur technischen
Unterstützung bei der Räumung und Zerstörung der jeweiligen Waffenar-

29
Qualitative Rüstungskontrolle umfasst jedoch nicht nur Einsatzverbote, sondern
etwa auch Regulierungen der Rüstungsmodernisierung.
Untersuchungsfeld 51

ten. Mit der Bezeichnung „humanitäre Rüstungskontrolle“ wird die Ori-


entierung an der individuellen Sicherheit zum Ausdruck gebracht, wo-
hingegen sich klassische Rüstungskontrolle an der internationalen Si-
cherheit und zwischenstaatlichen Stabilität orientiert (Wisotzki 2008:
178, Wisotzki 2013, Garcia 2015).
Solchen Regimen wie auch den älteren Kampfmittelverboten ist die
Begründung gemeinsam, es gebe Waffengattungen, die im Vergleich zu
anderen besonders grausam und barbarisch und daher zu ächten seien
(Croft 1996: 47). Bereits in der Antike versuchten die Philister, die Israeli-
ten am Einsatz von eisenbeschlagenen Waffen zu hindern, und die Rö-
mer, ihren Gegnern den Einsatz von Kriegselefanten zu verbieten. In
anderen Regionen einigten sich verfeindete Inselvölker auf den Verzicht
von Speeren. Das altindische „Gesetzbuch des Manu“ verbietet vergiftete
Waffen und die Chinesen entschieden sich nach der Erfindung des
Schießpulvers gegen dessen Einsatz im Krieg (Burns 2009: 64-71).
In der Tradition solcher Praktiken bildeten sich seit Mitte des 19.
Jahrhunderts weitere Kampfmittelverbote heraus, die das Haager Recht
konstituieren. Als sein Anfangspunkt gilt der bereits erwähnte Lieber
Code, da es sich dabei um eines der ersten Militärhandbücher handelt,
welches das „Recht des bewaffneten Konflikts aus Sicht des Soldaten, und
zwar in der Form einer Erklärung der Rechte und Pflichten des Militärs in
einem Konflikt“ formuliert (Greenwood 1994: 15). Es erklärt Gift zum
verbotenen Kampfmittel sowie Heimtücke, Folter und generell Grausam-
keit zu verbotenen Kampfmethoden. Das erste formale Verbot eines
Kampfmittels wurde fünf Jahre später, im Jahr 1868, verabschiedet: Die
St. Petersburger Erklärung ächtete Sprenggeschosse mit einem Gewicht
von unter 400g; deren Verletzungswirkung überstieg die aller bisherigen
Projektile bei Weitem (Bring 1987: 276, Schindler/Toman 1988: 101). Die
Präambel stellte fest, dass es nicht Ziel einer Waffe sein kann, die Gegner
nicht nur außer Gefecht zu setzen, sondern ihnen auch noch solche
Wunden zuzufügen, die ihr Leid verschlimmern oder ihnen unausweich-
lich den Tod bringen würden – damit war der Grundsatz, dass unnötiges
Leid verboten ist, formuliert (Green 1991: 285, Greenwood 2008: 22,
Boothby 2016: 10-11).

52 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Einen umfassenderen Versuch, rechtliche Kriegsführungsbestimmun-


gen zu kodifizieren, stellte die 1874 verfasste Brüsseler Erklärung über die
Gesetze und Gebräuche des Krieges dar. Darin wurden nicht nur die be-
schränkten Rechte der kriegführenden Parteien sowie das Verbot unnöti-
gen Leides bekräftigt, sondern auch weitere Verbote, beispielsweise das
von Gift und giftigen Waffen, der Heimtücke oder der unnötigen Zerstö-
rung gegnerischen Eigentums, angenommen (Green 1991: 286). Die Er-
klärung wurde zwar nicht ratifiziert (wenn auch von den 15 teilnehmen-
den Staaten gezeichnet), diente jedoch als Grundlage der auf den Haager
Friedenskonferenzen von 1899 und 1907 angenommenen Haager Land-
kriegsordnung (Greenwood 2008: 24). Die Konferenzen hatten das große
Ziel, die friedensfördernde Wirkung des Völkerrechts zu erhöhen, indem
Prozeduren der friedlichen Streitbeilegung etabliert und Rüstungsbe-
schränkungen vereinbart würden (Hobe/Kimminich 2004: 505, Best
1991: 13). Zwar scheiterte die Festlegung quantitativer Rüstungsober-
grenzen, jedoch wurden einige zukunftsweisende humanitäre Bestim-
mungen vereinbart (Bring 1987: 276, Vagts 2000: 31).
Die Haager Landkriegsordnung, die 1899 als Anlage zum IV. Haager
Abkommen betreffend die Gesetze und Gebräuche des Landkrieges ange-
nommen und auf der Zweiten Friedenskonferenz ergänzt wurde, schloss
die Grundsatzbestimmungen der St. Petersburger und Brüsseler Erklärun-
gen ein, ging aber über jene hinaus: 1899 wurden Dum-Dum-Geschosse,
weil sie sich im menschlichen Körper ausdehnen oder plattdrücken, so-
wie mit erstickenden oder giftigen Gasen gefüllte Geschosse verboten.
Außerdem wurde für fünf Jahre das Abwerfen von Geschossen und
Sprengstoffen aus Heißluftballons oder ähnlichen Mitteln der Luftfahrt
verboten, welches vor allem den Luftkrieg eindämmen sollte, der sich
bereits als Kriegsführungsmethode der Zukunft abzeichnete (Vagts 2000:
34-35, Burns 2009: 67). 1907 kam das Abkommen über die Legung von
unterseeischen selbsttätigen Kontaktminen hinzu, welches bestimmte,
dass Seeminen selbstzerstörende Mechanismen enthalten müssen (Baxter
1973: 42).
Erwähnenswert ist außerdem die sogenannte Martenssche Klausel
(benannt nach dem russischen Juristen Friedrich Martens), die in die
Präambel der HLKO aufgenommen wurde. Zum Zeitpunkt des Abfassens
Untersuchungsfeld 53

der Klausel war absehbar, dass es schwierig werden würde, mit rapiden
kriegstechnologischen Entwicklungen rechtlich Schritt zu halten. Die
Klausel stellt klar, dass Bevölkerungen auch in solchen Fällen geschützt
werden, in denen es keine genaueren Bestimmungen gibt – den Schutz
leistet das Völkergewohnheitsrecht, welches sich als Praxis unter zivili-
sierten Staaten herausgebildet hat und den Gesetzen der Menschlichkeit
sowie dem öffentlichen Bewusstsein folgt (Hobe/Kimminich 2004: 530,
Smith 2009: 113). Im Laufe der Zeit hat die Klausel allerdings eine umfas-
sendere Bedeutung erlangt und wird als Ausdruck des Bewusstseins inter-
pretiert, dass es nicht möglich ist, die Kriegsführung lückenlos zu verre-
geln – aus möglichen Lücken im Recht dürfen keine negativen Schlüsse
in dem Sinne gezogen werden, dass eine nicht-erwähnte Praxis erlaubt sei
(Greenwood 1994: 25).
Der Erste Weltkrieg machte die Hoffnungen zunichte, die mit der
humanitären Ausrichtung der HLKO verbunden waren. Bis auf Dum-
Dum-Geschosse, die seit dem Verbot tatsächlich nicht mehr eingesetzt
wurden (Bring 1987: 276), hielt keines der nur wenige Jahre zuvor verab-
schiedeten Verbote, wie die massiven Einsätze von Giftgas und die vo-
rangeschrittene Luftkriegsführung zeigen. Die beiden letztgenannten
sollten nach Kriegsende erneut zu Gegenständen internationaler Regulie-
rungsbemühungen werden: Auf der Konferenz des Völkerbundes zum
Waffenhandel im Jahr 1925 unterzeichneten 37 Staaten das Genfer Pro-
tokoll über das Verbot der Verwendung von erstickenden, giftigen oder
ähnlichen Gasen sowie von bakteriologischen Mitteln im Kriege, welches
heute 140 Vertragsparteien (Stand: November 2018) hat und als binden-
des Recht gilt.30
Das Genfer Protokoll zielte, wie bisherige Kampfmittelverbote auch,
auf den Schutz von Kombattanten (Sandoz 1981: 16) und berührte das
Diskriminierungsgebot nur am Rande (anders als die auf seiner Grundla-
ge später verabschiedeten Konventionen zu Bio- und Chemiewaffen).
Durch die Versuche, Normen für die Luftkriegsführung zu setzen, ver-
schob sich allerdings der Fokus auf den Schutz von Zivilisten (Burns

30
Die Liste der Erstunterzeichner und der Vertragsparteien insgesamt ist verfügbar
unter http://www.icrc.org/ihl.nsf/WebSign?ReadForm&id=280&ps=P, 1.11.2018.

54 Das humanitäre Völkerrecht und die Norm gegen Streumunition

2009: 68): 1923 legte eine Kommission aus ausgewiesenen internationa-


len Juristen die „Hague Rules of Air Warfare“ vor, die Bombardements
ausschließlich gegen militärische Ziele erlaubten und nicht-
diskriminierende Angriffe verboten; der Regelkatalog verblieb allerdings
im Entwurfsstatus und wurde nie angenommen (Cantrell 1977: 256,
Schindler/Toman 1988: 207-210, Smith 2002: 359). Einsatzbeschränkun-
gen für den Seekrieg enthielt der Washingtoner U-Boot-Vertrag, der die
Zerstörung von Handelsschiffen durch U-Boote verbot. Er trat wegen der
fehlenden Ratifikation Frankreichs allerdings nicht in Kraft (Schind-
ler/Toman 1988: 877-879).
In der Zwischenkriegszeit wurde mehrfach gegen das Genfer Protokoll
verstoßen (Spanien setzte Giftgas gegen Rebellen in Spanisch-Marokko
ein, Italien Senfgas gegen Äthiopien), doch im Unterschied zum Ersten
Weltkrieg wurden im Zweiten Weltkrieg mit Ausnahme einer Kriegspartei
(Japan bei der Invasion Chinas) keine Chemiewaffen eingesetzt (Kort
2010: 21-23). Im Krieg erwies sich die im Genfer Protokoll verankerte
Norm demnach als verhältnismäßig effektiv. Sie wurde allerdings von
den Nazis massiv verletzt, die in Konzentrationslagern Millionen von
Menschen mit Giftgas und bakteriologischen Waffen umbrachten.31 Völ-
lig wirkungslos blieb das international ohnehin nicht anerkannte Verbot
von Städtebombardements – ganz im Gegenteil avancierte das „counter-
city-targeting“ zu einer wesentlichen Kriegsführungsstrategie (Far-
rell/Lambert 2001: 317). Entsprechend wurde die Entwicklung von Bom-
bardierungstechnologien zu einer militärischen Priorität (Murray 1996,
Burns 2009: 68), welche nicht nur in der Herstellung neuer konventio-
neller Waffen wie der deutschen V-1- und V-2-Raketen und der Nutzung
des Brandstoffes Napalm für Brandbomben, sondern auch in der Erfin-
dung der Atombombe mündete (Aldrich/Chinkin 2000: 93).

31
Ob dies auch gegen das Genfer Protokoll verstieß, ist weniger klar, weil dieses nur
den Einsatz im Krieg verbot; somit stellte der Einsatz gegen Kriegsgefangene ei-
nen Verstoß dar, gegen internierte eigene Staatsbürger offenbar nicht (Bax-
ter/Buergenthal 1970: 868-869).
Untersuchungsfeld 55

Die Kodifizierung des modernen humanitären Völkerrechts


Nach Ende des Zweiten Weltkrieges begann eine neue Phase in der Ent-
wicklung des humanitären Völkerrechts. Die Genfer Konventionen kodi-
fizierten den Schutz der Opfer bewaffneter Konflikte, doch die kontrover-
se Frage der Kampfmittel und Kampfmethoden ließen sie außer Acht –
trotz der Vielzahl und Zerstörungskraft neuer militärischer Technologien
und der Millionen Todesopfer, die diese verursacht hatten (Sandoz 1981:
4). Sie wurde auch bei den Tokioter und Nürnberger Kriegsverbrecherpro-
zessen ausgespart; die Siegermächte hatten sich schließlich selbst durch
nicht-diskriminierende Luftkriegsführung, insbesondere in Form massi-
ver Städtebombardements in Deutschland und Japan mit Hunderttau-
senden zivilen Opfern, hervorgetan und wollten die eigene Kriegsfüh-
rungspraxis nicht nachträglich delegitimieren lassen (Würkner-Theis
1990: 11, Smith 2002: 360, Oeter 2008: 121-122).
Dennoch nahm sich das ICRC bald wieder des Themas an und gab
1956 sogenannte „Draft Rules for the Limitation of the Dangers Incurred
by the Civilian Population in the Time of War” (Draft Rules) heraus
(ICRC 1956). Die Regeln sahen Vorsorgemaßnahmen zum Schutz der
Zivilbevölkerung bei Angriffen vor (Art. 9) und Verbote solcher Waffen,
deren schädliche Effekte in einem schwer vorherzusehenden Ausmaß die
Zivilbevölkerung treffen könnten (Art. 14). Doch obwohl das Dokument
lediglich gemeinhin akzeptierte humanitärvölkerrechtliche Standards
zusammenfasste, stieß es auf den Widerstand der USA und ihrer NATO-
Partner. Deren Taktik, dem Regelwerk auf der 19. Internationalen Konfe-
renz des ICRC grundsätzlich und unverbindlich zuzustimmen, aber des-
sen Übersetzung in bindendes Recht zu torpedieren, ging auf: Kaum eine
Regierung folgte dem angeschlossenen Aufruf des ICRC, zu den Draft
Rules Stellung zu beziehen, sodass die Initiative erst einmal im Sande
verlief (Mantilla 2013: 177-182).
Auf der institutionellen Agenda blieben vorerst nur Massenvernich-
tungswaffen (weapons of mass destruction, WMD), und zwar durch die
Verhandlungen des nuklearen Teststoppvertrages, des nuklearen Nicht-
Verbreitungsvertrages und der Biowaffenkonvention. Konventionelle
Waffen – darunter z. B. kleinkalibrige Projektile, Flechetten, Brandwaffen
und Streumunition – brachte erst ihr massiver Einsatz im Vietnamkrieg

56 Das humanitäre Völkerrecht und die Norm gegen Streumunition

ins öffentliche Bewusstsein und auf die Verhandlungsagenda der Regie-


rungen. Entscheidender Impulsgeber für die Regulierungsbemühungen
war erneut das ICRC: Im Jahr 1967 versendete es an alle Regierungen ein
Memorandum, welches den Schutz der Zivilbevölkerung vor unter-
schiedsloser Kriegsführung anmahnte und die Frage aufwarf, ob be-
stimmte neue Waffen nicht unnötiges Leid verursachten (Kalshoven
1975: 78). 1969 veranstaltete es ein Expertentreffen zur Weiterentwick-
lung des humanitären Völkerrechts und legte zur Vorbereitung auf die
21. Internationale Konferenz des ICRC, die einige Monate später in Is-
tanbul stattfand, einen Bericht vor, der die Staaten zum Verzicht auf sol-
che Waffen, die unnötiges Leid verursachten, unterschiedslos wirkten
oder deren Effekte schwer zu kontrollieren waren, aufrief (Sandoz 1981:
5). Die Schlusserklärung der Konferenz hielt dann auch die Absicht fest,
in den 1970er Jahren eine Konferenzserie durchzuführen, welche zum
Ziel haben werde, das humanitäre Völkerrecht zu stärken (Kalshoven
1975: 79, Borrie 2009: 12).
Die Konferenzserie fand unter der Bezeichnung „Conférence Diplo-
matique sur la Réaffirmation et le Développement du Droit International
Humanitaire Applicable dans les Conflits Armés“ (CDDH) statt.32 Dort
sollten die als unzureichend erachteten Genfer Konventionen revidiert
und das Genfer und das Haager Recht in Zusatzprotokollen zusammenge-
führt werden (Hobe/Kimminich 2004: 507-508). Hierdurch bestand die
erste Möglichkeit seit langem, sich auf internationaler Ebene mit der
Rechtmäßigkeit bestimmter Waffen zu befassen (Blix 1974: 25, Draper
1992: 248). Doch obwohl das ICRC ursprünglich konkrete Waffenverbote
gefordert hatte, hatte es schon früh die Sprengkraft dieses kontroversen
Punktes erkannt und zog es daher vor, die ohnehin schwierigen Ver-
handlungen der Zusatzprotokolle nicht dadurch noch mehr anzuspan-
nen (Blix 1974: 21-22, Kalshoven 1975: 80-81).
Als die CDDH 1974 begann, wurde das Thema der inhumanen Waf-
fen deshalb aus den Hauptverhandlungen in einen Unterausschuss, das

32
Auf Deutsch „Diplomatische Konferenzen über die Neubestätigung und Weiter-
entwicklung des in bewaffneten Konflikten anwendbaren humanitären Völker-
rechts“; im Folgenden auch Rot-Kreuz-Konferenzen, ICRC-Konferenzen oder
ICRC-Prozess.
Untersuchungsfeld 57

„Ad hoc Committee on Conventional Weapons” (Ad-hoc-Komitee), ver-


wiesen. Das Komitee erwog in den kommenden Jahren Einsatzbeschrän-
kungen und Verbote einer Reihe von Waffen, die auch zuvor immer wie-
der genannt wurden: Brandwaffen, kleinkalibrige Projektile, Explosiv-
und Fragmentierungswaffen, Waffen mit verzögerter Wirkung und heim-
tückische Waffen. Letztendlich konnten sich die Delegierten jedoch
nicht einigen, weshalb keine Waffennormen in die Zusatzprotokolle auf-
genommen wurden. Die völkergewohnheitsrechtlichen Grundprinzipien
des Haager Rechts fanden hingegen Eingang ins ZPI: Damit wurden die
grundsätzliche Beschränkung der Rechte der Kombattanten, die Bestim-
mungen zur Unterscheidung ziviler und militärischer Ziele, das Verbot
unnötigen Leides und die Martenssche Klausel in bindendes Völkerrecht
überführt (Gasser 1991: 85-86, Hobe/Kimminich 2004: 529). In der
Schlusssitzung vertagten die Delegierten der CDDH konkrete Verbote
inhumaner Waffen in die Zukunft: Nicht später als 1979 sollte eine wei-
tere Konferenz zum Thema, dieses Mal im Rahmen der Vereinten Natio-
nen, abgehalten werden (Sandoz 1981: 6).
In den Vereinten Nationen hatte der Prozess bis dato selektiv Wider-
hall gefunden, denn dort lag der Fokus der Generalsekretäre wie auch der
Generalversammlung nicht so sehr auf der allgemeinen Problematik in-
humaner Waffen, sondern auf Brandwaffen (detailliert siehe S. 275). Zu-
mindest hatten Resolutionen der Generalversammlung den ICRC-Prozess
begrüßt. Nach dessen Abschluss wandelte sich die Rolle der UN: Sie be-
gleiteten den Prozess nicht länger bloß, sondern wurden selbst zum Ver-
handlungsforum, in dem die Konferenz über besondere konventionelle
Waffen stattfand. Die Generalversammlung hielt im Jahr 1978 die vorbe-
reitende Sitzung und in den Jahren 1979 und 1980 die beiden Hauptsit-
zungen ab. Als Ergebnis wurde am 10. Oktober 1980 die Konvention über
das Verbot oder die Beschränkung des Einsatzes bestimmter konventio-
neller Waffen, die übermäßige Leiden verursachen oder unterschiedslos
wirken können (Convention on Certain Conventional Weapons,

58 Das humanitäre Völkerrecht und die Norm gegen Streumunition

CCW),33 verabschiedet. Die CCW trat 1983 in Kraft und hat heute 125
Vertragsparteien (Stand: November 2018).34
Die Konvention wurde als flexibles Instrument aus einem Rahmendo-
kument und mehreren Protokollen konstruiert. Das Rahmendokument
enthielt abstrakte Prinzipien, die Protokolle konkrete Handlungsregeln.35
Die Ratifikation der CCW würde die Zustimmung zu mindestens zwei
Protokollen erfordern. Dieses Design sollte den Staaten den Vertragsbei-
tritt erleichtern, denn nach insgesamt fast einem Jahrzehnt Verhandlun-
gen war offenkundig, dass es keinen Konsens über die Waffen, die von
den Normen erfasst werden sollten, gab. Auch sollte die Protokoll-Lösung
ermöglichen, auf zukünftige Waffenentwicklungen in Form neuer Proto-
kolle zu reagieren (Mathews 2001: 995).
Die ursprünglich drei, seit 1996 vier und seit 2003 fünf Protokolle re-
gulieren den Einsatz jeweils einer Kampfmittelart. Protokoll I folgt dem
Prinzip des unnötigen Leides und verbietet den Einsatz von Waffen, die
nicht-entdeckbare Splitter produzieren (z. B. Plastiklandminen). Die bei-
den anderen Protokolle enthalten lediglich Einsatzbeschränkungen, kei-
ne Einsatzverbote: Protokoll II folgt dem Diskriminierungsgebot und
schreibt für den Einsatz von Anti-Personen-Landminen Vorsichtsmaß-
nahmen vor – etwa einen Selbstzerstörungsmechanismus bei fernverleg-
ten Minen und die Pflicht, Minenfelder zu markieren. Protokoll III folgt
ebenfalls dem Diskriminierungsgebot, denn es untersagt den Einsatz von
Brandwaffen gegen militärische Objekte, die sich in der Nähe ziviler Ziele
befinden, und verpflichtet die kriegführenden Parteien zu allen „durch-
führbaren Vorsichtsmaßnahmen“ zum Schutze der Zivilbevölkerung vor
diesen Waffen (ausführlich siehe S. 269). Protokoll IV, angenommen am
12. Oktober 1995, basiert wiederum auf dem Verbot des unnötigen Lei-
des und untersagt deshalb den Einsatz von Laserwaffen, deren Zweck es

33
Engl. Langform „Convention on Prohibitions or Restrictions on the Use of Cer-
tain Conventional Weapons Which May Be Deemed to Be Excessively Injurious
or to Have Indiscriminate Effects”; auf Deutsch auch UN-Waffenübereinkommen.
34
https://treaties.un.org/pages/ViewDetails.aspx?src=TREATY&mtdsg_no=XXVI-
2&chapter=26&lang=en, 1.11.2018.
35
Für Details und Hintergründe zur CCW siehe Sandoz 1981, Levie 1983: 268-272,
Shaw 1983, Levie 1994, Mathews 2001: 99, Parks 2006: 519-524, Carvin 2017.
Untersuchungsfeld 59

ist, eine dauerhafte Erblindung herbeizuführen. Protokoll V, angenom-


men am 28. November 2003, verpflichtet die Staaten, explosive Muniti-
onsrückstände in ehemaligen Kampfgebieten zu kennzeichnen und sich
um ihre Beseitigung zu kümmern.
Das nächste bedeutende Vertragswerk war die Chemiewaffenkonven-
tion, die die UN-Abrüstungskonferenz 1993 annahm. Die Konvention
zielt sowohl auf den Schutz der Kombattanten vor unnötigem Leid als
auch auf den Schutz von Zivilisten vor nicht-diskriminierenden Effekten
ab. Bis zur Annahme des Nuklearwaffenverbotsvertrags im Juli 2017 war
sie lange der einzige Vertrag zu Massenvernichtungswaffen, der nicht nur
den Besitz, die Lagerung, die Produktion und die Weitergabe der jeweiligen
Waffen, sondern auch ihren Einsatz verbot (Seidler-Diekmann 2008: 4).
Im Jahr 1997 wurde mit der Landminenkonvention schließlich zum
ersten Mal eine konventionelle Waffenart absolut verboten. Für das Ver-
bot zentral war das Argument, die Waffen verstießen während der Kon-
flikte wie auch lange nach ihrem Ende gegen das Diskriminierungsgebot,
da sie automatisch durch das Opfer aktiviert würden und nicht zwischen
Kombattantinnen und Zivilistinnen unterscheiden könnten (Price 1998:
628). Dieser Erfolg konnte 2008 mit dem Streubombenübereinkommen
wiederholt werden, dessen Basis ebenfalls das Diskriminierungsgebot
darstellt. Dies ist das bislang letzte humanitärvölkerrechtliche Abkom-
men aus dem Bereich des Haager Rechts, aber weitere Waffen sind auf-
grund ihrer nicht-diskriminierenden oder unnötiges Leid verursachenden
Wirkung bereits in der Diskussion – etwa uranangereicherte Munition
(McDonald 2008) oder tödliche autonome Waffensysteme (Alt-
mann/Sauer 2017, Rosert 2017b, Bode/Huelss 2018).
Abschließend ist noch auf die außergewöhnliche Effektivität einmal
vereinbarter Normen hinzuweisen, wie etwa der quasi vollständige Ver-
zicht auf biologische und chemische Waffen oder Antipersonenminen
zeigt. Die Effektivität resultiert aus drei Quellen: erstens aus dem Stigma,
das den Waffen fortan anhaftet (Tannenwald 1999: 433, Thakur/Maley
1999: 291, Price 2004: 115-118); zweitens aus der Präzision der Normen
(Franck 1988: 713, Abbott et al. 2001: 28-30); und drittens aus der ver-
hältnismäßig einfachen Verifikation (Bring 1987: 284).

60 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Untersuchungsfall: Die lange Nicht-Entstehung der


Streubombennorm
Die Unterzeichnung der Streubombenkonvention im Dezember 2008
schloss den sogenannten Oslo-Prozess ab, der gerade einmal zwei Jahre
zuvor initiiert worden war. Doch dieser scheinbar kurze Prozess hat eine
lange Vorgeschichte – die ersten Proteste gegen den Einsatz von Streu-
munition und Verbotsforderungen hatte es bereits 40 Jahre zuvor wäh-
rend des Vietnamkrieges gegeben. Dennoch ist diese Waffenart seitdem
in über 30 weiteren Konflikten eingesetzt worden36 und hat Zehntausen-
de zivile Opfer gefordert, davon mindestens 3200 in Syrien in den Jahren
2012-2017.37 Der häufig wiederholten Behauptung, insbesondere die
Post-Konflikt-Dimension des Problems sei lange Zeit unerkannt geblieben
und Streubomben seien erst durch den NATO-Einsatz gegen Serbien als
problematische Waffen im öffentlichen Bewusstsein angelangt (Bring
2002: 53, Cave 2006: 57, Petrova 2008: 80), stehen jedoch zahlreiche
Kriegsreportagen, Medienberichte wie auch wissenschaftliche Veröffent-
lichungen entgegen. Immer wieder hatten diese in den letzten Jahrzehn-
ten auf die zivilen Opfer und die humanitären Folgen von Streubomben-
einsätzen hingewiesen und die Unvereinbarkeit dieser Waffen mit dem
humanitären Völkerrecht angemahnt. Warum also ist erst so spät etwas
gegen sie unternommen worden?
Dieser Abschnitt entwickelt dieses Rätsel in mehreren Schritten: Zu-
nächst stelle ich die Funktionsweise, Wirkung und Einsatzgeschichte von
Streubomben, die durch sie verursachte humanitäre Problematik sowie
humanitärvölkerrechtliche Aspekte der Nutzung von Streumunition dar,
um zu zeigen, dass und warum diese Waffen schon lange für Kritik sor-
gen. Im zweiten Schritt betrachte ich die missglückten Normsetzungsver-
suche wie auch den erfolgreichen Oslo-Prozess, und identifiziere in der

36
http://www.stopclustermunitions.org/en-gb/cluster-bombs/use-of-cluster-
bombs/a-timeline-of-cluster-bomb-use.aspx, 1.11.2018.
37
Eigene Berechnung auf Basis des Cluster Munition Monitors der Jahre 2013-2018,
http://www.the-monitor.org/en-gb/our-research/cluster-munition-monitor.
aspx, 1.11.2018.
Untersuchungsfall 61

Entstehungsgeschichte dieser Norm Beobachtungspunkte, die für die


empirische Analyse relevant werden.

Streubomben im Krieg: Technologie, militärischer Zweck und


Einsatzgeschichte
Bei Streumunition38 handelt es sich um Munitionsbehälter, die Submuniti-
onen enthalten, welche nach Abwurf der Behälter freigesetzt werden und
eine möglichst große Fläche abdecken sollen (Borrie 2006: 5, Krepon 1974:
596). Die Anzahl der in einem Container enthaltenen Bomblets kann von
einigen wenigen bis einigen hundert variieren; außerdem gibt es nicht-
steuerbare und steuerbare Bomblets (Maresca 2006: 31). Ferner muss
Streumunition nicht notwendigerweise aus der Luft abgeworfen werden –
auch ein bodengestütztes Abfeuern mit Artillerie ist möglich (Borrie 2006:
5, Docherty 2009: 937). Zwar werden Streubomben gelegentlich in Anti-
Fahrzeug- und Anti-Personen-Typen unterschieden, doch de facto sind sie
Mehrzweckwaffen, die unabhängig von ihrem primären Einsatzzweck im-
mer auch gegen Personen wirken, sofern sich diese im Wirkungsbereich
aufhalten (Hiznay 2006: 16, McGrath 2000b: 19).
Submunition wirkt durch Fragmentierung, indem ihr Mantel durch
inneren Druck zerfällt und weitere kleine Fragmente (z. B. Metallkugeln)
freigibt (Prokosch 1976: 345). Die Fragmentierungstechnologie wurde
mit dem doppelten Ziel (weiter)entwickelt, die Anzahl der Verwundeten
zu erhöhen und die Verwundungsgrade zu verschlimmern (Prokosch
1994: 185, McGrath 2000b: 18). Daneben gibt es auch Submunition, die
mit Brandmitteln gefüllt ist und möglichst viele kleine Feuer entfachen
soll (McDonnell 2002: 43-44, Prokosch 1995: 82).
Für das Militär sind Streubomben aufgrund ihrer Fähigkeit attraktiv,
durch Streuung der Bomblets effizient sehr große Flächen bzw. breite
Ziele (etwa Flugfelder) abzudecken (Hiznay 2006: 16, Docherty 2009:

38
Ich verwende die Bezeichnungen Streubomben und Streumunition synonym. Die
englischen Bezeichnungen „cluster bombs“ und „cluster munitions“ werden von
einigen als irreführend kritisiert, da sie die Wirkungsweise der Waffen verschlei-
ern, basiert diese doch auf Streuung und Fragmentierung und mitnichten auf Zu-
sammenballung (Nixon 2007: 165).

62 Das humanitäre Völkerrecht und die Norm gegen Streumunition

937). Sie sind dadurch mit hoher Sicherheit verletzend bzw. tödlich
(Krepon 1974: 597). Flächenbombardements wurden insbesondere wäh-
rend des Vietnamkrieges wichtig, weil sie die Trefferwahrscheinlichkeit
erhöhten und dadurch kompensierten, dass in diesem Krieg eindeutige
Ziele schwer zu identifizieren waren, die Zielgenauigkeit durch steigende
Fluggeschwindigkeiten abnahm und der Gegner zahlenmäßig überlegen
war (Prokosch 1976: 347; Human Rights Watch 2010: 6). Außerdem die-
nen Flächenbombardements dazu, Panzer- und Infanteriekonzentratio-
nen zu durchbrechen (Borrie 2006: 5, Docherty 2009: 937). Aufgrund
dieser großflächigen Zerstörungskapazität ist Streumunition ausgespro-
chen wirksam und kostensparend: Es werden weniger Abwurfflüge und
Personal benötigt, um große Mengen abzufeuern; zugleich können mit
nur einer Behältermunition zahlreiche Ziele erreicht werden. Zusammen-
gefasst brachten die Waffen also sowohl Effektivitäts- als auch Effizienz-
gewinne (Krepon 1974: 604, Prokosch 1994: 185, Hiznay 2006: 16).
Im Unterschied zu Landminen, mit denen sie gerne verglichen wer-
den, zählen Streubomben aufgrund ihrer komplexen Technologie häufig
als Waffen der industrialisierten Militärmächte (McGrath 2000b: 52).
Zwar handelt es sich bei zwei Dritteln der Staaten, die diese Waffen je-
mals in Konflikten eingesetzt haben, um Entwicklungsländer (ICBL/CMC
2018: 14), doch die Industriestaaten haben ungleich häufiger und un-
gleich mehr Streubomben abgeworfen (Bosold 2008: 03). Auch stellen sie
zwei Drittel der 34 Produzenten (ICBL/CMC 2018: 22-23). Es ist gerecht-
fertigt, mit Blick auf die 38 Staaten und 6 Territorien, die mit Streubom-
ben bombardiert worden sind, von einer Nord-Süd-Asymmetrie zu spre-
chen: mit Ausnahme Israels, der Republiken des ehemaligen Jugoslawi-
ens, sowie Tschetscheniens und der Ukraine sind alle davon Entwick-
lungsländer (ICBL/CMC 2018: 14).
Zum ersten Mal wurde Streumunition im Zweiten Weltkrieg, vermut-
lich 1943, eingesetzt, wobei nicht eindeutig dokumentiert ist, ob zuerst
von der deutschen Luftwaffe gegen Großbritannien oder von der UdSSR
gegen deutsche Truppen (Borrie 2009: 9). Die USA setzten Streumunition
Anfang der 1950er Jahre im Koreakrieg ein, in geringen Mengen, weil die
technologische Entwicklung dieser Waffen erst durch diesen Krieg ange-
regt wurde (Basler 2010: 229, Prokosch 1995: 30-33). Bis zum Vietnam-
Untersuchungsfall 63

krieg wurden die USA allerdings führend in der Streubombentechnologie


(Danaher 1982: 49).
Zwischen 1964 und 1975 kam Streumunition gegen Vietnam, Laos
und Kambodscha in so großem Ausmaß zum Einsatz, dass sie in den Au-
gen mancher Autoren ebenso wie Napalm zum Symbol des Vietnamkrie-
ges wurde (Prokosch 1976: 342). Offiziell galten die Angriffe militäri-
schen Zielen, aber es wurde schnell bekannt, dass die USA vietnamesi-
sche Dörfer bombardierten (Danaher 1982: 50-51, Prokosch 1976: 341).
Ganze Territorien wurden mit Streubomben übersät, um ihre Einnahme
durch den Gegner zu verhindern (Cave et al. 2006: 23, Karnow 1997:
452). Die genauen Opferzahlen sind unbekannt, doch schon 1967 wurde
berichtet, dass die vielen Opfer von Streumunition zu Hass auf die USA
in der vietnamesischen Zivilbevölkerung führten (der Guardian-Reporter
Joergen E. Petersen, zitiert nach Prokosch 1976: 342).
In den Jahren 1978 und 1982 wurde Israel beschuldigt, mit den Waf-
fen zivile Ziele im Libanon, nämlich Dörfer, Wohngebiete, Krankenhäu-
ser und Flüchtlingslager getroffen und über tausend zivile Opfer ver-
schuldet zu haben. Es gab auch eine Menge anderer, wenngleich weniger
beachteter Streubombeneinsätze: Marokko hatte Streumunition im Zeit-
raum zwischen 1975 und 1991 wiederholt gegen die nicht-staatliche
bewaffnete Gruppe Polisario in Westsahara und Mauretanien eingesetzt,
die UdSSR zwischen 1979 und 1989 gegen Afghanistan, Großbritannien
gegen Argentinien im Falkland-Krieg im Jahr 1982, die USA gegen Gre-
nada sowie gegen syrische Einheiten im Libanon im Jahr 1983, der Irak
gegen den Iran im zwischen 1984 und 1988 andauernden Krieg, und
Äthiopien, beliefert von Israel, wiederholt gegen Eritrea (Feickert 2008: 2;
Human Rights Watch 2010: 9).
Die Einsätze der 1990er Jahre überstiegen in ihrer Intensität die bei-
den vorausgegangenen Dekaden (Human Rights Watch 2010: 14). Im
Jahr 1991 bombardierten die USA und ihre Alliierten den Irak mit 61.000
Streubomben, die 20 Millionen Bomblets enthielten – bei diesem zah-
lenmäßig schwersten Einsatz seit dem Vietnamkrieg wurden rund 4000
Zivilisten getötet oder verwundet (Goose 2008: 220, Human Rights
Watch 2010: 12). Zwischen 1994 und 1996 sowie 1999 warf Russland
wiederholt Streubomben auf Tschetschenien ab; daneben gab es auch in

64 Das humanitäre Völkerrecht und die Norm gegen Streumunition

diesem Jahrzehnt eine Reihe weiterer kaum beachteter Einsätze, etwa in


den Konflikten in Angola, Bergkarabach und Tadschikistan (Wiebe 2003:
93-95, ICBL/CMC 2018: 50-51).
Erst der NATO-Krieg gegen Serbien mit hunderten durch Streumuniti-
on getöteten Zivilisten brachte die Waffen ins Bewusstsein der Öffent-
lichkeit, woraufhin sich zumindest die USA entschieden, in diesem Kon-
flikt keine Streubomben mehr einzusetzen (Bring 2002: 53). Wie jedoch
die Kriege in Afghanistan und Irak zeigten, handelte es sich dabei nur um
eine vorübergehende Entscheidung, und nicht etwa um eine grundsätzli-
che Abkehr von Streubomben, denn in beiden Konflikten wurden von
den USA und Großbritannien erneut Millionen Submunitionen abgewor-
fen (Docherty 2002: 21, Rappert 2006: 154, Goose 2008: 221). Im August
2006 griff Israel erneut den Libanon an. Aber auch die Hisbollah ver-
schoss mit Streumunition geladene Raketen gegen Israel – dadurch wurde
offenkundig, dass diese Waffen auch nicht-staatlichen bewaffneten Akt-
euren zur Verfügung stehen (Human Rights Watch 2010: 19).
Auch nachdem im Mai 2008 die Streubombenkonvention verabschie-
det worden war, sind die Waffen vereinzelt eingesetzt worden: im August
2008 von russischen und georgischen Truppen im Konflikt um die Re-
publiken Südossetien und Abchasien; 2009 von den USA gegen ein Trai-
ningscamp für Terroristen in Jemen; 2011 von thailändischen Truppen
bei Grenzstreitigkeiten gegen Kambodscha und von lybischen Regie-
rungstruppen gegen Wohngebiete in Misrata; 2012 von sudanesischen
Regierungstruppen gegen Südsudan; seit 2012 von der syrischen Regie-
rung; 2013 von Regierungstruppen in Myanmar gegen die Unabhängige
Armee Kachin; sowie seit 2014 von ukrainischen Streitkräften. In den
Jahren 2015 bis 2017 wurden Einsätze von Streumunition aus Jemen
(durch Saudi-Arabien), dem Sudan (durch Regierungstruppen), aus Liby-
en (mutmaßlich durch Regierungstruppen) und aus Syrien (ebenfalls
durch Regierungstruppen) gemeldet.39

39
http://www.stopclustermunitions.org/en-gb/cluster-bombs/use-of-cluster-
bombs/a-timeline-of-cluster-bomb-use.aspx, 1.11.2018.
Untersuchungsfall 65

Humanitäre Probleme: Problemausmaß, Opferzahlen und


Langzeitfolgen
Der Flächeneffekt ist der erste der beiden Gründe, aus denen Streubom-
benangriffe als besonders bedrohlich für Zivilistinnen gelten (Goose
2008: 219). Besonders bei Bombardements aus der Luft sind Zivilisten
ohnehin in Gefahr, irrtümlich angegriffen zu werden. Bei Flächeneinsät-
zen steigt diese Gefahr aufgrund der Größe der angegriffenen Territorien,
erst recht, wenn sich die Ziele in der Nähe bevölkerter Gebiete befinden
(Maresca 2006: 28). Auch die beschränkten Zielfähigkeiten der Waffen
verschärfen das Problem, schließlich können sie nicht gegen Zielpunkte
gerichtet werden, sondern zielen lediglich sehr breit in eine bestimmte
Richtung (Bryant 2006: 48). Aufgrund ihrer Streu- und Fragmentierungs-
wirkung können die Waffen mit Schrapnellsplittern Zivilisten treffen, die
sich in weiter Distanz von den tatsächlichen Zielen befinden (McDonnell
2002: 42). Außerdem können Submunitionen – etwa durch Wind oder
Fehlfunktionen – vom beabsichtigten Weg abkommen und an Orten
landen, für die sie nicht bestimmt waren (Maresca 2006: 28).
Weltweit wurden gut 21.000 Streubombenopfer (d. h. militärischer
und ziviler) registriert; Schätzungen der tatsächlichen Opfer reichen von
56.000 bis 100.000, wobei sowohl Opfer direkter Angriffe als auch Opfer
von Blindgängern eingeschlossen sind (ICBL/CMC 2018: 90-91). Weil
davon auszugehen ist, dass die erfassten Opferzahlen weit unter den tat-
sächlichen liegen (besonders aufgrund solcher massiver Einsätze wie
während des Vietnamkrieges), sind auch Angaben zu zivilen Opfern
schwierig. Sicher ist jedoch, dass Streumunition besonders tödlich ist –
nicht nur können während der Angriffe besonders viele Personen getrof-
fen werden, auch sind die durch Streubomben verursachten Verletzun-
gen besonders häufig – in etwa 50 % der Fälle – tödlich (Borrie/Cave
2006: 7, Handicap International 2006: 44; McDonnell 2002: 56). Die
weitaus meisten Streubombenopfer sind Zivilisten – Schätzungen zufolge
bis zu 98 % (Handicap International 2006: 48). Im Kosovo etwa kamen
überproportional viele Zivilisten durch Streubomben um (18-30 %), ob-
wohl der Anteil von Streubomben an allen eingesetzten Waffen deutlich
geringer war (Human Rights Watch 2010: 8; Mcdonnell 2002: 103); im

66 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Irak-Krieg im Jahr 2003 wurden die meisten zivilen Opfer durch Streu-
bomben verursacht (Goose 2008: 220).
Den weitaus größeren Anteil der registrierten Opfer (17.387 von
21.614, 80,4 %, ICBL/CMC 2018: 92) fordern die Waffen erst nach Been-
digung der Angriffe und der Konflikte, und zwar durch Blindgänger
(duds), also solche Submunitionen, die beim Abwurf nicht explodiert
sind. Sie bleiben auf dem Boden liegen und können – auch noch Jahr-
zehnte danach – zu einem beliebigen Zeitpunkt explodieren, meistens
ausgelöst durch Personenkontakt. Humanitäre Organisationen heben die
hohen Anteile von Kindern hervor,40 die beim Spielen oder Arbeiten (et-
wa beim Holz- und Metallsammeln oder auf den Feldern) auf Streubom-
ben treten oder diese aufheben, weil sie sie nicht als Waffen erkennen
(McDonnell 2002: 42; Handicap International 2007).
Obwohl die Hersteller lange Zeit darauf pochten, die Waffen seien
„zuverlässig“, gibt es viele Ursachen für die Fehlfunktionen. Da Submuni-
tionen bei Bodenkontakt explodieren sollen, können eine zu niedrige
Abwurfhöhe, ein zu weicher Boden oder schlicht ein ungünstiger Ein-
schlagswinkel Gründe dafür sein, dass der Zündmechanismus nicht aus-
gelöst wird; außerdem können Lagerungs- und Produktionsfehler zur
Beschädigung der Bomblets führen (Borrie/Cave 2006: 7, Cave et al.
2006: 25). Wie hoch die Blindgängerquoten tatsächlich liegen, ist unklar,
auch weil keine disaggregierten Daten zu von verschiedenen Waffen
stammenden explosiven Kampfmittelrückständen verfügbar sind (UN-
IDIR 2008: 10). Je nach Streubombentyp reichen die Schätzungen von 5
bis 40 Prozent (Handicap International 2006: 35). Doch wie Rae McGrath
von Handicap International richtig anmahnte, bedeuten angesichts der
schieren Menge der abgeworfenen Submunitionen selbst die konserva-
tivsten Schätzungen, dass sich die absoluten Blindgängerzahlen in Milli-
onenhöhe bewegen (McGrath 2000a: 28); Human Rights Watch sprach
im Jahr 2010 von 19 Millionen Blindgängern, die allein nach dem Viet-
namkrieg zurückgeblieben sind (Human Rights Watch 2010:8). Von den

40
Je nach Konflikt liegen die Anteile zwischen 30 % (Laos), 60 % (Irak) und 68 %
(Afghanistan) (Handicap International 2007, Human Rights Watch 2010: 8, 13,
25).
Untersuchungsfall 67

über 30 kontaminierten Staaten und Territorien sind 26 weiterhin betrof-


fen, davon Laos und Vietnam am stärksten, aber auch Libanon, der Irak
und Kambodscha sowie die Staaten des ehemaligen Jugoslawiens
(ICBL/CMC 2018: 60, 69).
Neben den unmittelbaren Gefahren für Leib und Leben haben Kon-
taminierungen ganzer Gebiete auch gravierende sozioökonomische Fol-
gen. Sie gefährden die Mobilität der Bevölkerung (etwa Zugang zu Schu-
len), erschweren deren Versorgung und bremsen die wirtschaftliche Erho-
lung in Nachkriegsgebieten, indem sie die Wasser- und Brennholzbe-
schaffung sowie Subsistenz- bzw. Landwirtschaft behindern, weil sie die
Bevölkerung vor die Wahl stellen, ihre Felder aufzugeben oder Tod und
Verstümmelung zu riskieren (Borrie/Cave 2006: 7, Nixon 2007: 167,
Docherty 2009: 938). Überlebende von Streumunitionsunfällen sind in
der Regel nicht nur selbst arbeitsunfähig (und daher nicht in der Lage,
zum Unterhalt ihrer Familien beizutragen), sondern auch pflegebedürftig,
was weitere familiäre Arbeitsressourcen bindet und besonders in Ländern
mit einer schwachen Gesundheitsversorgung ein großes Problem ist
(Cave et al. 2006: 33, UNIDIR 2008: 11). Nicht zu vergessen sind auch
soziale und psychische Schäden, die Überlebende erleiden: Angstzustän-
de, Konzentrationsprobleme und Depressionen sowie gesellschaftlicher
Ausschluss wegen der Entstellungen (Cave et al. 2006: 34, UNIDIR 2008: 13).
Auch die kostspielige Räumung zieht woanders dringend benötigte
Ressourcen ab (Human Rights Watch 2010: 13). Sie ist zudem schwieriger
als die Räumung von Landminen: Während Minenfelder vergleichsweise
leicht identifiziert werden können, sind durch Streumunition kontami-
nierte Gebiete nicht nur sehr groß, sondern es ist auch unmöglich, sie
wegen möglichen Abdriftens von Submunitionen vollständig einzugren-
zen (Bryant 2006: 47). Die Entschärfung selbst ist ein weiteres Problem –
Landminen sind in der Regel intakt und die Minenräumer wissen, wie sie
damit umzugehen haben, doch nicht-explodierte Submunitionen sind
fehlerhaft und können bei Entschärfungsversuchen unerwartet explodie-
ren, was sie für Minenräumer besonders gefährlich macht (Wisotzki
2002: 6, Bryant 2006: 49).

68 Das humanitäre Völkerrecht und die Norm gegen Streumunition

Streubomben aus humanitärvölkerrechtlicher Perspektive


Bevor die Streubombenkonvention verabschiedet wurde, galten Streu-
bomben unter einigen Experten nicht als Waffen, deren Einsatz grund-
sätzlich gegen Art. 51 des ersten Zusatzprotokolls verstoßen würde; viel-
mehr könne man nur nach Einzelfallprüfungen feststellen, ob jeder ein-
zelne Einsatz von Streubomben im Einklang mit den völkerrechtlichen
Vorschriften ausgeführt worden sei (Justen 2008: 11, Hertwig 2007: 221).
Vier Argumente widersprechen dieser Einschätzung: Erstens ist es auf-
grund der nicht-steuerbaren Submunitionen der Waffen höchst zweifel-
haft, ob Streubomben überhaupt ausschließlich gegen militärische Ziele
gerichtet werden können, wie es Art. 51 (4b) des Zusatzprotokolls I als
Kriterium für diskriminierende Waffen verlangt (McDonnell 2002: 80-
81). Zweitens widerspricht die Flächenwirkung von Streubomben Art. 51
(5a), der Angriffe mit Mitteln, welche nicht gegen distinkte militärische
Objekte gerichtet werden, als nicht-diskriminierend verbietet (McDonnell
2002: 98, Maresca 2006: 29, Breitegger 2012: 42). Selbst wenn man die
Möglichkeit diskriminierender Einsätze zugesteht, widerspricht ihr drit-
tens die Einsatzrealität und Einsatzgeschichte dieser Waffen (Goose 2008:
219). Viertens ist die längerfristige nicht-diskriminierende Wirkung von
Streumunition zu bedenken: Dadurch, dass Blindgänger nach den Angrif-
fen und sogar nach Ende der Konflikte durch Kontakt mit ihren Opfern
ausgelöst werden, treffen sie notwendigerweise ausschließlich Zivilisten
(Prokosch 1976: 343-344, Prokosch 1995: 89, Docherty 2002: 16).
Auch wenn die Konvention auf das Verbot unnötigen Leides, welches
Soldaten vor grausamen Verwundungen schützen soll, keinen Bezug
nimmt, spricht einiges dafür, dass Streubomben auch dagegen verstoßen.
Verwiesen wird dabei auf die besondere Schwere der durch diese Waffen
zugefügten Wunden (McDonnell 2002: 69, Prokosch 1976: 343-344).
Auch dringt das Schrapnell in großen Mengen und zugleich in derart
kleinen Stücken in den Körper ein, dass diese Splitter schwer zu lokalisie-
ren und zu entfernen sind, insbesondere unter Kampfbedingungen (Pro-
kosch 1995: 89, McDonnell 2002: 70). Überlebende von Streubombenan-
griffen wie auch von Blindgängerunfällen sind häufig entstellt oder ver-
lieren Gliedmaßen (McDonnell 2002: 70). Damit erfüllen Streubomben
drei der vier vom ICRC im SIrUS Project definierten Kriterien besonders
Untersuchungsfall 69

grausamer Waffen (siehe S. 47): Sie verursachen dauerhafte Verstümme-


lungen, haben eine höhere Mortalitätsrate als die vorgegebenen 25 %
und die Verwundungen sind besonders schwer (McDonnell 2002: 74).
Ob in die Beurteilung der Verhältnismäßigkeit Langzeitfolgen einzu-
beziehen sind, war strittig. Renommierte Völkerrechtler wie Christopher
Greenwood, im Jahr 2002 Mitglied der CCW-Gruppe von Regierungsex-
perten und seit 2009 Richter am internationalen Gerichtshof, sprachen
sich dagegen aus – Langzeitfolgen seien zwar möglich, aber unsicher und
schwer einzuschätzen (zitiert in Wiebe 2007: 42-46). Dem wird entge-
gengesetzt, dass man auf Basis von Erfahrungen mit vorherigen Konflik-
ten mit ziemlicher Sicherheit von zivilen Opfern durch Blindgänger aus-
gehen könne. Diese Schätzungen müssten daher in die Überlegung ein-
fließen und schließlich dazu führen, Streubomben als unverhältnismäßi-
ge Waffen zu charakterisieren.41

Völkerrechtliche Prinzipien Während des Angriffs Nach dem Angriff

Diskriminierung Fehlende Zielgenauigkeit Opfer von Blindgängern


Fehlgeleitete Submunitionen

Unnötiges Leid Schwere der Verwundungen Schwere der Verwundungen


Bleibende Schäden Bleibende Schäden

Verhältnismäßigkeit Kollateralschäden Opfer von Blindgängern


Räumungskosten

Tabelle 2: Streubomben und die Prinzipien des HuV

Streubomben verstoßen also in mehrfacher Weise gegen Prinzipien des


HuV. Sie verletzten das Diskriminierungsgebot während der Angriffe
durch fehlende Zielgenauigkeit wie auch durch fehlgeleitete Submuniti-
onen und nach den Angriffen durch die Blindgänger. Sie verletzen das
Verbot unnötigen Leides durch die Art der von ihnen zugefügten Wun-

41
Docherty 2002: 15, Maresca 2006: 29, Van Woudenberg 2008: 464, Breitegger
2012: 49.

70 Das humanitäre Völkerrecht und die Norm gegen Streumunition

den und bleibende Schäden wie Amputationen und Verstümmelungen.


Schließlich sind sie als unverhältnismäßig einzustufen, weil die Kollate-
ralschäden während der Angriffe höher sind als bei anderen Waffen und
auch danach weitere zivile Opfer hinzukommen.

Verbotsbestrebungen: Scheitern, Stille und Erfolg


Den ungeradlinigen Weg zum Verbot von Streumunition zeichne ich in
diesem Abschnitt nach. Ich beginne mit den frühen Verbots- und Stig-
matisierungsversuchen in den 1960ern und 1970ern, fahre mit dem Ver-
schwinden der Waffen aus der Diskussion in den 1980ern und 1990ern
fort und ende mit der Rückkehr von Streumunition auf die Agenda in
den 2000er Jahren und dem Oslo-Prozess.

1960er und 1970er: Stigmatisierungsversuche in Anti-Kriegsprotesten und


die Institutionalisierung der Problematik der inhumanen Waffen
Im Jahr 1965 gestanden die USA ihre Beteiligung am Krieg in Vietnam ein
und sorgten damit weltweit für massive Anti-Kriegsproteste. Diese richte-
ten sich nicht nur dagegen, dass dieser Krieg geführt wurde, sondern auch
dagegen, wie dies geschah. Der Einsatz von Brandwaffen, Tränengas und
anderen chemischen Agenzien, wie dem Herbizid Agent Orange, machte
inhumane – weil besonders grausame oder unterschiedslose Waffen – zum
Gegenstand der öffentlichen Diskussion (Mathews 2001: 992). Streubom-
ben wird zwar ein „mobilisierender Effekt“ für diese Proteste zugeschrieben
(Human Rights Watch 2010: 8), aber es waren Napalmbomben, die recht
schnell zum Symbol der Grausamkeit des Vietnamkrieges avancierten. Für
Streumunition hatte dies eine zweifache Wirkung: Aufgrund der Erfahrung
mit öffentlichen Anti-Napalm Protesten versuchte das US-Militär bei der
Einführung von Streubomben ins Kriegsarsenal jegliche Publicity zu ver-
meiden (Krepon 1974: 600, Prokosch 1995: 99-100). Außerdem wollte man
einer Stigmatisierung dieser Waffen zuvorkommen, indem für sie ein
Image als konventionelle Standardwaffen, die US-Soldaten schützten, auf-
gebaut wurde (Krepon 1974: 600).
Untersuchungsfall 71

Doch dies gelang nur bedingt. Zwar beschränkte sich die Berichter-
stattung der wichtigsten US-Medien patriotisch auf nüchterne Daten
(angeflogene Ziele, die verwendete Ausrüstung, getötete Feinde und Ver-
luste in eigenen Reihen) und tat jegliche Kritik an der US-Kriegsführung
als kommunistische Propaganda ab (Prokosch 1995: 90-98). Doch schon
bald berichteten Zeitungen über hochexplosive Anti-Personen-Waffen;
Journalisten und andere Friedensbewegte, die nach Vietnam gereist wa-
ren, lieferten Augenzeugenberichte über Streubombeneinsätze gegen
vietnamesische Dörfer und die zahlreichen zivilen Opfer (Prokosch 1995:
83-87). Im Zuge der Proteste gegen den Vietnamkrieg veröffentlichten die
in Vietnam tätigen US-Hilfsorganisationen der Quäker-Gemeinschaft
mehrere Berichte über die Folgen von Streubombeneinsätzen auf die
vietnamesische und laotische Bevölkerung und wiesen auf die zahlrei-
chen Opfer von Blindgängern hin (Shoemaker 1994: 1-4, Wiebe 2003:
95). In Stockholm tagte 1967 das auf Initiative des britischen Philoso-
phen Bertrand Russell einberufene „International War Crimes Tribunal“,
das – ohne rechtliche Konsequenzen, aber öffentlichkeitswirksam – das
Vorgehen der USA in Vietnam als Kriegsverbrechen skandalisierte und
Streubombenopfer aussagen ließ (Prokosch 1995: 93). In den USA (und in
anderen Ländern, etwa Dänemark, Frankreich und Großbritannien) wurde
der Hauptentwickler und -produzent von Streubomben, der Technologie-
konzern Honeywell Inc., mehrfach zur Zielscheibe von Demonstrationen
und Boykottaufrufen (Prokosch 1976: 342, Prokosch 1995: 136-144).
Parallel liefen institutionelle Prozesse an, in denen Streumunition mit
der allgemeinen Problematik inhumaner konventioneller Waffen ver-
knüpft, und damit auch in die vom ICRC vorangetriebenen Prozesse zu
deren Verregelung eingebettet war (Borrie 2009: 7). Das ICRC nahm
Streumunition allerdings später wahr als andere Waffen: So erklärte es in
den Draft Rules von 1956 und im Memorandum von 196742 zwar Mas-
senvernichtungswaffen und Brandwaffen zu verbotenen Waffen, nicht
aber Streumunition. Möglicherweise war Streumunition unter die eben-
falls benannten „Bomben mit verzögerter Wirkung“ gefasst, aber die feh-

42
Ausgabe für die Internationale Konferenz des Roten Kreuzes in Istanbul 1969
(ICRC 1969: Anhang XV, S. 58).

72 Das humanitäre Völkerrecht und die Norm gegen Streumunition

lende namentliche Erwähnung und die Tatsache, dass verzögerte Wir-


kung häufiger chemischen und biologischen Waffen attestiert wird und
bei Streumunition nicht beabsichtigt ist, spricht dagegen. Erst 1969 lenk-
te das ICRC den Fokus explizit auf Fragmentierungswaffen, was die da-
mals gängige Bezeichnung für Streumunition war,43 als es um Experten-
meinungen dazu und zu einer Reihe anderer Waffen bat. Doch im Ab-
schlussbericht dieser Expertenkonferenz kamen Fragmentierungswaffen
nicht vor (Kalshoven 1975: 79). In den Vorlagen für die folgenden Exper-
tentreffen wies sie das ICRC jedoch erneut als potentiell problematisch
aus (Kalshoven 1975: 79, Sandoz 1981: 5). Die Regierungsexperten folg-
ten dann dieser Auffassung, sodass Streumunition zu den Waffen zählte,
die im Rahmen der CDDH verregelt werden sollten (Kalshoven 1975: 80,
Mathews 2001: 993).
In der ersten Sitzung des Ad-hoc-Komitees im September/Oktober
1974 im schweizerischen Luzern setzte sich eine von Schweden ange-
führte Arbeitsgruppe, der außerdem Ägypten, Mexiko, Norwegen, Sudan,
die Schweiz und Jugoslawien angehörten, noch für eine Reihe von Waf-
fenverboten, darunter auch Streumunition, ein. Der Vorschlag stieß je-
doch auf Widerstand der Vertreter beider Blöcke (Kalshoven 1975: 97-99,
Würkner-Theis 1990: 17, Mathews 2001: 995). Die Kontroverse konnte
nicht gelöst werden, war jedoch, überraschenderweise, auf der zweiten
Konferenz im Januar/Februar 1976 in Lugano nicht mehr so zentral, weil
die Arbeitsgruppe rund um Schweden ihren Vorschlag fallen ließ, sodass
kleinkalibrige Waffen, Flechetten und eben auch Streubomben von der
Tagesordnung verschwanden (Prokosch 1995: 155). Stattdessen kon-
zentrierte man sich auf potentiell konsensfähige Restriktionen: Für Waf-
fen, die nicht-entdeckbare Splitter produzieren, Brandwaffen und Land-
minen schienen zwar keine Verbote, zumindest aber Einsatzbeschrän-

43
Streng genommen handelt es sich bei Fragmentierungswaffen und Streubomben
nicht unbedingt um die gleiche Waffenkategorie, denn Fragmentierungswaffen
ist ein Oberbegriff für solche Waffen, deren Material beim Einsatz in mehrere
Fragmente zerfällt – Streubomben sind also in der Regel auch Fragmentierungs-
waffen; nicht alle Fragmentierungswaffen sind allerdings Streubomben. Da der
Begriff „Fragmentierungswaffen“ jedoch lange und insbesondere in im Folgenden
geschilderten Prozessen als Synonym für Streubomben stand (und man die Be-
zeichnung auch heute noch findet), verwende ich ihn hier.
Untersuchungsfall 73

kungen möglich (Borrie 2009: 14). Auf der Konferenz über besondere
konventionelle Waffen standen Streumunition und weitere im ICRC-
Prozess marginalisierte Waffen wie Aerosolbomben, Flechetten und
kleinkalibrige Waffen allerdings wieder auf der Agenda.44 Dennoch wurde
keine davon, auch nicht Streumunition, in die Konvention aufgenom-
men – vielmehr spiegelten deren drei Protokolle die Tendenzen der Rot-
Kreuz-Verhandlungen wider.
Obwohl Streubomben, gemeinsam mit Napalm, diejenigen Waffen
waren, welche die humanitärvölkerrechtliche Diskussion über besonders
grausame Waffen Anfang der 1970er Jahre in Gang gebracht hatten,
scheiterte die Normentstehung also an diesem Punkt. Auch die CCW
selbst galt aufgrund ihrer Beschränkung auf nur wenige Waffen, die zu-
dem nur schwach reguliert wurden, sowie aufgrund fehlender Monito-
ring- und Compliance-Mechanismen von Beginn an als schwaches, zahn-
loses Instrument (Mathews 2001: 998). Dennoch führten die Defizite des
Übereinkommens nicht etwa dazu, in den 1980er Jahren den Diskurs
über inhumane Waffen weiter anzufachen, sondern die CCW wirkte im
Gegenteil als Sedativum, welches die Thematik insgesamt und damit
auch die Normsetzungsbemühungen für Streumunition einfror (Borrie
2009: 16, Mathews 2001: 996-997).

1980er und 1990er: Schweigen über Streubomben


Die diskursdämpfende Wirkung der CCW war so nachhaltig, dass es we-
der der massive Gebrauch von Streubomben in Afghanistan durch die
UdSSR in den Achtzigern, noch deren millionenfacher Einsatz gegen den
Irak im Zweiten Golfkrieg vermochten, diese Waffen erneut zum Gegen-
stand internationaler Verhandlungen zu machen. Zwar formierte sich
Anfang der 1990er Jahre eine humanitäre Koalition – doch als Internatio-
nal Campaign to Ban Landmines (ICBL) wirkte sie ausschließlich auf ein
Verbot von Anti-Personen-Landminen hin. Obwohl bei der Gründung
einige Aktivisten forderten, Streubomben ebenfalls in die Kampagne ein-

44
Bericht der Vorbereitungskonferenz, A/CONF.95/3, 25. Mai 1979, S. 2-3.

74 Das humanitäre Völkerrecht und die Norm gegen Streumunition

zuschließen, entscheid sich die Führung der ICBL für eine „one-issue-
advocacy“, um die Chancen für das Landminenverbot nicht durch als
weniger aussichtsreich eingeschätzte Verhandlungspunkte zu schmälern
(Wiebe 2003: 97, Goose 2008: 221, Coleman 2013: 175).
Durch die Landminenkampagne gewann jedoch die Problematik in-
humaner Waffen insgesamt erneut an Prominenz. Dabei setzte das Inter-
nationale Rote Kreuz vor allem drei wichtige Impulse: Erstens wurde auf
einem vom ICRC organisierten Expertentreffen 1994 die Post-Conflict-
Dimension von Streubomben und explosiven Munitionsrückständen
hervorgehoben (Cave 2006: 57); zweitens wurde in einigen ICRC-
Publikationen die Notwendigkeit, Streubomben zu regulieren, angespro-
chen (ICRC 1994: 156); und drittens kritisierte das ICRC in einem für die
CCW-Überprüfungskonferenz vorbereiteten Report offen den bisherigen
Fokus auf Einsatzrestriktionen statt Einsatzverbote als unzureichend und
betonte, dass nur Einsatzverbote das Potential zum wirksamen Schutz der
Zivilbevölkerung vor grausamen Waffen böten (ICRC 1994: 130). Auf der
CCW-Überprüfungskonferenz jedoch standen weder Streubomben auf
der Tagesordnung noch konnte ein Landminenverbot erreicht werden.
Erst der dadurch motivierte Ottawa-Prozess führte zur Verabschiedung
der Landminenkonvention am 18. September 1997. Eine Norm gegen
Streubomben blieb erneut aus.

Späte 1990er und 2000er Jahre: Kosovo, explosive Munitionsrückstände und


schwaches Ergebnis in der CCW
Ende der neunziger Jahre bot der ohnehin kontroverse Krieg der NATO
gegen Serbien ein Gelegenheitsfenster, um die Streubombenproblematik
(zurück) ins öffentliche Bewusstsein zu bringen: Beim Angriff auf die
serbische Stadt Niš am 7. Mai 1999 töteten Streubomben 15 Zivilisten
und verletzten 30 (Petrova 2008: 80, Goose 2008: 221). Die öffentliche
Aufregung ebbte verhältnismäßig schnell ab, doch das Internationale
Rote Kreuz und einige NGOs nahmen sich des Problems an und began-
nen, auf eine internationale Regulierung von Streubomben hinzuarbeiten
(McClelland 2005: 761, Goose 2008: 221). Es folgten Berichte des ICRC
(2000) und des Mennonite Central Committee (Peachey/Wiebe 2000), die
Untersuchungsfall 75

die humanitären Probleme von Streumunition aufzeigten und zum Han-


deln aufriefen. Ein Dutzend weiterer NGOs unterstützten den Aufruf
(Wiebe 2003: 93-95). Allerdings gingen nicht alle Aktivisten mit ihren
Forderungen gleich weit: Die Mennoniten forderten ein Verbot, das Rote
Kreuz und Human Rights Watch (HRW) hingegen plädierten für ein Ein-
satzmoratorium und Einsatzbeschränkungen, die denen des Brandwaf-
fenprotokolls ähnelten – der Einsatz von Streubomben in bewohnten
Gebieten sollte dauerhaft untersagt werden (ICRC 2000: 37, Human
Rights Watch 1999, Borrie 2009: 227).
Als sich auf dem Vorbereitungstreffen zur zweiten Überprüfungskon-
ferenz der CCW im Jahr 2001 die geringe Bereitschaft der Staaten ab-
zeichnete, über Streumunition zu verhandeln, entschied das ICRC, die
Forderung nach einem Moratorium fallenzulassen. Das Streubomben-
problem sollte nicht einzeln, sondern eingebettet in die Problematik
explosiver Kampfmittelrückstände („explosive remnants of war“, ERW
oder „unexploded ordnance“, UXO) angegangen werden (Van Wouden-
berg 2008: 466, Goose 2008: 221). Deren internationale Verregelung in
Form eines fünften CCW-Protokolls hatte die Organisation zu diesem
Zeitpunkt bereits angestoßen (Van Woudenberg 2008: 466).
Doch der Versuch, Streumunition an ERW anzudocken, misslang: Die
CCW-Diskussion über explosive Munitionsrückstände im Jahr 2001 kon-
zentrierte sich reaktiv auf die Räumung von ERW und nicht präventiv
auf den Einsatz der Munitionen, die zu ERW wurden (Boothby 2005: 13,
Adachi 2017). Streubomben wurden nicht einmal namentlich erwähnt
(Bolton/Nash 2010: 176). Die UNCCW setzte allerdings eine Experten-
gruppe (Group of Governmental Experts, GGE) ein, die den Auftrag er-
hielt, im Jahr 2002 das ERW-Problem auch unter der Frage zu untersu-
chen, welche Munitionen zu ERW werden (Maresca 2002). Wenngleich
im Mandat der GGE keine konkreten Waffenarten benannt wurden, so
blieb Streumunition dadurch, wie von humanitären Organisationen er-
hofft, weiterhin auf der internationalen Tagesordnung (McClelland 2005:
763, Goose 2008: 223).
Nach der Vertragsstaatenkonferenz im Dezember 2002 begannen die
Verhandlungen eines Protokolls. Zugleich gaben weitere Streubomben-
einsätze gegen Afghanistan im Jahr 2002 und gegen den Irak im Jahr

76 Das humanitäre Völkerrecht und die Norm gegen Streumunition

2003 Anlass für weitere Berichte von NGOs und Think Tanks (Her-
by/Nuiten 2001, Docherty 2002, Wisotzki 2002). Auf den GGE-Treffen
sprachen sich erste Regierungsexperten für ein Protokoll aus, das Submu-
nitionen explizit zum Gegenstand hätte (Goose 2008: 223, Human Rights
Watch 2010: 105). Da es dagegen Widerstand gab, wurden lediglich
technische Lösungsmöglichkeiten sowie eine Überprüfung, ob die Best-
immungen des humanitären Völkerrechts für das Problem der Submuni-
tionen ausreichend sind, als Diskussionspunkte festgehalten (Goose
2008: 223-224).
Um auf der bevorstehenden CCW-Vertragsstaatenkonferenz den
Handlungsdruck zu erhöhen, wurde am 13. November 2003 nach Vor-
bild der ICBL die Cluster Munitions Coalition (CMC) als Dachverband en-
gagierter humanitärer Organisationen gegründet (Goose 2008: 222, Hu-
man Rights Watch 2010: 177). Zwei Wochen später, am 28. November
2003, nahmen die Staaten das von der Expertengruppe erarbeitete Proto-
koll V an (McClelland 2005: 760). Das ERW-Problem war damit mitnich-
ten zufriedenstellend gelöst: Kritisiert wurde die Nicht-Anwendung des
Verursacherprinzips, da die Räumungsverpflichtung den betroffenen Staa-
ten auferlegt wurde; die Beschränkung des Geltungsbereichs auf zukünf-
tige Konflikte und die fehlende präventive Komponente, die beispielswei-
se Einsatzrestriktionen bestimmter Waffenarten hätte bedeuten müssen.45
Auch stand für humanitäre Organisationen weiterhin fest, dass sich die
von Streubomben verursachten humanitären Probleme nicht auf die
Post-Einsatz-Phase beschränkten, sondern die Waffen auch während der
Einsätze selbst eine Gefahr für das Leben von Zivilisten darstellten.
Die CMC setzte sich daher eine spezifische Verregelung von Streu-
bomben auf der dritten Überprüfungskonferenz der CCW im Jahr 2006
zum Ziel (Nash 2006: 36, Goose 2008: 223, Human Rights Watch 2010:
112). Die Diskussionen zur Umsetzung des Protokolls V in der UNCCW
deuteten allerdings an, dass eine Regelung im CCW-Rahmen ausgespro-
chen schwierig werden würde: Zwar gab es inzwischen Staaten, die offen
anerkannten, dass „unpräzise und unzuverlässige Submunitionen inak-

45
Bolton/Nash 2010: 177, Borrie/Cave 2006: 9, Hertwig 2007: 222, Boothby 2005:
18, Van Woudenberg 2008: 471.
Untersuchungsfall 77

zeptabel waren“ (Goose 2008: 224, Übersetzung ELR), doch Länder wie
Polen und Russland bestritten die hohen Blindgängerraten von Streu-
bomben und warfen den Verbotsbefürwortern vor, die Angelegenheit zu
instrumentalisieren. Andere große Nutzer und Produzenten von Streu-
bomben erwähnten die Waffen in ihren Stellungnahmen gar nicht (Hu-
man Rights Watch 2010: 109-110). Die NGO-Gemeinschaft war sich au-
ßerdem weiterhin uneinig, ob Einsatzbeschränkungen, partielle Verbote
bestimmter Streumunitionstypen oder ein Totalverbot angestrebt werden
sollten (Cave 2006: 66, Nash 2006: 37).
Im Vorfeld der Überprüfungskonferenz wurde der Druck weiter er-
höht. Es entstand eine Koalition aus gleichgesinnten Staaten und NGOs,
die auf eine Einigung in der UNCCW hoffte, im Falle eines Scheiterns
jedoch auch einen externen Verregelungsprozess in Betracht zog (Nash
2006: 39, Goose 2008: 223-225). Nationale Maßnahmen setzten klare
Zeichen: Das belgische Parlament verabschiedete in Reaktion auf eine
Kampagne von Handicap International im Februar 2006 ein umfassendes
Verbot, das sich auf den Einsatz, die Produktion, den Verkauf, den Besitz
und die Lagerung erstreckte (Nash 2006: 40); Norwegen folgte mit einem
Moratorium im Juni 2006. Der israelische Einsatz von Streubomben im
Libanon im August 2006 löste eine Welle öffentlicher Empörung aus
(Docherty 2009: 939). Diese brachte zum Ausdruck, dass sich Streubom-
ben bereits im Stigmatisierungsprozess befanden und erzeug-
te Verhandlungsdruck.
Doch das Momentum reichte nicht aus: Das Abschlussdokument sah
lediglich eine Expertengruppe mit dem schwachen Auftrag vor, einen
Vorschlag zu erarbeiten, wie man die durch Streumunition verursachte
humanitäre Problematik angehen könnte (Van Woudenberg 2008: 475-
476, Borrie 2008). In einer zusätzlichen Erklärung unterstützten 25 Staa-
ten daher ein Verhandlungsmandat, welches auf ein Einsatzverbot von
Streumunition in der Nähe bevölkerter Gebiete sowie auf ein Verbot be-
sonders gefährlicher Streumunition zielen würde (Human Rights Watch
2010: 112-113). Dieses Verhandlungsmandat, soviel war klar, musste
außerhalb der CCW umgesetzt werden: Am letzten Konferenztag lud der
damalige Außenminister Jonas Gahr Støre alle interessierten Parteien ein,
im Februar 2007 in Oslo die Verhandlungen aufzunehmen.

78 Das humanitäre Völkerrecht und die Norm gegen Streumunition

2007-2008: Endlich erfolgreich: der Oslo-Prozess


Zu der Führungsgruppe dieses sogenannten Oslo-Prozesses gehörten au-
ßer Norwegen auch die Mittelmächte Irland, Mexiko, Neuseeland, Öster-
reich und Peru sowie der Vatikan. Die Hauptstädte dieser Länder waren,
mit Ausnahme Mexikos und des Vatikans, zugleich die Orte weiterer
Treffen: Lima im Mai 2007, Wien im Dezember 2007, Wellington im
Februar 2008, schließlich Dublin im Mai und erneut Oslo im Dezember
2008 (Borrie 2008, Wisotzki 2008, Breitegger 2012). Die Zahl der Prozess-
teilnehmer stieg von 49 beim ersten Treffen in Oslo auf 68 beim Treffen
in Lima und 138 beim Treffen in Wien. An der Konferenz in Dublin, auf
der ein Vertragsentwurf verabschiedet wurde, nahmen 107 Staaten teil;
auf der Zeichnungskonferenz in Oslo unterschrieben 94 Staaten den Ver-
trag. Beteiligt waren auch internationale Organisationen (IO), z. B. das
UN-Kinderhilfswerk UNICEF, und weitere NGOs neben der CMC. Insge-
samt nahmen über zwei Drittel der Nutzer, Produzenten und Besitzer am
Prozess teil, was ihm zusätzliche Autorität verlieh (Docherty 2009: 941).
Das erste Treffen in Oslo diente vor allem dazu, öffentlichkeitswirk-
sam den politischen Willen zu demonstrieren, am Ende des Prozesses
einen völkerrechtlichen Vertrag anzunehmen. Zur zweiten Konferenz in
Lima hatten die Kerngruppenstaaten und die CMC bereits einen Entwurf
des Vertragstextes vorbereitet, der den Einsatz, die Entwicklung, Herstel-
lung, Erwerb, Lagerung und Weitergabe von Streumunition verbot
(Hertwig 2007: 226). Welche Waffen die Kategorie „Streubomben“ ab-
deckte, war umstritten (und sollte es bis zu den Schlussverhandlungen in
Dublin bleiben). Der Vertragsentwurf schloss etwa Punktzielmunition
aus; einige Staaten (darunter Deutschland) versuchten, weiter zwischen
verschiedenen Typen von Streumunition zu differenzieren und solche
mit Selbstzerstörungsmechanismen oder „akzeptablen Fehlerquoten“
vom Verbot auszunehmen (Human Rights Watch 2010: 129, Hertwig
2007: 226). Trotz dieser Detailfragen zeichnete sich die Verabschiedung
eines Vertrages ab, weshalb die USA das Thema wieder auf die Agenda der
CCW, in der sie aufgrund des Konsensprinzips als Veto Player auftreten
konnten, setzten, wo im November 2007 tatsächlich ein schwaches Ver-
handlungsmandat verabschiedet wurde (Adachi 2017: 47-48).
Untersuchungsfall 79

Bei der Fortsetzung des Oslo-Prozesses in Wien verfolgte die aus 20


mehrheitlich europäischen Staaten bestehende Koalition die Differenzie-
rungsstrategie weiter. Außerdem drehten sich die Debatten um Über-
gangsfristen, die zur Entwicklung alternativer Streumunition eingefordert
wurden, und Interoperabilität, also der Zulässigkeit der Zusammenarbeit
der Vertragsparteien mit Streubombennutzern bei gemeinsamen militäri-
schen Operationen (Justen 2008: 17-20, Borrie 2008). Die strittigen Punk-
te sollten in weiteren Verhandlungsschritten in Wellington und Dublin
gelöst werden; über andere wichtige Vertragsbestandteile wie die Räu-
mung der Rückstände und die Unterstützung der Opfer wurde eine Eini-
gung erzielt (Human Rights Watch 2010: 130).
In Wellington wurden prozedurale Fragen für die bevorstehende
Schlusskonferenz in Dublin geklärt und die Textverhandlungen fortge-
setzt. Die bisherigen Kontroversen konnten auch hier nicht gelöst wer-
den, doch das Abschlussdokument bekräftigte zumindest die Absicht, mit
einem Verbot solcher Streumunition zu enden, die Zivilisten inakzeptab-
len Schaden zufügt (Human Rights Watch 2010: 132-133). In Dublin war
die Verabschiedung eines Vertrages klares Ziel, sodass die Teilnehmer
besonders um Einigung bemüht waren: Die Schlüsselländer Frankreich
und Großbritannien gaben unter innenpolitischem und internationalem
Druck ihre Forderungen nach Übergangsfristen auf und sprachen sich
schließlich für ein umfassendes Verbot aus; weitere Länder schlossen sich
trotz ursprünglich anderer Absichten diesen Positionen an (Justen 2008:
17-20).
Den Befürwortern einer starken Norm ist es gelungen, die ursprüng-
lich enthaltene einschränkende Qualifizierung („that cause unacceptable
harm to civilians”) aus der Definition zu streichen. Diese hätte erfordert,
dass sich die Staaten darauf einigen, was als unannehmbarer Schaden
gilt, und wäre im Ergebnis einem Teilverbot gleichgekommen (Hertwig
2007: 225, Rappert/Moyes 2009: 245). Die Konvention verbietet nun
jegliche Streumunition und definiert sie in Art. 2 (2) als „konventionelle
Munition, die dazu bestimmt ist, explosive Submunitionen mit jeweils

80 Das humanitäre Völkerrecht und die Norm gegen Streumunition

weniger als 20 Kilogramm Gewicht zu verstreuen oder freizugeben“.46


Allerdings hatte die Gruppe der 20 durchgesetzt, dass Unterartikel (a)-(c)
in die Definition aufgenommen wurden, die bestimmte Arten von
Streumunition auf Basis ihrer Charakteristika aus der Kategorie der
Streumunitionen ausschließen (Rosert 2009: 320).47 Darunter fallen je-
doch nur drei Streumunitionstypen, von denen wiederum nur ein Typ
tatsächlich in Konflikten eingesetzt wurde.48 Die Definition ist also breit
genug, um die 200 übrigen Streumunitionstypen mit ihren unterschiedli-
chen Funktionsweisen abzudecken. Als Schwächen des Vertrages wurden
allerdings die problematische Interoperabilitätsklausel (Art. 21 (3)) und die
Erlaubnis, geringe Mengen von Streumunition zu Trainingszwecken in den
Beständen zurückzubehalten (Art. 3 (6)) kritisiert (Wisotzki 2008: 190).
Der Vertrag wurde im Dezember 2008 in Oslo unterzeichnet und trat
im August 2010 nach Erreichen der notwendigen 30 Ratifikationen in
Kraft. Er verbietet den Einsatz, die Produktion, die Lagerung und die Wei-
tergabe von Streumunition und verpflichtet die Staaten zu medizinischen
und psychologischen Hilfsleistungen gegenüber Streubombenopfern, die
sich in ihren Hoheitsgebieten befinden. Zur Räumung werden auch hier
die von Kontamination betroffenen Staaten und nicht die Nutzer ver-
pflichtet – letztere werden lediglich in Art. 4 (4a) zur Unterstützung er-
mutigt. Ein internationales Organ zur Überwachung der Vertragseinhal-
tung wurde nicht eingerichtet. Diese erfolgt allerdings, wie im Fall des
Ottawa-Vertrages auch, durch die Dachverbände ICBL und CMC, die
analog zum seit 1999 erscheinenden Landmine Monitor seit 2010 auch
den Cluster Munitions Monitor publizieren.

46
Übersetzung des Auswärtigen Amtes, https://www.auswaertiges-amt.de/blob/
204778/b0c132557a6c64ca67116f638d3be4a2/081203-abkommenstreumunition-
data.pdf, 1.11.2018.
47
Nämlich solche, die für Flugabwehrzwecke bestimmt sind, pyrotechnische Mittel
freisetzen, elektrisch oder elektronisch wirken, weniger als zehn Submunitionen
enthalten, deren Submunitionen gegen einzelne Zielobjekte gerichtet werden
können (Punktzielmunition) und Selbstzerstörungsmechanismen enthalten.
48
Nicht als Streumunition zählen demnach die deutschen Munitionen SMArt 155,
die französisch-schwedischen BONUS und die US-amerikanischen SADARM, die
die USA 2003 gegen den Irak eingesetzt hatten (Cluster Munitions Coalition
2014: 5, Docherty 2009: 948).
Untersuchungsfall 81

Der Normsetzungserfolg ist freilich nicht isoliert im Verhandlungs-


prozess erzielt worden, sondern wurde durch zahlreiche Begleitaktivitä-
ten flankiert. Dazu zählen parlamentarische Initiativen, die nationale
Einsatz-, Produktions- und Handelsverbote verabschiedeten oder forder-
ten (etwa in Großbritannien, Dänemark, Schweiz, Österreich, Kroatien,
Bosnien-Herzegowina oder Ungarn).49 Das EU-Parlament hatte schon
2004 Moratorien gefordert und später dazu aufgerufen, Verbotsverhand-
lungen aufzunehmen (Van Woudenberg 2008: 483). Das ICRC veranstal-
tete weitere Expertentreffen, damit sich Vertreter des Militärs mit Streu-
bombenräumern über technische Aspekte wie Selbstzerstörungsmecha-
nismen und die für die Räumung notwendige Ausrüstung austauschen
konnten (Goose 2008: 229, Borrie et al. 2009: 20). Das Entwicklungspro-
gramm der Vereinten Nationen führte zusammen mit der serbischen
Regierung im Oktober 2007 eine Konferenz der betroffenen Staaten in
Belgrad durch, um die Opferperspektive zu stärken und einen Erfah-
rungsaustausch zur Opferunterstützung und zur Räumung von Blindgän-
gern zu ermöglichen (Borrie 2008). Die CMC beschränkte sich nicht nur
auf Lobbying unmittelbar auf den Konferenzen, wo sie insbesondere
Regierungsdelegationen ohne klare Position mit Informationen und
Formulierungen versorgte (Justen 2008: 16), sondern setzte auch weiter-
hin auf eine Stärkung des öffentlichen Problembewusstseins durch Akti-
onen wie den „Global Day of Action“, der am 19. April 2008 ausgerufen
wurde und an dem in mehr als 50 Ländern verschiedene Aktionen – De-
monstrationen, Unterschriftensammlungen, Diskussionsrunden – durch-
geführt wurden.50
Zusammengefasst ermöglichten vor allem drei Faktoren die Entste-
hung der Norm gegen Streumunition: die Interessenkonvergenz zwischen
Verbotsunterstützern auf Seiten der Regierungen und der humanitären
Akteure; individuelle Regierungsinitiativen sowie die erneute Bereit-
schaft, lieber einen starken Vertrag in Abwesenheit einiger Großmächte
zu verabschieden als eine schwache, aber universelle Regelung (Goose

49
Mines Action Canada 2010: 151, Human Rights Watch 2010: 117-118, Petrova
2008: 88-90, Van Woudenberg 2008: 483.
50
http://www.stopclustermunitions.org/en-gb/media/news/2008/the-global-day-of-
action-to-ban-cluster-bombs.aspx, 1.11.2018.

82 Das humanitäre Völkerrecht und die Norm gegen Streumunition

2008: 232). Und tatsächlich hat sich die Konvention als wirksam erwie-
sen. Zwar gab es seitdem einige Streumunitionseinsätze von Nicht-
Mitgliedern (siehe S. 64), andere Normen der Konvention werden aber
laut dem Cluster Munition Monitor (2018) eingehalten: 99% der erfass-
ten Streumunitionsbestände wurden bereits zerstört; 18 Staaten haben
die Produktion eingestellt. Zwei Nicht-Mitglieder (Singapur und die USA)
haben Exportmoratorien verhängt. Uneinig sind sich die Mitglieder al-
lerdings über die genaue Auslegung der Konvention – etwa betreffend die
Frage, ob sie auch ein Investitionsverbot in Unternehmen, die auch
Streumunition herstellen – beinhaltet (Hertwig/Norpoth 2010). Die
grundsätzliche Akzeptanz des Streubombenverbots nimmt indes zu, wie
die kontinuierlich ansteigende Zahl der Vertragsmitglieder anzeigt (von
94 Erstunterzeichnern auf 120 Vertragsmitglieder, von denen 104 die
Konvention bereits ratifiziert haben, Stand: November 2018).51

Zwischenfazit: Inkonsistenzen in der Praxis der


Waffeneinsatzverbote
Welche Erkenntnisse brachte dieses Kapitel über humanitärvölkerrecht-
lich begründete Einsatzverbote im Allgemeinen und das Streubomben-
verbot im Besonderen?
Das Haager Recht ist gekennzeichnet durch eine Parallelexistenz von
Grundprinzipien und expliziten Einsatzbeschränkungen bestimmter
Waffen. Dass es letztere gibt und immer wieder neue hinzukommen,
verdeutlicht, dass die Grundprinzipien zwar entsprechende Verbotsnor-
men motivieren, alleine jedoch nicht ausreichen, um die Völkerrechts-
widrigkeit einer Waffengattung zu begründen. Die wenigsten Staaten
haben nationale Verfahren eingeführt, um sich in Entwicklung und Pro-
duktion befindende, erworbene oder eingeführte Kampfmittel und
Kampfmethoden auf ihre Völkerrechtskonformität zu überprüfen, ob-

51
http://www.stopclustermunitions.org/en-gb/the-treaty/treaty-status.aspx,
1.11.2018.
Zwischenfazit 83

wohl sie Art. 36 des I. Zusatzprotokolls dazu verpflichtet.52 Ebenso fehlt eine
internationale Rechtsinstanz, die zu regelmäßigen und systematischen
Überprüfungen der Vereinbarkeit von Waffen mit den völkerrechtlichen
Prinzipien befugt wäre.
Wenn es zur Verabschiedung konkreter Normen kommt, ist dies heute in
der Regel ein Ergebnis öffentlicher Kampagnen und internationaler Aus-
handlungsprozesse. In diesen stellen die Prinzipien wirkungsmächtige Refe-
renzpunkte dar, die sich in der Konstruktion von legitimen und illegitimen
Opfern sowie grausamen und weniger grausamen Verletzungs- und Tö-
tungsarten kondensieren. Das Erfordernis der Formulierung konkreter Nor-
men auf Basis abstrakter Prinzipien bei gleichzeitiger institutioneller Schwä-
che führt zumindest vorübergehend zu Inkonsistenzen im Recht, wenn eine
Waffenart, welche auf eine bestimmte Art und Weise wirkt, aufgrund dieser
Wirkung verboten wird, eine andere Waffenart jedoch trotz ähnlicher Wir-
kungsweise erlaubt bleibt. Die Liste solcher nicht-verregelter, jedoch ver-
schiedentlich als humanitär bedenklich charakterisierter Waffen umfasst
beispielsweise Stahlnadelgeschosse (Flechetten), Aerosolbomben, kleinkalib-
rige Schnellgeschosse oder Phosphorbomben. Auch Streubomben zählten bis
zu ihrem Verbot im Jahr 2008 dazu. Warum dies so lange der Fall war, will
ich in dieser Arbeit klären.
Für meine Argumentation ist es zudem wichtig, festzuhalten, dass zu bei-
den Zeitpunkten, an denen ein Streubombenverbot aufgrund vorangegan-
gener Einsätze und ihrer humanitären Folgen besonders wahrscheinlich
erschien (nach dem Vietnamkrieg in den 1970er Jahren und nach dem Irak-
krieg in den 1990ern), jeweils eine andere Waffenart – erst Napalm, dann
Landminen – reguliert wurde, während Streumunition einer Normierung
entging. Die Hypothese dieser Arbeit ist, dass dies nicht zufällig der Fall war,
sondern dass es zwischen den Entstehungen der Normen gegen Napalm und
Landminen und der Nicht-Entstehung der Norm gegen Streumunition einen
Zusammenhang in Form permissiver Effekte gibt. Bevor die Hypothese selbst
im Theorieteil hergeleitet und präzisiert wird, beschreibe ich im folgenden
Kapitel, welchen Logiken der Aufbau meiner Erklärung folgt.

52
Blix 1974: 27, Blix 1988: 140, McDonnell 2002: 73, Boothby 2005: 23, ICRC
2006: 934.

3 Das Forschungsdesign:
Eine theoriegeleitete Erklärung der
Nicht-Entstehung der Streumunitionsnorm

In diesem Kapitel nehme ich eine Makro-Perspektive auf diese Studie ein
und stelle die einzelnen Arbeitsschritte sowie – und dies ist der entschei-
dende Unterschied zwischen einem Arbeitsplan und einem Forschungs-
design – deren logische Struktur dar (de Vaus 2001: 9). Es geht also darum,
offenzulegen, auf welchem Wege die Fragestellung dieses Buches beant-
wortet werden soll, und zu begründen, weshalb mir dieser Weg insgesamt
als der vielversprechende erscheint, und weshalb ich mich an einzelnen
Weggabelungen für die eine oder andere Option entscheide. Hierbei soll
vor allem deutlich werden, wie die kausale Argumentation geführt wird, d.
h. es gilt sicherzustellen, dass die einzelnen Bestandteile des Forschungs-
designs so ausgewählt und zusammengefügt werden, dass die kausale
Schlussfolgerung, die zur Beantwortung der Forschungsfrage notwendig
ist, auch tatsächlich überzeugend gezogen werden kann (Yin 2009: 26).
Folgende Fragen wollen daher in den kommenden Abschnitten ge-
klärt werden: Was will ich erklären und mit welchem Ziel? Was verstehe
ich unter einer Erklärung und welche Elemente sehe ich als notwendig
für eine Kausalbeziehung an? Wie wird die Erklärung in dieser Arbeit
aufgebaut, d. h. auf welchem Weg werden mögliche Erklärungsfaktoren
ermittelt, wie wird deren Vielfalt eingegrenzt, und wie wird die Gültigkeit
des angebotenen Erklärungsansatzes überprüft (de Vaus 2001: 20)? Dieses
Kapitel stellt also das argumentative Gerüst auf – methodische Überle-
gungen zur empirischen Untersuchung bleiben zunächst außen vor.
Im ersten Abschnitt ordne ich die Fragestellung ein, benenne die For-
schungsziele und erläutere, wie diese erreicht werden sollen. Danach

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_3

86 Das Forschungsdesign

beschreibe ich, wie ich mittels der Kovarianzanalyse die Erklärungskraft


der theoretisch hergeleiteten Erklärungsfaktoren überprüfe und wie ich
mein Erklärungsmodell verstehe und anwenden werde.

Fragestellung und Forschungsziele: Fallerklärung und


Theoriegenerierung

Die Nicht-Entstehung der Streumunitionsnorm als Y-zentrierte


Einzelfallstudie
Wie das Puzzle der langen Nicht-Entstehung der Streumunitionsnorm
zeigt, handelt es sich beim vorliegenden Projekt um ein sogenanntes Y-
zentriertes Design. Während X-zentrierte Designs zum Ziel haben, die
Wirkung des Faktors X (wie unabhängige Variablen üblicherweise be-
zeichnet werden) zu erfassen, haben Y-zentrierte Designs zum Ziel, die
Ausprägung des Faktors Y (wie abhängige Variablen üblicherweise be-
zeichnet werden) möglichst vollständig zu erklären
(Gschwend/Schimmelfennig 2007: 21-22, Gerring 2007: 195). Versteht
man X- oder Y-Zentrierung als völlige Offenheit hinsichtlich der aus X
folgenden bzw. zu Y führenden Faktoren, qualifizieren sich die wenigsten
Designs als Reinformen, sondern die meisten sind Mischformen, also
X/Y-zentriert (Gerring 2007: 72). Dies bedeutet, dass in der Regel bereits
ein Zusammenhang zwischen unabhängigen und abhängigen Variablen
vermutet wird (Gerring 2007: 71), die Forscherinnen also einem „An-
fangsverdacht“ folgen (Schimmelfennig 2015: 104). Doch auch wenn
solch ein Verdacht vorliegt, bleibt zumindest die Unterscheidung in eher
X- oder eher Y-zentrierte Designs bestehen, da sich diese aus dem Er-
kenntnisziel ergibt: Erstere untersuchen, ob/wie sich Veränderungen der
interessierenden unabhängigen Variablen auf bestimmte abhängige Variablen
auswirken (Blatter et al. 2007: 124, Blatter/Blume 2008: 218). Zweitere
untersuchen, ob/wie bestimme unabhängige Variablen die interessierende
abhängige Variable beeinflussen (Gerring 2007: 72).
In Y-zentrierten Designs können diese interessierenden abhängigen
Variablen sowohl Einzelfälle, d. h. einzelne Phänomene, Ergebnisse, Ereig-
Fragestellung und Forschungsziele 87

nisse oder Entwicklungen (Most/Starr 1993: 100, Goertz 2003: 55, Dür
2007: 281) als auch Klassen von Fällen sein (Bennett 2004: 20, Schimmel-
fennig 2006: 265). Das Interesse für die „Outcomes“ einzelner Fälle liegt
meistens in ihrer intrinsischen politisch-historischen Bedeutung und/oder
in ihrer spezifischen Rätselhaftigkeit begründet (beispielsweise, weil sie
aus der jeweiligen Klasse als extrem oder als abweichend herausstechen);
kurzum, sie sind an sich interessant und deshalb erklärungswürdig
(Most/Starr 1993: 100, Platt 1999: 167, Goertz/Starr 2003: 15). Das Interes-
se für Klassen von Fällen liegt meistens ebenfalls in deren politischer Rele-
vanz und/oder in der Varianz bestimmter Ausprägungen zwischen den Fällen
begründet (Sartori 1970: 1036, Gschwend/Schimmelfennig 2007: 21).
Ich habe mich aus zwei Gründen entschieden, eine Einzelfallerklä-
rung anzustreben und nicht, was ebenfalls vorstellbar gewesen wäre, die
Klasse von nicht-entstandenen Normen zum Erklärungsgegenstand zu
machen und innerhalb dieser Klasse unterschiedliche Fälle zu untersu-
chen. Der erste Grund sollte durch die ausführliche Herleitung des Puz-
zles deutlich geworden sein – ich erachte die lange Nicht-Entstehung des
Streubombenverbots als ein lösungswürdiges Rätsel, welches, sowohl im
theoretischen als auch im politischen Sinne, an sich relevant ist. Da ich
jedoch die Auffassung teile, dass sich Forschungsziele nicht nur an der
fallspezifischen Relevanz, sondern immer auch am Forschungsstand ori-
entieren sollten (Gerring 2004: 353, George/Bennett 2005: 74), liegt der
zweite Grund für die Einzelfallanalyse im frühen Stadium des For-
schungsprogramms zur Nicht-Entstehung von Normen. Dieses weist nur
wenige Einzelfallstudien auf, welche wiederum nur einige wenige poten-
tielle Erklärungsfaktoren liefern. Bevor Studien mit einer größeren Fall-
zahl oder theoriegeleiteten Fallauswahl durchgeführt werden können, ist
es für die Heuristik sinnvoll, das Erklärungsspektrum weiter mit Einzelfäl-
len auszubauen sowie einzelne Erklärungspfade in der Tiefe zu untersu-
chen, um sie zumindest vorläufig zu etablieren. Dies leistet das vorlie-
gende Buch.

Kausalanalytische Orientierung
Wenn ich schreibe, dass der Einzelfall erklärt werden soll, was meine ich
mit „Erklärung“? Die Beantwortung dieser scheinbar banalen Frage ist

88 Das Forschungsdesign

notwendig, weil es in der Wissenschaft bzw. in der Disziplin der Interna-


tionalen Beziehungen durchaus unterschiedliche Positionen dazu gibt,
welche Bestandteile eine Erklärung aufzuweisen hat und was als gültige
Erklärung akzeptabel ist. Welche Faktoren sind kausal relevant, kann
man Kausalität beobachten und welche Beobachtungen erlauben welche
Art von kausalen Schlussfolgerungen? Es wäre unmöglich und auch nicht
zielführend, hier die vielen Debatten um Kausalität zu referieren. Ich
beschränke mich daher auf diejenigen Aspekte, die verdeutlichen, wie die
Fragestellung dieses Buches verstanden werden soll und welcher Kau-
sallogik die von mir angestrebte Erklärung folgt.
Warum-Fragen suchen nach Ursachen bestimmter Beobachtungen; sie
zielen also darauf ab, Ursache-Wirkungs-Zusammenhänge (kausale Bezie-
hungen) zwischen zwei (oder mehreren) Faktoren zu entdecken, wobei X
als Ursache und Y als Wirkung in dem Sinne verstanden werden, dass X
Y hervorbringt (verursacht) (Little 1991: 4, Wendt 1998: 104). Ich spreche
im Folgenden allerdings nicht von Ursachen, sondern von Erklärungsfak-
toren oder synonym von kausalen Faktoren, weil der Begriff „Ursache“ zu
oft mit einem engen Kausalitätsverständnis assoziiert wird, wonach nur
solche Faktoren kausal relevant sind, die bestimmte Phänomene erzeu-
gen oder erschaffen. Ich hingegen schließe mich einem breiteren – gene-
rativen – Verständnis von Kausalität an. Dieses schließt das ursächliche
Verständnis ein, geht aber darüber hinaus, indem es alle Faktoren als
kausal relevant ansieht, die das Potential haben, Veränderungen in der
Welt zu bewirken; kausale Analysen werden dabei zu „accounts of what
produced change” (Sayer 1992: 104). Orientiert man sich an diesem Ver-
ständnis wie auch an alltäglichen Erklärungen von Begebenheiten, kön-
nen erstens ganz unterschiedliche Faktoren als kausal relevant erkannt
werden: Handlungen, Charaktereigenschaften, Interpretationen, Struktu-
ren, Situationen, technologische Veränderungen, aber auch Handlungs-
motive.53 Zweitens gibt es eine Reihe von Möglichkeiten, wie solche Fak-
toren wirksam werden können: Außer Veränderungen zu verursachen,
können sie diese auch ermöglichen, fördern, behindern, beeinflussen,
formen, stabilisieren, legitimieren usw. (Sayer 1992: 104, Kurki 2008: 138).

53
Greenwood 1988: 96, Little 1991: 16, Sayer 1992: 111, Patomäki 2000: 230.
Fragestellung und Forschungsziele 89

Kausalbeziehungen, das wird an diesen Verben deutlich, lassen sich


nicht ausschließlich mit Warum-Fragen im engeren Sinne erfassen. Eben-
so wichtig sind sogenannte wie-ist-es-möglich-Fragen, also Fragen danach,
warum etwas so sein kann wie es ist, d. h. wie etwas möglich ist, obwohl es
den Erwartungen zufolge nicht möglich sein dürfte (Little 1991: 4,
Cassam 2007: 1-2). Konstitutive Fragestellungen zeichnen sich dadurch
aus, dass sie die Beschaffenheit der Dinge und Strukturen nicht nur be-
schreiben, sondern diese als ermöglichende Bedingungen von etwas ande-
rem begreifen (Wendt 1998: 112). Interne Strukturen befähigen, externe
ermöglichen – Konstitutionen von Dingen und Strukturen werden also
zu Erklärungsfaktoren (Little 1991: 4, Wendt 1998: 113, Tannenwald
2005a: 36-37). Festzuhalten ist, dass der Fokus auf ursächliche Faktoren
und Ursache-Wirkungs-Beziehungen nur eine Unterform von Kausalität
abdeckt und ermöglichende Faktoren und konstitutive Beziehungen ver-
nachlässigt (Doty 1993: 298). Ich verwende „kausale Faktoren“ als eine
allgemeine Bezeichnung für wirkende oder wirksame Faktoren und „kausa-
le Beziehung“ als eine allgemeine Bezeichnung für eine Wirkungsbezie-
hung. Ob einer der Faktoren ursächlich oder ermöglichend wirkt, ist zu-
nächst offen und kann erst theoretisch im Erklärungsmodell bestimmt
sowie anschließend empirisch überprüft werden.

Erkenntnisinteressen: Klärung des empirischen Puzzles und


Theoriegenerierung
Welche Funktionen Theorie und Empirie innerhalb eines Designs ein-
nehmen, hängt von den Forschungszielen ab. Gängig ist die Unterschei-
dung in erklärende, theoriebildende und theorietestende Designs, wobei
in ersten anhand von (bestehenden) Theorien empirische Fälle erforscht,
in zweiten anhand von empirischer Forschung, aus den Fällen heraus,
Theorien entwickelt werden, und in dritten die Erklärungskraft von The-
orien überprüft wird (Bennett 2004: 22).
Das primäre Ziel dieser Studie ist die Erklärung eines Falls. Diese soll
theoriegeleitet erfolgen, weil es das reichhaltige theoretische Angebot
ermöglicht. Theorien vermögen es, unseren Blick auf das Rätselhafte zu
lenken, die Komplexität der Welt zu reduzieren und helfen uns dabei,

90 Das Forschungsdesign

mögliche Erklärungsfaktoren zu identifizieren, deren Relevanz einzu-


schätzen und den sie verbindenden Wirkungsmechanismus zu entwerfen
(Mearsheimer/Walt 2013: 431-432). Mit der theoriegeleiteten Herange-
hensweise sind jedoch auch über die Fallerklärung hinausgehende theo-
retische Ziele verbunden. Eines dieser Ziele besteht darin, mit der Nicht-
Entstehung von Normen ein bisher von der Normenforschung vernach-
lässigtes Phänomen in den Blick zu nehmen – ein Teil des potentiellen
theoretischen Mehrwerts liegt also schon in der Wahl der abhängigen
Variable. Ein weiteres Ziel besteht darin, das Theorieangebot der Nor-
menforschung systematisch auf seine Erklärungskraft im Hinblick auf das
Puzzle zu testen – damit werden auch die unabhängigen Variablen in den
Blick genommen. Dass sich bei diesem Test die Erklärungsgrenzen zeigen,
nehme ich zum Anlass, ein eigenes Erklärungsmodell zu entwickeln,
worin ich den wichtigsten theoretischen Beitrag dieses Buches sehe.
Die Entwicklung eines Erklärungsmodells ist sowohl Mittel zum
Zweck als auch Selbstweck. Es ist dahingehend Mittel zum Zweck, als das
Modell dazu dient, den vorliegenden Fall zu erklären. Es ist dahingehend
Selbstzweck, als das Modell durch die theoretische Formulierung genera-
lisierbar, d. h. potentiell auch auf andere Fälle anwendbar, sein soll (Blat-
ter et al. 2007: 135). Zwar halte ich Verallgemeinerbarkeit nicht für ein
notwendiges Kriterium relevanter Forschung – im Gegenteil ist auch die
Erforschung idiosynkratischer Einzelfälle ein Wert an sich. Bei dem hier
erforschten Fall handelt es sich um ein politisches Problem mit fatalen
Konsequenzen, weshalb es wichtig ist, dessen Ursachen zu ergründen.
Zugleich ist das politische Problem nicht auf diesen Fall beschränkt, denn
die Nicht-Entstehung des Streubombenverbots gehört zu einer größere
Klasse von Fällen, und zwar Fällen von nicht-entstandenen Normen. Der
Erklärungsansatz ist damit zumindest potentiell für mehr als den einen
Fall gültig. Wie gut seine generelle Erklärungskraft ist, kann und soll auch
nicht in dieser Arbeit geklärt werden. Ich stelle im Fazit allerdings einige
Überlegungen zur Generalisierbarkeit an.
Theorieevaluation mittels der Kovarianzanalyse 91

Theorieevaluation mittels der Kovarianzanalyse


Um die Notwendigkeit eines eigenen Erklärungsansatzes aufzuzeigen, soll
in einem ersten Schritt das Theorieangebot der Normenforschung erar-
beitet und daraufhin überprüft werden, wie gut es das Rätsel dieser Arbeit
erklären kann. Hierzu zerlege ich das Rätsel der langen Nicht-Entstehung
der Streumunitionsnorm in eine doppelte Varianz – in die Within-Case-
Varianz, die in zwei Instanzen der Nicht-Entstehung und einer Instanz
der Entstehung der Streumunitionsnorm besteht; und in die Cross-Case-
Varianz, die in zwei Entstehungen anderer Waffeneinsatznormen bei
gleichzeitigen Nicht-Entstehungen der Norm gegen Streumunition be-
steht. Wie gut verschiedene Erklärungsfaktoren Varianzen in solchen
Small-n-Designs erklären, lässt sich mit der Kovarianzanalyse ermitteln.
Das kovarianzanalytische Verfahren basiert auf der Annahme, dass je-
de kausale Beziehung die Kovariation der wirkenden Faktoren und deren
Wirkungen voraussetzt (de Vaus 2001: 34, Gerring 2004: 342). Damit
einher geht die bedingungstheoretische Perspektive auf kausale Faktoren,
die diese je nach Art der Kovariation als hinreichende oder notwendige
Bedingungen qualifiziert. Hinreichende Bedingungen sind solche Fakto-
ren, deren Vorliegen zwangsläufig zu einem bestimmten Ergebnis führt –
sie entsprechen am ehesten dem, was man im engeren Sinne als ursäch-
lich versteht. Notwendige Bedingungen sind solche Faktoren, deren Vor-
liegen zwar nicht zwangsläufig zu einem bestimmten Ergebnis führt,
ohne die das Ergebnis jedoch nicht möglich ist und folglich auch nicht
auftritt – sie sind deshalb ermöglichend (Little 1991: 4, Goertz 2003: 48-
51). Wenn man also postuliert, dass es sich beim Faktor X um eine hin-
reichende Bedingung handelt, trifft man die Aussage „Wenn X, dann
auch Y“; wenn man postuliert, dass es sich beim Faktor X um eine not-
wendige Bedingung handelt, trifft man die Aussage „Ohne X kein Y“
(Goertz 2003: 49, 51).
Auf Basis dieser Überlegungen hat John Stuart Mill zwei kovarianzana-
lytische Vergleichsmethoden entwickelt, mit denen es möglich ist, rele-
vante Erklärungsfaktoren zu identifizieren (Logik der Isolation) und al-
ternative Erklärungsfaktoren auszuschließen (Logik der Elimination) (de
Vaus 2001: 43, Blatter et al. 2007: 145). Nach der Konkordanzmethode
(method of agreement) kann man in Fällen mit einer übereinstimmen-

92 Das Forschungsdesign

den Ausprägung der abhängigen Variable die unterschiedlichen Erklä-


rungsfaktoren als kausal irrelevant ausschließen, da sie zwischen den
Fällen variieren, ohne dass das Ergebnis variiert. Die Gemeinsamkeiten
können isoliert und als kausal relevant eingestuft werden.54 Nach der
Differenzmethode (method of difference) kann man in Fällen mit einer
unterschiedlichen Ausprägung der abhängigen Variable die Gemeinsam-
keiten als kausal irrelevant ausschließen, da sie nicht variieren, obwohl
das Ergebnis variiert. Die Unterschiede können dadurch isoliert und als
kausal relevant eingestuft werden (Przeworski/Teune 1982: 31-34, Ben-
nett 2004: 31, Gerring 2007: 131).
Anerkennung finden die Millschen Methoden aufgrund ihrer einfa-
chen Logik und weil sie „Kausalität theoretisch richtig erfass[en]“ (Leuf-
fen 2007: 209), indem sie die Bedeutung von (Ko)Varianz für kausale
Schlussfolgerungen unterstreichen (Leuffen 2007: 209, Blatter et al. 2007:
136). Zugleich werden sie als kaum praktikabel charakterisiert, da ihre
Anforderungen an die Fallauswahl mit echten Fällen kaum zu erfüllen
sind.55 Zum einen gibt es kaum Fälle, die sich so ähnlich sind, dass es nur
einen Unterschied bzw. die so unterschiedlich sind, dass es nur eine Ge-
meinsamkeit geben kann. Zum anderen ist es eine große Herausforde-
rung, bereits im Vorfeld der eigentlichen Forschung alle prinzipiell inte-
ressanten Fälle so genau zu kennen, dass man sie als ähnlich oder unähn-
lich klassifizieren kann. Des Weiteren sind mit dieser Methode kausale
Fehlschlüsse möglich – z. B. ist es prinzipiell denkbar, dass Drittvariablen
die gemeinsam kovariierenden Faktoren erzeugen oder dass derselbe Fak-
tor durch verschiedene Faktoren erzeugt werden kann (die man nach der
Konkordanzmethode ausschließen würde) (Ragin 1989: 38).
Die Lösung dieser Probleme liegt in der Theorie (Ragin 2004: 122).
Geht man theoriegeleitet an die Fälle heran, wird es möglich, ihre Viel-
schichtigkeit zu reduzieren – nur diejenigen Attribute werden relevant,
die theoretisch als potentielle Kausalfaktoren etabliert sind, weshalb
nicht jegliche Unterschiede berücksichtigt werden müssen (Hönnige
2007: 237, Leuffen 2007: 209). Hierdurch reduziert sich auch die Menge

54
Bennett 2004: 31, Gerring 2007: 139, Hönnige 2007: 229, Leuffen 2007: 20.
55
Bennett 2004: 32, Hönnige 2007: 226, Leuffen 2007: 208, Ragin 2004: 132.
Theoriegenerierung mittels eines Erklärungsmodells 93

des notwendigen Wissens über die Fälle. Zudem sollte solide theoretische
Vorarbeit davor schützen, Drittvariablen zu übersehen oder potentielle
Ursachen zu schnell auszuschließen.
Die Fallauswahl in dieser Studie erfolgt nicht nach der Millschen Lo-
gik, sondern ist zweifach empirisch vorgegeben – durch den Fall „Streu-
munitionsnorm“ selbst als Ausgangspunkt, aber auch durch die Fälle
Brandwaffen und Landminen, die zu beiden Zeitpunkten der Nicht-
Entstehung der Streumunitionsnorm reguliert wurden. Das Millsche Kau-
salitätsverständnis ist dennoch für zwei Argumentationsschritte instruk-
tiv: Ich habe darauf bereits für die Formulierung des Puzzles zurückgegrif-
fen, indem ich die doppelte Varianz zur rätselhaften Beobachtung kon-
struiert und aufgezeigt habe, dass naheliegende bzw. vereinzelt auch in
der Literatur angebotene Erklärungsfaktoren weder innerhalb des Falles
noch zwischen den Fällen so kovariieren wie sie es der Millschen Logik
folgend müssten. Ich werde diese Logik ein weiteres Mal nutzen, wenn
ich im Theoriekapitel potentielle Erklärungsfaktoren herausgearbeitet
habe und sie meiner Fallkonfiguration gegenüberstelle.

Theoriegenerierung mittels eines Erklärungsmodells


Die Warum-Frage dieser Arbeit soll beantwortet werden, indem ein theo-
retisches Modell entwickelt, d. h. zunächst abstrakt formuliert, und an-
gewendet, d. h. in eine konkrete empirische Erklärung übersetzt wird.
Während die theoretische Arbeit selbst in Kapitel 6 erfolgt, beschreibe ich
in diesem Abschnitt allgemein die Durchführung dieses theoriegenerie-
renden Schrittes.
Theoriegenerierung wird häufig mit einer induktiven Vorgehensweise
gleichgesetzt (Bennett/Checkel 2015: 8). Das hieße, eine theoretische
Lücke zu identifizieren und sie auf Basis empirischer Beobachtungen zu
füllen, indem daraus allgemeine Schlüsse gezogen werden (Breuer 2010:
54). Dies ist vor allem dann geboten, wenn der – breit erfasste – theoreti-
sche Forschungsstand tatsächlich keine theoretischen Ansatzpunkte lie-
fert oder diese verworfen werden müssen (Scharpf 2006: 64,
Beach/Pedersen 2013: 169). Allerdings ist das selten (Schimmelfennig
2015: 125) und auch in meinem Projekt keineswegs der Fall.

94 Das Forschungsdesign

Die Theorieentwicklung findet hier daher deduktiv statt, d. h. nicht


aus Empirie, sondern wiederum aus Theorie. Der zentrale Theoriestrang,
an den ich anknüpfe, ist die Forschung über internationale Normen. Ich
baue darauf auf, indem ich vorhandene Ansätze neu zusammensetze,
konkretisiere oder Umkehrschlüsse daraus formuliere. Es erweist sich
allerdings als notwendig, theoretische Konzepte aus anderen Disziplinen
zu adaptieren. Kombiniert mit dem Fundament der Normenforschung,
entsteht so mein Erklärungsmodell.
Da Forschungsprozesse nicht gradlinig, sondern eher zirkulär, in ei-
nem stetigen „dialogue between ideas and evidence“ (Ragin 1999: 55)
ablaufen, was immer wieder wechselseitige Anpassungen erfordert (Ger-
ring 2001: 231), schließt der deduktive Schritt die Theoriegenerierung
nicht ab. Auf die Auswertung, Neukomposition und Anreicherung beste-
hender Theorie folgen deshalb ein theorietestender Schritt, bei dem das
Modell dem empirischen Material gegenübergestellt wird, und ein induk-
tiver Schritt, bei dem es im Lichte empirischer Ergebnisse reflektiert wird
(Bennett 2004: 23, Blatter et al. 2007: 138, De Bièvre 2007: 305).

Zentrale Modellelemente: Sequenzen und Kausalmechanismen


Allgemein definiert, handelt es sich bei einem Modell um eine verein-
fachte Abbildung der Realität (Snidal 2004: 227). Vereinfacht ist eine
modellhafte Abbildung deshalb, weil sie die Komplexität der realen Welt
reduziert, indem lediglich die wichtigsten Wesenszüge – und diese wiede-
rum in einer selten oder gar nicht anzutreffenden Reinform – ins Modell
aufgenommen und andere, weniger essentielle, Wesenszüge ausgelassen
werden (Snidal 2004: 228). Modelle beruhen also auf Entscheidungen der
Forscherinnen und deren Fähigkeit, Wichtiges von Unwichtigem zu
trennen und vom Konkreten zu abstrahieren (Snidal 2004: 231). Gerade
diese Abstraktionsleistung begründet die besondere Nützlichkeit von
Modellen: Zum einen soll es dadurch leichter werden, komplexe Zusam-
menhänge nachzuvollziehen ohne sich in Details zu verlieren; zum an-
deren wird es durch die abstrakte Formulierung möglich, den modellier-
ten Zusammenhang in verschiedenen Fällen zu erkennen und dadurch
(erklärungsbedürftige oder erklärende) Muster zu entdecken.
Theoriegenerierung mittels eines Erklärungsmodells 95

Als Modell verstehe ich einen „theoriegeleitete[n] und spezifizierte[n]


Erklärungsansatz“ (Blatter et al. 2007: 129). Mein Ansatz fokussiert auf
einen Prozess – den der Entstehung bzw. Nicht-Entstehung von Normen
– und unterscheidet zwei Elemente von Prozessen: erstens Sequenzen, d.
h. eine bestimmte Abfolge der Ereignisse und zweitens Kausalmechanis-
men, die diese Ereignisse verbinden (McAdam et al. 2001: 24, 27). Das
bereits vorgestellte kovariationale Verständnis von Kausalität wird
dadurch um ein mechanismisches ergänzt: Die Kovarianz von Faktoren
impliziert zwar einen Wirkungszusammenhang, lässt jedoch im Verbor-
genen, wie diese Wirkung zustandekommt. Sequenzen und Mechanismen
sollen diese „Black Box“ öffnen, indem sie eine Verbindung zwischen den
Faktoren herstellen (Mayntz 2004: 238, Elster 2007: 32).
Ziel mechanismischer Kausalanalyse ist es also, zu erklären, über welche
Mechanismen M ein einzelner Faktor – oder die Konstellation mehrerer
Faktoren X – den Faktor Y hervorbringt.56 Dieses Ziel begründet sich in
der Annahme, dass sich ohne die „Entdeckung und den Nachweis eines
kausalen Mechanismus, der von X ausgeht und Y hervorbringt“ (Schim-
melfennig 2006: 263) ein kausaler Zusammenhang nicht überzeugend
behaupten lässt (Gerring 2007: 44, Mayntz 2009b: 97). Schließlich müs-
sen Korrelationen und Kovarianzen zwischen zwei Faktoren nicht unbe-
dingt kausaler Natur sein, sondern können auch durch Zufälle oder
Drittvariablen erzeugt werden. In Ergänzung zur Kovarianzanalyse legt
daher eine mechanismusorientierte Vorgehensweise die Prozesse offen,
die zu einem Phänomen führen (Bunge 2004: 183, 203). Sie ergründet,
ob der vorliegende Zusammenhang tatsächlich kausal ist (Gerring 2004:
348), warum es ihn gibt, und welcher Art er ist (Schimmelfennig 2006:
263, Kurki 2007: 365).
Prozesse, die Phänomene hervorbringen, werden häufig als Kausalpfa-
de („causal pathways“) oder Kausalketten („causal chains“) bezeichnet:
„[a] causal mechanism (...) is a pathway or a series of links in the chain
between a given type of cause and its effects” (Tannenwald 2005a: 30).
Ein Mechanismus erklärt folglich, wie sich die generative Kraft der kausa-
len Faktoren in das interessierende Phänomen übersetzt, indem spezifi-

56
Yee 1996: 85, Gerring 2001: 195, Mayntz 2004: 238, Gerring 2008: 192.

96 Das Forschungsdesign

ziert wird, welche einzelnen Schritte des Pfades bzw. welche Glieder der Kette
X und Y miteinander verbinden (Elster 2007: 32, Gerring 2007: 73). Da-
bei muss eine kausale Geschichte konstruiert werden, in der sämtliche
„twists and turns“ geklärt sowie einzelne Modellsequenzen identifiziert
werden (Gerring 2007: 184).
Für jede dieser Sequenzen bzw. für jeden Übergang von einem Ketten-
glied zum nächsten muss gezeigt werden, wie dieses Glied unter den vor-
liegenden Bedingungen erzeugt wird und wie es seinerseits zum nächsten
Schritt beiträgt (Little 1991: 15). Solche Glieder werden als Entitäten („en-
tities“) bezeichnet. Bei ihnen muss es sich nicht notwendigerweise um
einzelne Ereignisse handeln. Auch verschiedene Objekte, Akteure, Insti-
tutionen, Dinge, Zustände oder Situationen werden zu Entitäten, sofern
sich zwischen ihnen Kräfte übertragen, sie also – und dies ist das zweite
wichtige Element der Definition von Mechanismen – durch Aktivitäten
(„activities“) verbunden sind, die Veränderung produzieren.57 In diesem
mechanismischen Sinne sucht das in diesem Buch entwickelte Erklä-
rungsmodell die Warum-Frage also dadurch zu beantworten, dass es 1)
verschiedene Phasen des Normentstehungsprozesses unterscheidet und
2) aufzeigt, welche Mechanismen in diesen Phasen zur Nicht-Entstehung
einer Norm führen können.
Wie lang und feingliedrig muss und darf ein Mechanismus sein? Oder
anders gefragt, wie detailliert und komplex das Modell? Grundsätzlich
kann man festhalten, dass drei Faktoren die Nachvollziehbarkeit der Er-
klärung erhöhen: der Anfangszeitpunkt der Erklärung, die Tiefe der Ag-
gregationsebenen und die Anzahl der Zwischenschritte. Wann man die
Erklärung ansetzt, d. h. die Bedingungskonstellation welcher Sequenz
man als Ausgangsbedingung identifiziert, ist nicht immer aus dem „Lauf
der Dinge“ offenkundig, sondern muss gelegentlich auch von der For-
scherin entschieden werden und entbehrt damit nicht einer gewissen
Willkür (Bennett/Checkel 2015: 26). Die Entscheidung muss daher gut
begründet werden, wobei u. a. „critical junctures“, (Zeitpunkte besonde-
rer Offenheit, von denen aus unterschiedliche Pfade hätten beschritten

57
Bennett 2004: 32 @36, George/Bennett 2005: 137, Mayntz 2004: 242, Brady 2008:
28.
Theoriegenerierung mittels eines Erklärungsmodells 97

werden können), Veränderungen aller Art und exogene Schocks als Be-
gründungen üblich sind (Bennett/Checkel 2015: 26-27).
Hat man den Zeitpunkt festgelegt, ist es für die Formulierung eines
Mechanismus in der Regel notwendig, sich auf niedrigere Aggregationse-
benen zu begeben (Checkel 2005: 368, Blatter/Blume 2008: 322). Syste-
mische Phänomene werden demnach mit den Aktivitäten ihrer Teile
erklärt (Mayntz 2004: 246): die Makro-Ebene der Strukturen mit der Mik-
ro-Ebene der individuellen Handlungen, und letztere mit intrapsychi-
schen individuellen Prozessen (Sayer 1992: 112, Gschwend/
Schimmelfennig 2007: 17, Mayntz 2004: 245). Mechanismen können
also in niedriger aggregierte Submechanismen aufgebrochen oder in hö-
her aggregierte Supramechanismen integriert werden (Tilly 2001: 24,
Checkel 2005: 368). Diese Ebenenwechsel wie auch die Konkretisierung
von Zwischenschritten auf gleicher Ebene senken die Gefahr, alternative
Erklärungen bzw. Drittvariablen zu übersehen (Elster 2007: 34-35).
Doch das immer tiefere Eintauchen und das Hinzufügen weiterer Zwi-
schenschritte birgt die Gefahr des infiniten Regresses (Yee 1996: 84,
Schimmelfennig 2006: 267, 2015: 102). Dies könnte den eingangs be-
nannten Funktionen der Vereinfachung und Abstraktion zuwiderlaufen,
weil man in einem solchen Modell statt eines aufs Wesentliche reduzier-
ten Abbildes die Realität in all ihrer Komplexität erfassen würde. Einen
absoluten Maßstab für die Vollständigkeit der identifizierten Mechanis-
men gibt es nicht. Das Kriterium heißt hier schlicht Plausibilität, d. h. die
Ebene muss so tief und die Zwischenschritte müssen so kleinteilig sein,
bis der nachzuweisende Zusammenhang plausibel erscheint (Gerring
2001: 195, Mayntz 2004: 241, 248). Das bedeutet, dass die Kette bei of-
fensichtlichen Zusammenhängen (beispielsweise einem Hammer, der
eine Nuss zertrümmert) auch sehr kurz sein kann, die Anforderungen an
deren Detailliertheit jedoch steigen, je weiter – zeitlich oder auch geogra-
phisch – die Faktoren auseinanderliegen (Little 1991: 15).
Von der Länge der Kausalkette, aber auch von den Ebenen, die sie um-
fasst, hängt die Beobachtbarkeit des Mechanismus ab. Wenn mir auch
die Auffassung einiger Autoren, Mechanismen seien grundsätzlich unbe-
obachtbar (Mahoney 2001: 581, Bennett 2004: 35, Bunge 2004: 200), zu
weitreichend erscheint, ist es sicherlich richtig, dass Unbeobachtbarkeit

98 Das Forschungsdesign

eine wesentliche Eigenschaft von Mechanismen darstellt (Kurki 2007:


365, Mearsheimer/Walt 2013: 433). Zwar können einzelne Bestandteile
von Mechanismen, Entitäten und Aktivitäten, sehr wohl beobachtbar
sein und diejenigen, die es nicht sind, müssen so operationalisiert wer-
den, dass sie beobachtbar werden. Die zwischen diesen Elementen wir-
kenden Kräfte entziehen sich aber häufig der Beobachtung, weil sie auf
der nicht direkt zugänglichen Makro- oder Mikro-Ebene wirken (Ben-
nett/Checkel 2015: 10-11).
Folglich existieren Mechanismen tatsächlich und sind zugleich Ge-
dankenkonstrukte und Produkte unserer Vorstellungkraft und Kreativität
(!), die das, was tatsächlich passiert, widerspiegeln sollen (Mahoney 2001:
581, Bunge 2004: 200-201). Die Funktion eines Erklärungsmodells be-
steht somit darin, im Wechselspiel mit Daten, Hypothesen und beste-
henden Theorien die beobachtbaren und unbeobachtbaren Bestandteile
eines Mechanismus zu theoretisieren (Bunge 2004: 200-201, Mearshei-
mer/Walt 2013: 432, Bennett/Checkel 2015: 12). Die theoretische Formu-
lierung eines Modells vor der empirischen Arbeit – ex ante – soll vorm
Geschichtenerzählen bewahren und die Konzentration auf eine kausale
Argumentation richten (Schimmelfennig 2015: 105).
Anders als die Bezeichnung nahelegt, meint der Begriff „Mechanis-
mus“ nicht automatische Prozesse, sondern bezieht sich auf deren Funk-
tionsweise – es geht darum, was diese Prozesse zum Laufen, zum Arbeiten
bringt (Sayer 1992: 106, Bunge 2004: 203). Dennoch ist ein gewisser De-
terminismus mechanismischen Erklärungsansätzen nicht abzusprechen,
denn einen Mechanismus zu formulieren, bedeutet ja, aufzuzeigen, dass
vom Erklärungsfaktor zum interessierenden Phänomen ein Kausalpfad
führt, der letzteres hinreichend erklärt – man zeigt also auf, warum das
Ergebnis so aufgetreten ist wie es aufgetreten ist (Gerring 2008: 170, Ben-
nett/Checkel 2015: 12). Dennoch kann man Mechanismen auch probabi-
listisch fassen, was der Beschaffenheit der sozialen Welt näher kommt.
Zwar gibt es Muster, Tendenzen und Dynamiken, die mit einer gewissen
Regelmäßigkeit vorkommen (Goldthorpe 2000: 152-154), aber eben auch
– nicht zuletzt durch die Handlungsmacht der Akteure bedingte – Beson-
derheiten und Kontingenzen, die diese Regelmäßigkeit durchbrechen
und Abweichungen von der Regel produzieren (Little 1991: 18-19).
Theoriegenerierung mittels eines Erklärungsmodells 99

Zu berücksichtigen sind außerdem die Kontextbedingungen, unter


denen Mechanismen operieren: Ob die generativen Kräfte, die den Erklä-
rungsfaktoren innewohnen, aktiviert werden, hängt von der (möglicher-
weise zufälligen) Präsenz, der Ausprägung und der Konfiguration dieser
Kontextbedingungen – in verschiedenen Sequenzen des Mechanismus –
ab (Sayer 1992: 107-108, Bunge 2004: 195). Folgt man allerdings der Idee
der Pfadabhängigkeit, kann man zumindest annehmen, dass die Wahr-
scheinlichkeit, dass ein Mechanismus durchläuft, von Phase zu Phase
zunimmt, da das Abweichen vom Pfad immer schwieriger wird (Pierson
2000). Während also echte Gesetzmäßigkeiten, im Sinne eines perfekten
Zusammenhangs bestimmter Faktoren, in der sozialen Welt kaum zu
finden sind, sind dennoch bei bestimmten Konstellationen von Faktoren
bestimmte Prozesse und Ergebnisse wahrscheinlicher als andere. Entspre-
chend verstehe ich auch meinen Erklärungsansatz: Es geht um Faktoren
und Prozesse, die zum Ergebnis beigetragen – d. h., es wahrscheinlicher
gemacht – haben.
Die meisten Autoren sind sich einig, dass es sich bei Mechanismen
um kausale Behauptungen mit einem konditionalen Generalisierungsan-
spruch handelt (Mayntz 2004: 238). Wie universell oder spezifisch dieser
Anspruch ist, oder anders formuliert, welche Reichweite der Mechanis-
mus hat, hängt ebenfalls mit der Kontingenz der Ausgangs- bzw. der
Sequenzbedingungen zusammen. Wenn diese Bedingungen in anderen
Fällen vorliegen, ist auch der Mechanismus zu erwarten (Mayntz 2004:
245, McKeown 2004: 163). Liegen die Bedingungen regelmäßig vor, sind
auch entsprechende Mechanismen häufig zu erwarten und können des-
halb als generell angesehen werden.58 Das bedeutet, dass weniger kontin-
gente Mechanismen, die durch wenige und zugleich häufige Bedingungen
oder aber durch viele verschiedene Bedingungskonstellationen ausgelöst
und weitergetragen werden können, eher verallgemeinert werden können.
(Doch daraus folgt mitnichten, dass mechanismische Erklärungen, die –
aufgrund ihrer Kontingenz – lediglich für Einzelfälle formuliert werden

58
Little 1991: 16, Mayntz 2004: 241, Scharpf 2006: 65, Gerring 2008: 169. Nur
einige solcher Mechanismen seien als Beispiele herausgegriffen: die selbsterfül-
lende Prophezeiung, Kaskadendynamiken und Sozialisation.

100 Das Forschungsdesign

können, weniger Gültigkeit beanspruchen können.) Formuliert man ein


mechanismisches Erklärungsmodell, so gilt es, dessen Geltungsbedingun-
gen zu spezifizieren und Vermutungen über dessen Reichweite anzustellen
(Bennett/Checkel 2015: 13). Dies tue ich im Fazit dieses Buches.

Anwendung des Erklärungsmodells: Theoretisch geleitete


Prozessanalyse als spezifische Art der Kongruenzmethode
Ist das Erklärungsmodell entwickelt, so ist damit zwar die theoretische
Zielsetzung der Arbeit (zumindest teilweise) erfüllt – ob das Modell je-
doch seine Hauptfunktion, die Erklärung des Puzzles, erfüllen kann, d. h.
sich auch empirisch bewährt, muss noch überprüft werden. Wie diese
Überprüfung erfolgt, schildern die folgenden Abschnitte.

Ein fallinteressierter Theorietest: Nützlichkeit statt Richtigkeit


Theorien können mit zwei Zielsetzungen auf empirische Beispiele ange-
wendet, sprich, getestet, werden: aus Interesse an der Theorie, um ihre
Gültigkeit einzuschätzen, oder aus Interesse an einem Fall, um ihn zu
erklären. Hier erfolgt ein fallinteressierter Theorietest – ich überprüfe die
Erklärungskraft des Modells für den Untersuchungsfall. Weil die Fallaus-
wahl damit, wie in vielen Y-zentrierten Designs, schlicht „not an issue“
ist, (Schimmelfennig 2015: 105), erübrigt sich auch die Klassifizierung
der Fälle als most- oder least-likely case sowie die Klassifizierung des Tests
als double-decisive, smoking gun, hoop oder straw in the wind, weil solche
Tests eine systematische Fallauswahl voraussetzen (Van Evera 1997: 31-
32, Mahoney 2012: 574-583). Auf Basis dieser Studie sind folglich nur
beschränkt Aussagen über die generelle Gültigkeit des Modells möglich.
Der Fall erfüllt hier vielmehr eine heuristische Funktion, weil ein neuer
Ansatz an ihm ausprobiert wird, bevor man diesen schließlich systema-
tisch testet, was hinsichtlich der Theorie aussagekräftigere Ergebnisse
brächte (Mahoney 2012: 584).
Worauf es also hier ankommt, ist nicht die allgemeine Richtigkeit,
sondern vielmehr die Nützlichkeit der Theorie für den Untersuchungsfall
(Waltz 1979: 124, Fehl 2004: 359, 367, Beach/Pedersen 2013: 19). Be-
Theoriegenerierung mittels eines Erklärungsmodells 101

währt sich das Modell, hat es seinen Zweck in dieser Arbeit erfüllt, müss-
te aber, um Robustheit zu erlangen, an weiteren Fällen getestet werden.
Scheitert es (gänzlich oder in Teilen), würde das Hauptziel dieser Arbeit
verfehlt, das Modell selbst müsste aber nicht verworfen werden, sondern
könnte für andere Fälle weiterhin von Nutzen sein. Aufgrund der Schwä-
che des hier durchgeführten Tests werde ich in der Abschlussbetrachtung
die Verallgemeinerbarkeit des Modells einschätzen und Kriterien für
mögliche Testfälle vorschlagen.

Kongruenzanalyse: empirische Überprüfung theoretischer Erwartungen


Wie man Theorietests durchführt, bleibt unabhängig von der Zielsetzung
weitgehend gleich. Das übliche theorietestende Verfahren ist die Kongru-
enzanalyse, gelegentlich auch „pattern matching“ genannt: Sie dient
dazu, Theorien empirisch zu validieren (Little 1991: 8), indem überprüft
wird, ob die theoretischen Erwartungen in der Empirie ihre Entsprechung
finden, d. h. mit dieser kongruent sind (George/Bennett 2005: 181, Blat-
ter/Blume 2008: 325, Yin 2009: 136). Mit der kovarianzorientierten Varian-
te der Kongruenzmethode überprüft man, ob die Variablen so kovariie-
ren, wie die Theorie es vorhersagt, d. h. ob die theoretisch postulierten
unabhängigen mit den theoretisch postulierten abhängigen Variablen
einhergehen (Bennett 2004: 24, George/Bennett 2005: 181). In der me-
chanismusorientierten Variante ist die Kovariation in der Regel bereits etab-
liert – überprüft wird hingegen, ob sich der theoretisch postulierte Me-
chanismus, der diese Kovariation hervorbringt, empirisch aufspüren lässt
(Blatter et al. 2007: 125, Beach/Pedersen 2013: 146). Beide Arten von
Theorietests sind in der Regel gleich aufgebaut: Im ersten Schritt werden
theoretische Annahmen und Erwartungen spezifiziert, im zweiten wer-
den sie operationalisiert, d. h. in empirisch beobachtbare Evidenz über-
setzt, im dritten Schritt werden die empirischen Daten erhoben und aus-
gewertet, und im vierten Schritt schließlich werden die theoretischen
Erwartungen mit empirischen Ergebnissen verglichen (Scharpf 2006: 64-
65, Schmitter 2008: 294).
Der erste Schritt ist reine Theoriearbeit – „the examination of the the-
ory itself“ (Little 1991: 8). Um das Theoriegebäude sicher aufzustellen, d.

102 Das Forschungsdesign

h. dessen theoretische Kohärenz und Plausibilität aufzuzeigen, gilt es, ers-


tens die relevanten Konzepte möglichst klar zu erfassen und zweitens zu
explizieren, in welcher Beziehung sie zueinander stehen (Goertz 2006: 5).
Die Konzeptspezifikation muss die Bedeutung eines Konzeptes verdeutli-
chen (Sartori 1970: 1045), indem offengelegt wird, wie das Phänomen,
für das ein Konzept steht, beschaffen ist: Was sind dessen wesentliche
Eigenschaften, die es von anderen Phänomenen unterscheiden, wie
kommen sie zustande und wozu befähigen sie das Phänomen, d. h. wel-
che kausalen Kräfte verleihen sie ihm (Goertz 2006: 6, 27, Tilly 2008:
47)? Anschließend werden die Konzepte miteinander in Verbindung
gesetzt, d. h. die kausalen Beziehungen zwischen ihnen theoretisiert
(Gschwend/Schimmelfennig 2007: 16). Dabei muss festgelegt werden,
was die kausalen Faktoren und deren Wirkungen sind, sowie „welches
Ergebnis bei welchen Ausgangsbedingungen zu erwarten ist“ (Blatter et
al. 2007: 151). In mechanismusorientierten Theorien muss die Kausalket-
te aufgebaut werden (Gerring 2007: 73). Idealerweise werden auch die aus
der Theorie ausgeschlossenen Faktoren sowie die Rahmenbedingungen
(scope conditions), unter denen sie gilt, benannt (Mearsheimer/Walt 2013: 432).
Bei der Formulierung des Erklärungsmodells im theoretischen Kapitel
werde ich diesen Empfehlungen folgen und versuchen, „so viele Implika-
tionen der eigenen Theorie und der alternativen Theorien wie möglich“
zu bedenken (Dür 2007: 288, siehe auch Blatter et al. 2007: 155, Ben-
nett/Checkel 2015: 18). Dies hat zum einen eine interne Funktion, näm-
lich die eigene Theorie zu verbessern, indem ihrer Unterspezifizierung, d.
h. dem Auslassen theoretisch wichtiger Konzepte oder Schritte, entge-
gengewirkt wird (Dür 2007: 290). Zum anderen hat dies aber auch eine
externe Funktion, nämlich, dem Immunisierungsverbot zu folgen und
die Überprüfung und Kritik der Theorie durch andere Forscher zu ermög-
lichen (Patzelt 2007: 77).
Der Operationalisierungsschritt wirkt als Scharnier zwischen Theorie
und Empirie. Geleitet von der Frage, wie man abstrakte theoretische
Konzepte empirisch aufspüren kann (Tilly 2008: 47, De Bièvre 2007:
308), müssen wir Theoriebestandteile „into something observable, some-
thing we can measure“ übersetzen (de Vaus 2001: 24). Das ermöglicht,
Daten zu erheben, auszuwerten und schließlich der Theorie gegenüberzu-
Theoriegenerierung mittels eines Erklärungsmodells 103

stellen (King et al. 1994: 183, Goertz 2006: 6). Da Beobachtungen „nicht
für sich selbst sprechen“ (Gerring 2007: 70, Übersetzung ELR), muss im
Vorfeld der empirischen Erhebung festgelegt werden, wie sie interpretiert
werden sollen – welche Evidenz also die Theorie bzw. deren einzelne
Elemente bestätigen oder widerlegen würde (Beach/Pedersen 2013: 95).
Die Beobachtungen werden folglich zum Zwecke theoriebasierter Schluss-
folgerungen erhoben (Shapiro/Wendt 2005: 39, de Vaus 2001: 6-7).
Für andere Designs wird häufig empfohlen, die Anzahl der Variablen,
Hypothesen und Beobachtungspunkte zu reduzieren. Doch hier gilt das
Gegenteil: So wie im vorherigen Schritt möglichst viele theoretische Im-
plikationen offenzulegen waren, sind hier möglichst viele erwartete Evi-
denzen zu formulieren. Dies wird als Dichte der Operationalisierung be-
zeichnet (Blatter/Blume 2008: 348). Daher werde ich versuchen, die Be-
standteile des Modells in möglichst viele erwartete Beobachtungen zu
übersetzen, um die Dichte der empirischen Untersuchung zu erhöhen
und aus den erhobenen Daten möglichst viele Informationen zu extrahieren.
Der dritte Schritt leistet die empirische Arbeit. Angesichts der Vielzahl
der Methoden, mittels derer man Daten erheben und auswerten kann,
und angesichts der Notwendigkeit, die Wahl der Methoden und des Un-
tersuchungsmaterials ausgehend vom theoretischen Modell zu begrün-
den, lasse ich diese Diskussion an dieser Stelle aus und führe sie stattdes-
sen, nachdem das Modell tatsächlich entwickelt und operationalisiert ist.
Die Methoden direkt vor der Präsentation der Forschungsergebnisse dar-
zulegen, hat außerdem den Vorteil, dass sie der Leserin unmittelbar prä-
sent sind, wenn sie mit dem Datenmaterial konfrontiert wird.
Der Vergleich der empirischen Ergebnisse mit den theoretischen Er-
wartungen schließt den Theorietest ab. Stimmen beide überein, liegt eine
– je nach Typ des durchgeführten Tests – mehr oder weniger robuste
Bestätigung der Theorie vor. Gibt es Diskrepanzen, muss die Theorie wie-
derum je nach Art des Tests, aber auch je nach Ausmaß dieser Diskre-
panz, verworfen, oder zumindest diejenigen Bestandteile, die sich im Test
nicht bewährt haben, modifiziert werden.

104 Das Forschungsdesign

Das Testen von Kausalmechanismen mit Process Tracing


Eine theorietestende Vorgehensweise ist für dieses Projekt besonders rele-
vant – und zwar die Prozessanalyse, weil sie dezidiert dazu entwickelt
wurde, das Vorliegen von theoretisch postulierten Kausalmechanismen
zu überprüfen, und das Erklärungsmodell meiner Arbeit solche Mecha-
nismen enthält. Prozessanalytische Verfahren haben ihren Ursprung in
der Psychologie, wo sie dazu genutzt wurden, individuelle Entschei-
dungsprozesse zu rekonstruieren und in einzelne Entscheidungsschritte
zu zerlegen (Bennett/Checkel 2015: 5). Ebendieses Interesse dafür, wie
einzelne Schritte aufeinander folgen und ein Ergebnis hervorbringen,
welcher Mechanismus also kausale Faktoren und deren Wirkungen ver-
bindet, macht Process Tracing auch für die Politikwissenschaft so interes-
sant (George/Bennett 2005: 206). Weil die Entscheidung für Process Tra-
cing noch keine Entscheidungen für bestimmte Verfahren der Datenaus-
wertung beinhaltet, präzisiert Frank Schimmelfennig (2006: 265), es sei
„nicht so sehr eine spezifische Methode oder Technik als vielmehr eine
allgemeine Erklärungsstrategie“.
Es lassen sich zwei Arten von Prozessanalysen unterscheiden: Für
Phänomene, für die vorhandene Theorieansätze wenig Ausgangsvermu-
tungen hinsichtlich der relevanten Erklärungsfaktoren und Mechanis-
men anbieten, bietet sich induktives, d. h. empiriebasiertes Process Tra-
cing an. Induktive vorwärtsgerichtete Prozessanalysen sind dann sinnvoll,
wenn eine Vermutung über die Ursachen eines Phänomens, nicht aber
über den Mechanismus vorliegt. Ausgehend von den Ursachen arbeitet
man sich Schritt für Schritt bis zum Phänomen selbst vor und rekonstru-
iert dabei den Mechanismus. Induktive rückwärtsgerichtete Prozessanaly-
sen sind dann sinnvoll, wenn weder eine Vermutung über die Ursachen
noch über den Mechanismus vorliegt. Ausgehend vom Phänomen ver-
folgt man den kausalen Prozess solange zurück, bis man dessen Ursachen
identifiziert hat (Mayntz 2004: 238, 244, Bennett/Checkel 2015: 18).
Entscheidend ist in beiden Fällen, dass aus empirischen Beobachtungen
auf den Mechanismus geschlossen wird – induktives Process Tracing
dient der Theoriegenerierung (George/Bennett 2005: 7, Beach/Pedersen
2013: 16).
Theoriegenerierung mittels eines Erklärungsmodells 105

Da die vorliegende Arbeit auf ein reichhaltiges Theorieangebot zu-


rückgreifen kann, ist hier allerdings die zweite Variante – deduktives Pro-
cess Tracing – das Mittel der Wahl. Eine theoretisch geleitete Prozessana-
lyse wird dabei so durchgeführt wie ich es bereits allgemein für theorie-
testende Verfahren erläutert habe: Auch hier arbeitet man zunächst theo-
retisch und formuliert den Kausalmechanismus, danach spezifiziert man
die erwarteten Beobachtungen und sucht schließlich empirisch „nach
einer konkreten und geschlossenen Beweiskette“ (Blatter et al. 2007: 158,
Bennett 2004: 22, Gerring 2008: 167). Da die Kovariation zwischen X
und Y in solchen Designs in der Regel theoretisch etabliert oder empi-
risch offensichtlich ist (Schimmelfennig 2015: 104), erfolgen deduktive
Prozessanalysen in der Regel vorwärtsgerichtet und überprüfen, ob die
einzelnen Kettenglieder zwischen X und Y mit den theoretischen Vorher-
sagen kongruent sind (Bennett 2004, Checkel 2005: 363).
Die Vielzahl der Beobachtungen ist ein Grund dafür, weshalb Pro-
zessanalysen in der Regel in Einzelfallstudien zur Anwendung kommen:
Im Unterschied zu vergleichenden Designs, die wenige Beobachtungen
zum gleichen Zeitpunkt bzw. in der gleichen Zeitperiode, dafür jedoch in
mehreren Fällen machen, handelt es sich bei Prozessanalysen um Längs-
schnittstudien eines Falls, in dem der interessierende Mechanismus mit
vielen Beobachtungen zu verschiedenen Zeitpunkten aufgespürt werden
soll (Dür 2007: 289, Schimmelfennig 2015: 102). In dieser Studie soll
zwar ein Einzelfall (der lange Entstehungsweg der Norm gegen Streumu-
nition) erklärt werden – da jedoch mein Erklärungsmodell Mechanismen
enthält, die das Zusammenspiel zweier Normen über Zeit erfassen, besteht
das Design aus einer etwas komplexeren Kombination aus Querschnitts-
und Längsschnittfallstudien, und damit auch aus mehr als einem Fall.
Als Fall bezeichne ich die Entwicklung einer Norm in einem Untersu-
chungszeitraum (p) – „Zeitraum“ bedeutet, dass jeder der hier analysier-
ten Fälle für eine Längsschnittfallstudie steht. Systematisch empirisch
untersucht werden vier Fälle in drei Untersuchungszeiträumen: Napalm
in p1 (nap1) sowie Streumunition in p1 (cmp1), p2 (cmp2) und p3
(cmp3) (die Einteilung der Zeiträume begründe ich im Methodenkapitel
auf S. 256). Die erste Fallstudie untersucht die Fälle Napalm und Streu-
munition im Zeitraum p1. Diese Fallstudie bezeichne ich als Quer-
!
HXW! "#&!8?5&AB($'&3.&2'$!

schnittsfallstudie, weil beide Fälle im selben Untersuchungszeitraum lie-


gen. Die zweite Fallstudie untersucht die Fälle Streumunition in den Zeit-
räumen p1, p2 und p3. Diese Fallstudie bezeichne ich als Längsschnitt-
fallstudie, weil die Fälle in unterschiedlichen Zeiträumen liegen. In dieser
Längsschnittfallstudie verweise ich gelegentlich auf den fünften Fall,
Landminen, der im zweiten Untersuchungszeitraum liegt (lmp2). Dieser
Fall hat jedoch nicht den gleichen Stellenwert wie die anderen vier, weil
ich nur einzelne Aspekte selbst erhoben habe und vor allem auf Sekun-
därliteratur zurückgreife, um das Vorliegen permissiver Effekte auch in p2
zu plausibilisieren.

     


    
 
# 
# $ 
$ % 
%   

&# !'"  $

 
    
%( 2*#F= *1!/02$2*#08!%1/2)!<(('+*"%#2/1%+*2* ((012 %!*

Was macht eine gute Prozessanalyse aus? Die Qualitätskriterien für Pro-
cess Tracing umfassen zum Teil solche, die auch allgemein als Standards
guter wissenschaftlicher Praxis gelten können (Schimmelfennig 2015:
102). So muss man etwa dem Bestätigungsbias entgegenwirken (Ben-
nett/Checkel 2015: 24) – der gezielten Manipulation von Forschungsdes-
igns und Daten mit dem Ziel, die eigene Theorie zu bestätigen, aber auch
der möglicherweise (unbewussten) Interpretation der Forschungsergeb-
nisse im Sinne der eigenen Theorie (Bennett 2004, Leuffen 2007: 204,
MacCoun 1998). Die Forschung muss also tatsächlich offen sein, was in
Anbetracht des Forschungsziels, etwas herauszufinden oder zu überprü-
fen, selbstverständlich sein sollte.
Die Vorgabe der Forschungsoffenheit schließt auch die Mahnung ein,
alternative Erklärungen ernstzunehmen, d. h. auch aus theoretischen
Alternativen fallrelevante Schlussfolgerungen abzuleiten und diese „al-
ternative[n] Prozesshypothesen, die den Prozess so beschreiben, wie er
aussehen müsste, wenn er theoriekonform wäre“ (Schimmelfennig 2006:
267) entweder begründet auszuschließen oder in die Überprüfung einzu-
Theoriegenerierung mittels eines Erklärungsmodells 107

beziehen statt sie zu ignorieren (Sieberer 2007: 253-255, Bennett/Checkel


2015: 23). Dabei sind nicht nur theoretische, sondern auch fallspezifische
Erklärungen zu berücksichtigen (Bennett/Checkel 2015: 23). Der eigene
Erklärungsansatz wird umso plausibler, je überzeugender es gelingt, kon-
kurrierende Erklärungen zurückzuweisen (Dür 2007: 288).
Nun handelt es sich bei Process Tracing um ein ressourcenintensives
Vorhaben mit hohen theoretischen und empirischen Investitionskosten
(Checkel 2005: 367-368, George/Bennett 2005: 223). Daher ist es sinn-
voll, es vor allem dann anzugehen, wenn man nicht nur die Kovariation
zwischen X und Y etabliert hat, sondern auch einen starken Anfangsver-
dacht hat, dass zwischen den beiden Faktoren tatsächlich der vermutete
Mechanismus abgelaufen ist (Schimmelfennig 2015: 104). Dass ich einen
solchen Anfangsverdacht habe, entbindet mich freilich nicht von der Aus-
einandersetzung mit konkurrierenden Erklärungen. Ich überprüfe aller-
dings nicht mehrere potentielle Erklärungspfade empirisch, sondern
schließe alternative Erklärungen im Sinne des „efficient process tracing“
nach Frank Schimmelfennig (2015) schon früh aus und enge der For-
schungsprozess auf den meistversprechenden Erklärungsmechanismus ein.
Dies erfolgt in zwei Schritten. Bei der Konstruktion des Forschungsrät-
sels habe ich aufgezeigt, dass naheliegende Erklärungen kein überzeu-
gendes Muster der Kovarianz ergeben, um Varianzen innerhalb des Falls
wie auch zwischen den Fällen zu erklären. Mittels einer Kovarianzanalyse
überprüfe ich Erklärungen aus dem Bereich der Normenforschung, um
auf dieser Grundlage alternative Erklärungsfaktoren auszuschließen und
diejenigen Erklärungsfaktoren zu ermitteln, die in das Erklärungsmodell
integriert werden sollten. Ich bewerte die Erklärungskraft der alternativen
Erklärungen auf Basis des bereits über die Fälle Bekannten (Bennett 2004:
26-27). Empirisch teste ich jedoch nur diejenigen von ihnen, die den
ersten Kovariationstest bestehen, oder deren Plausibilität aus Mangel an
Informationen ohne weitere empirische Forschung nicht eingeschätzt
werden kann. Trotz des sorgfältigen Umgangs mit alternativen Erklärun-
gen bleibt immer das Risiko, nicht alle berücksichtigt bzw. einige u. U. zu
früh ausgeschlossen zu haben. Daher erhebe ich nicht den Anspruch, die
einzige plausible Erklärung destilliert zu haben, die für das Ergebnis not-

108 Das Forschungsdesign

wendig ist – vielmehr soll der hier entwickelte Erklärungsansatz dem Kri-
terium der „minimum sufficiency“ genügen (Beach/Pedersen 2013: 63).
Bei der Überprüfung des Modells kommt mit der Vollständigkeit ein
weiteres Qualitätskriterium für Prozessanalysen ins Spiel. Hierbei fließen
zwei bereits erläuterte Zielsetzungen zusammen: Erstens streben Pro-
zessanalysen danach, vollständig zu sein, d. h. uns möglichst lückenlos
von den Faktoren X zum Ergebnis Y zu führen. Zweitens sollten gute
Prozessanalysen möglichst viele Aspekte des Mechanismus beleuchten
und für diese Aspekte wiederum möglichst viele empirische Evidenzen
heranziehen. In der Kombination können beide Anforderungen (ein bis
ins kleinste Detail ausformulierter Mechanismus, dessen sämtliche Se-
quenzen mit großen und vielfältigen Datenmengen zu belegen wären)
unter Machbarkeitsgesichtspunkten selbst dann eine Herausforderung
darstellen, wenn die zuvor besprochenen Ausschlussoperationen durch-
geführt wurden und nur ein einziger Mechanismus erforscht werden soll.
Wiederholt kann hier Theorie Abhilfe schaffen – einerseits, indem man
die entscheidenden Bestandteile des Mechanismus theoretisch identifi-
ziert und die empirische Überprüfung auf diese beschränkt (Schimmel-
fennig 2006: 267). Andererseits, indem das, was nicht überprüft wird,
zumindest theoretisch plausibel bleiben muss. Während man also wei-
terhin versuchen sollte, in der Prozessanalyse eine geschlossene Beweis-
kette zu konstruieren, muss man sich zugleich damit abfinden, dass auch
Prozessanalysen nur Schnappschüsse des Prozesses und kein vollständiges
Narrativ liefern können (Schimmelfennig 2015: 125). Das Kriterium der
Vollständigkeit lässt sich daher eher als intersubjektive Nachvollziehbar-
keit und Plausibilität interpretieren, die es mit einer Mischung aus theo-
retischen Begründungen und empirischen Belegen zu erhöhen gilt.

Ausblick auf das folgende Kapitel


Dieses Buch folgt einem Y-zentrierten Design, dessen Rätsel in einer zwei-
fachen Varianz – diachron innerhalb eines Falles und synchron zwischen
jeweils zwei Fällen – begründet liegt und theoriegeleitet mittels einer
Prozessanalyse gelöst werden soll.
Ausblick auf das folgende Kapitel 109

Der folgende theoretische Teil leitet die Umsetzung der hier dargeleg-
ten Erklärungsstrategie ein. Sie erfolgt in drei Kapiteln: Zunächst arbeite
ich den theoretischen Forschungsstand zu internationalen Normen auf,
mit dem Ziel der Deduktion potentieller Erklärungsfaktoren. Dann stelle
ich diese Faktoren in einer Kovarianzanalyse den Untersuchungsfällen
gegenüber, mit dem Ziel, irrelevante Erklärungsfaktoren auszuschließen
und potentiell erklärungskräftige Faktoren zu ermitteln. Schließlich ent-
wickle ich das theoriebasierte Erklärungsmodell, das neben den Phasen der
Normentstehung auch Mechanismen, die permissive Effekte erzeugen,
umfasst. Damit wird der kausale Prozess entworfen, der das Rätsel, das
dieses Buch erforscht, hervorgebracht haben könnte.

Teil II


Der theoretische Rahmen:
Internationale Normen und permissive Effekte

4 Theorieerfassung: Bestandsaufnahme und


Erklärungspotential der Normenforschung

In diesem Kapitel erfolgt der erste der insgesamt fünf Forschungsschritte:


In einer Bestandsaufnahme der theoretischen Konzepte und Erkenntnisse
der Forschung über internationale Normen werden deduktiv mögliche
Erklärungsfaktoren für deren Entstehung bzw. Nicht-Entstehung gewon-
nen. Damit führe ich in die theoretische Diskussion ein und bereite die
Grundlage für das Erklärungsmodell dieser Arbeit.
Ich beginne mit einem Überblick über die theoretischen Grundlagen
der Normenforschung. Hier werden die Definition, Funktionen und Wir-
kungsmechanismen von internationalen Normen beleuchtet. Da es das
Hauptanliegen meiner Arbeit ist, die Nicht-Entstehung einer Norm zu
erklären, setze ich mich im darauffolgenden Abschnitt mit der Frage aus-
einander, wie entstandene und nicht-entstandene Normen identifiziert
werden können und welche Erklärungsansätze es rund um die Entste-
hung von Normen gibt. In Anerkennung der wesentlichen Rolle, die
Normunternehmern in solchen Prozessen zugeschrieben wird, werden im
nächsten Abschnitt diese Akteure konzipiert und anschließend ihre Stra-
tegien beschrieben. Dies geschieht mit dem Ziel, Aufschluss über die Fak-
toren zu erhalten, die für den Erfolg von Normentstehungsprozessen
relevant sind. Im letzten Abschnitt fasse ich die zentralen Erkenntnisse
dieses Kapitels zusammen.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_4

114 Theorieerfassung

Konzeptionelle Grundlagen: Definition und Wirkungen von


Normen
Als Importdisziplin, die gerne begriffliche und theoretische Anleihen an
anderen Sozialwissenschaften nimmt (Wiener 2010: 339) haben die In-
ternationalen Beziehungen auch die Vorstellung der sozialen Normen
nicht erfunden, sondern sie vielmehr für sich entdeckt, konzeptionell
übersetzt und darauf einen fruchtbaren Forschungsstrang begründet.
Dieses Konzept steht im Mittelpunkt des folgenden Abschnitts.
Nach der langen Uneinigkeit darüber, ob Normen normativ als Verhal-
tensvorschriften (Krasner 1983: 2) oder behavioristisch als Verhaltensregel-
mäßigkeiten (Axelrod 1986: 1097, Thomson 1993: 80) zu konzipieren
sind, ist in der konstruktivistischen Literatur schließlich eine Definition
von Normen als „collective expectations about proper behavior for a
given identity“ (Jepperson et al. 1996: 54) (Jepperson et al. 1996: 54)zum
Standard avanciert. Sie vereint sowohl die Normativität als auch die
Normalität von Normen: Normen sind Handlungsanweisungen, die entwe-
der als Gebote, also als Aussagen über das zu wählende, oder als Verbote,
also als Aussagen über das zu vermeidende Verhalten, formuliert sind.59
Mit anderen Worten „fordern, verbieten und erlauben [Normen] Hand-
lungsweisen und bringen Pflichten oder Rechte zum Ausdruck” (Budde-
berg/Vesper 2013: 9). Wichtig ist, dass mit der Verhaltensvorschrift auch
eine gewisse Verhaltenspraxis einhergeht (Onuf 1998: 59). Das bedeutet
zwar nicht, dass gelegentliche Normbrüche die Existenz einer Norm wi-
derlegen, denn Normen gelten auch kontrafaktisch.60 Wenn aber der
Regelfall, also die Verhaltenskonstanz, nicht mehr gegeben ist, hören
Normen auf, Normen zu sein (Sandholtz 2008: 107).
Nach dem ursprünglichen soziologischen Konzept von Emile Durk-
heim (1983 [1897]: 285-296) richten sich Normen, als kondensierte ge-
sellschaftliche Erwartungen, an Individuen, die in diese Gesellschaft ein-
gebettet sind. In den Internationalen Beziehungen sind die primären

59
McElroy 1992: 31, Tannenwald 1999: 436, Deitelhoff 2006: 37, Hur-
rell/Macdonald 2013: 69-70.
60
Kratochwil/Ruggie 1986: 767, March/Olsen 1989: 22, Kratochwil 1991: 100, Price
2004: 114.
Konzeptionelle Grundlagen 115

Normadressaten in die internationale Gemeinschaft eingebettete Staaten.


Inzwischen richten sich internationale Normen aber auch an zwischen-
staatliche Akteure wie internationale Organisationen und an nichtstaatli-
che Akteure wie Unternehmen und Nichtregierungsorganisationen.61
Normen gelten für bestimmte Akteure bzw. Gruppen mit einer ge-
meinsamen Identität (Kowert/Legro 1996: 452-453). Sie sind ihrem We-
sen nach kollektiv und intersubjektiv – dadurch unterscheiden sie sich
von Ideen. Letztere bezeichnen individuelle Überzeugungen und Präfe-
renzen, welche erst durch ihre „Geteiltheit“ soziale Faktizität erlangen:
Sie werden zu Normen, wenn sich Akteure auf sie einigen, an sie glauben
und sie in der Praxis reproduzieren.62 Der sozialen Verhaltensvorschrift ist
allerdings ein weiteres intersubjektives Moment vorgelagert, nämlich
eine gemeinsame Auffassung und Auslegung von Wirklichkeit. Solche
„kollektiv geteilten Realitätsverständnisse“ (Elgström 2000: 459, Überset-
zung ELR) ermöglichen die Entstehung der Norm – und die Akteure kön-
nen darauf zurückgreifen, um die Norm zu interpretieren und einzu-
schätzen, ob Handlungen normkonform sind (Finnemore 1996b: 160,
Payne 2001: 37, Alderson 2001: 422).
Wenngleich sicherlich Zweifel angebracht sind, ob Normen die an sie
gerichtete Funktionserwartung immer erfüllen (Deitelhoff 2006: 48),
schließe ich mich der dominanten funktionalistischen Konzeption von
Normen an: Demnach entstehen Normen als Reaktion auf (soziale) Prob-
leme und stellen (wertebasierte) Lösungsversuche für diese Probleme dar
(Ullmann-Margalit 1977: 9-10, Kratochwil 1991: 69, Kübler 2001: 451,
Winston 2017: 3). Ein Typus solcher Probleme sind Probleme kollektiven
Handelns, zu deren Lösung Normen durch ihre Koordinationsfunktion
beitragen (Elster 1989: 107, Kratochwil 1991: 69, Kacowicz 2005: 34).
Während solche zwischenstaatlichen Kooperationssituationen mit distri-
butiven Elementen in der Regimetheorie im Vordergrund standen, erwei-
terte die konstruktivistische Wende in der Normenforschung den Blick
auf das Verhalten der Staaten gegenüber Individuen, wie es etwa durch

61
Park 2006, Capie 2008, Herr 2015, Coni-Zimmer 2014, Dany/Schneiker 2018.
62
Farrell 2001: 71, Finnemore/Sikkink 1998: 892, Finnemore/Sikkink 2001: 393,
Kacowicz 2005: 17, Risse 2000b: 5, Searle 1995: 38-47.

116 Theorieerfassung

Menschenrechte oder das humanitäre Völkerrecht vorgeschrieben wird


(McElroy 1992: 35).
Durch ihren imperativen Charakter fungieren Normen als Orientie-
rungspunkt und Verhaltensmaßstab. Formuliert als „Du sollst-“ oder „Es
wird erwartet, dass du“-Sätze, spezifizieren sie das erwartete Verhalten für
„wiederkehrende soziale Handlungssituationen“ (Deitelhoff 2006: 37),
instruieren dadurch die Akteure und ermöglichen eine Bewertung ihres
Verhaltens (Farrell 2001: 71, Bull 1977: 53, Kratochwil 1984: 686). In
diesem Sinne wirken Normen regulativ – sie lenken das Verhalten von
Akteuren, wobei Verbotsnormen die Möglichkeit, etwas zu tun, und Ge-
botsnormen die Möglichkeit, etwas nicht zu tun, delegitimieren.63
Normen wirken aber auch konstitutiv. Damit ist ihre auf mehrfache
Weise bedeutungsstiftende Funktion gemeint. Mit Blick auf die Akteure
geht es um die Stiftung von Identität – die Formierung des Selbstver-
ständnisses wie auch der Fremdwahrnehmung davon, was man ist.64
Nachdem zunächst in Normentstehungsprozessen grundlegende gemein-
same Überzeugungen darüber, wer die Akteure sind und auf Basis welcher
Werte sie agieren, herausgebildet werden (Klotz 1996: 27), wirkt die Ak-
zeptanz und die Befolgung bestimmter Normen einerseits nach innen
und wird so zur Stütze der eigenen Identität. Andererseits wirkt sie auch
nach außen und wird zum Indikator und Signal von Zugehörigkeit für
andere, weshalb Normen auch eine Inklusions- bzw. Exklusionsfunktion
zugeschrieben wird (Elster 1989: 109, McElroy 1992: 51, Legro 1997:
54).65 Normen erlauben nicht nur Aufschluss darüber, wer zur Gemein-
schaft gehört und wer nicht, sondern auch darüber, welchen Rang die
Akteure in dieser Gemeinschaft einnehmen, wo sie also in der sozialen
Hierarchie stehen (Towns 2012: 180, 188, Towns/Rumelili 2017).

63
Searle 1995: 50, Tannenwald 1999: 434-437, Lutz/Sikkink 2000: 658, Kacowicz
2005: 33.
64
Wendt 1992: 397, Kowert/Legro 1996: 453, March/Olsen 1989: 161, Cancian
1975: 137.
65
Eine ähnliche Signalfunktion haben auch technische Normen – indem sie festle-
gen, welche Eigenschaften Produkte und Prozesse aufweisen sollen, wie diese zu
funktionieren haben und was man von ihnen erwarten kann, indizieren sie deren
Kompatibilität mit anderen Produkten und Prozessen (Heires 2008: 357).
Konzeptionelle Grundlagen 117

Eine weitere Dimension der konstitutiven Funktion von Normen be-


trifft die Handlungen, auf die sie sich beziehen. So definieren sie nicht
nur, welche Handlungen erlaubt und verboten sind, sondern wirken viel
grundsätzlicher. Denn sie legen fest, was als eine solche Handlung zählt,
bzw. in welchem Kontext eine Handlung eine bestimmte Bedeutung
erlangt und in eine bestimmte Kategorie fällt (grundlegend Searle 1995:
43-50, ähnlich auch Laffey/Weldes 1997: 210, Ruggie 1998: 22).66 Nor-
men kreieren also einen interpretativen Rahmen, innerhalb dessen Hand-
lungen verstanden, Forderungen gestellt und Begründungen vorgebracht
werden können – sie ermöglichen damit Kommunikation (Kratochwil
1984: 686, March/Olsen 1989: 52, Kratochwil 1991: 69-70). Normen stif-
ten aber nicht nur Bedeutungen, sondern auch Ordnung, indem sie auf
die Struktur des internationalen Systems einwirken und das normative
Fundament der internationalen Politik bilden (March/Olsen 1989: 52,
Wiener 2004: 189).
Während unterschiedliche Normen diese unterschiedlichen Funktio-
nen in unterschiedlichem Maße erfüllen, sei der Hinweis erlaubt, dass
eine Unterscheidung in regulative und konstitutive Normen, wie sie ge-
legentlich vorgenommen wird (Raymond 1997: 214, Finnemore/Sikkink
1998: 891, Alderson 2001: 421), nicht überzeugend ist. Keine Norm ist
entweder regulativ oder konstitutiv, sondern Normen wirken immer zu-
gleich regulativ und konstitutiv: Als „Medium sozialer Kontrolle“ beein-
flussen sie das Verhalten; als „Medium sozialer Konstruktion“ schaffen sie
Bedeutungen von Objekten, Handlungen und Identitäten (Onuf 1998: 68).

66
Dass die Frage, was als eine bestimmte Handlung, als ein bestimmtes Objekt oder
als ein bestimmter Akteur zählt, in den internationalen Beziehungen von höchs-
ter Relevanz ist und gravierende Folgen zeitigen kann, liegt auf der Hand: Der
Einsatz und schon die Androhung militärischer Gewalt sind nach Art. 2 (4) der
UN-Charta verboten, aber wann ist etwas ein verbotener Angriffskrieg und wann
legitime Selbstverteidigung? Die Einmischung in die inneren Angelegenheiten
eines Staates ist nach Art. 2 (7) der UN-Charta verboten, aber wann zählen Men-
schenrechtsverletzungen als innere und wann als internationale Angelegenheit?
Der Einsatz inhumaner Waffen ist verboten, doch welche Waffen zählen als solche?

118 Theorieerfassung

regulative Wirkung konstitutive Wirkung

Wirkung auf Koordination Identitätsstiftung


Akteure Ergebnisoptimierung Bestätigung nach innen und außen
Verhaltensinstruktion Inklusion / Exklusion
Verhaltensevaluation Hierarchie

Wirkung auf Problemlösung Definition von Bedeutungen


Struktur Kommunikation Schaffung eines interpretativen
Rahmens
Schaffung eines normativen Fun-
daments

Tabelle 3: Funktionen von Normen (eigene Zusammenstellung)

Diese unterschiedlichen Funktionen und Wirkungsweisen von Normen


schlagen sich auch in den beiden Handlungslogiken nieder, welche klas-
sischerweise genannt werden, wenn es um die Motive der Akteure für die
Einhaltung von Normen geht: die Konsequenzialitätslogik (logic of conse-
quences) und die Angemessenheitslogik (logic of appropriateness), mit de-
nen als handlungstheoretische Idealtypen der homo oeconomicus und der
homo sociologicus einhergehen (Weise 1989, March/Olsen 1998: 949-950,
Deitelhoff 2006: 112).
Die rationalistische Konsequenzialitätslogik erfasst Koordination und
Ergebnisoptimierung. Als rationale Nutzenmaximierer konzipierte Akteu-
re entscheiden sich auf Basis individueller Kosten-Nutzen-Kalküle und
feststehender Präferenzen für diejenige Handlungsalternative, die ihnen
den größten Nutzen verspricht – sie orientieren sich damit an den antizi-
pierten Konsequenzen einer Handlung für die eigenen und kollektiven
Ziele (Elster 1989: 99, March/Olsen 1998: 949-950). In einem erweiterten
rationalistischen Verständnis (welches allerdings bereits bei Adam Smith
zu finden war) lässt sich auch die Existenz einer sozialen Identität durch-
aus in das Modell integrieren, wenn in die Präferenzordnung des Akteurs
auch nicht-materielle Faktoren wie soziale Anerkennung, Status und Re-
putation aufgenommen werden (Akerlof 1980: 753-756, Bernheim 1994:
843, Mayntz 2009a: 68-69). Die Normbefolgung bleibt jedoch instrumen-
tell, weil sie mit dem Ziel geschieht, zu einer Gruppe dazuzugehören oder
Konzeptionelle Grundlagen 119

seinen Ruf als verlässlicher Kooperationspartner aufrechtzuerhalten


(McElroy 1992: 50). Dennoch ist auch hierbei eine intrinsische Kompo-
nente enthalten – zwar glauben die Akteure nicht unbedingt an die Rich-
tigkeit der Norm, offenbar jedoch an die Bedeutung der Identität und der
Gruppe (Cancian 1975: 138-139).
Ist im rationalistischen Menschenbild die Gesellschaft nicht mehr als
ein Faktor auf der Nutzenfunktion des Akteurs, so ist sie in der durkheim-
schen Konzeption der sozialen Akteure „eine Macht, die sie bestimmt“
(Durkheim 1983 [1897]: 271). Der Angemessenheitslogik folgende Akteu-
re überlegen, in welcher Situation sie sich befinden, wer sie sind und
welches Handeln für diese Situation angemessen ist, wobei die Angemes-
senheitsvorstellungen in Normen festgehalten, sozial geformt und durch
Sozialisation vermittelt werden (March/Olsen 1989: 23, March/Olsen
1998: 949-950, Sending 2002: 447). Die Befolgung von Normen ist hier
intrinsisch motiviert, d. h. die Akteure haben die (in Normen konden-
sierten) gesellschaftlichen Erwartungen verinnerlicht und agieren aus
dem Glauben an die Richtigkeit der Norm heraus (Mayntz 2009a: 74,
Elster 1989: 104). Im Konzept der Angemessenheitslogik können Normen
und Interessen zusammen- (und auch wieder auseinander-)laufen: Das,
was die Akteure wollen und als ihr Interesse definieren, ist nicht a priori
gegeben, sondern erst ein Ergebnis einer Auseinandersetzung des Akteurs
mit der Situation und mit den Erwartungen, die an ihn aufgrund seiner
Identität (von ihm selbst und von anderen) gerichtet werden. Daher
kann normkonformes Verhalten durchaus im Interesse des Akteurs lie-
gen, auch wenn es das nicht muss (Weldes 1996: 276-277).
Ich teile also folgendes Verständnis von Normen: Normen sind kol-
lektiv herausgebildete, normative Erwartungshaltungen, welche in Ge-
bots- und Verbotssysteme übersetzt sind. Diese eröffnen ein Spektrum an
in bestimmten Situationen erforderlichen und erlaubten Handlungen
und entfalten darüber ihre verhaltensregulierende Wirkung auf Akteure
mit einer bestimmten Identität.

120 Theorieerfassung

Die Entstehung von Normen im Fokus der Normenforschung

Identifikationsversuche entstandener und nicht-


entstandener Normen
Wenn von Normentstehung die Rede ist, interessieren sich die Autorin-
nen in der Regel für die Genese und Diffusion von Normen. Mit Bezug
auf internationale Verhandlungen definiert Nicole Deitelhoff (2006: 45)
Normgenese als den Prozess, „durch den sich ein neuer normativer An-
spruch innerhalb einer Gruppe von Akteuren bildet“. Überträgt sich die
vereinbarte Norm auf andere Akteure und erfährt sie zunehmende inter-
nationale Akzeptanz, spricht man von Normdiffusion (Finnemo-
re/Sikkink 1998: 902, Santa-Cruz 2005: 671, Checkel 1999: 85). Die
Grenzen zwischen diesen Stufen sind jedoch fließend, denn auch die
Genese selbst lässt sich als Diffusionsprozess verstehen. In diesem teilen
immer mehr Akteure ehemals wenig verbreitete oder nur individuell
vorhandene Überzeugungen (Sikkink 2008: 91).
Aufgrund der internationalen Praxis, Normen in Dokumenten (Dekla-
rationen, Resolutionen, Konventionen oder Verträgen) zu verschriftli-
chen (Khagram et al. 2003: 15, Kacowicz 2005: 13), hat man in vielen
Fällen einen manifesten Zeitpunkt, auf den man die Normentstehung
datieren kann. Nicht alle Normen sind jedoch verrechtlicht; manche
existieren lediglich als (mehr oder weniger konsistente und verbreitete)
Verhaltenspraxis oder verbleiben solange in der internationalen Diskus-
sion, dass sie auch ohne formalen Abschluss als Normen gelten können
(Florini/Simmons 2000: 11, Finnemore 2000: 701).67 Wenngleich es in
methodischer Hinsicht sicherlich schwieriger ist, solche Normen aufzu-
spüren oder deren Entstehungszeitpunkt festzulegen, so ist dies dennoch
nicht unmöglich und kann über die Analyse der Verhaltenspraktiken
oder des internationalen Diskurses erfolgen (beispielsweise
Clapp/Swantston 2009 zum Verbot von Plastiktüten).

67
Ein Beispiel ist das vor allem von nicht-demokratischen Staaten befolgte Gebot,
Wahlbeobachter einzuladen (Kelley 2008: 223).
Die Entstehung von Normen im Fokus 121

Neuere Forschungsarbeiten, an die auch dieses Buch anschließt, len-


ken den Blick auf nicht-entstandene Normen, d. h. solche Fälle, in denen
sich bestimmte Probleme nicht in Problemlösungsversuche in Form ent-
sprechender Normen übersetzt haben (Carpenter 2007a, Kingston 2013,
Carpenter 2014). Während sich positive Fälle – entstandene internationa-
le Normen – recht einfach erkennen lassen, weil sie schriftlich in völker-
rechtlichen Dokumenten und politischen Absichtserklärungen oder fak-
tisch in der Verhaltenspraxis zum Ausdruck kommen, stellen uns Fälle
von Nicht-Entstehung vor die Herausforderung, sie überhaupt zu identi-
fizieren. So gibt es im Unterschied zu eindeutigen und der Anzahl nach
begrenzten Zeitpunkten der Formalisierung von Normen potentiell un-
endlich viele Zeitpunkte, an denen eine Norm nicht entstanden ist. Auch
gibt es potentiell unendlich viele Probleme, die nicht durch Normen
verregelt sind.
Vergleichsweise einfach zu identifizieren sind solche nicht-
entstandenen Normen, zu denen es sichtbare Normsetzungsbemühungen
gab, die jedoch erfolglos geblieben sind (beispielsweise, weil die Verhand-
lungen ergebnislos zu Ende gingen). Daneben gibt es Normen, die zwar
in formalen Verhandlungsergebnissen festgehalten wurden, jedoch ent-
weder nicht bindend oder inhaltlich derart schwach sind, dass man nicht
von einer Normentstehung sprechen kann (Bob 2012: 32).68 Schwerer zu
entdecken sind solche Fälle, für die nicht einmal bei den potentiellen
Normunternehmern ein entsprechendes Problembewusstsein herrscht
(Carpenter 2007b, 2010) – wenn etwas nicht als Problem wahrgenom-
men wird, wird man auch das Fehlen einer entsprechenden Norm
nicht bemerken.
Das Buch trägt zu zwei Aspekten dieser Problematik bei: Mit dem in
der Einleitung eingeführten Prinzip der Möglichkeit habe ich Instanzen

68
So ist es nach wie vor nicht gelungen, verbindliche menschenrechtliche, ökologi-
sche und ökonomische Verhaltenskodizes für in Entwicklungsländern tätige
Konzerne zu verabschieden; im Menschenrechtsbereich fehlen trotz einiger Ab-
sichtserklärungen Konventionen zum Schutz reproduktiver Rechte oder sexueller
Selbstbestimmung; das Protokoll zur Beseitigung explosiver Kampfmittelrück-
stände wurde ohne eine wesentliche Bestimmung – das Verursacherprinzip – an-
genommen; die Verhandlungen von Produktionsbeschränkungen für Kernmate-
rial werden seit nunmehr fast 20 Jahren nicht aufgenommen.

122 Theorieerfassung

der Nicht-Entstehung der Norm gegen Streumunition identifizieren kön-


nen. Außerdem systematisiere ich im theoriegenerierenden Kapitel ver-
schiedene Typen nicht-entstandener Normen.

Erklärungsansätze für die Entstehung und Nicht-Entstehung von


Normen
Das Forschungsinteresse für die Entstehung von Normen ist erst erwacht,
nachdem man der Auffassung war, hinreichend belegt zu haben, dass
Normen überhaupt ein relevanter Faktor in der internationalen Politik
sind. Zuvor ist die Normenforschung dafür kritisiert worden, Normen als
„unexplained sources of the exogenously given preferences of actors“
(Florini 1996: 363) zu behandeln und die Prozesse der sozialen Konstruk-
tion von Identitäten und Normen nicht zu analysieren (Kowert/Legro
1996: 454, 469). Dieser blinde Fleck kann inzwischen als behoben gelten:
Wenngleich es nach wie vor nicht das Modell der Normentstehung gibt,
existieren zahlreiche Studien, die Entstehungs- und Entwicklungsprozesse
von Normen konzipieren und empirisch untersuchen. Dabei wurde ins-
besondere Normunternehmern – denjenigen Akteuren, die solche Prozes-
se initiieren und vorantreiben – eine Menge Aufmerksamkeit zuteil.69
Ebenso sind Strategien und Mechanismen (wie Framing und Überzeu-
gung), die in dieser Phase eine besondere Rolle spielen, theoretisch re-
flektiert worden (Payne 2001, Deitelhoff 2009).
Der empirische Fokus umfasst mittlerweile eine Vielzahl von Normen
aus verschiedenen Politikfeldern – allerdings gilt nach wie vor, dass die
Normenforschung ein Forschungsstrang ist, der stark von Einzelfallstu-
dien und von Erfolgsfällen dominiert ist (Risse 2001: 264, Carpenter
2007b: 644).70 Erst neuerdings kommen Arbeiten hinzu, die eine negative
Ausprägung auf der abhängigen Variable aufweisen, d. h. gezielt nicht-

69
Beispielsweise Keck/Sikkink 1998, Elgström 2000, Flohr et al. 2010, Mit-
chell/Schmitz 2014, Wunderlich 2014, 2017.
70
Etwa Jennifer McCoy und Heather Heckel (2001) zur Entstehung der Anti-
Korruptionsnorm, Denise Garcia (2006) zur Anti-Kleinwaffennorm; Theo Farrell
zum humanitären Völkerrecht (2005) oder Jutta Joachim zur Gewalt gegen Frau-
en und reproduktiven Rechten (2003).
Normunternehmer 123

entstandene Normen analysieren.71 Die meisten dieser Studien überprü-


fen, ob diejenigen Faktoren, die in der Forschung als ausschlaggebend für
den Erfolg von Normentstehungsprozessen gelten, auch in ihrem Fall
vorlagen und nehmen die Abwesenheit dieser Faktoren als Erklärung.
Insbesondere Charli Carpenter (2007a, 2007b, 2010, 2011) erweitert das
Erklärungsspektrum, indem sie nicht das Fehlen von Erfolgsfaktoren,
sondern das Vorhandensein anderer Faktoren zu Erklärungen der Nicht-
Entstehung ausbaut.
Doch auch wenn Carpenter dabei vergleichend vorgeht, bleibt der
grundsätzliche Mangel an systematischen vergleichenden Fallstudien
bestehen (Davies 2007: 8, Rosert 2012: 614). Den heuristischen Wert der
Erkenntnisse schmälert dieser Punkt nicht, allerdings bedeutet es, dass
man zwar sagen kann, dass diese Erklärungsfaktoren eine Rolle spielen,
aber nicht, ob es sich dabei um notwendige oder hinreichende Bedin-
gungen handelt oder in welchen Konfigurationen sie auftreten müssen,
um letztlich zum Erfolg zu führen. Dies bleibt ein Forschungsdesiderat,
welches auch dieses Buch nicht behebt. Daher steht auch am Schluss
dieses Kapitels eine Aufzählung einzelner Erklärungsfaktoren, welche ich
zwar nach inhaltlichen Gesichtspunkten in problemzentrierte, akteurs-
zentrierte und strukturelle Faktorenbündel zusammenfasse, die sich aber
nach kausalanalytischen Gesichtspunkten – jenseits der grundsätzlichen
Annahme ihrer kausalen Relevanz – zunächst nicht weiter spezifi-
zieren lassen.

Im Einsatz für die Norm: Normunternehmer


Normen können auf zwei Arten entstehen: spontan und gezielt. Um
spontane Normentstehung handelt es sich, wenn sich Normen „without
conscious human design“ (Sugden 1989: 86) aus der Praxis herausbilden,
indem aus (zufälligen) Verhaltensregelmäßigkeiten Erwartungen mit Ver-
pflichtungscharakter werden.72 Zur Norm wird das Normale (Thomson

71
Beispielsweise Davies 2007, Carpenter 2007a, Kingston 2013, Carpenter 2014.
72
Ullmann-Margalit 1977: 11, Krasner 1983: 18-19, Kacowicz 2005: 29, Hur-
rell/Macdonald 2013: 69-70.

124 Theorieerfassung

1993). Aber mit dieser Form der Normentstehung befassen sich nur we-
nige Studien73 – stattdessen dominiert der Forschungsfokus auf gezielte
Normsetzung. Um gezielte Normsetzung handelt es sich, wenn Normen
dezidiert von Akteuren gefordert, verhandelt und schließlich angenom-
men werden. Zur Norm wird in diesen Fällen das Normative, wobei sich
die Normativität aus „bestehenden Erwägungen, Werten oder Ideen“
(Deitelhoff 2006: 45), also aus der immer schon vorhandenen Normiert-
heit sozialer Systeme speist (Taylor 1989: 144).
Die Akteure, die solche Prozesse gezielter Normschaffung vorantrei-
ben, werden als Normunternehmer (norm entrepreneurs, moral entrepre-
neurs) bezeichnet (Nadelmann 1990: 483). Sie erkennen und benennen
bestimmte Sachverhalte als Problem, d. h. als Kluft zwischen Sein und
Sollen, verankern dies im kollektiven Bewusstsein und fordern eine Prob-
lemlösung in Form einer Norm ein (McElroy 1992: 179-180, Keck/Sikkink
1998: 3, Deitelhoff 2006: 75). Kurzum, sie streben nach Veränderung.
Zwar können Normunternehmer auch selbst von dem jeweiligen Prob-
lem betroffen sein – nicht minder häufig engagieren sie sich jedoch als
Verfechter der Anliegen von anderen und handeln damit aus altruisti-
schen, empathischen und ideellen Motiven (Finnemore/Sikkink 1998:
912, Hahn/Holzscheiter 2013: 503). Ihr Engagement für Normen gilt als
unabdingbar (McElroy 1992: 180, Khagram et al. 2003: 14), zumindest
aber als „wichtiger Teil der Erklärung“ für die Entstehung von Normen
und ihren Wandel (Keck/Sikkink 1998: 2, ähnlich auch Risse 2000a: 178,
Müller/Wunderlich 2018).
Im Folgenden beschreibe ich mit der transnationalen Zivilgesellschaft,
den internationalen Organisationen und den Staaten drei mögliche
Gruppen von Normunternehmern,74 und benenne ihre jeweiligen Hand-
lungs- und Machtressourcen sowie ihre Erfolgsstrategien.

73
Ausnahmen sind Ben Kamis (2011), der den Entstehungsprozess der seerechtli-
chen Norm der Drei-Meilen-Grenze untersucht, und Betcy Jose (2017), die der
Frage nachgeht, wie es Human Rights Watch gelungen ist, zu verhindern, dass
aus der Praxis des targeted killing eine entsprechende Norm hervorgeht.
74
Ich beschränke mich auf diese drei Akteursgruppen, auch wenn durchaus aner-
kannt ist, dass es auch individuelle Normunternehmer gab, etwa zahlreiche Trä-
ger des Friedensnobelpreises (Alford 2008). Heute kann man vermutlich davon
ausgehen, dass sich engagierte Individuen größeren Netzwerken anschließen
Normunternehmer 125

Transnationale Zivilgesellschaft
Das Normunternehmerkonzept war lange Zeit (und ist heute noch größ-
tenteils) untrennbar mit nicht-staatlichem grenzüberschreitendem, d. h.
transnationalem Aktivismus verbunden. Auf nationalstaatlicher Ebene
schließen sich Akteure, als politische Aktivistinnen, schon lange zusam-
men, um sich für die Lösung sozialer Probleme einzusetzen, staatliches
Handeln zu kritisieren sowie neue Regeln und neue Rechte zu fordern.
Auf internationaler Ebene finden sich bereits Ende des 18. Jahrhunderts
erste Versuche zivilgesellschaftlicher Einflussnahme (Brühl 2003: 46). Seit
dem Zweiten Weltkrieg haben allerdings Anzahl und Interaktionsdichte
grenzüberschreitender zivilgesellschaftlicher Zusammenschlüsse deutlich
zugenommen; seit den 1970er Jahren haben sie mehrere große Schübe
erfahren (Smith 1997: 42-44). Die meisten dieser transnationalen Nicht-
regierungsorganisationen engagierten sich für Menschenrechte, gefolgt
von Umwelt, Frieden und Völkerrecht (Sikkink/Smith 2003: 30).
Margret Kecks und Kathryn Sikkinks (1998) bahnbrechendes Werk
„Activists Beyond Borders“ lenkte den Fokus auf die unterschiedlichen
Organisationsformen dieser Akteure. So existiert eine Vielzahl individuel-
ler Nichtregierungsorganisationen,75 welche sich außerdem in sozialen
Bewegungen, Netzwerken und Koalitionen zusammenschließen (Kha-
gram et al. 2003: 6-9). Diese unterscheiden sich anhand der Zwecke der
Zusammenschlüsse und des Koordinationsgrades. Transnationale soziale
Bewegungen bestehen in der Regel aus individuellen Akteuren, die ein
gemeinsames Anliegen eint; sie sind lose organisiert und zielen auf ge-
sellschaftliche Mobilisierung in Form von Demonstrationen und Aktio-
nen, um ihre politischen Forderungen durchzusetzen (Smith et al. 1997:
59-61, Khagram et al. 2003: 8).76 Transnationale Netzwerke bestehen in

(Knopf 2012: 174). Ingvild Bodes (2014, 2015) Arbeiten zu normativer Einfluss-
nahme einzelner Beamter in den Vereinten Nationen ausgenommen, fehlen bis-
lang konzeptionelle Arbeiten zu individuellen Normunternehmern.
75
Beim Wirtschafts- und Sozialrat der Vereinten Nationen, dem ECOSOC, sind
5.083 NGOs akkreditiert (Stand: November 2018) und freilich gibt es darüber
hinaus noch zahlreiche ohne Akkreditierung. http://csonet.org/?menu=100,
1.11.2018.
76
Beispielsweise die globalisierungskritische Bewegung.

126 Theorieerfassung

der Regel aus anderen Organisationen (wie NGOs, Think Tanks, Stiftun-
gen, Medien und Wissenschaftlerinnen), die zu bestimmten Problemfel-
dern arbeiten und Fürsprachearbeit für andere leisten; sie schließen sich
mit dem Ziel des Informationsaustausches und der Koordination zusam-
men (Keck/Sikkink 1998: 8, Carpenter 2007a: 105-106).77 Auch transnati-
onale Koalitionen bestehen aus verschiedenen Organisationen (und In-
dividuen) – im Unterschied zu Netzwerken handelt es sich dabei um
Gruppen, die sich mit einem klaren Ziel (einer bestimmten politischen
Maßnahme wie der Verabschiedung einer Norm) zusammenschließen
und auf dem Weg dorthin eine gemeinsame Strategie (etwa in Form von
Kampagnen) verfolgen (Khagram et al. 2003: 7, Smith et al. 1997: 65).78
Aufgrund der Überlappungen und Gemeinsamkeiten dieser Formen spre-
che ich im Folgenden allgemein von der transnationalen Zivilgesell-
schaft, transnationalen Akteuren oder transnationalem Aktivismus, so-
fern nicht explizit eine der Formen benannt ist.
Grundlage des transnationalen zivilgesellschaftlichen Normunter-
nehmertums sind gemeinsame Wertvorstellungen und Prinzipien – und
die Anerkennung, dass ein bestimmter sozialer Sachverhalt diesen so sehr
zuwiderläuft, dass er untragbar ist. Deshalb engagieren sich transnationa-
le Normunternehmer in der Fürsprachearbeit (advocacy) für die Verab-
schiedung, Akzeptanz und Einhaltung von Normen, und/oder als Dienst-
leister (service) in der Umsetzung von Normen (Keck/Sikkink 1998: 2,
Mitchell/Schmitz 2014: 4, Spiro 2013: 225). In der Regel betrifft ihr Ein-
satz öffentliche Güter – sie sind also gemeinwohlorientiert (Flori-
ni/Simmons 2000: 7). Zwar verfügen transnationale Akteure nicht über
klassische Machtmittel wie Militär, Kapital oder Entscheidungsbefugnis-
se, hierfür jedoch über Glaubwürdigkeit, moralische Autorität, Expertise
und damit über diskursive Macht – verstanden als die Macht über Infor-

77
Beispielsweise das Civil Society Network for Human Security oder das Civil
Society Network against Corruption.
78
Beispielsweise die Kampagne Facing Finance, die sich für Investitionsstandards
einsetzt, die Kampagne zur Regulierung des Diamantenhandels oder die Kam-
pagne für einen universellen Zugang zu Wasser und sanitärer Grundversorgung.
Normunternehmer 127

mationen und Bedeutungen.79 Die Ausübung dieser Macht setzt freilich


trotzdem ein Minimum an konventionellen Ressourcen wie Personal,
Finanzmittel und Medienzugang voraus (Dryzek 1999: 46).
In der Literatur wird vielfach darauf hingewiesen, dass transnationale
Normunternehmer trotz ihrer normativen Motivation strategisch han-
deln, wobei strategisch als nutzenmaximierend bzw. als rational, was die
Auswahl ihrer Mittel, der institutionellen Wege und der Adressaten ihrer
Aktionen angeht, verstanden wird.80 Weder die implizierte Gegensätz-
lichkeit zwischen Handlungsmotiven und Handlungsstrategien noch die
Gleichsetzung zwischen Strategie und Nutzenmaximierung leuchten
jedoch ein: Strategische Akteure sind zunächst einmal nicht mehr als
zweckgerichtet handelnde Akteure, d. h. sie haben ein Ziel und wählen
diejenigen Mittel aus, die sie zur Erreichung dieses Ziels für geeignet be-
finden (Merton 1936: 895, Schelling 1978: 17, Boudon 1979: 63). In die-
sem Fall haben wir es also mit Akteuren zu tun, die zum Erreichen eines
aus ihrer Sicht normativ wünschenswerten Zustandes auf die hierfür am
besten geeigneten Mittel zurückgreifen – dieser Handlungsmodus wird als
„principled instrumentalism“ (Mitchell/Schmitz 2014) bezeichnet.
Wovon hängt es ab, ob sich Normunternehmer für bestimmte Issues
finden, es also zur Issue-Adoption kommt? Und was beeinflusst die
Handlungsfähigkeit der Normunternehmer? Zwei grundlegende Charak-
teristika, die dem transnationalen Sektor aus politökonomischer Perspek-
tive zugeschrieben werden, sind Wettbewerb und Heterogenität. Zu
Wettbewerb kommt es, weil materielle und soziale Ressourcen auf diesem
Markt knapp und ungleich verteilt sind (Cooley/Ron 2002, Bob 2002:
38). Heterogenität bedeutet, dass es die Zivilgesellschaft nicht gibt, son-
dern der Terminus eine Vielzahl politisch, geographisch und kulturell
diverser Organisationen vereint (Florini/Simmons 2000: 7). Zusammen-
genommen folgen daraus organisationale Eigeninteressen und Hierarchie
als Erklärungen für die Issue-Adoption, sowie organisationale Kapazitäten und
Zielkonflikte als Erklärungen für den Erfolg von Normsetzungskampagnen.

79
Keck/Sikkink 1998: 16-19, Dryzek 1999, Florini/Simmons 2000: 10, Sikkink 2003:
303, Holzscheiter 2005: 725, Deitelhoff 2009: 44.
80
Finnemore/Sikkink 1998: 910, Keck/Sikkink 1998: 2, Checkel 2001: 559, Deitel-
hoff 2006: 20.

128 Theorieerfassung

Organisationale Eigeninteressen: Dass organisationale Eigeninteressen


wie etwa die Sicherung des Weiterbestands, der finanziellen Grundlage
oder der herausragenden Position der Organisation in einem durch
Knappheit gekennzeichneten Markt eine Rolle spielen, ist nachvollzieh-
bar und legitim. Sie können jedoch dazu führen, dass sich Normunter-
nehmer nicht der dringend bearbeitungsbedürftigen Probleme anneh-
men. Erstens setzen die marktähnlichen Strukturen einen Anreiz für die
Wahl solcher Vorhaben, die wahrscheinlich erfolgreich abgeschlossen
werden können. Zweitens orientieren sich die Normunternehmer an der
Verfügbarkeit von Ressourcen für bestimmte Vorhaben. Drittens führen
institutionalisierte und routinisierte Kooperationen mit bestimmten
Geldgebern dazu, dass bei der Issue-Wahl auch deren Interessen berück-
sichtigt werden.81 Schließlich hängt die Wahl der Issues auch davon ab,
ob diese mit von anderen Netzwerken verfolgten Issues in Konflikt gera-
ten (Clark 2001: 134, Carpenter 2007b: 116).
Hierarchie: Auch in den netzwerkartigen transnationalen Strukturen
existiert ein Gefälle in den Einflussmöglichkeiten, der Ressourcenausstat-
tung und/oder der Reputation, welches entlang der Nord-Süd-Linie wie
auch zwischen Eliten-NGOs und Basisorganisationen verläuft.82 Es wird
als transnationale Hierarchie bezeichnet (Carpenter 2011: 77). An der
Spitze dieses Systems stehen einige traditions- und einflussreiche Organi-
sationen, die zu Gatekeepern werden: Welche Issues (auf welche Weise)
weiterverfolgt werden, d. h. überhaupt die Chance erhalten, auf der in-
ternationalen Agenda zu diffundieren und in einer Norm zu münden,
wird von solchen Organisationen maßgeblich anhand ihrer eigenen Prio-
ritäten und der Passung des Issues zu ihrem Repertoire mitbestimmt (Bob
2002: 38, Carpenter 2010: 46, Carpenter 2011).
Organisationale Kapazitäten: Ist ein Issue angenommen, hängt die Ef-
fektivität transnationaler Normunternehmer erstens mit ihrer internen
Organisationsfähigkeit zusammen (Keck/Sikkink 1998: 28). Diese ergibt
sich aus der organisationalen Struktur und den verfügbaren Ressourcen

81
Bob 2001: 327, Bob 2002, Cooley/Ron 2002: 6-9, Kelley 2009: 782, Kingston
2013: 81, Mitchell/Schmitz 2014.
82
Brühl 2010: 190-194, Dany 2013: 8, Herkenrath 2015, Brühl/Gereke 2015.
Normunternehmer 129

(Shawki 2011: 101). Die organisationale Struktur umfasst die Modi der
Entscheidungsfindung und die Koordinationsmechanismen sowie die
Aufteilung der Zuständigkeiten innerhalb der Organisation (Shawki 2011:
107-109). Sie umfasst auch die Dichte des Netzwerks (density), die sich
aus der Verfügbarkeit und der Art von Kommunikationskanälen sowie
der Regelmäßigkeit, mit der sie genutzt werden, ergibt (Keck/Sikkink
1998: 28-29).83 Um handlungsfähig zu sein, brauchen transnationale
Akteure auch ein Minimum an klassischen Ressourcen, d. h. finanzielle
Mittel, Personal, Kontakte und Zugang zu Medien (Bob 2001: 327-328).
Zielkonflikte innerhalb der Normunternehmerlandschaft: Dass transnatio-
nale Akteure heterogen sind, bedeutet, dass sie unterschiedliche bis ge-
gensätzliche Ziele verfolgen können. Gegensätzliche Ziele bestehen dann,
wenn sich neben den normfreundlichen auch normfeindliche Gruppie-
rungen identifizieren lassen – etwa solche, die rassistische, geschlechts-
diskriminierende oder rüstungskontrollfeindliche Ziele verfolgen (Flori-
ni/Simmons 2000: 7, Grillot 2011, Bob 2012).84 Sind letztere stark, kann
es ihnen gelingen, Normsetzungen zu verhindern. Doch selbst wenn sich
die Akteure über die Ziele einig sind, können sie diese unterschiedlich
priorisieren werden oder unterschiedliche Strategien für richtig halten
(Cortright/Pagnucco 1997: 173, Dany 2012: 71, Holzscheiter 2010: 219-
234). Dies kann Koalitionen spalten, Verhandlungspositionen schwä-
chen, und verhindern, dass Botschaften formuliert werden, die konsis-
tent sind und auf Resonanz stoßen.85

83
Während sich in mehreren Fallstudien bestätigt hat, dass dichtere Netzwerke
erfolgreicher sind, kann je nach Issue die eine oder andere organisationale Struk-
tur vorteilhaft sein (siehe Shawki 2011: 100-107 für eine zusammenfassende Dis-
kussion).
84
Beispielsweise die National Rifle Organisation (NRA), Anti-
Abtreibungsorganisationen oder Vereinigungen, die gegen Homosexualität agitie-
ren.
85
McCarthy 1997: 245, Smith et al. 1997: 65, Rucht 1997: 206-207, Davies 2007:
165.

130 Theorieerfassung

Internationale Organisationen
Internationale Organisationen sind in der Normenforschung in zwei der
drei von Clive Archer (2015) vorgeschlagenen Rollen präsent, und zwar
als Foren und Akteure, weniger als Instrumente. Als „organisationale
Plattformen“ (Finnemore/Sikkink 1998: 901, Übersetzung ELR) stellen sie
für andere Normunternehmer Foren dar, in denen normbezogene Debat-
ten stattfinden können (Hurrell 2001: 147). Auch fungieren IOs als
Transmissionsriemen für Normen, indem sie zwischenstaatliche Interak-
tionen und Lernprozesse ermöglichen (Greenhill 2010: 143, Brühl 2011:
240, Peters et al. 2011: 13-14). Dass IOs auch Akteursqualität haben, d. h.
selbst aktiv als Normförderer auftreten können, indem sie über gewisse
Zeiträume eine eigene normative Vision strategisch verfolgen, hat recht
früh eine Studie am Beispiel der UNESCO aufgezeigt (Finnemore 1993).
Seitdem haben weitere Arbeiten die Normunternehmerqualität von IOs
in der Normentstehung und -diffusion herausgestellt (Santa-Cruz 2005,
Fang/Stone 2012, Müller et al. 2013).86
Für diese Rollen eignen sich IOs erstens, weil sie für bestimmte Berei-
che mit entsprechenden Mandaten ausgestattet sind und dadurch einen
Handlungsauftrag haben (Müller et al. 2013: 308). Zweitens verfügt ihr
Personal über gebündelte Expertise zu bestimmten Problemfeldern und
damit über informationale Autorität (Finnemore 1996a: 13, Lie-
se/Weinlich 2006: 499, Barnett/Finnemore 2004: 29). Drittens verfügt ihr
Personal über institutionelles Wissen und damit über institutionell-
strategische Handlungsmacht (Finnemore/Sikkink 1998: 899). Auch ha-
ben IOs (zumindest zum Teil) materielle Ressourcen, um viertens über
finanzielle Anreize oder Sanktionen auf die Normadressaten einzuwirken
(Finnemore/Sikkink 1998: 900), oder fünftens, eher im Sinne des Ma-
nagement-Ansatzes durch Forschung und Training praktische Hilfestel-
lung zu leisten (Greenhill 2010: 130, Müller et al. 2013: 313). Als Büro-
kratien verfügen sie sechstens über rational-legale Autorität im Weber-

86
Beispielsweise hat die Unterkommission der UN-Menschenrechtskommission in
den 1990er Jahren initiativ (aber im Ergebnis leider erfolglos) versucht, men-
schenrechtliche Verpflichtungen für Unternehmen durchzusetzen (Brühl/Rosert
2014: 249-250).
Normunternehmer 131

schen Sinne, die ihnen eine mit den transnationalen Akteuren vergleich-
bare Glaubwürdigkeit verleiht: Sie werden gemeinhin als gut und legitim
angesehen (Finnemore/Sikkink 2001: 401, Liese/Weinlich 2006: 505).

Staaten
Die Normunternehmerschaft von Staaten geriet erst später in den Fokus
der Forschung. Ein Grund dafür ist sicherlich, dass (zumindest einige)
Staaten über Machtressourcen im klassischen Sinne und damit über das
Potential verfügen, ihren peers Normen aufzuzwingen – die Etablierung
von Normen durch mächtige Akteure ist damit weniger puzzling (Flori-
ni/Simmons 2000: 10, De Nevers 2007: 56, Coleman 2013: 165). Zum
Ohnmachtspuzzle passt auch, dass, wenn Staaten als Normunternehmer
untersucht werden, es hauptsächlich kleinere und mittlere Mächte sind,
die vor allem bei Sicherheitsfragen gegenüber Großmächten als benach-
teiligt gelten, weil letztere den Bereich für sich beanspruchen – der Ein-
fluss der Mittelmächte ist deshalb lange unterschätzt worden (Ingebritsen
2002, Deitelhoff 2009: 57).
Mittelmächte werden als „good international citizens“ konzipiert
(Carr 2012: 52), die ihre Außenpolitik in zentralen Bereichen (etwa
Wohlfahrt, Menschenrechte, Umwelt oder Abrüstung) normativ am Ge-
meinwohl ausrichten (Ingebritsen 2002, Becker-Jakob et al. 2013: 207).87
Das Engagement kann mehreren Motiven geschuldet sein: den Interessen
im engeren Sinne (etwa der Verbesserung der eigenen Sicherheitslage),
sozialen Bedürfnissen (etwa der Verbesserung des internationalen Status),
aber sicherlich auch dem Glauben an die moralische Richtigkeit der ver-
tretenen Normen (Becker-Jakob et al. 2013: 233, Towns 2012: 183). Die
Normunternehmerschaft von Mittelmächten deckt ein breites Spektrum

87
In Abgrenzung zu diesem klassischen Verständnis zeigen Wunderlich et al. (2013)
und Wunderlich (2017), dass sich auch einige solche Mittelmächte, die (aufgrund
ihrer internen undemokratischen Verfasstheit und/oder aggressiven Außenpoli-
tik) üblicherweise eher als Parias, zumindest aber als problematisch gelten,
durchaus als Normunternehmer qualifizieren, weil auch sie Normen propagieren
– und zwar sowohl solche, die mit der aktuellen normativen Ordnung in Konflikt
stehen, als auch solche, die in dieser bereits angelegt oder zumindest daran an-
schlussfähig sind.

132 Theorieerfassung

von Aktivitäten ab: Sie identifizieren Probleme, die einer Normierung


bedürfen, und propagieren entsprechende internationale Normen, indem
sie in internationalen Institutionen Normvorschläge einreichen und bei
ihren Alliierten Überzeugungsarbeit leisten (Elgström 2017). Außerdem
stellen sie organisationale, personelle, finanzielle und technische Res-
sourcen für Normsetzungsprozesse, die Unterstützung der Implementati-
on von Normen sowie deren Verifikation bereit (Bolton/Nash 2010, Be-
cker-Jakob et al. 2013). Es ist ihnen möglich, die Rolle als Normunter-
nehmer wahrzunehmen, weil sie über eine gewisse ökonomische und
politische Bedeutung verfügen, internationalen Respekt genießen und
nicht selten besondere Beziehungen zu einigen Großmächten aufrecht-
erhalten (Matthew 2003: 9-10).
Einige wenige Studien widmen sich der Normunternehmerschaft von
Großmächten. So haben etwa Kaufmann und Pape (1999) gezeigt, dass
der kostspielige Einsatz Großbritanniens gegen den transatlantischen
Sklavenhandel durch innerstaatlichen gesellschaftlichen Druck und die
innenpolitische Konstellation – und nicht etwa durch eine trans- oder
internationale Dynamik – zu erklären ist. Fey et al. (2013) arbeiten her-
aus, dass etablierte Großmächte die Normbildung vorantreiben, um die
bestehende internationale Ordnung zu stabilisieren und die eigenen Sta-
tusansprüche zu sichern. Letzteres trifft auch auf aufsteigende Mächte zu,
die jedoch neue Normen zu etablieren versuchen, um die internationale
Ordnung, mit der sie unzufrieden sind, zu ändern (Rauch 2014: 43-50).
Die Autoren zeigen, dass Großmächte durchaus andere Strategien als
Zwang einsetzen, indem sie Überzeugungsarbeit oder technische Unter-
stützung bei der Implementation von Normen leisten. Die Normpolitik
dieser Akteure bleibt jedoch ambivalent: So können sie Normsetzungs-
prozesse auch entscheidend behindern oder bestehende Normen schwä-
chen, indem sie diese nicht einhalten oder deren Gültigkeit hinterfragen.88
Im Hinweis auf Compliance klingt an, was staatliche Normunterneh-
mer von transnationalen oder organisationalen unterscheidet: Die letzten
beiden setzen sich in der Regel für Normen ein, die sich an andere rich-
ten, staatliche Akteure hingen für Normen, die sich an sie selbst richten –

88
Rosert/Schirmbeck 2007, Barnes 2016, Sanders 2016, Großklaus 2017.
Strategien von Normunternehmern 133

Normunternehmer und Normadressaten fallen hier also unter Umstän-


den zusammen.89 Staaten haben dadurch die Möglichkeit, mit gutem
Beispiel voranzugehen, beispielsweise, indem sie eine bestimmte Norm
auf nationaler Ebene verankern oder ihr Verhalten entsprechend ändern.

Strategien von Normunternehmern


Da Staaten die wichtigsten Adressaten internationaler Normen sind, sind
es deren Präferenzen, die Normunternehmer durch strategisches Handeln
zu ändern versuchen (Finnemore/Sikkink 1998: 888, Payne 2001: 38,
Spiro 2013: 228). Hierfür müssen die Normadressaten ein Problem als
dringend bearbeitungsbedürftig wahrnehmen, sie müssen die Norm als
Problemlösung anerkennen und zudem bereit sein, sie umzusetzen
(Finnemore/Sikkink 1998: 899, Carpenter 2005: 318). Die folgenden Ab-
schnitte konzipieren das strategische Handeln von Normunternehmern
als einen zentralen Erfolgsfaktor in der Normentstehung, um daraus
mögliche Erklärungen für die Entstehung und Nicht-Entstehung von
Normen ableiten zu können. Normbildungsstrategien können sich je
nach Akteurstyp unterscheiden, doch sie müssen es nicht – deshalb ord-
ne ich sie nicht bestimmten Akteurstypen zu.

Problemzentrierte Strategie: Framing


Da die Etablierung neuer Normen „eine Änderung der intersubjektiven
Wahrnehmungen des Publikums“ voraussetzt (Carpenter 2005: 311,
Übersetzung ELR), setzen Normunternehmer zu diesem Zweck als prob-
lemgerichtete Strategie diskursive Rahmung, das sogenannte „Framing“
ein. Das Framing-Konzept gründet auf der Idee, dass die intersubjektiven
Auffassungen von Wirklichkeit nicht einfach gegeben sind, sondern erst
hergestellt werden müssen; außerdem stellt es die Wirkungsmacht von

89
Dies gilt auch für Unternehmen, die sich in selbstregulatorischen freiwilligen
Initiativen normative Schranken auferlegen (Deitelhoff/Wolf 2013: 231-232). Sie
und andere nicht-staatliche Akteure kommen erst neuerdings als Normadressaten
in der Normenforschung vor (Hofferberth et al. 2011, Flohr et al. 2010, Herr
2010, Jo/Bryant 2013, Coni-Zimmer 2014, Herr 2015, Dany/Schneiker 2018).

134 Theorieerfassung

Text und von Kommunikation heraus (Entman 1993: 51). Sein Ursprung
liegt bei Erving Goffman (1980: 19-37), der Rahmen („Frames“) als orga-
nisationale Prinzipien und Elemente definiert hat, auf die sich Individuen
stützen, um die Welt um sie herum zu verstehen und zu strukturieren
(Reese 2001: 14).
Framing ist nach wie vor als „sinnbildende Technik“ (Creed et al.
2002: 36, Übersetzung ELR) anerkannt ist, doch die Verwendung des
Framing-Konzeptes hat sich gewandelt: Nun steht nicht mehr im Fokus,
wie Individuen mittels Frames die Welt für sich selbst erschließen und
organisieren (internes Informations- und Bedeutungsmanagement, Fis-
ke/Taylor 1991: 245), sondern wie mittels Frames die Welt für andere prä-
sentiert und organisiert wird (externes Informations- und Bedeutungs-
management, Khagram et al. 2003: 11). Bei Frames handelt es sich um
„persuasive device[s]“ zur Herstellung einer geteilten Wirklichkeitswahr-
nehmung, die Bedeutungen festschreiben, Kategorien definieren, Infor-
mationen organisieren und diese zu Geschichten zusammenbauen (Pay-
ne 2001: 39, Keck/Sikkink 1998: 10, 19). Framing steht also erstens für
Rahmung als Eigenschaft, d. h. für das „Outfit“ eines Sachverhalts, wel-
ches sich aus verschiedenen Rahmen zusammensetzt. Zweitens steht es
für Rahmung als Aktivität, d. h. für die strategische Konstruktion von
Rahmen im öffentlichen Diskurs (Khagram et al. 2003: 12).
Das Ziel von Framing ist es, die Wahrnehmung und Interpretation
von Sachverhalten und Personen zu beeinflussen (Matthes 2007: 52). Es
wirkt durchaus manipulativ (Entman 2003: 422, Payne 2001: 47), weil es
darauf zielt, beim Zielpublikum kognitive, emotionale und behaviorale
Reaktionen auszulösen. Die Adressaten sollen einen Sachverhalt auf eine
bestimmte Art und Weise verstehen, bestimmte Gefühle haben und sich
auf eine bestimmte Art und Weise verhalten (McCombs/Ghanem 2001:
477, Reese 2001: 9, de Vreese/Lecheler 2012: 292-297).
Weil Normunternehmer als sogenannte „Framesponsoren“ (Creed et
al. 2002) auftreten und sich strategisch der Macht der Kommunikation
bedienen (Dryzek 1999: 45-46, Keck/Sikkink 1998: 3, Sikkink 2003: 303),
werden sie als Bedeutungsmanager (meaning manager, Khagram et al.
2003: 11) bzw. Diskursunternehmer (discursive entrepreneurs, Holzscheiter
2005: 738) bezeichnet. Frame-Konkurrenz ist deshalb ein wesentliches
Strategien von Normunternehmern 135

Charakteristikum von Framing-Prozessen, weil in diesen unterschiedliche


Framesponsoren um die Deutungshoheit über ein bestimmtes Issue
kämpfen und versuchen, unterschiedliche, widerstreitende Rahmungen
zu befördern und andere Rahmungen zu hinterfragen und anzufechten.90
Der wichtigste Mechanismus der Frame-Konstruktion ist die Attribuie-
rung von bestimmten Objekten, beispielsweise Personen, Ideen oder
Problemen (Maher 2001: 85). Dies funktioniert über drei Techniken: Se-
lektion, Assoziation und Exklusion (Entman 1993: 52, Gitlin 1980: 6-7).
Die Auswahl der Attribute findet dadurch statt, dass Scheinwerferlichter
auf bestimmte Aspekte der Issues geworfen werden, welche „wie Fenster
(...) unsere Sicht auf bestimmte Ausschnitte der komplexen Welt um uns
herum beschränken“ (Creed et al. 2002: 36, Übersetzung ELR). Dies ge-
schieht, indem die Relevanz dessen, was innerhalb des Fensters ist, er-
höht wird, wodurch das, was außerhalb des Fensters ist, in den Hinter-
grund gerät (Reese 2001: 11, Ensink/Sauer 2003: 2). Hinzu kommen
Techniken der Wiederholung und der (wiederholten) Kombination be-
stimmter Elemente.91 Dabei geht es darum, einem Issue bestimmte Attri-
bute zuzuschreiben und diese kohärent miteinander zu verbinden
(Snow/Benford 1992: 137, Ensink/Sauer 2003: 2, Schmid-Petri 2012: 64).
Die assoziative Funktion von Framing hat in die Normenforschung
mit den Faktoren Resonanz bzw. Anschlussfähigkeit Eingang gefunden.
Allgemein versteht man darunter den Grad der Passung neuer Sachver-
halte mit individuellen, institutionellen oder kulturellen Überzeugungen;
in der Normenforschung versteht man darunter den Grad der Passung
neuer Normen zu bestehenden normativen Strukturen, welche global,
regional oder lokal sein können.92 Passung, so allerdings die Annahme,
ist nicht entweder gegeben oder nicht, sondern muss von Akteuren dezi-
diert hergestellt werden (Laffey/Weldes 1997: 203). Diesen Prozess der
Herstellung von Anschlussfähigkeit an vorhandene normative Ressour-

90
McCarthy 1997: 245, Reese 2001: 20, Joachim 2003: 251, Jetschke 2011: 43-44,
Bloomfield/Scott 2017.
91
Fiske/Taylor 1991: 252, Entman 1993: 53, Creed et al. 2002: 39-40, de
Vreese/Lecheler 2012: 300.
92
Raymond 1997: 231, Keck/Sikkink 1998: 17, Lutz/Sikkink 2000: 659, Hawkins
2004: 780.

136 Theorieerfassung

cen bezeichnet Richard Price als „Grafting“ (1998: 628-630). Damit neue
Normen akzeptiert werden, ist es demnach wichtig, deutlich zu machen,
dass bereits etablierte Prinzipien auch auf das neue Problem anwendbar
sind, dass es bereits ähnliche Normen gibt, und dass die neue Norm mit
den Überzeugungen des Zielpublikums harmoniert.93 Die neuen Ange-
messenheitsstandards sollten möglichst als natürliche Fortsetzung bereits
positiv besetzter Praktiken verpackt werden; die bestehende problemati-
sche Praxis hingegen muss entnormalisiert werden, indem sie mit ande-
ren bereits negativ besetzten Praktiken assoziiert wird (Crawford 2002:
101-102).
Die ausschließende Funktion von Framing verdeutlicht Anna Holz-
scheiters (2010: 66-69) Trichter-Modell („funnelling model“) von Diskur-
sen. Diskurse bieten demnach zu Beginn größere und offenere Artikulati-
onsspielräume, werden aber sukzessive auf bestimmte Aspekte und Be-
deutungen verengt, indem bestimmte Wissensressourcen und Interpreta-
tionen ausgeschlossen werden. Entsprechend können wir uns nicht nur
Diskurse allgemein, sondern auch Framing-Prozesse als Trichter – oder
eher als Trichtersiebe – vorstellen, in denen sich bestimmte Issue-
Attribute bzw. Frames durchsetzen und andere Issue-Attribute bzw. Fra-
mes ausgeschlossen werden.
Welche Eigenschaften sind es, die das Framing transportieren muss,
damit ein Issue verfängt? Oder anders gefragt, welche Frames tragen zum
Erfolg von Framing-Anstrengungen – und damit von Normentstehungs-
prozessen – bei? Die Grenzen zwischen intrinsischen Problemeigenschaf-
ten und der Problemwahrnehmung bzw. der Problemkonstruktion sind
fließend. Für die sozialkonstruktivistische Perspektive, in der dieses Buch
verortet ist, liegt ein Kompromisszugriff nahe: Wenn im Folgenden be-
stimmte Problemeigenschaften benannt werden, die für Normsetzungs-
prozesse als förderlich gelten, ist dies nicht essentialistisch gemeint, son-
dern ich gehe davon aus, dass die Zuschreibung dieser Eigenschaften
wichtiger ist als deren tatsächliche Existenz. Relevant ist also weniger,

93
Florini 1996: 376-377, Payne 2001: 43, Clark 2001: 135, Björkdahl 2002: 85-86,
Hui-Jung Kim 2009: 685.
Strategien von Normunternehmern 137

wie das Problem beschaffen ist, sondern dass die Rahmung bestimmte
Eigenschaften enthält.
Die förderlichen Frame-Eigenschaften lassen sich in kognitions- und
emotionsorientierte unterteilen (wobei ein Framing immer beide Arten
enthält). Die kognitionsorientierten Frame-Eigenschaften sollen Probleme für
das Zielpublikum nachvollziehbar und attraktiv machen. Wie nachvoll-
ziehbar ein Problem ist, hängt erstens mit dessen Komplexität zusammen:
Sind die Problemstrukturen komplex, d. h. etwa die Problemursachen
und die Erscheinungsformen vielfältig und die Konsequenzen unklar
oder nicht so leicht mit den Ursachen verknüpfbar, kann dies abschre-
ckend wirken (Cobb/Elder 1983: 98-99, Newig 2004: 169). Diese Er-
kenntnis schlägt sich auch in der Normenforschung nieder, die die Deut-
lichkeit und Einfachheit der Botschaft als Erfolgskriterien von Normset-
zungsprozessen identifiziert. So gelte es, neben einer klaren und schlan-
ken Problembeschreibung auch eine möglichst kurze Kausalkette aufzu-
stellen, d. h. die Ursachen bzw. Schuldigen zu identifizieren und die
Norm als praktikablen und nachvollziehbaren Lösungsweg zu präsentie-
ren. Probleme, die dem Handeln von Akteuren zugeschrieben werden
können, verfangen leichter als Probleme, die dem Wirken von Strukturen
zugeschrieben werden (Keck/Sikkink 1998: 19, 27, Carpenter 2011: 86).
Zweitens hängt die Nachvollziehbarkeit von Problemen mit deren An-
schlussfähigkeit bzw. Resonanz zusammen. Mit der normativen Struktur
und den Überzeugungen der Normadressaten habe ich oben zwei Refe-
renzpunkte benannt, an die eine Norm anschließen muss. Als dritter
Referenzpunkt ist die bestehende Praxis hinzuzufügen: Solche Normen,
die kleine Verhaltensänderungen erwarten lassen, werden leichter akzep-
tiert, als Normen, die große Veränderungen erfordern, weil erstere besser
an die bestehende Praxis anschließen. Daher kann ein sukzessives Vorge-
hen, bei dem zunächst weniger radikale Normen etabliert werden und
später darauf aufgebaut wird, um radikalere Normen durchzusetzen,
sinnvoll sein (Joachim 2003: 253).
Die Attraktivität von Problemen hängt außerdem von ihrer Lösbarkeit
ab. Das bedeutet, dass ein Framing deutlich machen muss, dass Prob-
lemlösungen denkbar und durchsetzbar sind. Es ist effektiver, wenn von
den Normadressaten ohnehin favorisierte Maßnahmen als solche Lösun-

138 Theorieerfassung

gen erscheinen können (Kingdon 2003: 114, 165-167). Im Umkehr-


schluss heißt es, dass Probleme, deren Lösung langwierig, kostspielig oder
nicht durchsetzbar erscheint, schlechtere Chancen auf Normierung haben.
Die emotionsorientierten Frame-Eigenschaften sollen bei den Adressaten
bestimmte Gefühle – Mitgefühl mit den Betroffenen, Empörung über die
Verursacher bzw. Scham bei den Verursachern – auslösen. Um Probleme
emotional aufzuladen, gelten in der Forschung folgende Frame-
Eigenschaften als effektiv: Konkretheit, Nähe und Dramatik. Konkretheit
soll durch Personifizierung und Visualisierung erreicht werden. Um mög-
licherweise abstrakte und schwer zugängliche Probleme zu vermitteln,
wird zum einen der Fokus auf die individuellen Schickale von Betroffe-
nen gelegt; zum anderen werden visuelle Mittel (Fotos, Filme, Graphiken)
eingesetzt, um das Problem sichtbarer zu machen (Keck/Sikkink 1998: 19-
20, Price 1998: 623).
Nähe („proximity“) bedeutet, dass das Framing das Problem näher an
das Publikum heranrücken muss, um die Identifikation mit den Betroffe-
nen zu erleichtern. Nähe kann durch geographische, aber auch biografi-
sche, kulturelle oder ethnische Bezüge hergestellt werden. Entscheidend
ist, dass das Framing Ähnlichkeiten zwischen den Betroffenen und dem
Publikum konstruiert und dessen (potentielle) eigene Betroffenheit her-
vorhebt (Luhmann 1996: 58, Kingdon 2003: 96, Djerf-Pierre 2012: 503).
Emotionalität und Dramatik kann ein Issue durch Trigger-Ereignisse er-
halten,94 wenn diese zum Symbol für die Existenz oder das Ausmaß des
Problems stilisiert werden können, wodurch die Komplexität eines Prob-
lems in eine einfache Botschaft transformiert wird.95 Auch kann die Spra-
che Dramatik erzeugen, durch die Wahl eines entsprechenden Vokabu-
lars (Superlative oder Vergleiche), durch die Konstruktion von Narrativen
oder durch die Verwendung generischer Frames (Yee 1996: 95-96). Solche

94
Solche Ereignisse, auch Schlüsselereignisse genannt, zeichnen sich u. a. durch
Seltenheit und ein besonderes Ausmaß aus (Waldherr 2012: 23). Beispielsweise
hat der durch das Erdbeben im März 2011 verursachte Reaktorunfall in Fukushi-
ma die – eigentlich bekannten – Risiken von Nuklearenergie auf die Agenda ge-
setzt.
95
Dearing/Rogers 1996: 78, Keck/Sikkink 1998: 22, Kingdon 2003: 97,
Jones/Baumgartner 2005: 221-225.
Strategien von Normunternehmern 139

Frames sind etwa Humanität, Moral und Werte, Allgemeinwohl bzw.


öffentliches Interesse, Fortschritt, Gefahr, Bedrohung, Angst, Schmerzen,
Verluste, Krisen und Unsicherheit.96 In der Normenforschung gelten bei-
spielsweise Normen, die auf die Verhinderung körperlicher Schmerzen
zielen, als vergleichsweise leicht zu vermitteln (Keck/Sikkink 1998: 27,
Hawkins 2004: 780, Carpenter 2007b: 645).

förderliche Eigenschaften hinderliche Eigenschaften

kognitive Einfachheit Komplexität


Zielreaktionen Anschlussfähigkeit Radikalität, Konflikt
Lösbarkeit Unlösbarkeit

emotionale Konkretheit Abstraktheit


Zielreaktionen Nähe Distanz
Emotionalität/Dramatik Routine

Tabelle 4: Förderliche und hinderliche Problem- und Frame-Eigenschaften

Zusammengefasst heißt es, dass Normunternehmer als Framesponsoren


aktiv werden und einen normbezogenen Framing-Prozess initiieren: Hier-
für muss das jeweilige Problem so in interpretative und normative Struk-
turen eingefasst werden, dass es vom Zielpublikum als bearbeitungswür-
dig und dringend wahrgenommen wird; es müssen dessen Ursachen bzw.
Verursacher diagnostiziert und eine Norm, welche ein Spektrum an an-
gemessenen Handlungen eröffnet, als Problemlösung aufgebaut werden,
sodass das Zielpublikum aktiviert wird, etwas dagegen zu tun. Normun-
ternehmer müssen strategisch entscheiden, welche Eigenschaften sie für
das Problem etablieren wollen, und dabei die sozialen, politischen und
kulturellen Bedeutungsrepertoires des Zielpublikums bedenken.

96
Luhmann 1979: 38-44, Luhmann 1996: 61-64, Finnemore/Sikkink 1998: 908-909,
Price 1998: 622, Nisbet/Huge 2006: 10, Deitelhoff 2006: 255.

140 Theorieerfassung

Akteurszentrierte Strategien: Mobilisierung, sozialer Druck und


Überzeugung
Um die akteursgerichteten Strategien zu konzipieren und zu ordnen, ist
zunächst die von William Gamson (1990: 14-15) getroffene Unterschei-
dung in targets of influence und targets of mobilization instruktiv: Erstere
sind die Normadressaten (in der Regel Staaten), da das Endziel der Nor-
munternehmer darin besteht, sie zu erreichen und zu einer Präferenz-
und Verhaltensänderung, d. h. zur Akzeptanz und Einhaltung der Norm
zu bewegen. Letztere sind Akteure, die über leverage gegenüber den Nor-
madressaten verfügen, wie die Öffentlichkeit, andere Staaten oder staatli-
che Zusammenschlüsse. Diese sollen nicht selbst das von der Norm anvi-
sierte Verhalten ändern (weil es nicht in ihrer Macht steht oder weil sie
es ohnehin nicht praktizieren), sondern dazu bewegt werden, auf die
Normadressaten einzuwirken und diese zu normkonformen Einstellungs-
und Verhaltensänderungen zu bringen (Keck/Sikkink 1998: 3, Joachim
2003: 251, Spiro 2013: 228-229).

Abbildung 2: Adressaten und Strategien der Normunternehmer (eigene Darstellung)

Normadressaten und Mobilisierungsadressaten sind nicht immer vonei-


nander distinkt – vielmehr kann sich die Rollenverteilung im Verlauf von
Normsetzungsprozessen ändern oder dieselbe Akteursgruppe beides zu-
gleich sein. So ist etwa die Öffentlichkeit ein wichtiger Mobilisierungsad-
ressat, doch einige Normen setzen auch einen breiten gesellschaftlichen
Wandel voraus, sodass die Öffentlichkeit auch selbst zum target of in-
Strategien von Normunternehmern 141

fluence werden kann (Stachursky 2013: 3-4). Ebenso können aus Normad-
ressaten Mobilisierungsadressaten werden – etwa, wenn einige Staaten
bereits die Norm akzeptiert haben und dazu bewegt werden sollen, sich
bei ihren peers dafür einzusetzen. Ich unterscheide also drei Akteursgrup-
pen, die in Normentstehungsprozessen interagieren: Normunternehmer,
Normadressaten und Mobilisierungsadressaten.
Mobilisierung ist genau genommen ein Element der Strategie sozialen
Drucks, allerdings mit teilweise anderen Instrumenten. Zu mobilisieren
bedeutet, Unterstützung für die Ziele der Normunternehmer herzustellen
und die potentiell vorhandene, aber passive Unterstützung in Handlungs-
bereitschaft umzuwandeln – es gilt also, die Mobilisierungsadressaten dazu
zu bewegen, aktiv zu werden und ihre Energien und Ressourcen im Sinne
der Norm einzusetzen (Gamson 1990: 15, Keck/Sikkink 1998: 204,
McAdam et al. 2001: 34, 38).
Verhältnismäßig einfach zu erreichen sind sogenannte Mobilisie-
rungsstrukturen (mobilising structures, McAdam/McCarthy 1996: 3). Bei
diesen handelt es sich um formelle und informelle Netzwerke der Nor-
munternehmer, deren Mitglieder in direkten Kontakten für das jeweilige
Problem sensibilisiert werden, um dann als Multiplikatoren zu wirken
(Smith et al. 1997: 61, McCarthy 1997: 249). Je nachdem, wie etabliert
und erfahren die Normunternehmer sind, können auch andere Normun-
ternehmernetzwerke Teil dieser Mobilisierungsstruktur sein (Carpenter
2005: 311). Ein wesentlicher Mobilisierungsadressat ist die Öffentlichkeit,
weil, so die Annahme, Entscheidungsträger auf die öffentliche Meinung
Rücksicht nehmen und diese daher Handlungsdruck erzeugen kann
(Checkel 1997: 477, Florini/Simmons 2000: 11).
Um die öffentliche Aufmerksamkeit auf ein Problem zu lenken und
ihre Botschaft an ein breites Publikum zu richten, führen Normunter-
nehmer sogenannte Kampagnen durch (Smith et al. 1997: 65, Khagram
et al. 2003: 7). Diese dienen dem awareness raising, d. h. sie schärfen das
öffentliche Problembewusstsein, indem sie problemrelevante Fakten er-
mitteln und diese mit entsprechender Rahmung in den Medien platzie-

142 Theorieerfassung

ren.97 Zum Einsatz kommen in der Regel zwei einander ergänzende Ele-
mente: die Informationspolitik und die Aktionspolitik. Informationspoli-
tik (information politics) veröffentlicht und verbreitet Informationen und
fördert bestimmte Positionen – neben Fakten soll sie daher auch Emotio-
nen und Haltungen vermitteln (Keck/Sikkink 1998: 19-21). Medien der
Informationspolitik können beispielsweise Presseartikel, Fernsehberichte,
Vorträge, Ausstellungen, Plakate und Informationsmaterial, aber auch
Filme und Romane sein.
Aktionspolitik (action politics, Smith et al. 1997: 71) besteht aus Aktio-
nen, die auf das jeweilige Problem weitere Aufmerksamkeit ziehen. Mittel
der Aktionspolitik können beispielsweise Demonstrationen, Protestaktio-
nen oder Spendenaufrufe sein (McCarthy 1997: 257). Entscheidend ist,
dass die Aktionen neben unmittelbaren Zeugen (also etwa Passanten oder
Fahrerinnen, die aufgrund einer Autobahnblockade anhalten müssen)
ein breiteres Publikum erreichen, d. h. von den Medien aufgegriffen wer-
den. Ob dies gelingt, hängt von unterschiedlichen Faktoren ab, etwa der
Menge der Beteiligten sowie der Kontinuität und der Kreativität der Akti-
on (Oliver/Maney 2000, Vliegenthart/Walgrave 2012: 389).
Sozialer Druck zielt direkt auf die Normadressaten, um ihre Kosten-
Nutzen-Kalküle so zu verändern, dass die Anerkennung der Normen bzw.
normkonformes Verhalten lohnenswert(er) wird. Dies geschieht durch
soziale, d. h. von Gruppen bzw. Gemeinschaften verteilte, Belohnungen
und Bestrafungen, welche den sozialen Nutzen der Akzeptanz bzw. die
sozialen Kosten der Nicht-Akzeptanz der Norm erhöhen (Johnston 2001:
499, Flockhart 2006: 97, Rost Rublee 2008: 422).
In diesem Zusammenhang kommt in verschiedenen Kombinationen
das Stichwort-Trio naming, blaming, and shaming vor. Gemeint ist damit
die namentliche Benennung der jeweiligen Akteure sowie ein öffentli-
ches Anprangern normablehnender Haltungen und normwidriger Ver-
haltensweisen. Dies geschieht mit dem Ziel, Rechtfertigungs- und Anpas-
sungsdruck zu erzeugen (Keck/Sikkink 1998: 23-24, Schimmelfennig
2001: 64, Liese 2006: 104). Die Kritik wird in der Regel von transnationa-

97
Keck/Sikkink 1998: 22-25, Clark 2001: 32-33, McCoy/Heckel 2001: 65-66, Gest et
al. 2013: 162-164.
Strategien von Normunternehmern 143

len Normunternehmern, aber auch von internationalen Organisationen,


geübt und über die Medien übermittelt (Krain 2012: 575).
Im Verhandlungskontext sind allerdings subtilere, nicht über die Öf-
fentlichkeit vermittelte Formen sozialen Drucks häufiger. Peer pressure
meint diplomatiebasierte Strategien, die neben inhaltlichen Argumenten
auch die Isoliertheit einer normablehnenden Position hervorheben oder
versuchen, die Zustimmung verschiedener Teilnehmer aneinander zu
knüpfen (Mantilla 2013: 27, Carvin 2017: 58). Altercasting meint Lob und
die Zuschreibung positiver Rollen an bestimmte Akteure – in der Hoff-
nung, dass diese die Rolle annehmen und zu (führenden) Normunter-
stützern werden (Petrova 2016: 390).
Sozialer Druck ist ein Hybridmechanismus, der rationalistische mit
konstruktivistischen Elementen vereint (Schimmelfennig 2001: 65). Ei-
nerseits setzt Druck eine bloß instrumentelle Anpassung der Rhetorik
und des Verhaltens voraus – und eben nicht die Einsicht der Akteure in
die Richtigkeit der neuen Norm (Johnston 2001: 499, Deitelhoff 2006: 76).
Andererseits lässt sich rationalistisch kaum erfassen, warum Beschämen
überhaupt effektiv sein kann, denn es setzt interne psychologische Pro-
zesse voraus, welche den Akteur für seine – in materieller Hinsicht mög-
licherweise sogar lohnenswerte – Normablehnung mit „psychologisch
schmerzhaften Empfindungen“ (Axelrod 1986: 1104, Übersetzung ELR)
wie Schuldgefühlen und Scham ahnden (Elster 1989: 104, Alderson 2001:
419, Petrova 2016: 389). Um für sozialen Druck empfänglich zu sein,
müssen Akteure sozial verwundbar sein: Um Reputations- und Statusver-
luste infolge normablehnenden Verhaltens zu fürchten, müssen sich
Akteure mit der internationalen Gemeinschaft identifizieren und ihr
Standing wertschätzen.98
Im Mittelpunkt des Überzeugungsansatzes steht Einsicht in die Rich-
tigkeit einer Norm. Diese von Jürgen Habermas’ Theorie kommunikati-
ven Handelns inspirierte Vorstellung, dass Überzeugungsprozesse auch in
der internationalen Politik, und da insbesondere in normativen Ausei-
nandersetzungen, möglich sind, setzt auf die Einsichts- und Änderungs-

98
Keck/Sikkink 1998: 23-29, Axelrod 1986: 1107, Checkel 2001: 557-558, Towns
2012: 204, Jüngling 2013: 50-51.

144 Theorieerfassung

fähigkeit der Akteure und auf verständigungsorientiertes Handeln (ar-


guing, auch argumentatives Handeln). Überzeugung zielt auf die Konver-
genz von Position, Verhalten und Einstellung, d. h. auf eine tatsächliche
Änderung der Akteurspräferenzen und auf intrinsische Normakzeptanz
(Checkel 2001: 562, Deitelhoff 2009: 43). Erreicht werden soll dies in
konsensorientierten Kommunikationsprozessen, an deren Ende das bes-
sere Argument siegt (Müller 1994: 26-28, 36-37).99
Sozialer Druck kann sowohl direkt als auch diffus ausgeübt werden,
Überzeugung hingegen findet in direkter Kommunikation, z. B. in interna-
tionalen Verhandlungen, statt (Müller 1994, Deitelhoff/Müller 2005: 172).
Aus Habermas’ Theorie wurden unterschiedliche Kontextbedingungen
abgeleitet, die eine solche argumentative Einigung möglich machen:100

a) eine gemeinsame Lebenswelt, die gemeinsame Erfahrungen, Refe-


renzpunkte und Handlungsziele beinhaltet und auf der internatio-
nalen Ebene durch institutionalisierte Diskurse und Kooperation
sowie durch das Völkerrecht gegeben ist;
b) die ideale Sprechsituation, die Inklusivität, gleiche Teilnahmerechte
und den Schutz vor Repression in Entscheidungsprozessen umfasst,
und die auf Seiten der Akteure Aufrichtigkeit sowie die Bereitschaft,
sich in andere Akteure hineinzuversetzen und sich überzeugen zu
lassen, voraussetzt;
c) Öffentlichkeit, der gegenüber man rechenschaftspflichtig ist und die
deshalb als Kontrollinstanz für die Gültigkeit und Glaubwürdigkeit
der vorgebrachten Argumente gilt.

Als förderliche Bedingungen auf Seiten des Akteurs werden Unsicherheit


bzw. der Mangel an Informationen (z. B. aufgrund der Neuheit des Prob-
lems) genannt (Checkel 2001: 562-563). Ebenso gewinnen Argumente an
Überzeugungskraft, wenn sie an frühere Argumente und Entscheidungen

99
Zur Kritik des Konzeptes siehe Hanrieder 2008, 2011.
100
Risse 1999: 534, 2000b: 14-19, Müller 2004: 400, Deitelhoff/Müller 2005: 172-
175, Deitelhoff 2006, 2009.
Strategien von Normunternehmern 145

anknüpfen (Hawkins 2004: 780). Welches institutionelle Setting für eine


gelingende Überzeugung förderlich ist, beleuchtet der nächste Abschnitt.

Strukturzentrierte Strategien: Opportunitätsstrukturen, Venues und


Koalitionen
Folgt man der Diagnose der Vertreterinnen des Überzeugungsansatzes,
sind in der von Informations- und Machtasymmetrien gezeichneten in-
ternationalen Politik per se kaum Bedingungen vorzufinden, die für
Normgenerierungsprozesse förderlich sind (Risse 2000b: 16, Deitelhoff
2006: 22). Zugleich sind günstige strukturelle Bedingungen für den Erfolg
solcher Prozesse wesentlich (Khagram et al. 2003: 17). Warum dies der
Fall ist, ist im Konzept der Opportunitätsstrukturen erfasst: Dabei handelt
es sich um Charakteristika des (internationalen) politischen Umfelds, die
Möglichkeiten für das politische Handeln eröffnen oder erleichtern bzw.
verschließen oder erschweren und Anreize für bestimmte Handlungswei-
sen setzen (Tilly 1978, Khagram et al. 2003: 17).
Charakteristika von Opportunitätsstrukturen umfassen den diskursi-
ven Referenzrahmen, institutionelle Regeln und Prozeduren (etwa Zu-
gangsvoraussetzungen, Partizipationsrechte und Entscheidungskompe-
tenzen), mehr oder weniger feste Akteurszusammenschlüsse und Kon-
fliktlinien sowie formelle und informelle Machtbeziehungen, aber auch
die Interessen der Normadressaten (Keck/Sikkink 1998: 7, Joachim 2003:
251, Coleman 2013: 164-166). Je nach Sachverhalt können Opportuni-
tätsstrukturen unterschiedlich offen oder geschlossen sein (McCarthy
1997: 255, Khagram et al. 2003: 19). Der Grad an Offenheit ergibt sich
aus den genannten strukturellen Charakteristika – ob es etwa unumgeh-
bare Vetospieler oder festgefahrene Konfliktlinien zwischen potentiellen
Normadressaten gibt, wie hierarchisch die Entscheidungsprozesse organi-
siert sind oder wie undurchdringlich der Diskurs ist. Die Strategien, die
darauf zielen, institutionelle Strukturen so zu nutzen und zu verändern,
dass sie „den Anforderungen an rationale Diskurse nahe kommen“ (Dei-
telhoff 2006: 140), sind Venue-Choice, Venue-Change, die Nutzung von
Gelegenheitsfenstern und die Bildung von Koalitionen.

146 Theorieerfassung

Wenn Normunternehmer Normsetzungsprozesse anstoßen, berück-


sichtigen sie die unterschiedlichen Opportunitätsstrukturen, die ihnen
unterschiedliche institutionelle Settings („Venues“) bieten, und ent-
scheiden sich für dasjenige, das ihnen am aussichtsreichsten erscheint
(strategic venue choice, Coleman 2013: 171). Mit „Venue“ sind die vielfäl-
tigen Formen „diplomatischer Zusammenkünfte“ (Gipfeltreffen, routi-
nierte Austauschprozesse in den ständigen internationalen Gremien oder
Arbeitsgruppen) gemeint (Coleman 2013: 167, Übersetzung ELR). Fol-
gende Venue-Charakteristika, die üblicherweise in den Geschäftsord-
nungsregeln festgehalten sind, definieren die Einflussmöglichkeiten der
Normunternehmer: Zugangs-, Teilnahme- und Stimmrechte sowie das
institutionelle Mandat.101
Zugangsvoraussetzungen zu den Diskussions- und Verhandlungsforen legen
den Teilnahmekreis fest: ob alle oder nur ein Teil der Normadressaten an
den Prozessen teilnehmen; ob zivilgesellschaftliche Akteure zugelassen
sind, und für welche Prozessphasen diese Zulassung gilt. Hiervon hängt
schließlich ab, ob bzw. wann transnationale Normunternehmer über-
haupt in direkte Kontakte mit den Normadressaten treten können. Teil-
nahmerechte definieren die Handlungsoptionen der Beteiligten – welche
Akteure über Rederechte verfügen, zu welchen Zeitpunkten und in wel-
cher Länge diese gewährt werden, und ob und welche Arten von beglei-
tenden Aktivitäten (beispielsweise schriftliche Stellungnahmen, Informa-
tionstische oder Workshops) zugelassen sind. Stimmrechte definieren die
Entscheidungsmodi, d. h. wer entscheidungsbefugt ist und wie die Ent-
scheidungen zustandekommen. Das Mandat definiert u. a., ob die Institu-
tion für viele oder wenige Issues zuständig ist, wodurch sich z. B. Mög-
lichkeiten für Verhandlungspakete ergeben (Coleman 2013: 169-170).
Durch die strategische Wahl von Verhandlungsforen ist es für Nor-
munternehmer möglich, sich innerhalb bestehender Strukturen größt-
mögliche Handlungsmacht zu verschaffen. Sie haben jedoch auch selbst
strukturelle Macht, d. h. die Macht, auf Strukturen einzuwirken (Strange
1987: 565, Klandermans 1997: 167). Wenn es kein Forum gibt, das güns-
tige institutionelle Bedingungen für die Normsetzung bietet bzw. sich

101
Ausführlich siehe Brühl/Rosert 2014: 294-297 und Coleman 2013: 168.
Strategien von Normunternehmern 147

diese im Prozess als ungünstig herausstellen, können Normunternehmer


die prozedurale Legitimität in Frage stellen, mit dem Ziel, die institutio-
nellen Bedingungen innerhalb bestehender Foren zu verändern oder
sogar neue Foren zu schaffen. Dies wird als „Venue-Change“ (Coleman
2013) oder „layering“ (Fehl 2014: 520, Cottrell 2009: 225-226) bezeich-
net. Normunternehmer wirken demnach nicht nur auf die substantielle,
sondern auch auf „die im engeren Sinne institutionelle Ausgestaltung der
Diskurse“ ein (Deitelhoff 2006: 142), die es erst möglich macht, dass be-
stimmte Rahmungen verfangen können (Deitelhoff 2006: 273). Dabei
kann es z. B. darum gehen, das Konsensprinzip zu umgehen (Cottrell
2009: 239-241) oder entpolitisierte Expertenforen sowie exklusive Ver-
handlungsstationen mit kleinem Teilnehmerkreis zu schaffen (Deitelhoff
2006: 273-274).
Unter Gelegenheitsfenstern (windows of opportunity oder policy
windows) versteht man temporäre Öffnungen in der politischen Struktur,
die sich, weil Strukturen immer eine gewisse Dynamik innewohnt, selbst
in stark geschlossenen Bereichen ergeben können. Sie bieten für Nor-
munternehmer die Chance, ihr Anliegen voranzubringen (Joachim 2003:
251, Kingdon 2003: 165-166). In der diskursiven Struktur öffnen sich
solche Fenster, wenn Trigger-Ereignisse die öffentliche Aufmerksamkeit
auf bestimmte Issues lenken oder wenn andere Issues, an die man das
eigene Issue ankoppeln kann, in die Diskussion geraten. In der instituti-
onellen Struktur öffnen sich solche Fenster zu bestimmten Zeitpunkten
in institutionellen Zyklen oder durch politische und personelle Wechsel
(Klandermans 1997: 21, Kingdon 2003: 165-169).
Institutionelle Zyklen bezeichnen wiederkehrende Ablaufmuster politi-
scher Prozesse, in denen unterschiedliche Zeitpunkte unterschiedlich
günstig für Wandel sind (Kingdon 2003: 185). In der internationalen
Politik können beispielsweise Großgipfel, Vertragsüberprüfungskonferen-
zen oder der Beginn neuer Sitzungsperioden solche Gelegenheitsfenster
eröffnen. Politische und personelle Wechsel bezeichnen sowohl zwischen
den Ländern rotierende Vorsitze bestimmter Gremien als auch wechseln-
de Personen in Schlüsselpositionen. Sie können zu Gelegenheitsfenstern
werden, wenn die neuen Amtsträger andere substanzielle (oder auch pro-
zedurale) Positionen als ihre Vorgänger vertreten. Entscheidend ist hier

148 Theorieerfassung

zweierlei: nämlich, erstens, dass sich so ein Fenster eröffnet und zwei-
tens, dass es von den Normunternehmern als solches erkannt und ge-
nutzt wird, bevor es sich wieder schließt (Kingdon 2003: 165-166, Kha-
gram et al. 2003: 17, Schneider/Janning 2006: 55).
Normentstehungsprozesse werden selten von einer Akteursgruppe im
Alleingang vorangetrieben; vielmehr bündeln unterschiedliche norm
entrepreneurs ihre Ressourcen, um ein gemeinsames Ziel zu erreichen (Kel-
ley 2008: 226). Koalitionsbildung kommt sowohl bei der Initiierung von
Normsetzungsprozessen als auch in verschiedenen Phasen dieser Prozesse
vor. Sie funktioniert über drei Mechanismen: Ressourcentausch, Arbeits-
teilung und Konflikte. Zum Ressourcentausch kommt es, wenn sich Akteu-
re zusammenschließen, denen jeweils bestimmte strukturelle Ressourcen
zur Verfügung stehen und wiederum andere fehlen, sodass durch die
Koalition die spezifischen Nachteile der jeweiligen Gruppe kompensiert
werden können (Brühl 2003: 30-31, Joachim 2003: 251-252). Für transna-
tionale Akteure mit beschränkten institutionellen Zugangsmöglichkeiten
sind andere Normunternehmernetzwerke, die weiteres Mobilisierungspo-
tential, aber auch personelle Ressourcen und Erfahrungen mitbringen,
ein wichtiger Partner (Khagram et al. 2003: 7). Ebenso wichtig sind
gleichgesinnte Staaten, weil diese über institutionelle Ressourcen (Zugang
und Stimmrechte) oder über Einflussmöglichkeiten verfügen, die sich
beispielsweise aus ihrer Mitgliedschaft in staatlichen Zusammenschlüssen
wie der EU ergeben (Rutherford et al. 2003, Deitelhoff 2009: 37, Bol-
ton/Nash 2010). Im Gegenzug profitieren Staaten von der moralischen
Autorität und der Expertise transnationaler Akteure (Deitelhoff 2006:
244-246, Carpenter 2011: 88).
Außerdem kann eine Arbeitsteilung innerhalb der Koalitionen stattfin-
den. Transnationale Normunternehmer können sich so auf verschiedene
Gremien oder Regionen konzentrieren (Khagram et al. 2003: 7); gleichge-
sinnte Staaten als Vermittler und in der stillen Diplomatie aktiv werden,
wohingegen transnationale Akteure stärker konfrontativ und anklagend
auftreten können (Becker-Jakob et al. 2013: 232). Auch Konflikte – sowohl
auf Seiten der Normadressaten als auch auf Seiten der Normunternehmer
– können durch einen strategischen Umgang mit ihnen für die Normset-
zung förderlich sein. Sind die Normadressaten (wie so häufig) gespalten,
Zusammenfassung und Ausblick auf das folgende Kapitel 149

können Normunternehmer Kompromisse vorschlagen; sind die Normun-


ternehmer gespalten, können einige von ihnen zu interessanten Ver-
handlungspartnern für die Normadressaten werden (Joachim 2003: 269).

Zusammenfassung und Ausblick auf das folgende Kapitel


Neben der allgemeinen Einführung in die theoretische Diskussion war es
ein Ziel der letzten Abschnitte, in den Strategien von Normunterneh-
mern mögliche Erklärungsansätze für erfolgreiche und gescheiterte
Normsetzungsversuche zu identifizieren. Hierfür habe ich unterschiedli-
che problem-, akteurs- und strukturzentrierte Strategien aufgezeigt, und
dabei Faktoren identifiziert, von denen die Effektivität dieser Strate-
gien abhängt.

Adressaten Ziele Strategien

Problem Aufmerksamkeit Framing


Bestimmte Problem-
wahrnehmung

Mobilisierungsadressaten Mobilisierung Bewusstseinsschaffung

Normadressaten Normakzeptanz sozialer Druck


normkonformes Verhalten Überzeugung

Strukturen Überwindung struktureller Venue-Choice und Venue-


Nachteile Change
Ermöglichung rationaler Nutzen von Gelegenheits-
Diskurse fenstern
Koalitionsbildung

Tabelle 5: Ziele und Strategien der Normunternehmer (eigene Zusammenstellung)

Framing als problemzentrierte Strategie zielt darauf, den jeweiligen Sach-


verhalt auf eine bestimmte Art und Weise sozial zu konstruieren, um ihn
als relevantes und dringendes Problem – und die Norm als adäquate Lö-
sung – zu vermitteln. Da die Problemkonstruktion zwar eine entschei-

150 Theorieerfassung

dende Handlungsgrundlage bietet, alleine jedoch zu diffus ist, um bei


den relevanten Akteuren Handlungsdruck auszulösen, wenden Normun-
ternehmer ergänzend akteurszentrierte Strategien an. Die Mobilisierungs-
adressaten sollen mit Kampagnen und öffentlichen Aktionen für das
Problem sensibilisiert und motiviert werden, ihre Ressourcen für die
Normgenerierung einzusetzen. Die Normadressaten sollen mit sozialem
Druck und guten Argumenten zur Akzeptanz der Norm und zu normkon-
formem Verhalten bewegt werden. Zudem richten Normunternehmer
ihre Bemühungen auf die institutionelle Struktur: Sie wählen das institu-
tionelle Setting bewusst aus und wirken darauf ein, um eine argumenta-
tive Einigung wahrscheinlich zu machen; sie nutzen (kurzzeitige) Gele-
genheitsfenster, um normativen Wandel auch in geschlossenen Struktu-
ren zu forcieren; und sie bilden Koalitionen, um ihre strukturellen Nach-
teile auszugleichen.
Der Fokus auf Normunternehmer und ihr Handeln sowie auf die
Merkmale, die Strategien erfolgversprechend werden lassen, hat ein Ana-
lyseraster aus problemspezifischen, akteursspezifischen und strukturspezi-
fischen Faktoren erzeugt, welches im folgenden Kapitel auf konkrete Fälle
angewendet wird, um die Erklärungsgrenzen und das Erklärungspotential
dieser Faktoren auszuloten.

5 Theorieevaluation: Kovarianzanalyse zur


Ermittlung der Erklärungsgrenzen und des
Erklärungspotentials der bestehenden Ansätze

Das theoretische Netz der Normenforschung soll in diesem Kapitel da-


raufhin überprüft werden, wie gut es die drei Fälle, die in diesem Buch
eine Rolle spielen – die Normentstehungsprozesse von Napalm, Landmi-
nen und Streumunition – einfangen kann. Mit diesen Fällen geht das
Puzzle einer doppelten Varianz einher: der Within-Case-Varianz im Fall
der Streumunition und der Cross-Case-Varianz zwischen Streumunition
und Napalm sowie Streumunition und Landminen.
Die im Folgenden durchgeführte Kovarianzanalyse hat drei Funktio-
nen: das Puzzle theoretisch zu untermauern, den eigenen Erklärungsan-
satz zu stärken und empirischen Forschungsbedarf aufzuzeigen. Nach-
dem in der Einleitung die Grenzen naheliegender empirischer Erklärun-
gen für die Varianz aufgezeigt wurden, zeige ich in diesem Kapitel, dass
sich auch aus dem theoretischen Rahmen keine Faktoren extrahieren
lassen, die die Varianz zwischen den Fällen überzeugend erklären. Indem
ich alternative Erklärungen auf Basis einer systematischen Auseinander-
setzung ausschließe, will ich die Plausibilität meines Erklärungsmodells
demonstrieren. Zugleich müsste ein starkes Modell in der Lage sein, zu
erklären, warum diejenigen Faktoren, die hier als potentiell erklärungs-
stark identifiziert werden, bestimmte Ausprägungen aufweisen. Die Ge-
genüberstellung von Theorie und Empirie noch im Vorfeld der eigenen
empirischen Analyse ist auch deshalb sinnvoll, weil sie eine systemati-
sche Auswertung des über die Sekundärliteratur bereits zugänglichen
Fallwissens voraussetzt. Damit befähigt sie zur Reflexion des empirischen
Forschungsstandes und des eigenen Forschungsbeitrages.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_5

152 Theorieevaluation

Die Kovarianzanalyse findet in drei Schritten statt: Zunächst betrachte


ich die Verteilung der Outcomes und anschließend die Erklärungsfakto-
ren und deren Ausprägungen in den hier untersuchten Fällen. Ich ziehe
dann auf Basis der Kovariationsmuster kausale Schlussfolgerungen.

Outcomes: Instanzen von Entstehung und Nicht-Entstehung von


Normen in den Fällen Napalm, Landminen und Streumunition
Keine der Normen, um die es hier geht, hat zuvor als Verhaltenspraxis
existiert – bei der internationalen Kodifizierung handelte es sich deshalb
nicht etwa um einen Versuch, ohnehin akzeptierte Standards zu formali-
sieren. Im Gegenteil zielte die Normsetzung darauf, eine als nicht akzepta-
bel angesehene, jedoch übliche Praxis des Einsatzes aller drei Waffenarten
zu beenden. Schließlich sind alle drei Normen in internationalen Konven-
tionen festgehalten worden. Dadurch sind drei Zeitpunkte definiert, auf
die die Entstehung der Normen datiert werden kann: Am 10. Oktober 1980
wurde die Konvention über besondere konventionelle Waffen angenom-
men, deren Protokoll III die Brandwaffennorm enthält; am 18. September
1997 wurde das Übereinkommen über das Verbot des Einsatzes, der Lage-
rung, der Herstellung und der Weitergabe von Antipersonenminen und
über deren Vernichtung angenommen; am 30. Mai 2008 schließlich wurde
das Übereinkommen über Streumunition angenommen.
Betrachten wir nun die Zeitpunkte der Nicht-Entstehung der Streu-
munitionsnorm. Aus den oben angestellten Überlegungen zu den Identi-
fikationsmöglichkeiten von Nicht-Entstehungsinstanzen folgt für das
Streubombenverbot zweierlei: In den 1970er Jahren finden wir einen
leicht erkennbaren Fall von Nicht-Entstehung – eine Regulierung von
Streumunition wurde auf internationaler institutioneller Ebene disku-
tiert, ist jedoch nicht in die Konvention über besondere konventionelle
Waffen aufgenommen worden. Damit hat sich die Nicht-Entstehung der
Streumunitionsnorm in der CCW manifestiert, womit als (vorläufiger)
Zeitpunkt der ersten Nicht-Entstehung der Tag der Verabschiedung der
CCW, der 10. Oktober 1980, festgehalten werden kann.
In den 1990er Jahren gab es keinen institutionalisierten Verbotspro-
zess zu Streumunition. Allerdings wurde bei der Gründung der Anti-
Outcomes 153

Landminen-Kampagne – die schließlich 1997 in der Landminenkonven-


tion mündete – von einigen Akteuren gefordert, auch Streumunition zum
Teil der Kampagne zu machen (Goose 2008: 221, 236 Fußnote 9). Damit
böte sich als ein möglicher Zeitpunkt der Nicht-Entstehung die Grün-
dung der International Campaign to Ban Landmines im Oktober 1992 an,
an dem sich die dezidierte Entscheidung für eine single-issue-Kampagne
und damit gegen Streubomben manifestierte (Wiebe 2003: 97, Goose
2008: 221, 236 Fußnote 9). Ich habe mich allerdings entschieden, analog
zum ersten Fall, den Tag der Verabschiedung der Ottawa-Konvention
und damit den 18. September 1997 als Zeitpunkt der zweiten Nicht-
Entstehung zu setzen, um zu überprüfen, wie sich die ICBL auf das Prob-
lem der Streumunition auswirkte und ob es nach ihrer Gründung andere
Versuche gab, Streumunition auf die Agenda zu setzen.
Folgende Outcome-Matrix („+“ steht für die Entstehung der Norm, d.
h. ein positives Outcome; „–„ für die Nicht-Entstehung, d. h. ein negati-
ves Outcome) enthält Instanzen der Entstehung und Nicht-Entstehung
der drei Untersuchungsfälle.

1980 1997 2008

Streumunition – – +

Landminen – +

Brandwaffen +

Tabelle 6: Outcome-Matrix

Da es nicht das Ziel dieser Studie ist, die Entstehung und Nicht-
Entstehung aller drei Waffenarten zu erklären, sind nicht alle der sich
hierdurch ergebenden Vergleichsmöglichkeiten relevant. Vielmehr ist die
Fragestellung erstens auf den Fall Streumunition, und zweitens auf das
Phänomen der langen Nicht-Entstehung dieser Norm beschränkt. Hier-
durch erübrigt sich der Vergleich der drei Fälle mit einem positiven Out-
come. Ebensowenig interessiert der Fall Landminen über Zeit oder der
Vergleich zwischen Landminen und Brandwaffen im ersten Untersu-
chungszeitraum. Folgende Vergleiche sind hingegen relevant:

154 Theorieevaluation

• Die Waffengattung Streumunition bietet sowohl einen Zeitpunkt der


Entstehung als auch zwei vorherige Zeitpunkte der Nicht-
Entstehung, was die Frage aufwirft, warum zuvor nicht möglich war,
was später möglich wurde. Zu suchen sind vor allem Gemeinsamkei-
ten zwischen den beiden Zeiträumen, die der Nicht-Entstehung vo-
rausgingen, sowie Unterschiede zwischen diesen beiden Zeiträumen
und dem Entstehungszeitraum.
• Die Verabschiedung der CCW im Jahr 1980 markierte sowohl die
Entstehung der Brandwaffennorm als auch die Nicht-Entstehung der
Streubombennorm, was die Frage aufwirft, weshalb die eine, nicht
aber die andere Norm angenommen wurde.
• Dass Landminen und Streumunition zu diesem Zeitpunkt das gleiche
(negative) Outcome hatten, ist ebenfalls im Sinne der Fragestellung
interessant, weil es sowohl das Phänomen (Nicht-Entstehung) als
auch den Fall Streumunition betrifft. Hier stellt sich ebenfalls die
Frage nach eventuellen Gemeinsamkeiten der beiden Fälle, die das
Outcome erklären.

Potentielle Erklärungsfaktoren für die Varianzen und Kongruenzen in


den Outcomes über Zeit sowie zwischen den Fällen können mit zwei
vergleichenden Methoden – der Differenz- und der Konkordanzmethode –
ermittelt werden. In Fällen mit unterschiedlichen Outcomes ist die Diffe-
renzmethode maßgeblich, nach der diejenigen Erklärungsfaktoren auszu-
schließen sind, die in den Fällen gleich ausgeprägt sind oder entgegen
der kausalen Vermutung variieren, wohingegen diejenigen Erklärungsfak-
toren, die unterschiedlich ausgeprägt sind bzw. entsprechend der kausa-
len Vermutung variieren, weiterhin zu berücksichtigen sind. In Fällen
mit gleichen Outcomes ist die Konkordanzmethode maßgeblich, nach
der diejenigen Faktoren auszuschließen sind, die in den Fällen unter-
schiedlich ausgeprägt sind, wohingegen diejenigen Erklärungsfaktoren,
die gleich ausgeprägt sind, weiterhin zu berücksichtigen sind.
Ich führe also folgende Vergleiche durch: Im Within-Case-Vergleich
(auch: fallimmanenter oder diachroner Vergleich) vergleiche ich mittels
der Konkordanzmethode die beiden Fälle der Nicht-Entstehung der Streu-
munitionsnorm in den Jahren 1980 und 1997, und diese wiederum mittels
L5%/P5($'&C#%9?5.$! H__!

der Differenzmethode mit der Entstehung der Streumunitionsnorm im


Jahr 2008. In Cross-Case-Vergleichen (auch: fallübergreifender oder syn-
chroner Vergleich) vergleiche ich mittels der Differenzmethode erstens die
Nicht-Entstehung der Streumunitionsnorm und die Entstehung der
Brandwaffennorm im Jahr 1980 sowie zweitens die Nicht-Entstehung der
Streumunitionsnorm und die Entstehung der Landminennorm im Jahr
1997. Mittels der Konkordanzmethode vergleiche ich die Nicht-Entstehung
der Streumunitionsnorm und die Nicht-Entstehung der Landminennorm
im Jahr 1980.

     


 –  –     


       

    
     


%( 2*#H= !/#(!%$!*$ !/%""!/!*8)!1$+ !

    


 –  –     


 –

     

733/+6'#&(M9 <.1&+./>*.(#">*(6.1(O2#$216"#P4.,*26.(

Erklärungsfaktoren in Within-Case- und Cross-Case-Vergleichen


Nun gilt die Aufmerksamkeit der anderen Seite der Gleichung, nämlich
der Ausprägung der Erklärungsfaktoren in den Fällen. Während ich die
Outcomes auf bestimmte Zeitpunkte datiert habe, sind Erklärungen nicht
punktuell, sondern in Entwicklungen zu suchen, weshalb ich die Ausprä-
gungen der Erklärungsfaktoren in bestimmten Zeitperioden, die diesen

156 Theorieevaluation

Zeitpunkten vorgelagert sind, erhebe. Diese Zeitperioden entsprechen


den bereits bei der Fallkonfiguration spezifizierten Untersuchungszeit-
räumen: Als Zeitperiode p1 ist hier die Zeit nach dem Zweiten Weltkrieg
(da hier die Festschreibung des modernen humanitären Völkerrechts
begann) bis 1980 definiert, als Zeitperiode p2 die Zeit zwischen 1980 und
1997 und als Zeitperiode p3 die Zeitperiode zwischen 1997 und 2008
(siehe zur Begründung der Einteilung S. 256 im Methodenkapitel).
Der Einteilung des Theoriekapitels folgend, unterscheide ich im Fol-
genden problemspezifische, akteursspezifische und strukturelle Faktoren-
bündel, die als Erklärung für die jeweiligen Outcomes in Frage kommen.
Das problemspezifische Bündel umfasst nur einen Faktor – das Framing.
Das akteursspezifische Bündel umfasst die Präsenz und die Eigenschaften
von Normunternehmern sowie die gegenüber den Normadressaten und
den Mobilisierungsadressaten eingesetzten Strategien. Das strukturelle
Bündel umfasst institutionelle Bedingungen, Gelegenheitsfenster und die
Akteurskonstellation zwischen und unter den Normunternehmern und
Normadressaten. Ich analysiere nun die Faktorenbündel nacheinander,
indem ich, soweit möglich, die Ausprägung der einzelnen darin enthal-
tenen Faktoren in den Zeitperioden vor den jeweiligen Entstehungs- bzw.
Nicht-Entstehungszeitpunkten bestimme und diese jeweils fallübergrei-
fend und fallimmanent vergleiche.

Problemspezifischer Faktor: Framing


Der positive Ausgang in allen drei Fällen spricht dafür, dass schließlich
ein effektives Framing für jede Waffenart gefunden wurde. Doch gab es
Varianzen im Framing zwischen den Fällen und über Zeit, die das Schei-
tern der Streumunitionsnorm zu vorherigen Zeitpunkten erklären wür-
den? Wenn das Framing eine Rolle gespielt hat, müsste empirisch Fol-
gendes zutreffen: Im Within-Case-Vergleich müsste das Framing im letz-
ten Untersuchungszeitraum mehr solcher Frames beinhalten, die als för-
derlich identifiziert wurden, während diese in den ersten beiden Zeitper-
ioden fehlen oder in geringerer Anzahl vorhanden sein dürften. Dagegen
müssten wir dort (mehr) hinderliche Frame-Eigenschaften finden. In
Cross-Case-Vergleichen müsste in der ersten Zeitperiode das Framing von
Brandwaffen und in der zweiten Zeitperiode das Framing von Landminen
Erklärungsfaktoren 157

mehr förderliche und weniger hinderliche Frames beinhalten als das


Framing von Streumunition.
Die Literatur zu den jeweiligen Verbotsprozessen deckt nur einen Teil
der interessierenden Fälle ab. Die enge Assoziation von Brandwaffen mit
dem Vietnamkrieg ist tief im öffentlichen Bewusstsein verankert, doch
das Framing dieser Waffen ist nicht systematisch erforscht. Einige Stu-
dien untersuchen zwar das Framing von Landminen (Price 1998, Latham
2001, Rappert 2006), allerdings erst seit der Gründung der ICBL; dadurch
sind sie für die Zeitperiode, die hier von Interesse ist, nur bedingt nütz-
lich. Auf welche Weise Landminen zuvor im öffentlichen Diskurs reprä-
sentiert waren, d. h. in welchen diskursiven Kontext die Entscheidung
der ICBL, sich auf Landminen zu konzentrieren, eingebettet war, kann
nicht aus dem Forschungsstand bestimmt werden.
Ähnliches gilt für das Verbot von Streumunition: Die Studien, die die
erfolgreiche Normentstehung erklären, berücksichtigen in der Regel auch
das Framing und heben als dessen wichtigstes Element die Anschlussfä-
higkeit der Streumunitionsnorm an die zuvor verabschiedete Land-
minennorm hervor. Da letztere in den vorangegangenen Zeitperioden
nicht existierte, ist das Fehlen dieses konkreten Präzedenzfalls zwar ein
möglicher Erklärungsfaktor für das Scheitern vorheriger Verregelungsbe-
mühungen. Allerdings boten humanitärvölkerrechtliche Prinzipien sowie
Stigmatisierungen anderer Waffenarten auch in vorherigen Zeitperioden
Anknüpfungspunkte, sodass empirisch zu klären ist, ob Versuche unter-
nommen wurden, die Problematik von Streumunition an andere Präze-
denzfälle anzuschließen.
Auf Basis der Sekundärliteratur kann ich in vier von fünf Fällen nicht
(vollständig) bestimmen, wie das Framing ausgeprägt war. Daher wird
das Framing empirisch analysiert.
p1 p2 p3

Streumunition ? ? +

Landminen ? ?+

Brandwaffen ?

Tabelle 7: Framing

158 Theorieevaluation

Akteursspezifische Faktoren: Präsenz und Eigenschaften der


Normunternehmer sowie akteurszentrierte Strategien
Im Within-Case-Vergleich haben wir zwei Instanzen, in denen sich Nor-
munternehmer der Streumunitionsproblematik angenommen haben: Im
ersten Untersuchungszeitraum war es das Internationale Rote Kreuz, das
Streumunition auf die Agenda der Diplomatischen Konferenzen zur Wei-
terentwicklung des humanitären Völkerrechts setzte, wo von einigen
Staaten ein Verbot dieser Waffen gefordert wurde. Im dritten Untersu-
chungszeitraum war es ein Zusammenschluss mehrerer Akteure, die sich
als Cluster Munitions Coalition für das Ziel eines internationalen Verbots
von Streumunition einsetzten. Im zweiten Untersuchungszeitraum konn-
ten sich die vereinzelten Akteure, die sich für eine Kampagne gegen
Streumunition aussprachen, nicht innerhalb der Normunternehmerge-
meinschaft durchsetzen.
Im ersten Cross-Case-Vergleich haben wir Normunternehmer, die sich
gleichzeitig sowohl der Brandwaffen- als auch der Streumunitionsprob-
lematik (und auch weiterer Waffen) annahmen; im zweiten Cross-Case-
Vergleich hingegen eine Koalition, die sich zusammenschloss, um für das
Verbot von Landminen, nicht jedoch für das Verbot von Streumunition
einzusetzen. Die Erklärungskraft des Faktors Normunternehmerpräsenz
ist damit als notwendige Bedingung bestätigt.

p1 p2 p3

Streumunition + – +

Landminen + +

Brandwaffen +

Tabelle 8: Existenz der Normunternehmer

Eigenschaften der Normunternehmer: Soeben wurde gezeigt, dass Normun-


ternehmer nicht in allen Fällen erfolgreich (Within-Case-Varianz zwi-
schen dem gescheiterten Verbotsversuch von Streumunition in p1 und
dem erfolgreichen in p3 sowie die Cross-Case-Varianz I zwischen dem
Erklärungsfaktoren 159

gescheiterten Verbotsversuch von Streumunition und dem erfolgreichen


Verbotsversuch von Brandwaffen) und auch nicht in allen Fällen vor-
handen waren (Cross-Case-Varianz II zwischen der beschlossenen Land-
minenkampagne und der ausgebliebenen Streumunitionskampagne). Als
mögliche normunternehmerinterne Erklärungsfaktoren für den Erfolg
bzw. für das Scheitern von Verbotsversuchen habe ich in der theoreti-
schen Literatur organisationale Kapazitäten und Zielkonflikte identifi-
ziert; als Erklärungen der Entscheidungen für und gegen die Adoption
bestimmter Issues organisationale Eigeninteressen, Hierarchie und eben-
falls Zielkonflikte.
Falls organisationale Kapazitäten und Zielkonflikte die Within-Case-
Varianz und die Cross-Case-Varianz I im Erfolg der jeweiligen Verbotsver-
suche erklären können, müsste empirisch Folgendes beobachtbar sein:
Die Streumunitionsnormunternehmer hatten in p3 mehr organisationale
Kapazitäten als in p1; und die Brandwaffennormunternehmer hatten
mehr organisationale Kapazitäten als die Streumunitionsnormunterneh-
mer. Ferner müsste es in p3 weniger Zielkonflikte zwischen den Normun-
ternehmern als in p1 gegeben haben, ebenso wie es weniger Zielkonflikte
zwischen den Brandwaffennormunternehmern als den Streumuniti-
onsnormunternehmern in p1 gegeben haben müsste.102

p1 p3

Streumunition + +

Brandwaffen +

Tabelle 9: Organisationale Kapazitäten

Differenzen in organisationalen Kapazitäten können die Cross-Case-


Varianz in p1 nicht erklären, weil es die gleichen Normunternehmer wa-
ren, die sich für die gemeinsame Verregelung verschiedener als inhuman

102
Für die cross-case-Varianz II zwischen Landminen und Streumunition spielen
diese Überlegungen keine Rolle, weil wir es hier nicht mit unterschiedlich erfolg-
reichen Verbotsprozessen zu tun haben, sondern es zu diesem Zeitpunkt gar
nicht zu einem Verbotsversuch von Streumunition kam.

160 Theorieevaluation

erachteter Waffen – darunter sowohl Streubomben als auch Brandwaffen


– eingesetzt hatten. Dies relativiert auch die Bedeutung dieses Faktors für
die Within-Case-Varianz: Auch wenn die 2003 gegründete CMC sicher-
lich mehr Kapazitäten hatte als das ICRC in den 1970er Jahren, haben
dessen Kapazitäten damals offenbar dafür ausgereicht, erfolgreich ein
Brandwaffenverbot zu initiieren, sodass man annehmen kann, dass sie
auch für ein Verbot von Streumunition hätten ausreichen müssen. Den
Faktor schließe ich daher als irrelevant aus.
Ob und welche Art von Zielkonflikten es gab, kann ich an dieser Stelle
nicht für alle Fälle sicher bestimmen, weil vorhandene Informationen
unterschiedliche Vermutungen zulassen. Einerseits könnte man mit Blick
auf die Within-Case-Varianz mehr Zielkonflikte in p3 erwarten, weil es in
p3 eine aus vielen verschiedenen Akteuren zusammengesetzte Koalition
gab, die sich für das Verbot von Streumunition einsetzte, wohingegen es
in p1 nur wenige Normunternehmer gab (das ICRC, die UN bzw. die UN-
Generalsekretäre U Thant und Kurt Waldheim und einige individuelle
Akteure). Träfe diese Vermutung zu, würde der Faktor entgegen der er-
warteten Richtung variieren, weil der Versuch in p3 erfolgreich ausging.

p1 p2 p3

Streumunition ? + ?

Landminen 0 +

Brandwaffen ?

Tabelle 10: Zielkonflikte

Andererseits könnte man genauso gut annehmen, dass die Formierung


einer Kampagnekoalition wie in p3 mit dem Ausräumen von Konflikten
und einer einheitlichen Zielsetzung und Strategie einhergeht, wohinge-
gen man bei unterschiedlichen Akteuren wie in p1 nicht notwendiger-
weise Koordination voraussetzen kann. Träfe diese Vermutung zu, würde
der Faktor bestätigt werden. Mit Blick auf die Cross-Case-Varianz I gibt es
per se keinen Grund zur Annahme, dass Streumunition unter den Nor-
munternehmer für mehr Zielkonflikte als Brandwaffen gesorgt hätte; mit
Erklärungsfaktoren 161

Blick auf die Cross-Case-Varianz II, wo nicht der Erfolg der Kampagne,
sondern die Issue-Adoption das Interessante ist, wissen wir hingegen
bereits, dass es zumindest unterschiedliche Auffassungen darüber gab,
welche Waffen man in die Kampagne aufnehmen sollte. Insgesamt bleibt
der Faktor damit potentiell erklärungskräftig und wird weiter bedacht.
Würden organisationale Eigeninteressen und Hierarchie erklären,
weshalb im Oktober 1992 die Entscheidung für Landminen und gegen
Streumunition fiel, müsste empirisch Folgendes beobachtbar sein: Es hat
eine Abwägung der Erfolgsaussichten für die Verregelung der beiden Waf-
fenarten stattgefunden, in der Landminen als das besser vermarktbare
und eher durchsetzbare Issue hervorgingen. Es wurde die Einschätzung
geäußert, dass für eine Landminenkampagne mehr externe Unterstützer
und Ressourcen verfügbar seien als für Streumunition. Es wurde die Be-
fürchtung geäußert, dass ein Fokus auf Streumunition zu Konflikten mit
anderen Netzwerken führen könnte. Es waren Gatekeeper-
Organisationen beteiligt, welche sich für eine single-issue-Kampagne aus-
gesprochen haben.
Auf Basis des Forschungsstands kann ich nur tentative Aussagen dar-
über machen, inwiefern diese Erwartungen zutreffen. Vorliegende Arbei-
ten zur ICBL konzentrieren sich auf die Aktivitäten der ICBL nach ihrer
Gründung – der Gründungsmoment selbst wird nur knapp dokumen-
tiert, und erscheint weniger als Entscheidungsprozess, in dem mehrere
Probleme auf der Agenda standen, sondern als unmittelbare und quasi
natürliche Reaktion auf die Erfahrungen des humanitären Personals in
minenverseuchten Gebieten (z. B. Williams/Goose 1998, Short 1999,
Bernstein 2008). Nur beiläufig wird erwähnt, dass explizit erwogen wur-
de, auch Streumunition zum Gegenstand der Kampagne zu machen – aus
welchen Gründen die Entscheidung dagegen fiel, ist allerdings nicht
dokumentiert (Goose 2008: 221, 236 Fußnote 9).
Das Internationale Komitee vom Roten Kreuz, ein wichtiger Gatekee-
per in diesem Bereich (Carpenter 2011: 81), unterstützte die Landminen-
kampagne (ohne jedoch Mitglied der ICBL zu sein). Während sein Enga-
gement gegen Landminen beschrieben wird (Maslen 1998), bleibt unklar,
wie es zur Entscheidung gegen Streumunition stand. Daher verbleiben
organisationale Interessen und Präferenzen sowie die Rolle der Gatekee-

162 Theorieevaluation

per als mögliche Erklärungsfaktoren weiter in der Untersuchung. Falls


sich die geäußerten Vermutungen bestätigen, gilt es zu erklären, wie die
Einschätzungen zustande kamen und weshalb die Präferenzen so und
nicht anders ausgeprägt waren.

p2

Landminen +

Streumunition ?

Tabelle 11: Organisationale Eigeninteressen und Präferenzen der Gatekeeper

Strategien der Normunternehmer: Zwei Aspekte des strategischen Vorgehens


sind relevant: die Anwendung bzw. Nicht-Anwendung der akteurs-
zentrierten Strategien und deren Intensität. Falls also die unterschiedli-
chen Outcomes durch das strategische Vorgehen der Normunternehmer
erklärt werden können, müsste empirisch Folgendes beobachtbar sein:
Auch wenn Normunternehmer in p1 die Normierung beider Waffenarten
zum Ziel erklärt hatten, müssten sie in Bezug auf Napalm mehr Strategien
aus dem Strategiemix eingesetzt haben und sie müssten insgesamt aktiver
gewesen sein. In Bezug auf Streumunition müssten wir in p3 entspre-
chend höhere Ausprägungen vorfinden als in p1.

p1 p3

Streumunition ? +

Brandwaffen ?

Tabelle 12: Strategisches Vorgehen und Aktivitätsniveau der Normunternehmer

Während letzteres als sicher gelten kann, schließlich gab es in den 2000er
Jahren eine auf Streumunition allein ausgerichtete Kampagne und wir
sicher wissen, dass sich die Proteste gegen den Vietnamkrieg auch gegen
Napalmeinsätze richteten, kann ich auf Basis der Literatur nicht bestim-
men, wie diese Faktoren in p1 für Streumunition ausgeprägt waren. Da
der Faktor in der Within-Case-Varianz außerdem sehr wahrscheinlich so
Erklärungsfaktoren 163

variiert, wie theoretisch erwartet, berücksichtige ich ihn in der weiteren


Untersuchung. Bestätigt sich die Vermutung, dass sich Normunterneh-
mer weniger für Streumunition als für Brandwaffen engagierten, würde
sich wiederum die Frage anschließen, was das erklärt.

Strukturelle Faktoren: Institutionelle Bedingungen,


Gelegenheitsfenster und die Konstellation der Normadressaten
Da in p2 kein Versuch unternommen wurde, Streumunition auf die insti-
tutionelle Agenda zu setzen, sind die relevanten Varianzen hier erneut
die Cross-Case-Varianz in p1 und die Within-Case-Varianz zwischen p1
und p3. Falls institutionelle Bedingungen erklären können, warum das
Brandwaffenverbot schon 1980, das Streubombenverbot jedoch erst 2008
beschlossen werden konnte, müsste empirisch Folgendes beobachtbar
sein: Die institutionellen Bedingungen, in denen das Brandwaffenverbot
angestrebt wurde, waren günstiger als die institutionellen Bedingungen,
in denen das Streumunitionsverbot angestrebt wurde; zugleich waren die
institutionellen Bedingungen für das Streumunitionsverbot in den
2000er Jahren günstiger als die in den 1970er Jahren.
Im ersten Untersuchungszeitraum wurde die gemeinsame Verregelung
verschiedener als inhuman erachteter Waffen angestrebt und zwar in den
selben organisationalen Plattformen (den Diplomatischen Konferenzen
des ICRC und der UNCCW). Damit kann die Cross-Case-Varianz in p1
nicht auf Differenzen in den institutionellen Bedingungen zurückge-
führt werden.
Der wesentliche institutionelle Unterschied im Within-Case-Vergleich
ist unbestritten der Oslo-Prozess, in dem das Streumunitionsverbot
schließlich erfolgreich verhandelt werden konnte. Ein weiterer instituti-
oneller Unterschied ist aber auch die CCW, die beim ersten Verbotsver-
such noch nicht existierte (sondern erst als dessen Ergebnis hervorging):
Auch wenn die Konvention geschwächt war, weil sich zuvor dort das
Landminenverbot und dann auch das Streumunitionsverbot nicht
durchsetzen ließen und sie dafür umgangen werden musste, so stellte sie
in den 2000er Jahren doch eine organisationale Plattform dar, die sich
qua Mandat als günstige Anlaufstelle für eine Diskussion der Streumuni-

164 Theorieevaluation

tionsnorm eignete. Doch die Erklärungsschwäche der institutionellen


Bedingungen für die Cross-Case-Varianz relativiert auch deren Bedeutung
für die Within-Case-Varianz: Wenn sich damals das Brandwaffenverbot
(bzw. die CCW als Ganzes) innerhalb der genannten institutionellen
Plattformen erzielen ließ, das Streumunitionsverbot allerdings nicht,
spricht es dafür, dass der Faktor zum damaligen Zeitpunkt keine besonde-
re Rolle spielte. Daher werden institutionelle Bedingungen aus der weite-
ren Betrachtung ausgeschlossen.

p1 p3

Streumunition + +

Brandwaffen +

Tabelle 13: Institutionelle Bedingungen

Gelegenheitsfenster: Falls das Vorhandensein bzw. das Fehlen von Gele-


genheitsfenstern einen Erklärungsfaktor darstellt, so müsste sich empi-
risch Folgendes beobachten lassen: In p1 öffnete sich ein Gelegenheits-
fenster nur für Brandwaffen, in p2 nur für Landminen und erst in p3 für
Streumunition. Institutionelle Fenster variierten weder im Within-Case-
Vergleich noch in den Cross-Case-Vergleichen, d. h. sie waren in allen
drei Zeitperioden vorhanden: in p1 waren dies die ICRC-Konferenzen; in
p2 und in p3 die anstehenden Überprüfungskonferenzen der CCW. Da-
mit qualifiziert sich der Faktor als notwendige Bedingung, doch weil das
Vorhandensein institutioneller Fenster die Varianz im Outcome nicht
erklären kann, wird es nicht weiter berücksichtigt.

p1 p2 p3

Streumunition + + +

Landminen + +

Brandwaffen +

Tabelle 14: Institutionelle Zyklen als Gelegenheitsfenster


Erklärungsfaktoren 165

Politische und personelle Wechsel können mit Blick auf die Within-Case-
Varianz als Erklärungsfaktoren deshalb ausgeschlossen werden, weil sich
dadurch innerhalb der gleichen Institution Gelegenheitsfenster öffnen
können, in den hier analysierten Fällen jedoch für die unterschiedlichen
Zeitperioden unterschiedliche Institutionen relevant sind. Es liegt also
eine inter-institutionelle Varianz vor, die eine mögliche intra-
institutionelle Varianz unerheblich werden lässt. Im Cross-Case-Vergleich
zwischen Napalm und Streumunition hätte dieser Faktor hingegen
durchaus relevant werden können, weil beide Waffenarten schließlich in
der UNCCW verhandelt wurden. Allerdings zeigen die Verhandlungspro-
tokolle, dass die Vorbereitungstreffen wie auch die Hauptverhandlungen
und die Verhandlungen in den Nebenausschüssen von gleichen Vorsit-
zenden geleitet wurden, die nur in einigen wenigen Sitzungen aus-
nahmsweise vertreten wurden. Daher schließe ich den Faktor als irrele-
vant aus.103

p1

Streumunition –

Brandwaffen –

Tabelle 15: Personelle Wechsel als Gelegenheitsfenster

Der Within-Case-Vergleich zeigt, dass es in p3 ein durch ein Trigger-


Ereignis geöffnetes Fenster gab, und zwar die NATO-Bombardierung der
serbischen Stadt Niš mit Streumunition. Der Cross-Case-Vergleich I zeigt
zudem, dass der Vietnamkrieg als großes Trigger-Ereignis gedient hat,
welches es ermöglichte, die Problematik der inhumanen Waffen als sol-
che auf die internationale Agenda zu setzen – das Fenster war damit so-
wohl für Brandwaffen als auch für Streubomben offen. Im Cross-Case-
Vergleich II vermisst man nicht nur ein vergleichbares Trigger-Ereignis
für Streumunition, sondern auch eins, das die Gründung der ICBL beför-
103
Die PrepConf und die Hauptverhandlungen leitete der damalige nigerianische
Botschafter in Genf, Oluyemi Adeniji; das Committee of the Whole der bulgari-
sche Botschafter Peter Voutov.

166 Theorieevaluation

dert haben könnte. Der Faktor variiert also unsystematisch, und scheint
damit zumindest keine direkte kausale Relevanz zu haben. Er wird daher
nicht ins Modell selbst aufgenommen, aber bei der empirischen Untersu-
chung weiter bedacht.

p1 p2 p3

Streumunition + – +

Landminen + –

Brandwaffen +

Tabelle 16: Trigger-Ereignisse als Gelegenheitsfenster

Konstellation der Normadressaten: Die Opportunitätsstruktur, in der Norm-


setzungsversuche stattfinden, wird auch durch die Konstellation zwi-
schen den Normadressaten definiert. An dieser Konstellation wichtig sind
die Größe und die Zusammensetzung der Like-Minded-Koalition sowie
der Normgegner-Koalition. Da es für Streumunition im zweiten Untersu-
chungszeitraum gar nicht zur institutionellen Situation kam, in der die
Konstellation hätte eine Rolle spielen können, erübrigt sich hier der
Cross-Case-Vergleich II mit Landminen. Wenn die Konstellation indes die
erste Cross-Case- sowie die Within-Case-Varianz erklärt, müsste empirisch
Folgendes beobachtbar sein: Im Within-Case-Vergleich müsste die Like-
Minded-Koalition für ein Streumunitionsverbot in p1 kleiner und unbe-
deutender gewesen sein als in p3, die Normgegner-Koalition hingegen
größer und gewichtiger. Im Cross-Case-Vergleich in p1 müsste ebenfalls
die Like-Minded-Koalition für ein Streumunitionsverbot in p1 kleiner und
unbedeutender gewesen sein als die Koalition für ein Brandwaffenverbot,
die Koalition gegen das Streumunitionsverbot hingegen größer und ge-
wichtiger als die gegen das Brandwaffenverbot.
Die Akteurskonstellation ist vor allem für den Oslo-Prozess gut er-
forscht – in diesem Fall wird die Hypothese bestätigt, denn der Prozess
wurde von einer Like-Minded-Koalition getragen, der auch bedeutende
Staaten angehörten, wohingegen Verbotsgegner gar nicht erst daran teil-
nahmen. Die Akteurskonstellation während der ICRC-Konferenzen und
Erforderliche und tatsächliche Kovariationsmuster 167

der CCW-Verhandlungen ist zwar sporadisch, aber nicht systematisch in


der Literatur dokumentiert, weshalb es hier weiterer Forschung bedarf.

p1 p3

Streumunition ? +

Brandwaffen ?

Tabelle 17: Konstellation der Normadressaten

Erforderliche und tatsächliche Kovariationsmuster und kausale


Schlussfolgerungen
Dieser Abschnitt fasst nun die Faktoren zusammen, die in der weiteren
Erklärung zu berücksichtigen sind, sowie diejenigen, die im Weiteren
ausgeschlossen werden können. Zu diesem Zweck erstelle ich zwei an die
„Truth Tables“ von Charles Ragin (z. B. in Ragin/Amoroso 2011: 151-152)
angelehnte Übersichten, die die Outcomes den Ausprägungen der Fakto-
ren in allen Fällen gegenüber stellen. Die erste erfasst die erforderlichen
Kovariationsmuster: Sie spezifiziert, welche Kovariationen eines Faktors
mit den Outcomes wir in allen drei Fällen vorfinden müssten, um diesen
Faktor als kausal relevant (in Form einer notwendigen und/oder hinrei-
chenden Bedingung) einzustufen oder als irrelevant auszuschließen. Die
zweite erfasst die tatsächlichen Kovariationsmuster: Sie enthält die im
vorherigen Abschnitt bestimmten Outcomes und Ausprägungen aller
Faktoren für alle fünf Fälle, stuft – durch den Abgleich mit der ersten
Tabelle – ihre kausale Relevanz ein und benennt die Konsequenzen für
den weiteren Umgang mit dem jeweiligen Faktor in dieser Studie.
Um die einzelnen Schritte leichter nachvollziehbar zu machen, ist es
sinnvoll, sich zu Beginn zu vergegenwärtigen, wie die Faktoren ausge-
prägt sein müssen, um sie als notwendige oder hinreichende Bedingun-
gen zu qualifizieren. Je nachdem, ob man überprüfen will, ob ein Faktor
hinreichend oder notwendig ist, muss man auf unterschiedlichen Seiten
der Gleichung beginnen – bei den Outcomes, wenn man nach notwen-
digen Bedingungen sucht und bei den Faktoren, wenn man nach hinrei-

168 Theorieevaluation

chenden Bedingungen sucht. Um einen Faktor als notwendige Bedin-


gung zu qualifizieren, erfolgt die Überprüfung wie folgt:

Abbildung 5: Identifikation notwendiger Bedingungen (eigene Darstellung)

Um einen Faktor als hinreichende Bedingung zu qualifizieren, erfolgt die


Überprüfung wie folgt:

Abbildung 6: Identifikation hinreichender Bedingungen (eigene Darstellung)

Entsprechend würden folgende Kovariationsmuster einen Erklärungsfak-


tor als hinreichend und/oder notwendig qualifizieren bzw. zum Aus-
schluss führen:
Erforderliche und tatsächliche Kovariationsmuster 169

Muster 1 Muster 2 Muster 3 Muster 4

Outcome

Outcome

Outcome

Outcome
Faktor

Faktor

Faktor

Faktor
Fälle

Brandwaffen p1 + + + + + + + +

Landminen p2 + + + + + –** + +

Streumunition p3 + + + + + + + –***

Streumunition p1 – – – + – – – +

Streumunition p2 – – – –* – – – –****

Kausale Relevanz hinreichend und notwendig, aber hinreichend, weder hinrei-


notwendig nicht hinrei- aber nicht chend noch
chend notwendig notwendig

Konsequenz Einschluss Einschluss Einschluss Ausschluss


Legende und Anmerkungen
+ positive Ausprägung; – negative Ausprägung
* Unerheblich, in welchem der beiden negativen Fälle der Faktor fehlt; ebenso dürften er
auch in beiden vorliegen
** Unerheblich, in welchem der drei positiven Fälle der Faktor fehlt
*** Unerheblich, in welchen bzw. in wievielen der drei positiven Fälle der Faktor fehlt
**** Unerheblich, in welchem bzw. in wievielen der beiden negativen Fälle der Faktor fehlt
Tabelle 18: Kovariationsmuster und kausale Relevanz

Die folgende Tabelle fasst die tatsächlichen Kovariationsmuster zusammen.


Auf Basis des Vergleichs mit erforderlichen Kovariationsmustern wird dann
bestimmt, ob sich die Faktoren als (potentiell) notwendige und/oder hin-
reichende Bedingungen qualifizieren. Je nachdem, ob und wie sie zwi-
schen den Fällen variieren, bestimme ich ihre kausale Relevanz und ent-
scheide, ob sie bei der weiteren Erklärung berücksichtigt werden.

170

Tabelle 19:
   
  #
 
  
 %&   &% %&$




$ 
+%& -)! 
!$' &$ $ 
$ %&! #-&& 
*% &)! ! & 
-#& -'$&#$
&$& ' &)&&
 %&&'&!  '  
 %&&'&! , 
$%! %
$$1$ %%
! %&&! $
!$$%%& 


 
$ * #2 & " & & " & " & & $ & "
   #3 & "& & % & " % % & % $ %
&$'' &! #4 & & & & " & & & & % & &
&$'' &! #2 $ " & & " & " & & $ & "
&$'' &! #3 $ " $ % & " % % & % $ %
!&* 0 !&* 0 !&* 0 !&* 0
      " $ & $ & " " " $ & $ &     "
 $   $   $   $ 
  
 $&!$  
1
)&     )&   )&     $$) &   )&
$ -$$ /
 $&!$

)&     )&   )&         )&
$ -$$ /
 $&!$

)&  $$) & )& )& $$) & $$) &       $$) &
$ -$$ /
 
$$&!$$*&$ 
               
$$' $(%&&/



      
   
   



Kovariationsmuster: Outcomes und Ausprägungen der Erklärungsfaktoren


Theorieevaluation
Erforderliche und tatsächliche Kovariationsmuster 171

Die Kovariationsmuster ermöglichen drei Erkenntnisse: Erstens gibt es


keine Faktoren, die so kovariieren, dass sie als hinreichend gelten können
– kurzum, der Erklärungsbedarf bleibt. Zweitens können einige der Fakto-
ren als notwendige Bedingungen eingestuft werden. Diese sind durch ihr
Vorhandensein allein nicht erklärungskräftig, wohl jedoch durch ihre
Abwesenheit. Da es darum geht, diejenigen Faktoren zu identifizieren,
die die Varianz in den Outcomes der drei Fälle erklären können, können
diejenigen Faktoren, die zwar als notwendigen Bedingung identifiziert
wurden, jedoch in allen drei Fällen vorlagen, d. h. nicht variieren, im
Folgenden ausgeschlossen werden. Diejenigen notwendigen Bedingun-
gen, die nicht in allen Fällen vorliegen, d. h. variieren, könnten hingegen
kausal relevant sein und werden daher weiterhin berücksichtigt. Drittens
war über viele Ausprägungen keine Aussage möglich. Dadurch konnte
zwar das Erklärungsspektrum nicht so stark verengt werden, wie es unter
forschungsökonomischen Gesichtspunkten wünschenswert gewesen
wäre. Allerdings wurden dadurch auch empirische Forschungslücken zu
den drei Untersuchungsfällen identifiziert, welche mit dieser Arbeit ge-
zielt gefüllt werden können.
Auffällig ist, dass strukturelle Faktoren in meinen Fällen nicht erklä-
rungsstark sind: Personelle Wechsel hat es schlicht nicht gegeben; Trig-
ger-Ereignisse erscheinen aufgrund ihrer Abwesenheit im Landminenfall,
der dennoch ein positives Outcome hatte, nicht als notwendige Bedin-
gungen. Die institutionellen Bedingungen und die institutionellen Zyk-
len können als notwendige Bedingungen angesehen werden, welche
allerdings in allen Fällen vorliegen und daher auch nicht die Varianz in
den Outcomes erklären können. Die Konstellation zwischen den Norma-
dressaten bleibt als einziger struktureller Faktor potentiell erklärungskräftig.
Diejenigen Faktoren hingegen, die in der Handlungsmacht der Akteu-
re liegen, kommen weiterhin für die Erklärung der Entstehung bzw.
Nicht-Entstehung in Betracht. Dazu zählt das Framing der jeweiligen
Waffenart, die Präsenz und das Aktivitätsniveau der Normunternehmer,
die Wahl der Strategie sowie Dynamiken innerhalb der Normunterneh-
mernetzwerke, die mit die Rolle der Gatekeeper und mit Zielkonflikten
erfasst sind. Ausgeschlossen werden hier lediglich organisationale Kapazi-

172 Theorieevaluation

täten, die zwar eine notwendige, jedoch nicht variierende Bedin-


gung darstellten.

Zusammenfassung und Ausblick auf das folgende Kapitel


Ziel dieses Kapitels war es, Erklärungsansätze für die Entstehung und
Nicht-Entstehung von Normen anhand der drei Fälle, aus denen sich das
Puzzle dieses Buches generiert, zu überprüfen. Diese Überprüfung sollte
das Puzzle stärken, indem aus dem bisherigen theoretischen Rahmen
alternative Erklärungen gewonnen und deren Grenzen aufgezeigt wer-
den. Zugleich sollte sie den eigenen Erklärungsansatz stärken, indem
erstens durch den Ausschluss alternativer Erklärungen seine Notwendig-
keit aufgezeigt und zweitens durch die Identifikation potentiell relevan-
ter Erklärungsfaktoren seine Anbindung an das bisherige theoretische
Gebäude sichergestellt wird.
In der Kovarianzanalyse habe ich die Outcomes der Fälle eingeordnet
und mögliche Erklärungsfaktoren einem ersten empirischen Test unter-
zogen, indem ich deren Ausprägungen auf Basis des Forschungsstandes
zu den jeweiligen Fällen bestimmt und die Kovariationsmuster analysiert
habe. Diese Analyse hat ergeben, dass es keine hinreichende Erklärung
für die doppelte Varianz gibt und damit die Notwendigkeit eines neuen
Erklärungsmodells aufgezeigt. Sie hat auch einige der theoretisch herge-
leiteten Faktoren als notwendige Bedingungen bestätigt. Allerdings hat
sich gezeigt, dass nicht alle diese Bedingungen gleichermaßen erklä-
rungskräftig sind und einige aus der weiteren Betrachtung ausgeschlossen
werden konnten, weil sie nicht zwischen den Fällen variieren. Als Fakto-
ren mit Erklärungspotential bleiben das Framing, Mobilisierung und so-
zialer Druck stehen. Sie gilt es, nach Möglichkeit ins Erklärungsmodell zu
integrieren bzw. zu zeigen, wie das Erklärungsmodell die jeweilige Aus-
prägung dieser Faktoren erklären kann.

6 Theorieformulierung: Permissive Effekte und die


Nicht-Entstehung von Normen

Dieses Kapitel ist das Herzstück des Buches, weil ich hierin den theoreti-
schen Entwurf einer möglichen Erklärung des Rätsels vorlege. Dieser
Entwurf folgt einem Anfangsverdacht, der sich aus einem empirischen
und einem theoretischen Hinweis speist: In der Literatur finden sich
Berichte darüber, wie das US-Militär versucht hat, Streubomben völlig
konventionell erscheinen zu lassen und sie heimlich in das Militärarsenal
einzuführen, während sich die öffentliche Kritik gegen die Nutzung von
Napalm richtete (Krepon 1974: 600-604, Prokosch 1995: 99-100,
McDonnell 2002: 41). Außerdem finden wir den theoretischen Verweis
auf permissive Effekte von Normen. Diese bestehen, knapp zusammenge-
fasst, darin, dass bestimmte Normen so viel öffentliche Aufmerksamkeit
absorbieren, dass andere (potentielle) Normen in den Hintergrund gera-
ten, und dass die Stigmatisierung einzelner Aktivitäten andere Aktivitä-
ten im Umkehrschluss legitimiert (Tannenwald 1999: 460, Tannenwald
2007: 47). Beide Hinweise fügen sich zu der Idee zusammen, dass die
Nicht-Entstehung des Streubombenverbots Ende der 1970er und Mitte
der 1990er Jahre mit permissiven Effekten, die zunächst von der Anti-
Napalm- und dann von der Anti-Landminennorm ausgingen, erklärt
werden kann. Dieser Idee gehe ich in diesem Kapitel theoretisch nach.
Das im Folgenden entwickelte Erklärungsmodell konzipiert die Nicht-
Entstehung von Normen als Folge permissiver Effekte anderer Normen.
Dieser theoriegenerierende Schritt erfolgt theoriegeleitet, weil der For-
schungsstand genügend Ansatzpunkte hierfür bietet. Das Modell hat die
Funktion, die Fallerklärung theoretisch vorzubereiten. Das Kapitel wird
zeigen, dass es sich bei permissiven Effekten um eine „Meta-Erklärung“

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_6

174 Theorieformulierung

handelt, die das Potential hat, das große Rätsel dieser Arbeit (die lange
Nicht-Entstehung der Streumunitionsnorm) zu lösen, und aus der sich
zudem mögliche Erklärungen für die damit zusammenhängenden mittel-
großen Rätsel (die Entstehungen der Brandwaffennorm und der Land-
minennorm bei gleichzeitiger Nicht-Entstehung der Streumuniti-
onsnorm) und die kleinen Rätsel (die in der Kovarianzanalyse deutlich
gewordenen Ausprägungen einiger Faktoren) ableiten lassen. Zugleich
leistet das Kapitel einen über die Fallerklärung hinausgehenden theore-
tisch-konzeptionellen Beitrag zur Forschung über internationale Normen.
Nachdem das vorherige Kapitel verschiedene Bedingungen der Entste-
hung und Nicht-Entstehung von Normen eingeführt hat, gilt die Auf-
merksamkeit hier Prozessen der Entstehung und Nicht-Entstehung. Da
Prozesse in meinem Verständnis aus dem sequentiellen Verlauf der Ereig-
nisse und aus Kausalmechanismen, die diese Ereignisse verbinden, beste-
hen, wird das Modell in drei Schritten entwickelt: Zunächst entwerfe ich
mit dem Agenden-Diffusionsmodell ein idealtypisches Verlaufsmodell
von Normentstehungsprozessen, welches einzelne Phasen dieser Prozesse
identifiziert. In der anschließenden Konzeptualisierung permissiver Effek-
te schlage ich zwei Mechanismen vor, die diese Effekte erzeugen: den
Mechanismus der Blockade und den Mechanismus der Ex-Negativo-
Legitimierung. Im dritten Teil führe ich beide Schritte in einem Erklä-
rungsmodell zusammen, welches abbildet, wie die genannten Mecha-
nismen in verschiedenen Phasen der Normentstehung zu permissiven
Effekten und dadurch zur Nicht-Entstehung von Normen führen kön-
nen. Schließlich übertrage ich das theoretische Modell auf den empiri-
schen Fall und baue den Anfangsverdacht zu einer konkreten Erklärungs-
these aus.

Schritt 1: Der Normentstehungsprozess und die Nicht-Entstehung


von Normen
Das im Folgenden entwickelte Agenden-Diffusionsmodell disaggregiert
den Normentstehungsprozess in einzelne Phasen und spezifiziert für jede
dieser Phasen die Sphäre des Geschehens, die Schwerpunkte des Diskur-
ses, die relevanten Akteure und charakteristische Strategien. Um die the-
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 175

oretischen Grundlagen des Modells offenzulegen und zugleich seine


Notwendigkeit zu verdeutlichen, beschreibe ich zunächst die Literaturba-
sis. Danach führe ich das Konzept der Agenden ein und bilde die Nor-
mentstehung im Agenden-Diffusionsmodell ab.

Relevante Literaturstränge und deren Defizite


Die Normenforschung bietet viele instruktive Ansatzpunkte für die Kon-
zeption von Normentstehungsprozessen. Die relevanten Modelle der
Normentstehung und der Normdiffusion lassen sich drei Typen zuord-
nen: Der erste Typ nimmt eine Makro-Perspektive ein und bildet den
gesamten Entwicklungsweg einer Norm ab (die Normevolution), in dem
die Phase der Normentstehung als eine Phase unter anderen identifiziert
wird. Der zweite Typ nimmt eine Meso-Perspektive ein und differenziert
einzelne Phasen dieses Entwicklungsweges weiter aus. Der dritte Typ
nimmt eine Mikro-Perspektive ein und modelliert einzelne Unterphasen
innerhalb der Phasen.
Zu Makromodellen zählen etwa das „evolutionary pattern“ von Ethan
Nadelmann (1990), das „norm-life cycle“ von Martha Finnemore und
Kathryn Sikkink (1998) oder Ann Florinis (1996) Analogie zwischen
Normen und Genen. Die Phase der Normentstehung geht dabei der Insti-
tutionalisierung, der Diffusion und der Internalisierung bzw. weitgehen-
den Einhaltung der jeweiligen Norm voraus. Solche Modelle bieten wich-
tige Einsichten zu Normbiografien als Ganzes und umreißen auch knapp
die einzelnen Phasen – sie sind jedoch für meine Zwecke zu grob. Zu
Mesomodellen zählen etwa das Spiralmodell von Thomas Risse, Stephen
Ropp und Kathryn Sikkink (1999), das die Phase der Durchsetzung von
Normen abbildet, sowie Susan Hydes Signaling-Modell (2011) oder Me-
lanie Coni-Zimmers (2014) weltgesellschaftliches Modell, die allesamt die
Diffusionsphase abbilden.
Einige Meso-Modelle haben auch die Entstehungsphase im Blick.104
Sie liefern wichtige Erkenntnisse und fließen deshalb in meine Modellie-
rung der Normentstehungsphase ein. Allerdings ist aufgrund verschiede-

104
Clark 2001, Santa-Cruz 2005, Clapp/Swantston 2009, Gest et al. 2013.
!
HIW! ,B.?52.C?5<(/2.5($'!

ner Defizite kein Modell darunter, das einfach übernommen werden


könnte. Das erste Defizit ist die Untertheoretisierung. Diese äußert sich
darin, dass einige Modelle die Phasen rein fallspezifisch einteilen und auf
eine verallgemeinerbare Darstellung verzichten (Santa-Cruz 2005). Ande-
re teilen die Phasen zwar allgemein ein, abstrahieren aber bei der Darstel-
lung der unterschiedlichen Subphasen nicht von ihren Fällen (Gest et al.
2013). Das zweite Defizit ist, dass die Phasen – auch aufgrund der fehlen-
den Theoretisierung – nicht überzeugend voneinander abgegrenzt
werden.105 Das dritte Defizit ist, dass auch solche Phasen zur Norment-
stehung dazu gezählt werden, die erst auf diese folgen.106

733/+6'#&(E9 V26.++.(6.1(D214.L2+',/2#(c./&.#.(!"1%,.++'#&d(

Zu Mikromodellen zähle ich solche Modelle, die auf einzelne Subphasen


innerhalb einer Phase zoomen. Für die Phase der Normentstehung rele-
vant sind etwa Nicole Deitelhoffs (2009) Überzeugungsmodell und Anna
Holzscheiters (2010) Trichtermodell. Beide Modelle bilden den Schritt
unmittelbar vor der formalen Festschreibung ab – den Verhandlungspro-
zess einer Norm in einem organisationalen Setting. Die meisten Arbeiten
setzen den Beginn von Normentstehungsprozessen mit dem Aktivwerden
von Normunternehmern gleich (Nadelmann 1990: 485, Finnemo-
re/Sikkink 1998: 897, McCoy/Heckel 2001). Doch Charli Carpenter
(2007b, 2010) setzt einen Schritt früher an und beleuchtet die „Issue-
Adoption“, womit sie Entscheidungsprozesse von Normunternehmern
bezeichnet, in deren Folge sie sich bestimmter Probleme annehmen.

105
Justin Gest et al. (2013: 164-167) unterscheiden etwa die Phase der Konsolidie-
rung von Unterstützung von der Phase der Institutionenorientierung, wobei bei-
de in organisationalen Plattformen stattfinden und unklar bleibt, was genau die
Spezifika der jeweiligen Phasen sind.
106
Ann Marie Clark (2001: 32-35) benennt als vierte Phase die Anwendung der
Norm; Justin Gest et al. (2013: 171) schließen mit der Phase des „Commitment“,
welche Diffusion und Implementation umfasst.
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 177

Das Agenden-Diffusionsmodell stellt einen weiteren Versuch dar, die


Normentstehungsphase zu konzeptualisieren – es liegt also, um bei der
Unterscheidung zu bleiben, auf der Meso-Ebene. Hierfür sind die genann-
ten Mikromodelle instruktiv, weil sie eine Orientierung bei der Einteilung
und der Konzeptualisierung der Sequenzen bieten. Allerdings ist nicht
jede der von mir unterschiedenen Sequenzen in der Normenforschung
bearbeitet worden. Zudem werden die unterschiedlichen diskursiven,
akteurszentrierten und strukturzentrierten Strategien bislang nicht ver-
schiedenen Phasen der Normentstehung zugeordnet. Auch die Termino-
logie könnte von einer Präzisierung und Vereinheitlichung profitieren,
da üblicherweise die Begriffe „Probleme“, „Issues“ und „Normen“ ver-
wendet werden, ohne dass deutlich wird, dass sie einen spezifischen Sta-
tus einer Norm in ihrem Entwicklungsprozess bezeichnen. Mit meiner
Konzeption der Normentstehungsphase will ich diese Defizite angehen,
indem ich das Modell abstrakt formuliere, Unterscheidungsmerkmale
einzelner Sequenzen benenne und die in diesen Sequenzen erwarteten
Prozesse beschreibe.
Ergänzend zur Normenforschung ziehe ich Ansätze zum Policy-Zyklus
im Allgemeinen und zum Agenda-Setting im Besonderen heran, da es
sich bei der Entstehung von Normen um eine spezifische Form von Po-
licy-Making (sprich von der Wahrnehmung, Verarbeitung und im Ideal-
fall Lösung gesellschaftlicher Probleme in politischen Systemen) handelt
(Jann/Wegrich 2009: 72). Die hierbei wirkenden Strukturen, Prozesse,
Dynamiken und Akteure wurden in verschiedenen Modellen erfasst, die
sich hinsichtlich der Anzahl und Reihenfolge der identifizierten Phasen,
der für einflussreich gehaltenen Akteure, aber auch hinsichtlich der den
Prozessen verliehenen Form (zyklisch oder linear) unterscheiden. Die
Modelle bieten weitere Ideen zum Ablauf von Normentstehungsprozes-
sen und zur Konzeption einzelner Sequenzen.
Freilich hat die Normenforschung die Policy-Forschung auch bisher
zur Kenntnis genommen. Ursprünglich für nationalstaatliche Politikpro-
zesse entwickelt und angewandt, sind Policy-Ansätze mittlerweile in un-
terschiedlichem Maße für die Analyse internationaler Politikprozesse
herangezogen worden. Einige solcher Analysen lehnen sich sehr stark an
das klassische Policy-Cycle an (Steffek 2013), andere eher lose (Rei-

178 Theorieformulierung

ners/Liese 2015). In der Normenforschung ist die Verwendung eher heu-


ristisch, d. h. dass die klassischen Konzepte diffus, in verschiedenen Vari-
ationen und unter verschiedenen Bezeichnungen eingeflossen sind
(Keck/Sikkink 1998: 30, Khagram et al. 2003: 12-13). Da es bei theoreti-
schen Adaptionen zwangsläufig zu (zweckmäßigen) Verkürzungen
kommt, lohnt es sich, „back to the roots“ zu gehen, in der Hoffnung, die
im Rezeptionsprozess verlorengegangenen konzeptionellen und theoreti-
schen Ansätze wiederzuentdecken, um die Perspektive auf bestimmte
Prozessphasen zu verfeinern.
Zugleich werden aus drei Gründen Modifikationen notwendig: Ers-
tens zeichnen die Modelle des Politikzyklus den Weg eines Problems bis
zu seiner Lösung durch politische Maßnahmen im Allgemeinen nach –
bei der Setzung von Normen handelt es sich jedoch um einen besonde-
ren Typus politischer Maßnahmen, sodass ggf. Eigenheiten dieses Typus
berücksichtigt werden müssen. Zweitens bilden die klassischen Modelle
den gesamten Politikzyklus ab – d. h. nicht nur die Phasen bis zum Be-
schluss politischer Maßnahmen, sondern auch Phasen wie deren Umset-
zung und Evaluation, die für diese Studie nicht von Interesse sind. Drit-
tens erklären sie in der Regel innerstaatliche Prozesse, während es hier
um internationale bzw. transnationale Prozesse geht.
Der erste – und bis heute einflussreiche – Versuch, den Politikprozess
in seine Sequenzen zu zerlegen, wurde von Harold D. Lasswell unter-
nommen, der sieben Phasen der Problemverarbeitung identifizierte: In
der Intelligence-Phase wird problemrelevantes Wissen gesammelt und
verarbeitet; in der Promotion-Phase werden Handlungsalternativen for-
muliert; in der Prescription-Phase werden verbindliche Entscheidungen
getroffen; in der Invocation-Phase werden sie durchgesetzt; in der Appli-
cation-Phase werden sie bürokratisch umgesetzt; in der Termination-
Phase wird die Maßnahme beendet; und in der Appraisal-Phase wird sie
schließlich evaluiert (Jann/Wegrich 2009: 74-75). Auf dieser Grundlage –
und aus der Kritik daran – entstanden weitere Modelle, die die Lasswell-
schen Phasen in unterschiedlichen Kombinationen und zum Teil in
leicht abgewandelter oder anders benannter Form beinhalten. Einige
ergänzen eine entscheidende Phase, die bei Lasswell fehlt: Die Phase der
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 179

Agendagestaltung, das sogenannte Agenda-Setting, mit dem sich der fol-


gende Abschnitt befasst.107

Agenden und Agenda-Setting


Agenda-Setting gilt als zentrales Element bei der Entstehung von Normen
(Keck/Sikkink 1998: 25) – und bleibt in der Normenforschung selbst
dennoch unterspezifiziert. Nur selten finden sich differenzierte Ausfüh-
rungen zum Ablauf des Agenda-Settings (Joachim 2003: 248). In der Re-
gel wird mediales, öffentliches und politisches Agenda-Setting zusam-
mengefasst, ohne zu bestimmen, ob diese Typen des Agenda-Settings auf
gleiche Art und Weise erfolgen und in welcher Reihenfolge sich Probleme
durch diese Agenden bewegen. Ferner wird die Rolle von Öffentlichkeit
und Medien im Agenda-Setting generell anerkannt,108 aber nicht systema-
tisch in Normentstehungsmodelle integriert. Der folgende Abschnitt
beleuchtet zunächst allgemein das Konzept der Agenden, beschreibt an-
schließend zwei idealtypische Verläufe von Agenda-Setting-Prozessen,
und umreißt im dritten Schritt die Rolle der Medien in diesen Prozessen.

Probleme und Agenden im Politikprozess


Sachverhalte werden dann als Probleme wahrgenommen, wenn eine
„Diskrepanz (...) zwischen dem, was ist, und dem, was angestrebt wird“,
besteht (Schneider/Janning 2006: 50, ähnlich auch Cowan 1986: 766).
Diese Diskrepanz erzeugt einen gewissen Handlungs- und Veränderungs-
druck (Kingdon 2003: 109). Nehmen individuelle Akteure oder Akteurs-
gruppen ein bestimmtes Problem wahr, verspüren Handlungsdruck und
schenken ihm deshalb ihre Aufmerksamkeit, erscheint dieses auf ihrer
Agenda und wird zum Issue (Cobb/Elder 1971: 903-905, Dearing/Rogers
1996: 2, Jann/Wegrich 2009: 95).

107
Siehe Schneider/Janning 2006: 77 für eine Übersicht.
108
McCarthy 1997: 245, Keck/Sikkink 1998: 23, Krain 2012: 575, Gest et al. 2013:
162-163.

180 Theorieformulierung

In einer allgemeinen Definition steht Agenda für ein „set of issues


that are viewed at a point in time as ranked in a hierarchy of im-
portance” (Rogers et al. 1991: 6). Ein elementarer Bestandteil von Agen-
den ist, dass sie diejenigen Angelegenheiten enthalten, denen zugestanden
wird, dass sie die Aufmerksamkeit der jeweiligen Person oder Sphäre ver-
dienen (Cobb/Elder 1983: 85). Weiterhin ist zentral, dass die Angelegen-
heiten nach ihrer (wahrgenommenen) Wichtigkeit geordnet werden.
Agenden sind folglich handlungsleitend, weil sie die Probleme in solche,
die bearbeitet, und solche, die außen vor gelassen werden, differenzieren
und vorgeben, welche Probleme vorrangig zu bearbeiten sind (Zhu 1992:
826, Dearing/Rogers 1996: 1-2). Die Tatsache, dass Agenden ein bestimm-
tes Problem-Set und eine bestimmte Prioritätenordnung fixieren, soll
aber nicht darüber hinwegtäuschen, dass es sich bei ihnen um Moment-
aufnahmen eines dynamischen, sich ständig im Fluss befindenden Pro-
zesses handelt (Kingdon 2003: 222, Dearing/Rogers 1996: 2). Issues
kommen mehr oder weniger ständig auf Agenden, verlassen sie oder än-
dern ihren Rang.
So wie es eine Vielzahl sozialer Sphären gibt, kann es auch eine Viel-
zahl von Agenden und Subagenden geben. Auf Ebene des Nationalstaates
werden üblicherweise drei Haupttypen von Agenden unterschieden: die
öffentliche Agenda, die Medienagenda und die politische Agenda (Dea-
ring/Rogers 1996: x, Soroka 2002: 270). Da die Verarbeitung sozialer
Probleme zumindest in demokratischen Gesellschaften öffentlich über
die Medien stattfindet (Newig 2004: 159, Blum/Schubert 2011: 111),
erscheint mir die Unterscheidung in die öffentliche und in die Mediena-
genda jedoch schwierig. Ich unterscheide daher in Anlehnung an
Cobb/Elder (1983: 85), Zhu (1992) und Newig (2004: 154) als zwei Agen-
den die öffentliche und die politische Agenda. Die öffentliche Agenda setzt
sich aus den Agenden der Bevölkerung mit ihren unterschiedlichen Be-
völkerungsgruppen, den zivilgesellschaftlichen Organisationen und Inte-
ressensvertretungen sowie den Agenden der Medienorgane zusammen.
Die politische Agenda setzt sich aus den Agenden der politischen Organe,
d. h. der Bürokratien, der individuellen Politiker, der Parteien, Parlamen-
te und Regierungen zusammen. Sie enthält die institutionell-deliberative
und die institutionell-entscheidungsorientierte Agenda als Subagenden.
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 181

Auf der institutionell-deliberativen Agenda stehen all diejenigen Punkte,


die die politische Aufmerksamkeit auf sich gezogen haben und von poli-
tischen Akteuren erörtert werden sollen, während die institutionell-
entscheidungsorientierte Agenda diejenigen Punkte enthält, über die
tatsächlich eine Entscheidung gefällt werden soll (angelehnt an und ab-
gewandelt von Cobb/Elder 1983: 85-86, Birkland 2007: 64).
Auf der Ebene des internationalen Systems wird die öffentliche Agen-
da durch die Agenden transnationaler Akteure und die politische Agenda
durch die Agenden internationaler Organisationen ergänzt. Die interna-
tionale politische Sphäre wird damit durch Diskursräume und Entschei-
dungsprozesse der internationalen Institutionen konstituiert. Einige die-
ser Diskursräume enthalten ein breites Spektrum an internationalen An-
gelegenheiten und dienen primär deren Erörterung und der Willensbil-
dung, nicht jedoch der Entscheidungsfindung (etwa Gipfeltreffen, Groß-
konferenzen oder die UN-Generalversammlung); deren Agenda kann
deshalb als institutionell-deliberativ bezeichnet werden (Joachim 2003:
251, Holzscheiter 2010: 64). In anderen, in der Regel auf wenige Angele-
genheiten konzentrierten Foren findet Policy-Making im klassischen
Sinne statt: In internationalen Verhandlungen werden Präferenzen, Posi-
tionen und Ideen ausgetauscht; die Ergebnisse dieses Austausches materi-
alisieren sich, sofern sich die Beteiligten einigen können, in internationa-
len Verträgen (Holzscheiter 2010: 64).
Nationale wie internationale Agenden lassen sich höheren und nied-
rigeren (Hierarchie-)Ebenen zuordnen (Cobb et al. 1976: 137). Grundsätz-
lich gilt: Je höher die Agendaebene, desto näher sind die Tagesordnungs-
punkte an der Entscheidung, desto geringer ist die Anzahl der Tagesord-
nungspunkte und der beteiligten Akteure und desto höher der Formali-
sierungsgrad (Birkland 2007: 63-64, Sidney 2007: 79, Cobb et al. 1976:
126). Die öffentliche Agenda stellt entsprechend die niedrigste Ebene dar:
Sie enthält viele Issues, die zugleich am weitesten von einer Entschei-
dung entfernt sind, von vielen Akteuren diskutiert werden und keine auf
den ersten Blick erkennbare (formale) Ordnung aufweisen. Die instituti-
onell-deliberative Agenda stellt die mittlere Ebene dar: Die Anzahl der
Issues kann immer noch verhältnismäßig hoch sein, aber nur einige da-
von werden zur Entscheidung vorgelegt; die Anzahl der Akteure ist gerin-

182 Theorieformulierung

ger als in der öffentlichen Sphäre und der Formalisierungsgrad höher. Die
institutionell-entscheidungsorientierte Agenda stellt die höchste Ebene
dar: Nur wenige Issues sind auf dieser zu finden, zugleich soll über sie
tatsächlich entschieden werden; die Anzahl der entscheidungsbefugten
Akteure ist gering und der Formalisierungsgrad der Agenda hoch.

Agenda Entscheidungs- Anzahl der Anzahl der Formalisie-


nähe Issues Akteure rungsgrad

institutionell- groß gering gering hoch


entscheidungsorien-
tert

institutionell- mittel groß mittel mittel


deliberativ

öffentlich gering groß groß niedrig

Tabelle 20: Merkmale der Agenda-Ebenen (eigene Darstellung)

Die Ebenenhierarchie verdeutlicht, warum häufig von einem Aufstieg oder


von Karrieren der Issues gesprochen wird (Blumer 1971: 301, Cobb et al.
1976: 127, Baumgartner/Mahoney 2005) – Issues erklimmen demnach eine
Agenda nach der anderen und steigen immer weiter auf. Auch wenn ich
die Auffassung teile, dass die Ebenen hierarchisch geordnet sind, erscheint
es mir sinnvoller, von Issue-Diffusion statt von Issue-Karrieren zu sprechen:
Damit wird zum Ausdruck gebracht, dass ein Problem neue Agenden errei-
chen und dennoch weiterhin auf den bereits erreichten verbleiben kann.
Außerdem impliziert die Bezeichnung Karriere, dass sich das Issue von
unten nach oben bewegt, wohingegen Issue-Diffusion auch die Möglich-
keit einschließt, dass es sich von oben nach unten – oder durch die Ebenen
– bewegt. Diese unterschiedlichen Abläufe von Agenda-Setting-Prozessen
werden im nachfolgenden Abschnitt beschrieben.
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 183

Haupttypen von Agenda-Setting-Prozessen: Bottom-Up und Top-Down


Da Agenden Prioritätenordnungen festlegen und die Anzahl der Issues
von Agenda-Ebene zu Agenda-Ebene geringer ist, erfüllt der Agenda-
Setting-Prozess eine Filterfunktion, in dessen Verlauf sich entscheidet,
welche Issues die Aufmerksamkeit der jeweiligen Sphäre gewinnen kön-
nen (Zhu 1992: 826, Dearing/Rogers 1996: 6). Zugleich erfüllt Agenda-
Setting eine Diffusionsfunktion (auch: Expansion), indem es darauf ab-
zielt, die Issues von Agenda zu Agenda zu bewegen, um möglichst viel
Aufmerksamkeit auf sie zu lenken (Cobb et al. 1976, Baumgartner/Jones
2009: 17, 83). Agenda-Setting im weiteren Sinne bezieht sich daher auch
nicht auf eine spezielle Agenda, sondern meint generell das Platzieren
von Issues auf bzw. das Finden eines Zugangs (entrance) zu einer Agenda
(Cobb et al. 1976: 131). Da Probleme auf der politischen Agenda erschei-
nen müssen, so sie denn gelöst werden wollen, interessiert sich die
Agenda-Setting-Forschung vor allem für das Gelangen der Probleme
dorthin (Zhu 1992: 826). Agenda-Setting ist damit die Voraussetzung für
Entscheidungen gesamtgesellschaftlicher Reichweite; da die Kapazitäten
zum Agenda-Setting von unterschiedlichen materiellen, personellen oder
ideellen Ressourcen der Akteure abhängen, handelt es sich dabei um eine
Form der Machtausübung (Dearing/Rogers 1996: 8, Holzscheiter 2005:
730, Waldherr 2012: 25-26).

Erscheinen auf der Erscheinen auf der


öffentlichen Agenda politischen Agenda

Expansion bottom-up (outside initiative) top-down (mobilization)

keine Expansion non-decision inside-access

Tabelle 21: Modelle des Agenda-Setting (eigene Darstellung nach Cobb et al. 1976)

In komplexen und ausdifferenzierten politischen Systemen gibt es viele


Möglichkeiten für Issues, auf Agenden zu gelangen und den Diffusions-
prozess zu durchlaufen. Agenden interagieren miteinander: Sie beeinflus-
sen sich gegenseitig sowohl in Bezug auf die Relevanz als auch in Bezug
auf die Darstellung einzelner Issues (Rogers et al. 1991: 5, Dearing/Rogers

184 Theorieformulierung

1996: 68, Soroka 2002: 270). Entsprechend verlaufen auch Agenda-


Setting-Prozesse multidirektional und zirkulär (Dearing/Rogers 1996: 87,
Newig 2004: 160, Schmid-Petri 2012: 42). Je nachdem, auf welcher
Agenda das Problem zuerst erscheint und ob es von da an weiter ex-
pandiert, unterscheidet man zwei gängige Diffusionspfade: Bottom-Up
und Top-Down.
Die Schwäche des in Tabelle 21 dargestellten Modells ist, dass es Ak-
teure und Agenden gleichsetzt, wodurch ausgeblendet wird, dass es direk-
te und indirekte Möglichkeiten des Agenda-Settings gibt – Issues, die von
bestimmten Akteuren lanciert werden, erscheinen nicht notwendiger-
weise als erstes auf deren Agenda. Durch das Augenmerk auf die Issue-
Expansion werden zudem Prozesse und Ergebnisse verschmolzen. Daher
ist es meines Erachtens sinnvoller, die Bottom-Up- oder Top-Down-
Unterscheidung nicht anhand der Ursprungsagenda, sondern anhand der
Akteure, die das Issue initiieren, vorzunehmen. Solche Akteure bezeichne
ich, Dearing und Rodgers (1996: 3) folgend, als Issue-Proponenten. Bei
Issue-Proponenten kann, muss es sich aber nicht um Normunternehmer
handeln, da sie nicht notwendigerweise auf eine Norm hinarbeiten. Je
nachdem, ob sie aus der Politik oder aus der Zivilgesellschaft kommen
und ob sie das Problem zunächst auf der politischen oder auf der öffent-
lichen Agenda platzieren, sind folgende Möglichkeiten des Agenda-
Settings denkbar:

öffentliche Initialagenda politische Initialagenda

zivilgesellschaftliche offenes Bottom-Up verstecktes Bottom-Up


Issue-Proponenten

politische Top-Down Inside-In


Issue-Proponenten

Tabelle 22: Modelle des Agenda-Setting (eigene Darstellung als Modifikation von Cobb et al.
1976)

In Bottom-Up-Prozessen kommt der Impuls zur Problembearbeitung aus


der zivilgesellschaftlichen Sphäre, es wird also von unten ein Input an
das politische System herangetragen (Blum/Schubert 2011: 107). Bei den
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 185

Issue-Proponenten, die das Problem wahrnehmen und aufbauen wollen,


kann es sich sowohl um Betroffene, also um Gruppen oder Personen, die
das Problem selbst direkt erfahren, als auch um Fürsprecher (advocates)
handeln, die sich zum Sprachrohr der Betroffenen machen. Im offenen
Bottom-Up-Agenda-Setting platzieren sie das Issue zunächst auf der öffent-
lichen Agenda, in der Hoffnung, es würde von da aus den Sprung auf die
politische Agenda schaffen, weil die Entscheidungsträger den öffentli-
chen Druck spüren oder selbst den Handlungsbedarf erkennen (Cobb et
al. 1976: 132, Kingdon 2003: 66). Auch im versteckten Bottom-Up-Agenda-
Setting kommt der Impuls zur Problembearbeitung aus der zivilgesell-
schaftlichen Sphäre, die Issue-Proponenten richten sich allerdings direkt
an die Entscheidungsträger, in der Hoffnung, dass letztere das Issue auf
die politische Agenda setzen – diese Strategie ist unter „Lobbying“ be-
kannt (Smith et al. 1997: 70, Sikkink 2003: 304).
Im Top-Down-Prozess wird das Problem zunächst in der politischen
Sphäre wahrgenommen, deren Vertreterinnen dann versuchen, das Prob-
lem auf die öffentliche Agenda zu setzen. Auch hier geschieht es in der
Hoffnung, die breite Öffentlichkeit zu mobilisieren, wobei diese Mobili-
sierung aus verschiedenen Gründen notwendig sein kann – etwa um die
Prominenz des Problems auf der politischen Agenda zu erhöhen oder die
Durchsetzung der Problemlösung zu erleichtern (Cobb et al. 1976: 132).
Die Öffentlichkeit spielt also auch hier eine entscheidende, wenn auch
eine etwas andere Rolle als im Bottom-Up-Prozess: Dient sie im letzteren
vor allem dem Erzielen politischer Aufmerksamkeit, ist sie hier vor allem
zum Erreichen von Problemlösungen entscheidend (Cobb et al. 1976:
127-128). Auch im Inside-In-Prozess wird das Problem zunächst in der
politischen Sphäre wahrgenommen – weil die politischen Akteure aller-
dings mit öffentlichem Widerstand gegen den von ihnen angestrebten
Problemlösungsweg rechnen, versuchen sie, zu verhindern, dass das
Problem auf die öffentliche Agenda gelangt (Cobb et al. 1976: 135-136).
Forscherinnen schätzen die Frage, ob bestimmte Agenden einflussrei-
cher sind als andere, unterschiedlich ein. Einige postulieren die grund-
sätzliche Dominanz der politischen Agenda (Nissen/Menningen 1979:
226, Entman 2003: 420). Aus der Forschung zu sozialen Bewegungen –
und freilich auch aus der Normenforschung – gibt es jedoch zahlreiche

186 Theorieformulierung

Beispiele für Issues, die von unten nach oben diffundieren.109 An dieser
Stelle ist festzuhalten, dass ich beide Verläufe als valide Modelle betrach-
te, da sie sowohl theoretisch plausibel als auch empirisch belegt sind.

Zwischen Politik und Öffentlichkeit: Unterschiedliche Rollen der Medien


Medien sind ein wesentliches Ziel der Aktivitäten von Normunterneh-
mern und deren wichtigster Verbündeter (McCarthy 1997: 245,
Keck/Sikkink 1998: 23, Gest et al. 2013: 162-163). In der Normenfor-
schung erscheinen sie vorrangig als passive Rezipienten, die die Botschaf-
ten der Normunternehmer verbreiten (Krain 2012: 575), wobei ihnen
gelegentlich auch eine beurteilende und bei Bedarf korrigierende Funkti-
on zugeschrieben wird (Jetschke 2011: 49). Nur selten wird anerkannt,
dass die Berichterstattung in den Medien erst dazu führen kann, dass sich
Normunternehmer bestimmter Probleme annehmen (Carpenter 2007b:
646). Dabei lassen sich je nach Autonomiegrad drei (idealtypische) Rollen
für Medien unterscheiden, nämlich Arenen, Gatekeeper und Akteure.
Den geringsten Autonomiegrad haben Medien in ihrer Rolle als Are-
na. Da Politik und Öffentlichkeit in komplexen politischen Systemen in
der Regel nicht direkt miteinander kommunizieren können, ermöglichen
Medien diese Kommunikation – gesellschaftliche und politische Diskurse
werden vor allem in den und durch die Medien geführt (Kingdon 2003:
59, Waldherr 2012: 32). Dabei fungieren Medien als Spiegel der Inhalte
und Interpretationen anderer Akteure und übernehmen deren Agenden
(Baumgartner/Jones 2009: 106). Politische Akteure wollen die Unterstüt-
zung der Öffentlichkeit für ihre Programme mobilisieren, indem sie über
Pressemitteilungen, Interviews und direkte Ansprachen die öffentliche
Aufmerksamkeit auf bestimmte Probleme lenken oder bestimmte Prob-

109
Zu nennen sind etwa diverse Issues, die das Konsumverhalten betreffen und
durch soziale Bewegungen oder Kampagnen zur Sensibilisierung von Konsumen-
ten auf die Agenda gelangten (der Einsatz von Chemikalien in der Landwirtschaft
oder in Textilien, der durch die Biobewegung problematisiert wird; die Produkti-
onsbedingungen von Textilien, für deren Verbesserung sich die Clean Clothes
Campaign einsetzt; Tierschutz- und Tierrechtsangelegenheiten wie Pelzprodukti-
on oder Massentierhaltung).
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 187

lemlösungen bewerben (Cobb et al. 1976, Nissen/Menningen 1979: 212-


217). Zugleich werden sie selbst durch die Medien auf öffentliche Anlie-
gen aufmerksam (Luhmann 1979: 43, Dearing/Rogers 1996: 8, Newig
2004: 159) und greifen diese auf, weil ihr intrinsisches Interesse geweckt
wird oder weil sie glauben, dass das Interesse der Öffentlichkeit diesen
Themen gilt (Kingdon 2003: 57). Für öffentliche Akteure ohne effektiven
Zugang zur Politik ist die Kommunikation durch die Medien somit die
wichtigste Möglichkeit der Einflussnahme (Entman 2003: 420).
Einen mittleren Autonomiegrad haben Medien in ihrer Rolle als Ga-
tekeeper, weil sie über den Zugang von kommunikativen Inhalten zur
Öffentlichkeit und bestimmte Interpretationen dieser Inhalte entschei-
den können. Diese Selektionsfunktion ist aufgrund der Menge und der
Komplexität der zu verarbeitenden Informationen notwendig (Nis-
sen/Menningen 1979: 211-212, Koopmans 2004: 373, Andrews/Caren
2010: 842). Entsprechend bestimmen die Medien, was ein wichtiges öf-
fentliches Thema ist, und wie die ausgewählten Themen weiterverarbei-
tet und ausgestaltet werden.110 Entscheidend ist, dass die Medien in dieser
Rolle aus einem von anderen Akteuren bereitgestellten Angebot an Themen
und Interpretationen auswählen und die Macht haben, einige dieser
Themen und Interpretationen zu verstärken (Zhu 1992: 826, Kingdon
2003: 60).
Den höchsten Autonomiegrad haben Medien in ihrer Rolle als Akteur,
weil sie selbst mit eigenen Inhalten und Interpretationen dieser Inhalte
am Diskurs teilnehmen. Sie repräsentieren oder modifizieren die öffentli-
che Agenda nicht bloß, sondern bestimmen sie (Iyengar/Kinder 1987: 33,
Rogers et al. 1991: 5, 24, Dearing/Rogers 1996: 50). Dies geschieht, indem
sie darauf Einfluss nehmen, worüber die Öffentlichkeit und die Politik
nachdenken und wie sie es tun, weil sie selbst bestimmte Perspektiven auf
diese Themen konstruieren.111
Drei Punkte sind festzuhalten: Erstens können die Medien – je nach
Fall und Medium in unterschiedlich starker Ausprägung – jede der drei

110
Gitlin 1980: 4, Andrews/Caren 2010: 843, Schmid-Petri 2012: 16, Waldherr 2012:
9-10.
111
Dearing/Rogers 1996: 8, McCombs/Ghanem 2001: 67-69, Gitlin 1980: 2, Reese
2001: 9.

188 Theorieformulierung

Rollen spielen. Zweitens können die Medien die Agenden der anderen
Akteure reflektieren, filtern und prägen. Drittens wirkt die Medienagenda
wie eine Sammellinse, die die Prioritäten des öffentlich-politischen Dis-
kurses einfängt, auch wenn die drei Agenden (öffentlich, politisch, medi-
al) nicht kongruent sind.

Normentstehung als Agenda-Diffusion in vier Phasen


Die besprochenen Literaturstränge werden in diesem Abschnitt zum
Agenden-Diffusionsmodell der Normentstehung zusammengeführt. Das
Modell basiert auf einer funktionalistischen Konzeption von Normen,
wonach Normen über die Fähigkeit zur Lösung sozialer Probleme verfü-
gen und daher auch in Reaktion auf ebendiese entstehen. Es konzipiert
den Entstehungsprozess einer Norm daher erstens als eine mehrstufige
Transformation eines Problems in eine Norm. Dabei unterscheidet das
Modell den Sachverhalt, das Problem, das Issue und den Normkandida-
ten als Vorstufen der Norm. Zweitens konzipiert das Modell den Entste-
hungsprozess als eine mehrstufige Diffusion des Problems durch verschie-
dene Agenden: die Agenda der Normunternehmer, die öffentliche Agen-
da, die institutionell-deliberative und die institutionell-entscheidungs-
orientierte Agenda.
Das Modell unterteilt die Normentstehung in vier Phasen, die sich je-
weils durch die Form und die Agenda, die das Problem erreicht, sowie
durch die Strategien der Normunternehmer und die von diesen (primär)
angesprochenen Adressaten, unterscheiden: die Phase der Anerkennung
eines Problems, in der ein Sachverhalt die Agenda der Normunternehmer
erreicht und dort zu einem Problem wird; die Phase der Schaffung eines
Issues, in der ein Problem die öffentliche Agenda erreicht und dort zu
einem Issue wird; die Phase der Schaffung eines Normkandidaten, in der ein
Issue die institutionell-deliberative Agenda erreicht und dort zu einem
Normkandidaten wird; und die Phase der Schaffung einer Norm, in der der
Normkandidat die institutionell-entscheidungsorientierte Agenda er-
reicht und dort zu einer Norm wird.
Das Agenden-Diffusionsmodell basiert auf der Annahme, dass die ge-
nannten Prozesse von Akteuren – Normunternehmern – vorangetrieben
werden. Diese verfolgen in jeder Phase spezifische (Etappen-)ziele, um
".5!>?5<.$9&9.B($'&\5?6.&&!($3!32.!>2AB9KL$9&9.B($'!D?$!>?5<.$! HF[!

dem großen Ziel, der Verabschiedung einer Norm, nahe zu kommen. Es


handelt sich zudem um ein Bottom-Up-Modell der Entstehung kodifizier-
ter/formaler Normen. Die Normentstehung wird als ein Prozess konzipiert,
in dem ein Problem in die öffentliche und daraus in die politischen
Agenden diffundiert, wo schließlich eine problemösende Norm verab-
schiedet wird. Damit soll nicht ausgesagt werden, dass dies der einzige
Weg ist, denn wie oben gezeigt, kann Policy-Making von verschiedenen
Akteuren und auf verschiedenen Agenden initiiert werden. Meine Ent-
scheidung für ein Bottom-Up-Modell beruht vielmehr auf zwei Überle-
gungen: Ich orientiere mich erstens an dem allgemeinen Forschungs-
stand zur Entstehung von Normen, der vor allem öffentlich angelegte
Normentstehungsprozesse erfasst. Zweitens orientiere ich mich konkret
an dem hier analysierten empirischen Feld der Waffeneinsatzverbote,
welche, zumindest in den letzten Jahrzehnten, ebenfalls in der Regel
durch nicht-staatliche Akteure initiiert wurden.

733/+6'#&(H9 0*"%.#(6.1(D214.#,%,.*'#&((

Der Entwurf eines linearen Phasenmodells (statt etwa eines Kreismodells


oder Polygons) und die damit verbundene Einteilung der Phasen setzt das
Modell der üblichen Kritik aus,112 Phasenmodelle litten an „deskriptiver
Ungenauigkeit“ (Sabatier 1993: 118). Politikentwicklungen laufen dem-
nach nicht in linearen Prozessen ab, in denen die Probleme von Akteur zu
Akteur übergehen, und deren Phasen voneinander klar unterscheidbar
seien und in gleicher Abfolge aufträten. Vielmehr fänden solche Prozesse
spiralförmig, mit Rückschleifen und Parallelen statt, einige Phasen über-
lappen einander oder werden übersprungen, sodass letztendlich zweifel-
haft sei, wie typisch die abgebildeten Prozesse sind (Schneider/Janning
2006: 49-50, Jann/Wegrich 2009: 96, Blum/Schubert 2011: 133).

112
Der prominenteste Kritiker ist sicherlich Paul Sabatier (1993: 119, 2007: 7).

190 Theorieformulierung

Die Kritikpunkte treffen sicherlich auch auf das Agenden-


Diffusionsmodell zu. Sie lassen sich jedoch mit Blick auf die Funktionen
von Modellen relativieren: So sollen Modelle „als Heuristik lediglich ord-
nen, strukturieren und Komplexität reduzieren“ (Blum/Schubert 2011:
134). Um einen Orientierungsrahmen für die Analyse bereitzustellen, ist
es nicht notwendig, die Realität in all ihrer Komplexität zu erfassen, son-
dern bereits hilfreich, einen bestimmten Verlauf idealtypisch abzubilden
und damit ein Vergleichsinstrument zu schaffen. Dies bedeutet erstens,
dass mehrere idealtypische Verläufe denkbar sind und das Modell nur
einen davon abbildet. Zweitens bedeutet dies, dass die Phasenabfolge
innerhalb des Modells ebenfalls idealtypisch ist und realiter nicht so
durchlaufen werden muss. Drittens bedeutet dies, dass die Einteilung der
jeweiligen Phasen anhand der dominanten, wesentlichen Aspekte der
jeweiligen Phasen erfolgt und diese herausstellt – ohne zu implizieren, es
fände in diesen Phasen nichts anderes statt.

Phase I: Anerkennung eines Problems


In der ersten Phase wird aus einem Sachverhalt ein Problem auf der
Agenda der Normunternehmer. Als Problem definiere ich eine Diskre-
panz zwischen einem Ist- und einem Soll-Zustand, die Handlungsdruck
erzeugt. Die Phase beginnt, wenn Normunternehmer auf ein Problem
aufmerksam werden, d. h. mit dem Erscheinen des Problems auf der
Agenda der Normunternehmer. Potentielle Normunternehmer können
auf verschiedene Weisen auf ein Problem aufmerksam werden: durch
eigene Erfahrung als Betroffene oder Zeugen (z. B. wenn sie „im Feld“ aktiv
sind), durch vermittelte Erfahrung in den Medien, und durch Aufforderung
durch Betroffene, welche um advocacy ersuchen. Da sich in dieser Phase
erst entscheidet, welche Probleme von Normunternehmern bearbeitet
werden, sind hier nicht problem- oder akteurszentrierte Strategien der
Normunternehmer relevant, sondern interne Prozesse der Problemdefini-
tion und Entscheidungsfindung in den Normunternehmerorganisatio-
nen (Carpenter 2007a, 2007b). Die Phase endet erfolgreich, wenn es zur
Problemadoption kommt, d. h. sich Normunternehmer entschließen, auf
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 191

eine Beseitigung der Ist-Soll-Diskrepanz in einem Normsetzungsprozess


hinzuwirken.

Phase II: Schaffung eines Issues


In dieser Phase erreicht ein Problem die öffentliche Agenda und wird
dort zu einem Issue aufgebaut. Normunternehmer verfolgen hier das Ziel,
die Normadressaten dazu zu bewegen, das Problem anzuerkennen und es
auf die institutionelle Agenda zu setzen.
Problemdiffusion: Die Phase beginnt, wenn Normunternehmerinnen
beim öffentlichen Agenda-Setting erfolgreich sind: Einem zuvor öffentlich
nicht als Problem wahrgenommenen Sachverhalt wird öffentliche Auf-
merksamkeit zuteil – er erscheint somit auf der öffentlichen Agenda.
Diese Agenda wurde oben definiert als die Agenda der Bevölkerung, der
zivilgesellschaftlichen Organisationen und der Medien. Wenn ein Prob-
lem die öffentliche Aufmerksamkeit anzieht, diffundiert es also in die
öffentliche Agenda; von da an diffundiert es aber auch durch sie, wenn es
beispielsweise mehr Akteure oder mehr Plattformen (wie andere Me-
dien) erreicht.
Problemdefinition: In dieser Phase soll ein öffentliches Bewusstsein für
ein Problem geschaffen und das öffentliche Empörungspotential aktiviert
werden. Entsprechend zielt das Framing auf die Herstellung eines kol-
lektiven Problemverständnisses ab und fokussiert auf folgende Aspekte:
Das Problembewusstsein soll durch die Relevanz, Konkretisierung und
Kategorisierung des Problems gestärkt, das Empörungspotential durch
Politisierung und Emotionalisierung aktiviert werden. Relevanz bedeutet,
dass das Problem als öffentlich relevant definiert wird, indem gezeigt wird,
dass es öffentliche Güter bzw. gesellschaftliche Werte betrifft (Gusfield
1981: 3-5, Cobb/Elder 1983: 93). Konkretisierung bedeutet, die wichtigsten
Problemeigenschaften offenzulegen: Zum einen muss deutlich werden,
was den Ist-Zustand definiert, was den Soll-Zustand definiert, und dass
eine Diskrepanz zwischen beiden vorliegt (Kingdon 2003: 110). Zum
anderen müssen die Problemursachen und die für die Problemlösung
verantwortlichen Akteure identifiziert werden (Gusfield 1981: 5, Entman
1993: 53). Kategorisierung bedeutet, die breite Kategorie, in der das Prob-

192 Theorieformulierung

lem fortan zu bearbeiten ist (etwa als Umweltproblem oder als Wirt-
schaftsproblem), zu bestimmen (Kingdon 2003: 111). Politisierung bedeu-
tet, dass das Problem als politisches, d. h. „vom politischen System (...)
zu bearbeitendes Problem“ definiert und der Politik die Handlungsver-
antwortung zugewiesen wird (Jann/Wegrich 2009: 95, Keck/Sikkink
1998: 161). Emotionalisierung bedeutet, das Problem emotional aufzuladen.
Strategien der Normunternehmer: Die Normunternehmerinnen nutzen
die Öffentlichkeit als Hebel, um Einfluss auf die Normadressaten zu
üben. Die Öffentlichkeit wird damit zum Mobilisierungsadressaten; es
gilt, deren Problembewusstsein zu erhöhen und deren Empörungsres-
sourcen zu aktivieren. Dies findet mittels der Informations- und der Akti-
onspolitik statt. Ergänzend zum Aufbau des diffusen öffentlichen Drucks
versuchen Normunternehmer auch in direkten Interaktionen mit Norm-
adressaten in Form von Lobbying Einfluss zu nehmen. Schließlich ist es
mit Blick auf das anstehende institutionelle Agenda-Setting wichtig, sich
zumindest mit einigen Normadressaten in einer Like-Minded-Koalition
zusammenzuschließen, weil die formalen Agenda-Setting-Rechte in der
Regel nur den Normadressaten selbst, d. h. Staaten, vorbehalten sind.
Ergebnis: Die Phase der Issue-Schaffung gilt dann als erfolgreich durch-
laufen, wenn es gelungen ist, das Problem so prominent auf der öffentli-
chen Agenda zu platzieren, dass es zur Issue-Adoption durch die Normad-
ressaten kommt. Zumindest einige Normadressaten müssen also das
Problem anerkennen und auf internationaler Ebene institutionell bear-
beiten wollen.

Phase III: Aufbau des Normkandidaten


In dieser Phase erreicht ein Issue die institutionell-deliberative Agenda
und wird dort zu einem Normkandidaten aufgebaut. Normunternehme-
rinnen verfolgen hier das Ziel, die Normadressaten dazu zu bewegen, die
Notwendigkeit einer Problemlösung in Form einer Norm anzuerkennen
und den Normkandidaten auf die Verhandlungsagenda zu setzen.
Problemdiffusion: Die Phase beginnt, wenn Normunternehmer (bzw.
die Like-Minded-Koalition) beim institutionellen Agenda-Setting erfolg-
reich sind: Einem zuvor nicht auf der institutionellen Ebene diskutierten
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 193

Problem wird institutionelle Aufmerksamkeit zuteil – es erscheint auf der


institutionell-deliberativen Agenda und wird von den Normadressaten
diskutiert. Diese Agenda wurde oben definiert als die Agenda der organi-
sationalen Plattformen, die sich mit einer Vielzahl von Angelegenheiten
befassen, aber nicht entscheidungsorientiert sind. Wenn ein Problem die
politische Aufmerksamkeit anzieht, diffundiert es also in die institutio-
nell-deliberative Agenda; von da an diffundiert es aber auch durch sie,
wenn es mehr Plattformen (wie andere Gremien) erreicht.
Problemdefinition: In dieser Phase geht es darum, einen Normkandida-
ten als Problemlösung zu konstruieren. Da der Diskurs nun in einer an-
deren Sphäre fortgesetzt wird, muss der in der vorherigen Phase begon-
nene Framing-Prozess erneut stattfinden, weil auch hier zunächst ein
kollektives Problemverständnis hergestellt werden muss. Entscheidend ist
allerdings, dass sich der Fokus auf Problemlösungen verschiebt und eine
Norm, welche das problemverursachende Verhalten verbietet bzw. das
problemlösende Verhalten vorschreibt, als mögliche Lösung konstruiert
wird. Dieser Normkandidat muss mittels Grafting an Problemanalogien
und Präzedenzfälle normativ verankert werden: Problemanalogien assoziie-
ren das zugrundeliegende Problem mit anderen, international bereits
anerkannten, Problemen; Präzedenzfälle demonstrieren zum einen, dass
Problemlösungen möglich sind, und zum anderen, dass sie normativ gebo-
ten sind.
Strategien der Normunternehmer: Die Bedeutung der öffentlichen Mobi-
lisierung als Hebel nimmt in dieser Phase ab, die Normunternehmerin-
nen konzentrieren ihre Aktivitäten auf die organisationalen Plattformen,
in denen der Normkandidat diskutiert wird. Hier gewinnen die struktur-
zentrierten Strategien an Bedeutung: die Wahl der Diskussionsplattfor-
men sowie die Bildung bzw. Vergrößerung der Like-Minded-Koalition, um
die Ausstattung mit informationellen und institutionellen Ressourcen zu
verbessern. Der Koalition angehörende Normadressaten können auf ei-
nen Einstellungswandel der übrigen Normadressaten hinwirken, indem
sie den diffusen öffentlichen Druck durch peer pressure ergänzen und direk-
te Überzeugungsversuche starten.
Ergebnis: Die Phase des Aufbaus des Normkandidaten gilt dann als er-
folgreich durchlaufen, wenn es gelungen ist, das Issue auf der institutio-

194 Theorieformulierung

nell-deliberativen Agenda zu platzieren und es zur Adoption des Norm-


kandidaten durch die Normadressaten kommt. Zumindest einige Norma-
dressaten müssen also die Notwendigkeit einer Norm anerkennen und
diese international verhandeln wollen.

Phase IV: Aushandlung einer Norm


In dieser Phase erreicht ein Normkandidat die institutionell-
entscheidungsorientierte Agenda und wird dort zur Norm aufgebaut. Die
Normunternehmer verfolgen hier das Ziel, die Normadressaten zur Ak-
zeptanz der Norm zu bewegen und diese formal zu verabschieden.
Problemdiffusion: Die Phase beginnt, wenn der Normkandidat auf der
institutionell-entscheidungsorientierten Agenda erscheint und die Nor-
madressaten die Verhandlungen aufnehmen, als deren Ergebnis die
Norm hervorgehen soll. Diese Agenda wurde oben definiert als die Agen-
da derjenigen internationalen Plattformen, auf denen internationale
Normen verhandelt und verabschiedet werden bzw. die speziell zum
Zwecke der jeweiligen Normschaffung kreiert werden. Der Normkandidat
verbleibt also in der politischen Sphäre, diffundiert aber aus der instituti-
onell-deliberativen in die institutionell-entscheidungsorientierte Sphäre.
Problemdefinition: In dieser Phase geht es um die Festlegung der Nor-
minhalte. Während Framing und Grafting weiterhin eingesetzt werden,
gewinnt Funnelling als dritte problemzentrierte Strategie an Bedeutung.
Dieses zielt darauf, die Norm zu konkretisieren und umfasst drei Aspekte:
die Verengung der Problemdefinition und der Handlungsoptionen, die
Präzisierung der Handlungsanweisung und ergänzende formale Bestim-
mungen. Die Problemdefinition und die Handlungsoptionen einzuengen be-
deutet, dass der Verhandlungsprozess einem Trichtersieb gleicht, in dem
sich eine dominante Problemdefinition und ein Lösungsweg durchsetzt,
während andere Problemdefinitionen und Lösungsoptionen sukzessive
ausgeschlossen werden (Holzscheiter 2010: 65-68, Coleman 2013: 166).
Die Handlungsanweisung zu präzisieren bedeutet, aus einem möglicher-
weise vagen Inhalt der Norm oder einem abstrakten Prinzip ein mög-
lichst klares Gebot bzw. Verbot zu formulieren (Franck 1988: 713, 721,
Clark 2001: 34). Dazu gehört beispielsweise die Festlegung, welche Ver-
Der Normentstehungsprozess und die Nicht-Entstehung von Normen 195

haltensweisen oder Objekte von der Norm erfasst werden, unter welchen
Umständen sie gilt und wann Ausnahmen möglich sind. Auch gehören
konkrete Implementationsschritte und -zeiträume, Monitoring-
Bestimmungen oder Sanktionsmöglichkeiten dazu. Formale Bestimmungen
umfassen etwa die Modalitäten des Inkrafttretens des Vertrages sowie des
Überprüfungsprozesses.
Strategien der Normunternehmer: In dieser Phase konzentrieren die
Normunternehmerinnen ihre Aktivitäten ebenfalls auf die organisationa-
le Plattform und verwenden die gleichen Strategien wie in der vorherigen
Phase. Da sich der Prozess einer Entscheidung nähert, nimmt die Bedeu-
tung der öffentlichen Mobilisierung wieder zu – hierbei reaktivieren
Normunternehmer das Problembewusstsein und prangern durch naming,
blaming, und shaming die Gegner einer Norm an.
Ergebnis: Die Phase der Aushandlung der Norm kann dann als erfolg-
reich durchlaufen gelten, wenn die Norm festgeschrieben wird und sich
die Staaten durch die Verabschiedung zur Einhaltung verpflichten. Die
Entstehung einer Norm markiert also die normative Problemlösung
(wenn auch noch nicht die faktische).

Zwischenfazit: Agenden-Diffusionsmodell und Typen nicht-entstandener


Normen
Das Agenden-Diffusionsmodell beschreibt einen Bottom-Up-Prozess der
Normentstehung, der in vier Phasen verläuft, die sich durch die Agenda,
auf der das Problem vorrangig bearbeitet wird, durch Aspekte der Prob-
lemdefinition, die im Vordergrund stehen, sowie durch Strategien der
Normunternehmer unterscheiden.
Anhand des Modells wird es möglich, verschiedene Typen nicht-
entstandener Normen zu identifizieren: Je nachdem, in welcher Phase
der Normentstehungsprozess abbricht, lassen sich ausgebliebene, igno-
rierte, eingefrorene und gescheiterte Normen unterscheiden. Als ausge-
bliebene Normen bezeichne ich solche Fälle, die bereits die erste Phase –
die Problemanerkennung durch Normunternehmer – nicht erfolgreich
durchlaufen, weil sie gar nicht auf der Agenda der Normunternehmer
auftauchen oder innerhalb der Normunternehmerlandschaft nicht genug

196 Theorieformulierung

Anklang für einen Normsetzungsversuch finden. Als ignorierte Normen


bezeichne ich solche Fälle, die die zweite Phase – die Schaffung eines
Issues – nicht erfolgreich durchlaufen, weil es zwar Normunternehmer
und ein gewisses öffentliches Interesse gibt, aber die politische Anerken-
nung des Problems fehlt, weshalb das Problem die institutionelle Agenda
nicht erreicht.

Anerkennung Schaffung eines Schaffung eines Schaffung einer


eines Problems Issues Normkandidaten Norm

Agenda Normunterneh- öffentlich institutionell- institutionell-


mer deliberativ entscheidungsori-
entiert
Problem- Diskrepanz zwi- problemorientier- + lösungsorien- + entscheidungs-
definition schen Ist-und Soll- tes Framing tiertes Grafting orientiertes
Zustand Relevanz Problemanalogien Funnelling
Handlungsdruck Konkretisierung Präzedenzfälle Einengung
Kategorisierung à Lösung mög- Präzisierung
Politisierung lich und normativ à Norm ange-
geboten messen
Emotionalisierung
à Problem drin-
gend und bear-
beitungsbedürftig
Ziele Lösung des Prob- Anerkennung des Anerkennung der Akzeptanz einer
lems Problems Notwendigkeit Norm

einer Norm

Adressa- Problemverursa- Normadressaten Normadressaten Normadressaten


ten cher Öffentlichkeit Öffentlichkeit

Strategien Normsetzung Bewusstseins- + Venue-Choice + Venue-Change


schaffung peer pressure naming, blaming,
Mobilisierung shaming
Lobbying
Koalitionsbildung
Ergebnis Problemadoption Issue-Adoption Adoption des Verabschiedung
Normkandidaten einer Norm

Tabelle 23: Agenden-Diffusionsmodell der Normentstehung


Permissive Effekte 197

Als eingefrorene Normen bezeichne ich solche Fälle, die die dritte Phase –
den Aufbau eines Normkandidaten – nicht erfolgreich durchlaufen, weil
sie in institutionellen Foren diskutiert werden, ohne die Verhandlungs-
phase zu erreichen. Als gescheiterte Normen bezeichne ich solche Fälle,
die die vierte Phase – die Aushandlung einer Norm – nicht erfolgreich
durchlaufen, weil sie es zwar als Normkandidat auf die Verhandlungsa-
genda schaffen, die Verhandlungen jedoch ohne Ergebnis enden.

Schritt 2: Permissive Effekte


In diesem Abschnitt geht es nun um das zweite Element von Prozessen –
um Kausalmechanismen, die das erfolgreiche Durchlaufen der Phasen
verhindern und damit zur Nicht-Entstehung der Norm führen (können).
Grundsätzlich ließe sich sicher eine Vielzahl möglicher Mechanismen
formulieren. Da diese Studie allerdings einem Anfangsverdacht nachgeht
– nämlich, dass es im Zusammenhang mit der Norm gegen Streumuniti-
on zu permissiven Effekten gekommen sein könnte – konzentriere ich
mich auf diejenigen Mechanismen, die das Zustandekommen dieser Ef-
fekte erfassen können.
Als Ausgangspunkt für die Konzeptionalisierung der permissiven Ef-
fekte dienen mir dabei Nina Tannenwalds theoretische Hinweise (1999:
437-438, 442, 2007: 46-47). Dabei handelt es sich um knappe Randbe-
merkungen ihrer Forschung zum nuklearen Tabu, die bislang weder sie
noch jemand anders konzeptionell weiterentwickelt oder empirisch er-
forscht hat. Daher lehne ich mich im Folgenden zwar an Tannenwald an,
zeige jedoch die Punkte auf, an denen das Konzept präzisiert werden
muss, und entwickle ausgehend von dieser Kritik ihre Idee fort. Entspre-
chend konzipiere ich zunächst permissive Effekte und führe daraufhin
Blockade und Ex-Negativo-Legitimierung als die beiden Mechanismen
ein, die diese Effekte erzeugen.

198 Theorieformulierung

Konzeptualisierung der permissiven Effekte

Permissive Effekte bei Tannenwald: Konzept und offene Punkte


Tannenwalds Definition von permissiven Effekten lautet wie folgt:
„a third type of effect I call a permissive effect (...) refers to
the way norms – taboos in particular – by serving as focal
points, selectively divert our normative gaze. By categorizing
weapons in certain ways, such as “weapons of mass destruc-
tion”, and drawing our attention to associated normative in-
junctions, norms and taboos may obscure other “facts”
about the world and shield other practices from attention”
(Tannenwald 2007: 46, Herv. i. O.).
Permissive Effekte, die Tannenwald als einen dritten Typus neben regula-
tiven und konstitutiven Effekten von Normen benennt, bestehen damit
in der selektiven Fokussierung von Aufmerksamkeit auf bestimmte Prob-
leme und deren Kategorisierung auf eine bestimmte Art und Weise, so-
dass andere Probleme nicht wahrgenommen werden. Die Autorin führt
weiter aus, dass permissive Effekte aus regulativen oder konstitutiven
Effekten hervorgehen können: „The „diverted attention“ effect can arise
as the shadow of either regulative or constitutive effects“ (Tannenwald
2007: 47).
Im Unterschied zu den intendierten regulativen und konstitutiven Ef-
fekten handele es sich bei permissiven Effekten um nicht-intendierte
Effekte. Regulative Effekte von Normen – d. h. das Verbot entsprechender
Objekte oder Verhaltensweisen – wirkten permissiv, weil die erhöhte
Sanktionierung dieser verbotenen Verhaltensweisen weniger Ressourcen
für andere Objekte oder Verhaltensweisen bedeute. Konstitutive Effekte
von Normen – d. h. die Konstruktion bestimmter Objekte oder Verhal-
tensweisen als besonders inhuman (oder anderweitig problematisch) –
wirkten permissiv, indem sie im Umkehrschluss anderen Taten, Verhal-
tensweisen und Objekten eine „relative Akzeptabilität“ (Tannenwald
1999: 442, Übersetzung ELR) verliehen. Mit anderen Worten definiere
jede Grenzziehung nicht nur das, was außerhalb der Grenzen liege und
deshalb verboten sei, sondern auch das, was innerhalb der Grenzen liege
Permissive Effekte 199

und deshalb erlaubt sei, weil es „nicht möglich ist, nur eine Hälfte der
Dichotomie zu konstruieren“ (Tannenwald 2007: 47, Übersetzung ELR).
Tannenwalds Konzeption von permissiven Effekten sieht also wie folgt aus:

Abbildung 9: Permissiver Effekt nach Tannenwald (eigene Darstellung)

Mit ihrem Hinweis auf permissive Effekte – und damit auf eine negative
Interaktion von Normen – liefert Tannenwald eine wichtige Ergänzung
zur Normenforschung, die bislang primär auf positive Interaktionen fo-
kussiert. Sie deutet außerdem zwei Erklärungen für das Zustandekommen
dieser Effekte an, indem sie letztere an regulative und konstitutive Wir-
kungen von Normen rückbindet. Das Kernargument Tannenwalds ist
überzeugend, und doch ist es aus drei Gründen notwendig, es zu syste-
matisieren und (teilweise) andere Begriffe einzuführen: die mangelnde
Präzision ihrer Definition, in der die Trennung in Effekte und Mecha-
nismen fehlt; die Einordnung der Effekte als dritten Typus neben konsti-
tutiven und regulativen; sowie die Kopplung der permissiven Effekte an
bereits entstandene Normen.
Definition: Handelt es sich bei permissiven Effekten tatsächlich um Ef-
fekte oder nicht doch eher um Mechanismen oder gar um beides? Die
obige Abbildung stellt lediglich eine mögliche Interpretation von Tan-
nenwalds Definition dar, die den Begriff „Effekt“ ernstnimmt und per-
missive Effekte als Resultat (die Nicht-Beachtung bestimmter Probleme)
bestimmter Prozesse (der Stigmatisierung und der Sanktionierung) auf-
fasst. Doch auch eine andere Interpretation ist plausibel, nämlich, dass
die Autorin auch die Art und Weise, auf die es zu diesem Resultat kommt,
als permissiven Effekt versteht: „a permissive effect (...) refers to the way
norms (…) selectively divert our normative gaze”, (Tannenwald 2007: 46,
Herv. ELR). Demnach wären die Legitimierung und die Nicht-
Sanktionierung bestimmter Praktiken selbst schon ein permissiver Effekt
der Stigmatisierung und Sanktionierung anderer (und würden nicht erst

200 Theorieformulierung

zum permissiven Effekt der „diverted attention“ führen). Diesbezüglich


Klarheit zu schaffen und Effekte von Mechanismen zu trennen, ist eines
der konzeptionellen Ziele dieses Abschnitts.
Effekttypen: Die zweite Frage betrifft das Verhältnis permissiver Effekte
zu regulativen und konstitutiven. Tannenwald führt diese als dritte Kate-
gorie ein, was sich allerdings – gerade aufgrund der angesprochenen De-
finitionsschwächen – nicht durchhalten lässt. Bleiben wir bei der ersten
Interpretation, so würde der permissive Effekt infolge regulativer und
konstitutiver Effekte eintreten; er wäre diesen damit nachgelagert und
läge nicht mit ihnen auf einer Ebene. Bei der zweiten Interpretation wür-
den regulative und konstitutive Effekte jeweils spezifische permissive Ef-
fekte entfalten – letztere wären damit nicht eine Kategorie, sondern wür-
den ihrerseits unterschiedliche Effekte subsummieren. Mit der Verteilung
von Aufmerksamkeit deutet Tannenwald außerdem eine weitere (und für
die Normenforschung neue) Kategorie von Normeneffekten an, doch
diese wird nicht herausgearbeitet, sondern löst sich gewissermaßen in
den permissiven Effekten auf. Diese verschiedenen Effekte zu identifizie-
ren und zu sortieren stellt ein weiteres konzeptionelles Ziel dar.
Zeitpunkt: Wann – d. h. in welcher Phase ihrer Biografie – eine Norm
permissive Effekte entfaltet, ist die dritte Frage, die für mich relevant ist.
Die Autorin widmet sich ihr nicht explizit, sondern erwähnt en passant,
dass permissive Effekte vermutlich von starken bzw. stärker entwickelten,
d. h. bereits entstandenen, Normen ausgehen („They tend to emerge
with stronger, more developed norms“, Tannenwald 2007: 47). Diese
Annahme erscheint mir wenig plausibel, denn gerade etablierte Normen
sind in öffentlichen Diskursen wenig präsent, weil sie für selbstverständ-
lich gehalten werden (Finnemore/Sikkink 1998: 895). Wenn sie aber gar
nicht im Zentrum der Aufmerksamkeit stehen, können sie auch nicht die
Aufmerksamkeit absorbieren. Tannenwalds Aussage hätte allerdings Gül-
tigkeit, wenn man sie auf bedrohte etablierte Normen beschränkte, denn
Brüche oder Anfechtungen fundamentaler Normen fangen sicherlich in
beträchtlichem Maße die öffentliche Aufmerksamkeit ein (Ro-
sert/Schirmbeck 2007). Für mein Konzept ist die Annahme maßgeblich,
dass sich permissive Effekte vor allem während der Entstehung von Nor-
Permissive Effekte 201

men einstellen (und nicht erst danach), denn Probleme werden gerade da
ins Zentrum der öffentlichen und politischen Aufmerksamkeit gerückt.

Permissive Effekte neuformuliert


Das Fundament für die Weiterentwicklung des Konzeptes lege ich mit
einer Systematisierung der Effekte von Normen, die eine Definition per-
missiver Effekte erlaubt und sie im Verhältnis zu regulativen und konsti-
tutiven Effekten einordnet. Anschließend zeige ich auf, wie wir uns per-
missive Effekte in Normentstehungsprozessen vorstellen können. Ich
beende den Abschnitt mit der Identifikation der Mechanismen, die diese
Effekte erzeugen.
Die Systematisierung, die ich im Folgenden vorschlage, ist an Tan-
nenwald (und an die Normenforschung im Allgemeinen) angelehnt, wird
jedoch im Lichte der deontischen Logik (deontic logic, Deontik) fortentwi-
ckelt. Als Deontik wird die (rechts)philosophische Lehre von Normen
verstanden, die gelegentlich auch als die Lehre von dem, was sein soll
oder als Sollsatzlogik bezeichnet wird (Føllesdahl/Hilpinen 1970: 1, Frey
1973: 347, Weinberger 1973: 113). Obwohl diese Denkrichtung wichtige
Grundlagen der Normenforschung beinhaltet, existiert sie dort als Refe-
renzpunkt quasi nicht. Für meine Zwecke sind deontische Überlegungen
aus zwei Gründen instruktiv: Erstens hilft mir der deontische Fokus auf
normative Sätze, die Effekte von Normen neu zu sortieren. Zweitens wer-
den in der Deontik die Begriffe permissiv, Permission und Permissivität –
erlaubend, Erlaubnis und Erlaubtheit – detailliert behandelt.
In der Deontik werden mit dem Gebot, dem Verbot und der Erlaubnis
drei Verpflichtungsmodi unterschieden, mit denen Aussagen über die
Notwendigkeit, Unmöglichkeit und Möglichkeit von Handlungen ver-
knüpft sind. Das Gebotene („obligatory“) umfasst notwendige Handlun-
gen, das Verbotene („prohibited”) unmögliche und das Erlaubte („per-
mitted”) mögliche (Von Wright 1951: 1-3, Føllesdahl/Hilpinen 1970: 8,
Hintikka 1970: 59). In der Tabelle weiche ich zunächst von dieser Dreitei-
lung ab, indem ich bei der in der Normenforschung üblichen Unter-
scheidung in Verbotsnormen und Gebotsnormen bleibe (erste Zei-
le: Normtypen).

202 Theorieformulierung

Die Erlaubnis lasse ich auf dieser Ebene deshalb aus, weil ihr die impe-
rative, handlungsleitende Qualität fehlt: Im Unterschied zu Geboten und
Verboten, die imperativ wirken, weil sie in Befehlsform Vorschriften über
zu wählende oder zu unterlassende Handlungen zum Ausdruck bringen,
wirken Erlaubnisse indifferent bzw. neutral, weil sowohl das Ausführen
einer Handlung als auch deren Unterlassen mit ihnen vereinbar ist (Von
Wright 1951: 3, 1981: 3-4) und sie es „dem Adressaten freistell[en], eine
Möglichkeit zu wählen“ (Fleck 2012: 944). Da Erlaubnisse keine hand-
lungsleitende Vorschrift beinhalten, werden sie auch nicht als Normen
angesehen (Lewis 1979: 164, Alchourrón/Bulygin 1981: 116, Weinberger
1985: 186).

Verbotsnorm Gebotsnorm

Intentionalität intendiert nicht-intendiert intendiert nicht-intendiert


des Effekts

Typ des Effekts prohibitiv permissiv obligativ omissiv

attentionale verbotene nicht-verbotene gebotene Hand- nicht-gebotene


Dimension Handlung wird Handlung wird lung wird be- Handlung wird
beachtet nicht beachtet achtet nicht beachtet

konstitutive Stigmatisierung nicht-verbotene Gesolltheit und Legitimierung


Dimension und Verbot Handlung wird Gebot einer des Unterlas-
einer Handlung legitimiert Handlung sens einer
anderen Hand-
lung

regulative verbotene nicht-verbotene gebotene Hand- nicht-gebotene


Dimension Handlung wird Handlung wird lung wird ausge- Handlung wird
unterlassen (weiterhin) führt (weiterhin)
ausgeführt unterlassen

Tabelle 24: Intendierte und nicht-intendierte Effekte von Normen: prohibitiv und permissiv,
imperativ und omissiv

Die Erlaubnis wird jedoch dann zu einem wichtigen Element, wenn ich
Tannenwalds Hinweis, dass Normen auch nicht-intendierte Effekte ha-
ben, folge und die Effekte beider Normtypen danach unterscheide, ob sie
intendiert oder nicht-intendiert sind (zweite Zeile: Intentionalität des
Permissive Effekte 203

Effekts). Aus der Kombination der Normtypen und der Intentionalität des
Effekts ergeben sich vier Wirkungen von Normen (dritte Zeile: Wirkung):
Intendierte Effekte von Verbotsnormen sind die prohibitiven Effekte,
während permissive Effekte die nicht-intendierten sind – permissive Ef-
fekte sind damit das Pendant zu prohibitiven (und nicht ein dritter Ty-
pus neben konstitutiven und regulativen Effekten). Intendierte Effekte
von Gebotsnormen sind die obligativen Effekte, während omissive Effek-
te die nicht-intendierten sind (die Bezeichnung „omissiv“ wähle ich ana-
log zu Tannenwalds permissiven Effekten und abgeleitet aus dem lateini-
schen Verb „omittere“ für Unterlassen).
Um die Gültigkeit dieser Einteilung einzuschätzen, ist es notwendig,
sich den deontischen Erlaubnisbegriff zu vergegenwärtigen. In der Deon-
tik wird Erlaubnis standardmäßig ex negativo als die Abwesenheit eines
Verbots definiert (Weinberger 1973: 116, Alchourrón/Bulygin 1981: 103).
Weiter werden zwei Arten von Erlaubnissen unterschieden: die schwache
oder auch stillschweigende Erlaubnis und die starke oder auch ausdrück-
liche Erlaubnis (Weinberger 1973: 117-118, Alchourrón/Bulygin 1984:
350-352). Die schwache Erlaubnis ist der Default-Zustand in normativen
Systemen – es ist alles erlaubt, solange es kein Verbot gibt, das etwas an-
deres bestimmt (Lewis 1979: 164). Die starke Erlaubnis setzt die Existenz
eines Verbots voraus und bedeutet dessen (partielle) Aufhebung oder die
Zulassung von Ausnahmen (Weinberger 1985: 188-189).
Dieser Erlaubnisbegriff scheint dem Argument zu widersprechen, dass
Permissivität ein nicht-intendierter Effekt eines Verbots ist: Der inten-
dierte Effekt von Verboten besteht in der Veränderung eines Zustands,
wenn eine zuvor erlaubte Handlung durch eine Norm verboten wird und
damit erreicht werden soll, dass etwas, was zuvor getan wurde, fortan
nicht mehr getan wird. Inwiefern jedoch handelt es sich bei der Permis-
sivität überhaupt um einen Effekt, wenn der Zustand der Erlaubnis doch
bereits vor der Existenz von Verboten besteht, ein Verbot diesen Zustand
also keineswegs verändert, d. h. auch nicht herbeiführt? Mit anderen
Worten: Wenn nicht erst das Verbot einer Handlung eine andere erlaubt,
weil diese andere Handlung schon immer erlaubt ist, kann man über-
haupt einen permissiven Effekt von Verboten annehmen? Ich argumen-
tiere, dass es möglich ist, allerdings nicht in dieser simplen Form, die

204 Theorieformulierung

bisher angeklungen ist („ein Verbot erlaubt auch immer“). Dem Zusam-
menhang von Verbot und Erlaubnis will ich in zwei Schritten weiter
nachspüren, indem ich erstens verschiedene Dimensionen der Wirkung
von Normen betrachte und zweitens eine Sequenzialität dieser Dimensi-
onen postuliere.
In der Tabelle habe ich drei Dimensionen der Wirkungen von Nor-
men unterschieden (linke Spalte: Dimension des Effekts): Die Begriffe
regulativ und konstitutiv sind in der Normenforschung etabliert; die
attentionale Dimension habe ich in Anlehnung an Tannenwald hinzuge-
fügt, und die Bezeichnung dafür aus dem lateinischen Nomen „attentio“
für Aufmerksamkeit abgeleitet. Diese attentionale Dimension umfasst
also die aufmerksamkeitsallozierende Wirkung von Normen: Sie lenken
unsere Aufmerksamkeit auf bestimmte Probleme bzw. Verhaltensweisen.
Die konstitutive Dimension umfasst die bedeutungsstiftende Wirkung
von Normen: Durch Normen werden bestimmte Verhaltensweisen stig-
matisiert und deshalb als verboten (bzw. als angemessen und deshalb
geboten) definiert. Die regulative Dimension umfasst die verhaltensregu-
lierende Wirkung von Normen: Wenn Normen wirken, führen sie dazu,
dass die verbotene Handlung unterlassen (bzw. dass die gebotene Hand-
lung ausgeführt) wird. Zusammengenommen besteht also der intendierte
prohibitive Effekt von Normen darin, dass sie unsere Aufmerksamkeit auf
bestimmte unerwünschte Handlungen lenken (attentional), diese stigma-
tisieren und verbieten (konstitutiv), und zu deren Unterlassen führen
(regulativ). Analog zum prohibitiven besteht der intendierte obligative
Effekt von Normen darin, dass sie unsere Aufmerksamkeit auf bestimmte
erwünschte Handlungen lenken (attentional), diese als angemessen defi-
nieren und vorschreiben (konstitutiv) und zu deren Ausführen füh-
ren (regulativ).
Die nicht-intendierten, permissiven Effekte entstehen als Pendants in
allen drei Dimensionen. Wird bestimmten unerwünschten Handlungen
besondere Aufmerksamkeit zuteil, wird sie von anderen Handlungen
abgelenkt (attentional); wenn bestimmte unerwünschte Handlungen
stigmatisiert werden, bleiben andere unerwünschte Handlungen relativ
akzeptabel und erlaubt (konstitutiv), und werden weiterhin ausgeführt
(regulativ). Entsprechend bestehen die nicht-intendierten, omissiven
Permissive Effekte 205

Effekte darin, dass Gebotsnormen unsere Aufmerksamkeit von anderen


erwünschten Handlungen ablenken (attentional), deren Unterlassen ak-
zeptabel bleibt (konstitutiv) und diese (weiterhin) unterlassen werden
(regulativ). Da ich Verbots- und nicht Gebotsnormen untersuche, belasse
ich es bei diesen knappen konzeptionellen Hinweisen zu omissiven Ef-
fekten und beschränke mich im Folgenden auf permissive Effekte.
Permissive Effekte sind damit nicht auf die Nicht-Beachtung begrenzt
und treten auch nicht infolge eines regulativen und eines konstitutiven
Effekts ein, sondern kommen in allen drei Dimensionen zum Vorschein.
Diese modifizierte Konzeption sieht wie folgt aus:

Abbildung 10: Prohibitive und permissive Effekte

Diese Dimensionen lassen sich sequentiell anordnen. Zwei davon – die


attentionale und die konstitutive Dimension – kommen bereits und vor
allem im Entstehungsprozess zum Tragen, wohingegen eine – die regula-
tive Dimension – erst nach der Entstehung einer Norm zu erwarten ist:
Ein Problem muss zunächst Beachtung finden und die problemverursa-
chende Praktik muss stigmatisiert werden, bevor eine Norm entsteht, die
zur Verhaltensänderung führt. Entsprechend entfalten sich auch die
nicht-intendierten Pendants dieser Wirkungen sequentiell: Wenn ein
Problem, dessen Lösung in Form einer Normsetzung gerade vorangetrie-
ben wird, soviel Aufmerksamkeit absorbiert, dass ein anderes gar nicht
beachtet wird (attentionale Dimension), und wenn die das erste Problem
verursachende Praktik so stark stigmatisiert wird, dass eine andere Praktik
im Vergleich dazu relativ akzeptabel erscheint (konstitutive Dimension),
dann kann die Entstehung der dominanten Norm die Entstehung der

206 Theorieformulierung

anderen Norm verhindern, weshalb die entsprechende Praktik weiter


ausgeführt werden darf (regulative Dimension).

Abbildung 11: Prohibitive und permissive Effekte in Normentstehungsprozessen

Nun wird es möglich, das oben aufgeworfene Problem, dass Verbote


nicht erlauben können, was bereits erlaubt ist, zu lösen. Die permissive
Wirkung von Normen besteht nämlich nicht in der Erlaubnis, sondern
im „Erlaubtlassen“ – nicht das Verbot selbst erlaubt, sondern dessen Ent-
stehungsprozess, der auf nur ein Problem fokussiert, dadurch andere aus-
blendet und relativiert und ein anderes Verbot verhindert. Zusammenge-
fasst bestehen prohibitive Effekte von Normen darin, dass sie bestimmte
Handlungen verbieten und permissive darin, dass sie bestimmte Hand-
lungen erlaubt lassen, indem sie deren Verbote verhindern.

Abbildung 12: Permissive Mechanismen in Normentstehungsprozessen


Permissive Effekte 207

Was der permissive Effekt ist, ist damit geklärt – was offen bleibt, ist die
Frage, wie, d. h. über welche Mechanismen dies geschieht. Da die regula-
tive Dimension erst nach der Entstehung einer Norm greift, sind die ent-
sprechenden Mechanismen hier nicht relevant.113 Hingegen interessieren
die beiden Wirkungsdimensionen, die vor der Entstehung der Norm lie-
gen, d. h. die attentionale und die konstitutive Dimension. Tannenwald
spricht zwar nicht von Mechanismen, impliziert jedoch zwei: In der at-
tentionalen Dimension wird der permissive Effekt durch die Absorption
der Aufmerksamkeit durch ein Problem und damit durch die Blockade
eines anderen Problems erzeugt. In der konstitutiven Dimension wird der
permissive Effekt durch die besondere Stigmatisierung einer Verhaltens-
weise und die Ex-Negativo-Legitimierung der anderen Verhaltensweise
erzeugt. Diese beiden Mechanismen konzipiere ich in den folgenden
Abschnitten.

Attentionaler Mechanismus: Blockade


Der Mechanismus der Blockade spielt sich in der attentionalen Dimensi-
on der Normenwirkung ab. Damit eine Normsetzung stattfinden kann,
müssen Probleme erst die Aufmerksamkeit der Öffentlichkeit und der
politischen Akteure anziehen – die Kehrseite dieses Prozesses ist jedoch,
dass eine entstehende Norm diese Aufmerksamkeit zu einem solchen
Maß absorbieren kann, dass andere Probleme (die ebenfalls in Normen
münden könnten) gar nicht erst ins Blickfeld geraten, d. h. blockiert wer-
den. Warum und wie dies geschieht, theoretisiere ich im Folgenden unter
Rückgriff auf die Aufmerksamkeits- und Agenda-Setting-Forschung. Um
zu ergründen, warum es Blockaden gibt, konzipiere ich zuerst Aufmerk-
samkeit als beschränkte und selektiv zugeteilte Ressource und Agenden

113
Um einen solchen Mechanismus handelt es sich z. B. bei Substitution: Demnach
führen Restriktionen der einen Handlungsoption dazu, dass die Akteure verstärkt
zu anderen Handlungsoptionen greifen, die nach wie vor als legitim gelten – so
zeigen etwa Studien zur Anhebung des Mindestkonsumalters für Alkohol, dass
daraufhin die Nachfrage nach Ersatzprodukten (anderen Drogen wie Marijuana)
steigt (DiNardo/Lemieux 1992).

208 Theorieformulierung

als Ausdruck dieser Beschränkung. Um Blockade als Prozess in den Blick


zu nehmen, befasse ich mich mit Aufmerksamkeitszyklen.

Blockade als Folge knapper Aufmerksamkeitsressourcen und Agenda-


Beschränkungen
Issues bewegen sich nicht einfach ungehindert durch die Agenden, son-
dern müssen sich für den Eintritt in jede dieser Agenden durch enge Fla-
schenhälse der Aufmerksamkeit quetschen (Jones/Baumgartner 2005:
208). Die Allokation von Aufmerksamkeit wird verstanden als die Zutei-
lung kognitiver, kommunikativer, zeitlicher und räumlicher Ressourcen
(Newig 2004: 153-155, Andrews/Caren 2010: 843). Diese Zuteilung be-
stimmt die sogenannte Salienz von Issues – die ihnen relativ zu anderen
zugeschriebene Bedeutung und eingeräumte Präsenz (Zhu 1992: 826,
Dearing/Rogers 1996: 8).
Ein entscheidendes Merkmal von Aufmerksamkeitsressourcen ist de-
ren Knappheit (Hilgartner/Bosk 1988: 55). Diese Knappheit besteht auf
individueller wie auf systemischer Ebene und betrifft die Wahrnehmung
wie die Vermittlung von Informationen, d. h. die Empfänger- und die
Senderseite. So sind die kognitiven Kapazitäten einzelner Individuen wie
auch der Öffentlichkeit oder der politischen Sphäre insgesamt, Informa-
tionen aufzunehmen und zu verarbeiten, beschränkt (Zhu 1992: 827,
Baumgartner/Jones 2009: 104, Djerf-Pierre 2012: 502). Die medialen Ka-
pazitäten, Informationen zu übermitteln, sind durch den Seitenumfang
oder die Sendezeit beschränkt (Hertog et al. 1994: 292, Oliver/Maney
2000: 470). Die politischen Kapazitäten, Probleme zu verarbeiten und Ent-
scheidungen zu fällen, sind durch Governance-Ressourcen beschränkt
(Cobb/Elder 1971: 901, Kingdon 2003: 184, Fang/Stone 2012: 539). Al-
lerdings sind diese Verarbeitungskapazitäten bis zu einem bestimmten
Grad elastisch und können zu manchen Zeitpunkten mehr, zu anderen
weniger fassen (Kingdon 2003: 185).
Wo es Beschränkungen gibt, muss Selektion erfolgen. Einfach ausge-
drückt, kann man nicht alle Probleme zu gleicher Zeit in gleicher Intensi-
tät wahrnehmen, vermitteln und zu lösen versuchen, weshalb eine Aus-
wahl getroffen werden muss, sodass nur wenige Probleme bearbeitet,
Permissive Effekte 209

einige Probleme vertagt und eine Vielzahl von Problemen ignoriert wer-
den muss. Deshalb kommt Agenden die bereits angesprochene Filter-
funktion zu: Sie legen fest, welchen Problemen in welcher Reihenfolge
Aufmerksamkeit zuteilwird und welchen nicht. Nur ein Teil aller potenti-
ell bearbeitbaren Probleme erreicht also die Agenda, um dort relativ zuei-
nander geordnet zu werden. Die Issue-Platzierung spiegelt die unter-
schiedlichen Prioritäten wider, die den Issues zugewiesen werden (Rogers
et al. 1991: 6, Dearing/Rogers 1996: 1-2).
Diese Ordnung ist verzerrt – Aufmerksamkeit wird nicht proportional
zur Problemdringlichkeit oder zu den Problemausmaßen verteilt
(Cobb/Elder 1971: 901-902, Hilgartner/Bosk 1988: 53-54, Jo-
nes/Baumgartner 2005: 205). Dieser sogenannte Agenda-Bias impliziert,
dass sich die Issue-Salienz und der Schweregrad der dazugehörenden
Probleme114 voneinander entkoppeln: Die Salienz eines Issues entwickelt
sich weder parallel zum Schweregrad des Problems, noch entspricht die
Salienz eines Issues im Vergleich zu anderen Issues den Schweregraden
der dazugehörigen Probleme.115 Solche Agenda-Verzerrungen sind zum
einen durch Aktivitäten der Issue-Proponenten bedingt, welche Issue-
Verläufe positiv wie negativ beeinflussen können; zum anderen entwi-
ckeln Issue-Verläufe auch eine Eigendynamik (Waldherr 2012: 214-216).
Die Erkenntnis, dass sozialen Problemen nicht notwendigerweise die
Aufmerksamkeit zuteilwird, die ihnen zusteht, und Agenden beschränkte
Kapazitäten aufweisen, führt zur Konzeption von Agenden als Arenen.
Issues kämpfen dort um Aufmerksamkeit, d. h. um Präsenz und Rang-
ordnung Hilgartner/Bosk 1988: 55, Rogers et al. 1991: 1. Dass sich be-
stimmte Probleme in diesem Wettbewerb gut behaupten, bedeutet zu-
gleich, dass es auch Probleme gibt, die es gar nicht erst auf die Agenda

114
Auch wenn es sicherlich schwierig ist, dem Schweregrad eine objektive Maßzahl
zuzuweisen, gibt es zumindest Bestimmungsversuche mithilfe der sogenannten
real-world indicators wie Wachstum, Armutsraten, Verbrechens-, Opfer- oder Ar-
beitslosenzahlen (Jones/Baumgartner 2005: 205).
115
Blumer 1971: 303, Schoenfeld et al. 1979: 38, Dearing/Rogers 1996: 71, Newig
2004: 179, Baumgartner/Jones 2009: 53, 105, Waldherr 2012: 19. In der Normen-
forschung kommt dieses Entkopplungsproblem erst neuerdings zur Sprache (Car-
penter 2007a: 101).

210 Theorieformulierung

schaffen oder am Aufstieg gehindert werden. Issue-Blockaden sind damit


ein Wesenszug öffentlicher und politischer Problembearbeitung.

Blockade in Aufmerksamkeitszyklen
Der Befund, dass es Agenda-Verzerrungen und Wettbewerb zwischen
Issues gibt, hat viele Forschungsarbeiten inspiriert, die nach Erklärungen
für die Salienz von Issues suchen.116 Sie fragen danach, welche Eigen-
schaften ein Problem aufweisen muss, um die öffentliche Aufmerksam-
keit anzuziehen und eine gewisse Salienz zu erreichen, was die Issue-
Verläufe antreibt und wie sich die Verläufe verschiedener Issues aufei-
nander auswirken. Da ich die Problemeigenschaften – bzw. vielmehr
deren öffentliche Konstruktion – bereits im Zusammenhang mit Framing
behandelt habe, konzentriere ich mich hier auf Issue-Verläufe, d. h. die
Zuteilung und Verteilung von Aufmerksamkeit über Zeit.117 Welche Pro-
zesse und Phasen diejenigen Probleme, die die politische Aufmerksamkeit
erhalten, im politischen System durchlaufen, wurde bereits im Zusam-
menhang mit dem Politikzyklus dargestellt. Nun befasse ich mich mit
Problemverläufen auf der öffentlichen Agenda.
Bei der Schwankungsanfälligkeit (Volatilität) (Downs 1972) handelt es
sich neben Knappheit und Selektivität um eine dritte Eigenschaft von
Aufmerksamkeit. Die Zu- und Abnahme von Aufmerksamkeit, sprich, die
Aufmerksamkeitsdynamiken, werden aus zwei Perspektiven untersucht:
Die Single-Issue-Perspektive ist bestrebt, nachzuvollziehen, ob und in wel-
chen Mustern die Zuteilung der Aufmerksamkeit für ein Issue über Zeit
schwankt. Sie vergleicht also die Salienz eines Issues zu verschiedenen
Zeitpunkten und erklärt deren Zu- und Abnahme mit endogenen, d. h.
aus der Issue-Entwicklung selbst folgenden Dynamiken. Die Multiple-
Issue-Perspektive ist dagegen bestrebt, nachzuvollziehen, wie sich die Auf-

116
Downs 1972, Zhu 1992, Hertog et al. 1994, Jones/Baumgartner 2005, Kolb 2005,
Waldherr 2012.
117
Den Begriff wähle ich analog zu Waldherrs (2012: 11) Begriff „Themenverlauf“,
mit dem die Autorin „ganz allgemein die zeitliche Entwicklung der Medienbe-
richterstattung zu einem Thema“ bezeichnet.
Permissive Effekte 211

merksamkeit zwischen verschiedenen Issues verteilt. Sie vergleicht also die


Salienz verschiedener Issues zu bestimmten Zeitpunkten wie auch über
Zeit und erklärt deren Zu- und Abnahme mit exogenen, d. h. aus dem
Wettbewerb mit anderen Issues folgenden Dynamiken. Um nachzuvoll-
ziehen, wie bzw. wann es zu Blockadeprozessen kommt, ist eine Kombi-
nation beider Perspektiven sinnvoll.
Das issue-attention cycle von Anthony Downs (1972) ist für die Auf-
merksamkeitsforschung ähnlich grundlegend wie das Modell von Harold
D. Lasswell für die Policy-Making-Forschung oder das norm-life cycle für
die Normenforschung. In diesem Modell ist die den Issues zugeteilte
Aufmerksamkeit dasjenige Merkmal, das sich von Phase zu Phase verän-
dert und entsprechend die Phaseneinteilung markiert. Downs erachtete
Aufmerksamkeitsverläufe deshalb für relevant, weil er davon ausging,
dass öffentlicher Druck notwendig war, um die politische Bearbeitung
bestimmter Probleme anzustoßen. Daher müsse man, um genügend
Druck zu erzeugen, wissen, in welchen Mustern und befördert durch
welche Faktoren sich die Zu- und Abnahme der öffentlichen Aufmerk-
samkeit vollzieht (Downs 1972: 38). In Anlehnung an das Originalmodell
werden in der Regel fünf Phasen der Issue-Evolution unterschieden:

1) Die Vor-Problem- oder Latenzphase: Eine kleine Gruppe von Perso-


nen (beispielsweise die besonders Betroffenen, Zeugen oder Exper-
ten) entdeckt ein Problem und versucht, es auf die Agenda zu setzen
(Luhmann 1979: 41, Kolb 2005: 80).
2) Die Problementdeckungs- oder Entstehungsphase: Das Issue gewinnt
an Salienz, die Agenda-Setting-Anstrengungen werden intensiver,
die Medienberichterstattung nimmt zu, das Problembewusstsein er-
höht sich, eine kollektive Problemdefinition entsteht (Kolb 2005: 81).
3) Die Reife- oder Sättigungsphase: Das Issue erreicht den Höhepunkt
seiner Salienz, die Medienberichterstattung stagniert, Problemlösun-
gen werden präsentiert (Newig 2004: 169).
4) Abstiegsphase: Die Salienz nimmt ab, die Medienberichterstattung
ebenso, die Problemlösung wird entweder implementiert oder auf-
gegeben (Downs 1972: 40, Kingdon 2003: 103, Kolb 2005: 83);

212 Theorieformulierung

5) Post-Problem- oder Marginalisierungsphase: Das Issue verschwindet


von der Agenda, kann aber gelegentlich wiederaufflammen (Downs
1972: 40).

Die Plausibilität des Modells ist generell anerkannt und wurde in einigen
empirischen Studien nachgewiesen (Newig 2004, Nisbet/Huge 2006).
Doch es wird, aus ähnlichen Gründen wie das Policy-Cycle-Modell, auch
kritisiert: So spezifiziere es weder die Mechanismen, die den Issue-Verlauf
in verschiedenen Phasen antreiben noch die Voraussetzungen der Über-
gänge von Phase zu Phase; auch erkläre es nicht, weshalb nicht alle Issues
in den Zyklus eintreten oder diesen durchlaufen (Nisbet/Huge 2006: 6,
Baumgartner/Jones 2009: 87). Kurzum: auch dieses Modell ist vor allem
deskriptiv und nicht kausalanalytisch genug, um Varianz zu erklären.
Ein weiteres Problem ist, dass sich das Modell lediglich dazu eignet,
die Verläufe einzelner Issues isoliert über Zeit abzubilden – obwohl ja gera-
de Issue-Interaktionen, konkret, der Wettbewerb von Issues um Aufmerk-
samkeit, ein wesentliches Merkmal von Agenden ist (Zhu 1992: 830, Nis-
bet/Huge 2006: 6). Zwar ist diese Kritik nicht ganz fair, weil Downs
(1972: 40) darauf hinweist, dass in der Abstiegsphase üblicherweise ein
anderes Issue auf der Agenda erscheint. Allerdings lässt er die kausalana-
lytischen Implikationen dieses Hinweises – die für meine Studie beson-
ders relevant sind – aus: So bleibt unklar, ob Issue 1 den Abstieg antritt,
weil Issue 2 erscheint (d. h. ob Issue 2 den Abstieg von Issue 1 verursacht)
oder ob das Issue 2 erscheinen kann, weil Issue 1 den Abstieg antritt (d. h.
ob Issue 1 den Aufstieg von Issue 2 ermöglicht).
Die Multiple-Issue-Perspektive nimmt sich solcher Fragen an. Der
Großteil der Forschung konzentriert sich dabei auf die Wirkung des Auf-
kommens neuer Issues auf die Verläufe alter Issues und argumentiert,
dass neue Issues alte von der Agenda verdrängen, indem sie die Aufmerk-
samkeit auf sich umlenken.118 Dass solche Verdrängungsprozesse statt-
finden, wurde inzwischen empirisch gezeigt (Zhu 1992, Djerf-Pierre
2012) und mit dem Neuigkeitswert neuer Issues, der sie per se interessan-

118
Hertog et al. 1994: 291, Dearing/Rogers 1996: 66, Jones/Baumgartner 2005: 211,
Newig 2004: 154, Djerf-Pierre 2012: 499.
Permissive Effekte 213

ter macht, erklärt (Luhmann 1979: 39, Koopmans 2004: 373). Doch der
Fokus auf den Verdrängungseffekt allein deckt nur eine Seite der Medaille
ab: Schließlich kann man ebensogut annehmen, dass alte Issues – auf-
grund der Pfadabhängigkeit öffentlicher Diskurse und einer gewissen
Trägheit in der Entwicklung der Agenden – die Vorteile auf ihrer Seite
haben (Cobb/Elder 1971: 901-902, Oliver/Maney 2000: 470, Newig 2004:
169), sodass sie das Aufkommen neuer Issues blockieren.
Obwohl ich im Folgenden vereinfacht vom Blockademechanismus
spreche, können damit zwei Mechanismen gemeint sein: Verdrängung
und Blockade. Der Verdrängungsmechanismus liegt vor, wenn ein neues
Issue ein altes Issue von der Agenda bzw. von seinem Agenda-Platz ver-
drängt; der Blockademechanismus liegt vor, wenn ein altes Issue ein neu-
es Issue am Agenda-Eintritt bzw. am Aufstieg hindert. Wann, d. h. unter
welchen Bedingungen welcher dieser Mechanismen in Gang gesetzt wird,
lässt sich auf Basis des Downschen-Modells mutmaßen. All things being
equal, d. h. wenn wir die Issue-Eigenschaften außen vor lassen, kann
man annehmen, dass der Ausgang des Wettbewerbs von der Phase, in der
sich das alte Issue befindet, wenn das neue aufkommt, abhängt: Befindet
sich das alte Issue im Aufstieg, d. h. in der Problementdeckungsphase
(Phase 2 nach Downs), ist ein Blockadeeffekt wahrscheinlich, d. h. das
neue Issue prallt am alten ab. Befindet sich das alte Issue in der Sätti-
gungs- oder Abstiegsphase (Phase 3 oder 4 nach Downs), ist ein Verdrän-
gungseffekt wahrscheinlich, d. h. das neue Issue beschleunigt den „Nie-
dergang“ des alten Issues. Welche Issues sich im Wettbewerb behaupten,
hängt also mit dem Faktor Sequenz zusammen – erstens mit der Reihen-
folge, in der sie die Agenda betreten, und zweitens mit dem Zeitpunkt, an
dem dies geschieht.
Zusammengefasst lässt sich der permissive Effekt in der attentionalen
Dimension – die Nicht-Beachtung eines Problems aufgrund der besonde-
ren Beachtung eines anderen – theoretisch mit der Knappheit, Selektivi-
tät und Volatilität von Aufmerksamkeit sowie mit beschränkten Kapazi-
täten von Agenden begründen. Diese Eigenschaften führen zu einem
Issue-Wettbewerb, in welchem sich Issues verdrängen bzw. blockieren
können. Da die Entstehung von Normen voraussetzt, dass mit der Salienz
von Issues auch Mobilisierung und sozialer Druck einhergehen, integriere

214 Theorieformulierung

ich außerdem diese beiden Faktoren in den Mechanismus. Dabei sind sie
nicht nur eine Folge der Salienz, sondern erhöhen letztere auch. Ist ein
Issue blockiert, impliziert dies auch die Blockade der Mobilisierung und
des sozialen Drucks.

Abbildung 13: Attentionaler Mechanismus: Blockade

Konstitutiver Mechanismus: Ex-Negativo-Legitimierung


Der Mechanismus der Ex-Negativo-Legitimierung spielt sich in der kon-
stitutiven Dimension ab: Wie von der Normenforschung herausgearbei-
tet, müssen bestimmte Handlungen stigmatisiert werden, damit eine
Normsetzung stattfinden kann. Die Kehrseite dieses Prozesses ist, dass die
besondere Stigmatisierung bestimmter Tätigkeiten im Umkehrschluss – ex
negativo – andere Tätigkeiten (implizit) legitimieren kann. Auch diese
Vermutung ist intuitiv gut nachvollziehbar, bedarf aber weiterer theoreti-
scher Unterfütterung, um sie erstens zu begründen und zweitens empi-
risch erforschbar zu machen. Da es sich dabei um einen diskursiven Me-
Permissive Effekte 215

chanismus handelt, wird er im Folgenden auf Basis diskurstheoretischer


Ansätze konzipiert, welche für sprachliche Konstruktionen wie auch für
das Implizite und das Nicht-Gesagte besonders sensibel sind (Fairclough
1992: 9, Van Dijk 1998: 91). Dabei widme ich mich unter Rückgriff auf
strukturalistische und poststrukturalistische Ansätze zunächst dem bei
Tannenwald zentralen Begriff der Dichotomie. Anschließend betrachte
ich die sprachliche Figur der Implikation, welche Schlussfolgerungen
über die andere Seite einer dichotomen Struktur ermöglicht.
Stigmatisierung schafft eine dichotome Struktur, indem sie eine Gren-
ze zwischen dem Erlaubten und dem Verbotenen zieht (Tannenwald
2007: 47, 317). Für solche Grenzziehungen ist die diskursive Produktion
von Gleichheit und Differenz wesentlich. Die Erkenntnis, dass Differenz
für die sprachliche Konstruktion von Bedeutung wesentlich ist, wurde
prominent vom Sprachwissenschaftler Ferdinand de Saussure formuliert:
„In der Sprache wird, wie in jedem semeologischen System, ein Zeichen
nur durch das gebildet, was es Unterscheidendes an sich hat. Nur die
Besonderheit gibt das Merkmal ab (…)“ (De Saussure 1967: 145).
Dieser Gedanke, in Verbindung mit der grundlegenden Einsicht, dass
Sprache die Welt nicht bloß abbildet, sondern auch erschafft (Schreiner
2011: 131), und Bedeutung „erst durch sozialen Austausch (...) erzeugt“
wird (Freistein 2012: 71), wurde von poststrukturalistischen Denkern
aufgegriffen und mit Jacques Derrida, Ernesto Laclau und Chantal Mouf-
fe als wichtigsten Referenzautoren zu einer kritischen Theorie weiterent-
wickelt (Freistein 2012: 70-71). Das Kernargument besteht aus zwei Ele-
menten: Erstens stünde Differenz nicht etwa für das Vorhandensein
mehrerer unterschiedlicher Kategorien, sondern für ein System dichoto-
mer Kategorien, sogenannter binärer Oppositionen, denen gegensätzliche
Cluster von Attributen zugewiesen werden (Doty 1993: 306, 312). Sie sei
zweitens kein neutrales Konstrukt, sondern diese Oppositionen würden
„normativ zu Gunsten einer Seite aufgelöst“ (Schreiner 2011: 67) und
etablierten auf Basis normativer Wertungen Hierarchien (Ashley 1989:
261, Peterson/Runyan 1993: 25, Milliken 1999: 299).
Für kritische Konstruktivisten und Poststrukturalisten erwies sich die-
se Erkenntnis vor allem hinsichtlich der Konstruktion von Akteursidenti-
täten als fruchtbar: Dichotome Differenz sei ein wesentliches Merkmal

216 Theorieformulierung

der Identitätskonstruktion, welche relational in Abgrenzung des normalen


Selbst vom abnormalen Anderen stattfinde und notwendigerweise Inklusi-
on und Exklusion voraussetze (Rumelili 2008: 254-256, Herschinger
2011: 26). Maßgeblich für diese Konzeption ist die von Laclau/Mouffe in
ihrer Theorie der „Logik der Differenz“ und der „Logik der Äquivalenz“
ausgedrückte Auffassung, dass diskursive Differenzierung vor allem durch
Negation stattfindet. Demnach erfordert die Schaffung einer gemeinsa-
men kollektiven Identität, so viele Unterschiede auszublenden, dass man
das Selbst nicht mehr positiv, sondern nur als das, was es nicht ist, defi-
nieren könne. Anders formuliert, wird nicht das Selbst definiert, sondern
lediglich dessen Grenzen, und zwar durch das, was jenseits dieser Gren-
zen liegt (Laclau/Mouffe 2001: 128, 143). Dies muss nicht bedeuten, dass
sich in Bezug auf das Selbst keine positiven Attribute finden lassen – dass
diese aber überhaupt bedeutsam sind und was sie konkret bedeuten, wird
lediglich durch die Existenz des Anderen, dem diese Attribute abgespro-
chen werden, deutlich.
Mein Argument bezieht sich, anders als die zitierten poststrukturalisti-
schen Arbeiten, nicht auf Makrokonstrukte wie kollektive Identitäten,
sondern liegt auf der tieferen Ebene von Handlungen, Objekten und
Normen. Doch die theoretischen Ansatzpunkte lassen sich für den Me-
chanismus der Ex-Negativo-Legitimierung nutzen. Denn obwohl sich die
Referenzobjekte (Akteure in dem einen Fall, Waffen hier) unterscheiden,
eint entsprechende Konstruktionsprozesse ihr bedeutungsstiftender Cha-
rakter sowie der Fokus auf das Andere und die dadurch dem Nicht-
Anderen zugewiesene Bedeutung.
Das Andere sind hier diejenigen Objekte und Handlungen, gegen die
sich die Norm richtet. Schließlich setzt Stigmatisierung darauf, die An-
dersartigkeit und Normwidrigkeit der Referenzobjekte aufzuzeigen. Dies
geschieht, indem einige ihrer Attribute mit einer negativen Bedeutung
versehen bzw. ihnen bereits negativ konnotierte Attribute zugeschrieben
werden (Tannenwald 2005b: 14, 18, Adler-Nissen 2014: 145-147).
Dadurch werden bestimmte Objekte in die stigmatisierte Kategorie des
Anderen eingeordnet – die Legitimität anderer Handlungen und Objekte
wird hingegen im Umkehrschluss reifiziert, genauso, wie aus poststruktu-
ralistischer Sicht die Abgrenzung vom Anderen zur normativen Aufwer-
Permissive Effekte 217

tung der eigenen Identität führt.119 Mit anderen Worten: Stigmatisie-


rungsprozesse schaffen diskursive Referenzpunkte, die nicht nur Aussa-
gen über die stigmatisierten Handlungen und Objekte transportieren,
sondern auch zum Maßstab für nicht von der Norm erfasste Handlungen
und Objekte werden. Wenn in solchen Prozessen bestimmte Referenzob-
jekte durch Cluster von Attributen außerhalb der Grenzen des Normalen
platziert werden, bedeutet dies zugleich, dass für diejenigen Handlungen
und Objekte, die innerhalb liegen, ein gegensätzlicher Charakter ange-
nommen werden kann.
Diese Annahme kann explizit, z. B. durch Charakterisierungen oder
Vergleiche beider Seiten, geäußert werden. Sie kann aber auch implizit
mitschwingen, was bedeutet, dass sie übermittelt und kognitiv aufge-
nommen wird, ohne ausgesprochen zu werden (Van Dijk 1998: 91). Un-
vollständigkeit ist ein zentrales Charakteristikum von Sprache und Dis-
kursen, welches deren ökonomischen Gebrauch ermöglicht und dadurch
deren Funktionsfähigkeit sicherstellt (Van Dijk 1998: 91, Bekalu 2006:
153). Zwei Bedingungen machen es möglich, den Sinn impliziter Äuße-
rungen zu verstehen: erstens das Wissen um die Bedeutung von (sprachli-
chen) Zeichen, welches die Sprecherin und der Rezipient teilen und wel-
ches sich im Kontext erschließt; zweitens die Fähigkeit zu Schlussfolgerun-
gen (Doty 1993: 306, Van Dijk 1995: 268, Bekalu 2006: 152-155). Schluss-
folgerungen aus impliziten Äußerungen können mit unterschiedlichen
Graden an Sicherheit gezogen werden. Einige sind notwendig und damit
sicher, andere überlassen es der Rezipientin, ob und wie sie die fehlende
Information ergänzen möchte, und sind damit möglich, aber nicht sicher
(Van Dijk/Kihtsch 1983: 49, Van Dijk 1995: 269).

119
Wobei man einschränken kann, dass der Rückschluss auf die Identität des Selbst
eine wesentliche Funktion von Abgrenzung darstellt, wohingegen es sich bei
Normsetzungsbemühungen, wie Tannenwald schreibt, um einen nicht-
intendierten Effekt handelt.

218 Theorieformulierung

Abbildung 14: Konstitutiver Mechanismus: Ex-Negativo-Legitimierung

Zusammengefasst lässt sich der permissive Effekt in der konstitutiven


Dimension – die Legitimierung einer Praktik aufgrund der besonderen
Stigmatisierung einer anderen – diskurstheoretisch mit den Figuren der
Differenz, die sich in binären Oppositionen äußert, und der Implikation,
die unausgesprochene Informationen vermittelt, begründen. Beide Figu-
ren kommen in der in Normsetzungsprozessen angewendeten Strategie
der Stigmatisierung zum Tragen: Für diese ist zentral, dass eine binäre
Opposition zwischen der im Fokus stehenden Praktik und anderen Prak-
tiken aufgebaut wird. Dies setzt die Einordnung dieser Praktik in die Ka-
tegorie inakzeptabler Praktiken voraus – hierdurch wird zugleich eine
Kategorie akzeptabler Praktiken geschaffen, in der solche Praktiken ver-
bleiben, die gerade nicht im Fokus der Stigmatisierungsbemühungen
stehen. Dies bedeutet, dass mit der inakzeptablen Praktik ein Set be-
stimmter Attribute – und mit der akzeptablen Praktik deren Gegenteile –
verknüpft werden. Letzteres kann sowohl explizit als auch implizit statt-
finden, indem das Framing der stigmatisierten Praktik mögliche, aber
nicht sichere Umkehrschlüsse auf andere Praktiken ermöglicht.
Permissive Effekte im Normentstehungsprozess 219

Schritt 3: Permissive Effekte im Normentstehungsprozess


In diesem letzten Schritt der Modellentwicklung verknüpfe ich die bei-
den Bestandteile – das Agenden-Diffusionsmodell und die permissiven
Effekte – in einem Erklärungsmodell, das offenlegt, wie sich permissive
Effekte in verschiedenen Stufen des Normentstehungsprozesses entfalten
können. Anschließend zeige ich auf, wie sich dieses Erklärungsmodell zu
den potentiellen Erklärungsfaktoren, die in der Kovarianzanalyse des
letzten Kapitels identifiziert wurden, verhält.
Das Agenden-Diffusionsmodell fungiert als Analyseraster für Nor-
mentstehungsprozesse und legt dabei kritische Schwellen offen, an wel-
chen die Entstehung einer Norm blockiert werden kann. Die Annahme
hinter diesem Bottom-Up-Modell ist, dass das erfolgreiche Durchlaufen
der jeweiligen Phasen und das Überschreiten solcher Schwellen die Ent-
stehungschancen einer Norm erhöht, weil hierdurch die beiden für die
Normentstehung als relevant anerkannten Mechanismen – öffentlicher
Druck und Überzeugung – aktiviert und verstärkt werden. Sie treiben die
Diffusion des Problems durch die Agenden voran und begünstigen
schließlich die Verabschiedung einer Norm. Das Modell permissiver Ef-
fekte greift diese Annahme auf, denn es beruht auf der Grundidee, dass
Normen (bzw. entsprechende Vorstufen) permissive Effekte ausüben
können, indem sie verhindern oder erschweren, dass diese beiden Me-
chanismen im Zusammenhang mit einer anderen potentiellen Norm
ablaufen können. Anders formuliert, verhindert oder erschwert Norm A
durch die Absorption der Aufmerksamkeit und die Ex-Negativo-
Legitimierung den Aufbau des öffentlichen Drucks und die Überzeu-
gungschancen für Norm B, weil die dazugehörige Praktik B kaum beach-
tet wird und akzeptabel erscheint.
Dabei wirken die attentionale und die konstitutive Dimension der
permissiven Effekte wechselseitig aufeinander ein: Einerseits ist ein Min-
destmaß an Aufmerksamkeit die Voraussetzung dafür, ein entsprechen-
des Framing überhaupt erst etablieren zu können, andererseits ist ein
bestimmtes Framing die Voraussetzung dafür, ein Mindestmaß an Auf-
merksamkeit anzuziehen. In der Konsequenz bedeutet dies, dass einem
Problem weniger Aufmerksamkeit zukommt, weil es als weniger proble-
matisch erscheint, und zugleich, dass ein Problem als weniger problema-

220 Theorieformulierung

tisch erscheint, weil ihm weniger Aufmerksamkeit zukommt. Dies ist


zum einen der Fall, weil die Problematik nicht adäquat dargestellt werden
kann, und zum anderen, weil aus der Tatsache, dass ein Problem wenig
Aufmerksamkeit erhält, darauf geschlossen wird, dass es wenig problema-
tisch ist. Es handelt sich also um selbstverstärkende und sich wechselsei-
tig verstärkende Dynamiken.
Wie können wir uns nun das Zustandekommen permissiver Effekte in
verschiedenen Phasen der Normentstehung vorstellen? Erstens nehme
ich an, dass sich die Effekte entfalten können, wenn in einer Phase des
Normentstehungsprozesses zwei potentielle Normen – genauer gesagt,
die genannten Vorstufen von Normen, sprich Sachverhalte, Probleme,
Issues oder Normkandidaten – vorhanden sind. Dabei bezeichne ich die-
jenige Norm, die die Effekte ausübt, als Norm A, und diejenige Norm, die
sie betreffen, als Norm B.120 Zweitens nehme ich an, dass der Blockadeef-
fekt nicht absolut, sondern vor allem graduell bzw. relativ zum Tragen
kommt. Es ist also nicht anzunehmen, dass nur Norm A präsent ist, wäh-
rend Norm B völlig ausgeblendet wird, sondern dass Norm A stärker prä-
sent ist als Norm B – bei den Agenda-Dynamiken handelt es sich somit
eher um Priorisierung als um Exklusion bzw. eher um eine Blockade des
Aufstiegs als des Erscheinens eines Issues. Wenn ich im Folgenden den-
noch absolute Begriffe (etwa „Blockade“ oder „verhindern“) verwende
und nicht jede Aussage einzeln relativiere, dient dies lediglich der sprach-
lichen Vereinfachung. Gerade weil die Effekte eben nicht absolut sind,
nehme ich drittens an, dass sie sich akkumulieren, d. h. sich über ver-
schiedene Phasen hinweg aufbauen, aber nicht notwendigerweise schon
in der Phase, in der sie einsetzen, den Übertritt in die nächste Phase ver-
hindern. Entsprechend können sie sowohl eine Nicht-Entstehung in
einer späteren Phase als auch bereits in frühen Phasen bedingen. Dies
bedeutet viertens, dass sich die beiden entwickelten Mechanismen der
Blockade und der Ex-Negativo-Legitimierung jeweils einzeln in verschie-
denen Sphären und bei verschiedenen Akteuren beobachten lassen – sich

120
Die Ausgangsannahme nur zweier Probleme ist freilich nur ein analytisches In-
strument, welches der Vereinfachung dient, während in der Realität mehrere, so-
gar unendlich viele Probleme ko-existieren.
Permissive Effekte im Normentstehungsprozess 221

aber auch aggregieren. Anders formuliert, können sie sowohl im Kleinen


als auch im Großen ablaufen. Nun gilt es zu veranschaulichen, wie sich
die beiden Mechanismen in den einzelnen Phasen äußern würden.
In der ersten Phase würden permissive Effekte des Sachverhalts A die
Problemanerkennung des Sachverhalts B durch Normunternehmer blo-
ckieren. In der attentionalen Dimension führt der Blockademechanismus
dazu, dass Sachverhalt A einen solchen Anteil der Aufmerksamkeit der
Normunternehmer absorbiert, dass Sachverhalt B nicht auf deren Agenda
gelangt oder auf dieser weit unten rangiert. In der konstitutiven Dimen-
sion führt der Mechanismus der Ex-Negativo-Legitimierung dazu, dass
Sachverhalt A als derart inakzeptabel wahrgenommen wird, dass Sach-
verhalt B im Vergleich dazu erträglich erscheint. Bleibt im Ergebnis der
Entschluss der Normunternehmer aus, auf eine Normsetzung im Fall B
hinzuwirken, würden permissive Effekte also zu einem ausgebliebenen
Normsetzungsversuch führen.
In der zweiten Phase würden permissive Effekte die Issue-Schaffung in
der öffentlichen Sphäre blockieren. In der attentionalen Dimension führt
der Blockademechanismus dazu, dass Problem A einen solchen Anteil der
öffentlichen Aufmerksamkeit absorbiert, dass Problem B auf der öffentli-
chen Agenda nicht salient wird. Dies kann darauf zurückzuführen sein,
dass sich mehr Normunternehmer für das eine als für das andere Issue
einsetzen oder dass sie es aktiver oder effektiver tun. Durch die Blockade
steht Issue B insgesamt weniger Raum zur Verfügung, in dem sich die
konstitutive Dimension entfalten kann, wodurch es Issue B an verschie-
denen Bestandteilen der Problemdefinition fehlen kann. Der Mechanis-
mus der Ex-Negativo-Legitimierung profitiert von der geringen Präsenz
des Issues: Gerade weil Issue B dadurch eine eigene – explizite – Problem-
definition fehlt, können Implikationen der Stigmatisierung von Issue A
ohne Korrektur im Raum bleiben und Issue B wird als weniger schlimm
und lösungs-/bearbeitungswürdig wahrgenommen als Issue A. Etabliert
sich Issue B nicht auf der öffentlichen Agenda und kommt es nicht zur
Issue-Adoption durch Normadressaten, würden permissive Effekte in
diesem Fall zu einem ignorierten Normsetzungsversuch führen.
In der dritten Phase würden permissive Effekte die Schaffung des
Normkandidaten in der institutionell-deliberativen Sphäre blockieren.

222 Theorieformulierung

Auch hier führt der Blockademechanismus in der attentionalen Dimensi-


on zu einer Absorption der Aufmerksamkeit durch Issue A, nur, dass hier
nicht primär die Aufmerksamkeit der Öffentlichkeit, sondern der Nor-
munternehmer und der Normadressaten zählt: Diese vernachlässigen
Issue B und konzentrieren ihre Diskussionen und Strategien auf Issue A.
Auch in dieser Phase hat die Blockade Auswirkungen auf die konstitutive
Dimension, indem sie zu einer Verringerung des definitorischen Raumes
und damit dazu führt, dass die für diese Phase typischen Bestandteile der
Problemdefinition – das Grafting an Problemanalogien und Präzedenzfäl-
le zum Zwecke der Konstruktion einer Norm als möglicher und gebotener
Problemlösung – fehlen.
Der Blockademechanismus wird seinerseits zum einen durch das Hin-
einwirken der vorherigen Phase in die aktuelle beeinflusst. So könnten
Normunternehmer (oder zumindest die Gatekeeper in der Normunter-
nehmer-Community) zur Auffassung gelangen, bei Issue A handele es
sich aufgrund seiner in Phase zwei erreichten öffentlichen Salienz um
den aussichtsreicheren Normkandidaten. Über das rationale Motiv, die
eigenen Ressourcen nicht für einen chancenlosen Normkandidaten zu
verschwenden, wäre also der Blockademechanismus durch einen frühe-
ren attentionalen permissiven Effekt bedingt. Zum anderen wirkt auch
der Mechanismus der Ex-Negativo-Legitimierung: Sie könnten aufgrund
des Framings von Issue A (welches sie nicht nur prägen, sondern welches
auch sie beeinflusst) zur Auffassung gelangen, bei Issue A handele es sich
um das schlimmere Problem, was eher ihre Aufmerksamkeit verdient –
über das normative Motiv, tatsächlich das schlimmere und dringendere
Übel zu bekämpfen, wäre also der Blockademechanismus durch einen
früheren konstitutiven permissiven Effekt bedingt. Beide Mechanismen
führen im Zusammenspiel dazu, dass sowohl der soziale Druck auf die
Normadressaten als auch die Überzeugungschancen in Bezug auf die
Formulierung des Normkandidaten B gering ausfallen. Etabliert sich Issue
B nicht auf der institutionell-deliberativen Agenda und kommt es nicht
zur Adoption des Normkandidaten durch Normadressaten, würden per-
missive Effekte in diesem Fall zu einem eingefrorenen Normsetzungsver-
such führen.
Permissive Effekte im Normentstehungsprozess 223

In der vierten Phase würden permissive Effekte die Schaffung einer


Norm in der institutionell-entscheidungsorientierten Sphäre verhindern.
Der Blockademechanismus führt hier zur Absorption der Aufmerksamkeit
der Entscheidungsträger durch den Normkandidaten A, die ihre Verhand-
lungen darauf konzentrieren und Normkandidaten B vernachlässigen. Da
in dieser Phase, um Verhandlungsergebnisse zu erreichen, auch der be-
gleitende öffentliche Druck an Bedeutung gewinnt, ist anzunehmen, dass
der Blockademechanismus auch diesen reduziert, wenn Normunterneh-
mer aus den schon benannten Gründen ihre Mobilisierungs- und Lob-
bying-Aktivitäten auf das aussichtsreichere bzw. schlimmere Problem
konzentrieren. Der Mechanismus der Ex-Negativo-Legitimierung würde
hier genauso wie in den vorherigen Phasen wirken: Problem A wird als
schlimmeres Übel und der dazugehörige Normkandidat A entsprechend
als dringendere Problemlösung wahrgenommen, wodurch Problem B
und der dazugehörige Normkandidat B als vernachlässigbar erscheinen.
Permissive Effekte bedeuten hier also, dass Entscheidungsträger den
Normkandidaten B sowohl als weniger drückend (im Sinne der an sie von
der Öffentlichkeit gerichteten Erwartungshaltung) und als weniger prob-
lematisch (im Sinne ihrer eigenen Überzeugung) einschätzen, sodass sie
im Ergebnis nur die Norm A und nicht die Norm B annehmen. In dieser
Phase würden permissive Effekte also zu einem gescheiterten Normset-
zungsversuch führen. Auf mögliche Ausgänge einzelner Phasen reduziert
und ohne im Einzelnen die Vorgänge innerhalb einzelner Sequenzen
abzubilden, lässt sich das Modell wie in Abbildung 11 als Baumdia-
gramm darstellen.
Wovon hängt es ab, von welchem Issue die permissiven Effekte aus-
gehen? Mit Blick auf die problemspezifischen Faktoren – die Problemei-
genschaften und das Framing – können wir vermuten, dass permissive
Effekte von denjenigen entstehenden Normen ausgehen, die mehr bzw.
stärker ausgeprägte förderliche Frame-Eigenschaften aufweisen, und die-
jenigen Normen treffen, die (im Vergleich dazu) mehr bzw. stärker aus-
geprägte hinderliche Frame-Eigenschaften aufweisen. Dies ist insofern
ein sozial konstruierter Prozess, als wir annehmen können, dass in der
ersten Phase solche Sachverhalte die Aufmerksamkeit der Normunter-
nehmer anziehen, von denen die Normunternehmer glauben, dass sie

224 Theorieformulierung

entsprechende Eigenschaften aufweisen bzw. dass sich diesen Sachverhal-


ten bestimmte Eigenschaften zuschreiben lassen. Und es ist insofern ein
sich selbst verstärkender Prozess, als wir annehmen können, dass entspre-
chende Frames durch folgende Normsetzungskampagnen überhaupt erst
geschaffen oder salient werden. Mit anderen Worten kann eine bestimm-
te Problemwahrnehmung bzw. die Einschätzung der Normunternehmer
über die Resonanzchancen eines bestimmten Framings permissive Effekte
in der attentionalen Dimension auslösen, wenn sie eben auf dieser Basis
das eine Problem gegenüber dem anderen bevorzugen – in der Folge füh-
ren aber permissive Effekte ihrerseits zu einem bestimmten Framing.
Mit Blick auf die akteursspezifischen Faktoren – Präsenz und Aktivität
der Normunternehmer sowie Gatekeeper-Präferenzen und Zielkonflikte –
gilt Ähnliches. Einerseits können wir vermuten, dass permissive Effekte
von denjenigen entstehenden Normen ausgehen, die von Gatekeepern
priorisiert werden und für die sich (mehr) Normunternehmer aktiver
einsetzen, weil sich dies positiv auf die Salienz und das Framing der einen
Norm – aber zulasten der anderen Norm – auswirkt. Andererseits ist bei
der Darstellung permissiver Effekte in der Normentstehungsphase deut-
lich geworden, dass permissive Effekte ihrerseits erklären können, warum
die Präsenz und Aktivität der Normunternehmer variiert, und wie die
Gatekeeper-Präferenzen gelagert sind (eben weil sich diese eher für aus-
sichtsreichere bzw. schlimmere Issues engagieren).

These: Die Nicht-Entstehung der Streumunitionsnorm als


Ergebnis permissiver Effekte
In diesem Kapitel wurden drei theoretische Schritte durchgeführt: Erstens
habe ich mit der Ausdifferenzierung der Normentstehungsphase ein Mo-
dell vorgestellt, das Ansätze aus der Normenforschung entlang der Di-
mensionen des phasenspezifischen Framings, der relevanten Akteure und
Akteursaktivitäten sowie der Aktivitätssphären neu sortiert.
Die Nicht-Entstehung der Streumunitionsnorm als Ergebnis permissiver Effekte 225

Abbildung 15: Erklärungsmodell: Permissive Effekte im Normentstehungsprozess und Formen


der Nicht-Entstehung

226 Theorieformulierung

Das Modell erweitert das Theoriegebäude durch den Rückgriff auf die
Policy-Cycle- und Agenda-Setting-Literatur, indem es ein in der Normen-
forschung bisher unterbelichtetes Konzept – das eines öffentlichen Issues
– einführt, und dieses in einen Zusammenhang mit dem die Norm moti-
vierenden Problem sowie mit der Norm selbst stellt. Zweitens wurde hier
die von Nina Tannenwald am Rande formulierte Idee von der Existenz
permissiver Effekte aufgegriffen und präzisiert. Anschließend habe ich
mit der Blockade und der Ex-Negativo-Legitimierung zwei Mechanismen
formuliert, die das Zustandekommen permissiver Effekte in der attentio-
nalen und der konstitutiven Dimension der Normenwirkung erklären. Im
dritten Schritt habe ich permissive Effekte in das Agenden-Diffusions-
modell integriert und aufgezeigt, wie diese in den jeweiligen Phasen zur
Nicht-Entstehung von Normen führen können. Aus diesem bisher abs-
trakt gehaltenen Erklärungsmodell will ich nun einen konkreten Erklä-
rungsvorschlag für das aufgeworfene Puzzle ableiten.
Zwei Instanzen der Nicht-Entstehung des Streubombenverbots moti-
vieren dieses Buch: die Verabschiedung der CCW im Oktober 1980 und
die Verabschiedung der Ottawa-Konvention im September 1997. Dass
zum ersten Zeitpunkt zugleich das (partielle) Brandwaffenverbot be-
schlossen und zum zweiten Zeitpunkt die Weiche für das spätere Land-
minenverbot gestellt wurde, rechtfertigt die These, dass beide Instanzen
der Nicht-Entstehung durch permissive Effekte der anderen entstehenden
Normen zustande gekommen sein könnten – ich vermute, dass zunächst
die Brandwaffennorm und später die Landminennorm permissive Effekte
auf die Streubombennorm ausübte und ihre Entstehung verhinderte.
In der attentionalen Dimension würde dies bedeuten, dass der Blo-
ckademechanismus abgelaufen ist, indem die Brandwaffennorm und die
Landminennorm (zu verschiedenen Zeitpunkten) große Teile der öffent-
lichen – medialen, gesellschaftlichen und politischen – Aufmerksamkeit
absorbiert und damit Streubomben aus deren Fokus verdrängt haben. In
der konstitutiven Dimension würde dies bedeuten, dass der Mechanis-
mus der Ex-Negativo-Legitimierung abgelaufen ist, indem die Stigmatisie-
rungen von Napalm und Landminen Streubomben als Waffengattung
akzeptabel und die durch sie verursachte Problematik als erträglich er-
scheinen ließen. Nach der Klassifikation des Modells liegen zwei ver-
schiedene Formen der Nicht-Entstehung der Norm gegen Streumunition
Die Nicht-Entstehung der Streumunitionsnorm als Ergebnis permissiver Effekte 227

vor: Zum ersten Zeitpunkt finden wir einen gescheiterten Normsetzungs-


versuch vor, denn Streumunition stand auf der Verhandlungsagenda der
Konferenz über besondere konventionelle Waffen, wurde aber nicht in
die dort verabschiedete Konvention aufgenommen. Zum zweiten Zeit-
punkt finden wir einen ausgebliebenen Normsetzungsversuch vor, denn
Streumunition wurde zusammen mit Landminen als Gegenstand der
Verbotskampagne in Erwägung gezogen, jedoch wieder verworfen.
Im folgenden dritten Teil dieses Buches überprüfe ich die These empi-
risch: Hierfür operationalisiere ich das Modell und beschreibe das ver-
wendete methodische Instrumentarium sowie das herangezogene Materi-
al. Anschließend präsentiere ich die Ergebnisse in einer Querschnittsfall-
studie und in einer Längsschnittfallstudie.

Teil III


Geglückte und gescheiterte Einsatzverbote: Napalm
und Streumunition

7 Das Modell im Test

Dieses Kapitel bereitet den Theorietest vor, mit dem ich die empirische
Gültigkeit des nun vorliegenden theoretischen Erklärungsversuchs über-
prüfe. Es wirkt als Scharnier zwischen der Theorie und den Daten, indem
es theoretische Konzepte und Annahmen operationalisiert – sie also in
empirische Beobachtungen, sogenannte erwartete Evidenzen, übersetzt,
die vorliegen müssten, wenn das Erklärungsmodell als bestätigt gelten
soll. Auch legt es offen, anhand welchen Materials und mittels welcher
Methoden, diese Beobachtungen erhoben werden.

Operationalisierung des Modells


Bei der Operationalisierung stellt sich die Schwierigkeit, die zuvor theore-
tisch getroffene Unterscheidung in permissive Mechanismen und permis-
sive Effekte empirisch zu übersetzen. Mit Blick auf die attentionale Di-
mension wird deutlich, dass dies zwar teilweise, aber nicht trennscharf
möglich ist: Der Effekt, die Nicht-Beachtung des Problems B, ist an sich
gut operationalisierbar, aber die Evidenzen können mit Teilen des Me-
chanismus zusammenfallen, je nachdem, wie stark der permissive Effekt
ist. Ist dieser schwach, würden wir Konkurrenz vermutlich als Ringen um
Aufmerksamkeit beobachten können, wenn mal das eine, mal das andere
Problem salienter ist. Ist dieser jedoch stark, würde das blockierte Prob-
lem möglicherweise gar nicht salient werden, sodass in dem Fall die Ab-
wesenheit des Problems sowohl den Mechanismus der Blockade als auch
den Effekt der Nicht-Beachtung indizieren würde.
Mit Blick auf die konstitutive Dimension stellt sich das Problem, dass
wir zwar explizite Legitimierung erheben können – nicht aber implizite

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_7

232 Das Modell im Test

Schlussfolgerungen. Die Abwesenheit expliziter Evidenzen würde damit


nicht die Abwesenheit des Mechanismus bedeuten, sondern der Forsche-
rin eine stärkere Interpretationsleistung abverlangen. Aufgrund der ge-
nannten Schwierigkeiten verzichte ich im Folgenden darauf, die Eviden-
zen den Effekten oder den Mechanismen zuzuordnen, sondern struktu-
riere sie allgemein nach den beiden Dimensionen. Innerhalb der Dimen-
sionen unterteile ich, entsprechend dem Agenden-Diffusionsmodell,
nach den beiden Diskurssphären (öffentlich und institutionell). Da nicht
von absoluten Effekten auszugehen ist, wähle ich durchgehend relative
Formulierungen. Um das Modell umfassend zu testen und zugleich die
Dichte der empirischen Untersuchung zu erhöhen, sollen für jede der
beiden Dimensionen möglichst viele Evidenzen formuliert werden. Für
jede der Evidenzen benenne ich konkrete Indikatoren, anhand derer sie
erhoben werden.
Attentionale Dimension: In dieser Dimension geht es darum, die Alloka-
tion der Aufmerksamkeit auf die jeweiligen Issues121 zu erfassen, die das
Vorliegen des Blockademechanismus indizieren würde. Wie bei der Kon-
zeptualisierung des Mechanismus verdeutlicht, kann die Allokation von
Aufmerksamkeit als Salienz der jeweiligen Issues – im Vergleich mitei-
nander, wie auch über Zeit – erhoben werden. Zudem sind als weitere
Bestandteile des Mechanismus sozialer Druck und Mobilisierung – ebenfalls
im Vergleich miteinander wie auch über Zeit – zu erheben.
Wenn der Blockademechanismus vorliegt, können wir erstens erwar-
ten, dass das dominante Issue (Napalm) wesentlich salienter ist als das
schwache Issue (Streumunition) und dass entsprechend auch die Mobili-
sierung und der soziale Druck bezüglich des dominanten Issues höher
sind. Zweitens können wir erwarten, dass das dominante Issue früher
salient wird, weshalb das schwache Issue an ihm abprallt, und entspre-
chend auch die Mobilisierung und der soziale Druck hinsichtlich des
dominanten Issues früher einsetzen. Drittens können wir erwarten, dass
das schwache Issue nicht salient werden kann, solange das dominante

121
Ich spreche hier aus Vereinfachungsgründen nur von Issues – aber wie das Nor-
mentstehungsmodell spezifiziert, handelt es sich dabei, je nach Agenda, um Prob-
leme, Issues, Normkandidaten oder Normen.
Operationalisierung des Modells 233

Issue salient ist, und entsprechend auch Mobilisierung und sozialer


Druck hinsichtlich des schwachen Issues solange ausbleiben wie sie be-
züglich des dominanten Issues hoch sind.
In Anlehnung an die in der Aufmerksamkeitsforschung übliche Vor-
gehensweise bestimme ich die Salienz aus der Frequenz (der Häufigkeit
eines Issues) und der Prominenz (der Sichtbarkeit eines Issues) (Newig
2004, Andrews/Caren 2010: 843). Beides erhebe ich sowohl im öffentli-
chen als auch im institutionellen Diskurs. Als Unterkategorie des öffent-
lichen Diskurses erhebe ich zudem die issuebezogene Mobilisierung, und
als Unterkategorie des Gesamtdiskurses sozialen Druck.122
Die Tabelle gibt einen Überblick darüber, welche Ausprägungen der
Salienz der beiden Issues den Blockademechanismus bestätigen würden.
Sie enthält erwartete Beobachtungen (Evidenzen) und spezifiziert die
Indikatoren, anhand derer die Evidenzen erhoben werden (hierbei habe
ich mich ebenfalls an den genannten Studien orientiert). Die Nomenkla-
tur folgt folgendem System: Die Großbuchstaben S und F stehen für die
Dimension des permissiven Effekts, auf die sich die Evidenz bezieht
(S=Salienz, F=Framing), die folgende Zahl nummeriert die Evidenzen; I
steht für Indikator; die folgende Zahl ordnet den Indikator der jeweiligen
Evidenz zu, während die Kleinbuchstaben die unterschiedlichen Indika-
toren derselben Evidenz bezeichnen. Die Bezeichnungen Napalm und
Streumunition stehen hier für die jeweiligen Issues und sind als „Napal-
missue“ und „Streumunitionsissue“ zu lesen.

122
Erläuterungen und Ankerbeispiele zu diesen beiden Kategorien finden sich im
Codebuch auf ExtrasOnline.

234 Das Modell im Test

Attentionale Dimension: Salienz und Blockade in Diskursen

Öffentlicher Diskurs: Frequenz

S1: Napalm ist im öffentlichen Diskurs häufiger präsent als Streumunition.


IS1a: Anzahl der Dokumente, in denen das jeweilige Issue erwähnt wird
IS1b: Anzahl der Erwähnungen (=relevante Fundstellen im Dokument)
S2: Napalm ist im öffentlichen Diskurs früher präsent als Streumunition.
IS2a: Reihenfolge der Häufigkeitspeaks
IS2b: Anzahl der Erwähnungen in bestimmten Zeiträumen
S3: Solange Napalm präsent ist, wird Streumunition nicht präsent.
IS3: Entwicklung der Anzahl der Erwähnungen über Zeit
S4: Die Mobilisierung gegen Napalm ist höher als die Mobilisierung gegen Streumunition.
IS4: Anzahl der Textstellen im öffentlichen Diskurs mit Bezug zu
Mobilisierungsaktionen
S5: Die Mobilisierung gegen Napalm setzt früher ein als die Mobilisierung gegen Streu
munition.
IS5: Entwicklung der Mobilisierung über Zeit
S6: Solange die Mobilisierung gegen Napalm hoch ist, ist die Mobilisierung gegen Streu
munition niedrig.
IS6: Entwicklung der Mobilisierung über Zeit
S7: Der soziale Druck auf die Nutzer, Produzenten oder Händler von Napalm ist höher als
der soziale Druck auf die Nutzer, Produzenten oder Händler von Streumunition.
IS7: Anzahl der Textstellen im öffentlichen Diskurs in Form von naming, bla
ming, and shaming
S8: Der soziale Druck in Bezug auf Napalm setzt früher ein als der soziale Druck in Bezug
auf Streumunition.
IS8: Entwicklung des sozialen Drucks über Zeit
S9: Solange der soziale Druck wegen Napalm hoch ist, ist der soziale Druck wegen Streu
munition niedrig.
IS9: Entwicklung des sozialen Drucks über Zeit

Öffentlicher Diskurs: Prominenz

S10: Napalm ist im öffentlichen Diskurs prominenter als Streumunition.


IS10a: Anzahl der Erwähnungen in Schlagzeilen
IS10b: Anzahl der Erwähnungen in Überschriften
IS10c: Anzahl der Erwähnungen in besonderen Textelementen auf Titelseiten
IS10d: Anzahl der Erwähnungen in besonderen Textelementen
IS10e: Anzahl der Erwähnungen im Fließtext auf Titelseiten
Operationalisierung des Modells 235

S11: Napalm ist im öffentlichen Diskurs früher prominent als Streumunition.


IS11: Entwicklung der Prominenz über Zeit
S12: Solange Napalm prominent ist, wird Streumunition nicht prominent.
IS12: Entwicklung der Issue-Prominenz über Zeit

Institutioneller Diskurs: Frequenz

S13: Napalm ist im institutionellen Diskurs häufiger präsent als Streumunition.


IS13a: Anzahl der Dokumente, in denen das jeweilige Issue erwähnt wird
IS13b: Anzahl der Erwähnungen (=relevante Fundstellen im Dokument)
S14: Napalm wird von mehr Akteuren beachtet als Streumunition.
IS14: Anzahl verschiedener Sprecher, die sich zu dem jeweiligen Issue äußerten
S15: Napalm ist im institutionellen Diskurs früher präsent als Streumunition.
IS15: Entwicklung der Anzahl der Erwähnungen über Zeit

Institutioneller Diskurs: Prominenz

S16: Napalm ist auf der institutionellen Agenda prominenter präsent als Streumunition.
IS16a: Anzahl der Erwähnungen in der Bezeichnung des Tagesordnungspunkts
IS16b: Anzahl der Erstplatzierungen des Tagesordnungspunkts
IS16c: Anzahl der als „Priorisierung“ kodierten Aussagen der Sprecher

Tabelle 25: Evidenzen und Indikatoren der Salienz

Konstitutive Dimension: In dieser Dimension geht es darum, die Stigmatisie-


rung der jeweiligen Issues sowie explizite und implizite Schlussfolgerungen
zu erfassen, die das Vorliegen permissiver Mechanismen und permissiver
Effekte indizieren würden. Bei der Stigmatisierung von Objekten und Prak-
tiken handelt es sich um eine Framing-Aktivität. Das Framing der Waffen
erhebe ich in drei Kategorien, die ich in Anlehnung an die Forschung zu
Waffeneinsatzverboten und an die Normenforschung ausgewählt habe.
Diese sind die im Diskurs repräsentierten Einsatzpraktiken der beiden Waf-
fen, Stigmatisierung und Anschlussfähigkeit.
Wenn der Mechanismus der Ex-Negativo-Legitimierung vorliegt,
können wir erwarten, dass Napalm als inhumane Waffe stigmatisiert
wird, während Streumunition nicht stigmatisiert wird und dadurch legi-
tim erscheint. Außerdem müsste das Framing der beiden Waffen nicht
nur unterschiedlich, sondern auch – sofern semantisch möglich – gegen-
sätzlich sein. Die Tabelle gibt einen Überblick darüber, welches Framing

236 Das Modell im Test

der beiden Issues den Mechanismus der Ex-Negativo-Legitimierung bestä-


tigen würde und anhand welcher Kategorien das Framing erhoben wird.
Genauere Erläuterungen der einzelnen Kategorien und Codes sind im
Codebuch (siehe ExtrasOnline) zu finden.

Konstitutive Dimension: Framing und Ex-Negativo-Legitimierung in Diskursen

Einsatzpraktiken

F1: Napalm wird mit inhumanen, Streumunition hingegen mit humanen Einsatzpraktiken
assoziiert.
IF1a: Konflikte
IF1b: Nutzer
IF1c: Angriffsziele
IF1d: Opfer

Stigmatisierung

F2: Napalm wird stigmatisiert, Streumunition nicht.


IF2a: Stigmatisierende Sprechakte
IF2b: Verletzungswirkungen
IF2c: Stigmatisierende Attribute
IF2d: Sozialer Druck
IF2e: Normbezogene Positionen
IF2f: Norminhalte

Grafting

F3: Napalm wird mit bereits stigmatisierten Waffen assoziiert, Streumunition nicht.
IF3: Referenzen zu anderen Waffen
F4: Napalm wird normativ aufgeladen, Streumunition nicht.
IF4: Normative Referenzen

Tabelle 26: Evidenzen und Indikatoren des Framings

Methodische Herangehensweise
Nun muss die Methode der Datenerhebung, -auswertung und
-interpretation ausgewählt und der relevante Datenkorpus, d. h. die Da-
Methodische Herangehensweise 237

tenquellen und die Untersuchungszeiträume, bestimmt werden, mit de-


nen die genannten Beobachtungen erhoben werden. Sowohl die Auswahl
als auch die Umsetzung der jeweiligen methodischen Zugänge erfolgen
unter pragmatischen Gesichtspunkten, was bedeutet, dass die obersten
Kriterien bei der Wahl der Methode nicht etwa die Überzeugung der For-
scherin von deren absoluter Richtigkeit, sondern deren „Gegenstandsan-
gemessenheit“ (Mayring 2010: 124) sowie Eignung sind, diejenigen In-
formationen zu offenbaren und Erkenntnisse zu erbringen, die die Be-
antwortung der Forschungsfrage erlauben (Glaser/Strauss 2005: 73,
Shapiro 2005: 198).
Mit Blick auf die Umsetzung bedeutet Pragmatik zum einen, dass es
sich bei etablierten methodischen Verfahren wie der Inhaltsanalyse
„nicht um eine Serie von Anweisungen handelt, die starr befolgt werden
müssen“ (Corbin 2011: 168), sondern dass ich diese als ein Angebot an
Hilfsmitteln und Ideen verstehe, auf das man selektiv zurückgreifen und
welches man modifizieren kann, um das jeweilige Forschungsziel zu er-
reichen. Zum anderen bedeutet Pragmatik für mich die Freiheit, auch
Methoden, die (in der Regel aufgrund unterschiedlicher epistemologi-
scher Verortungen) gerne als inkommensurabel präsentiert werden, zu
kombinieren, sofern sie sich, wiederum im Sinne des Forschungsziels,
sinnvoll ergänzen. In der Summe ergibt sich daraus für diesen Abschnitt
das Ziel, mithilfe von Selektionen, Modifikationen und Kombinationen
einen auf diese Arbeit zugeschnittenen methodischen Zugang zu entwickeln.
Zwar erhebe ich beide Mechanismen auf Basis desselben Materials, je-
doch unterscheiden sich je nach Mechanismus sowohl die Daten, die ich
für bestimmte Beobachtungen heranziehe als auch die Methoden, mit
denen ich diese Daten auswerte. Die folgenden Unterabschnitte stellen
das methodische Instrumentarium dar, das zum Erfassen jedes dieser
Bestandteile dienen soll: Die Salienzen der Issues werden mittels Fre-
quenzanalysen eingefangen und das Framing mittels der Inhaltsanalyse,
mit Ergänzungen aus der Diskurs- und Rahmenanalyse.

Erfassen der Salienz: Datenauswertung mittels der Frequenzanalyse


Die attentionale Dimension der permissiven Effekte äußert sich darin,
dass ein Issue A einen solchen Anteil öffentlicher Aufmerksamkeit absor-

238 Das Modell im Test

biert, dass Problem B nicht zum Issue wird, d. h. es gar nicht erst auf die
Agenda bzw. nicht auf einen prominenten Agenda-Platz schafft. Bei der
Operationalisierung des Modells habe ich Salienz als eine Zusammenset-
zung aus Frequenz und Prominenz definiert. Wenn es einen permissiven
Effekt gibt, muss das blockierende Issue zum einen generell salienter sein
und zum anderen muss es über Zeit gewisse Entwicklungen in der Agen-
da-Präsenz der beiden Issues geben, um tatsächlich einen Zusammen-
hang aufzeigen zu können. Die in der Operationalisierung benannten
Indikatoren verweisen auf die Erhebungsmethode: Die Frequenz der Issu-
es habe ich erstens als Anzahl der relevanten Dokumente, in denen das
jeweilige Issue mindestens einmal erwähnt wird und zweitens als Anzahl
solcher Erwähnungen (=als relevant kodierter Textstellen) erhoben. Die
Prominenz der Issues habe ich aus ihrer Platzierung in den Medien und
in institutionellen Dokumenten erhoben. Die Issue-Verläufe ergeben sich
aus dem Vergleich der Kennzahlen zur Frequenz und Prominenz über
Zeit. Wie ich diese Vergleiche durchführe, erläutere ich unmittelbar bei
der Präsentation der Daten.

Erfassen des Framings: Eine rahmen-, inhalts- und diskursanalytische


Kombination
Die konstitutive Dimension der permissiven Effekte äußert sich im Fra-
ming des einen Issue als besonders problematisch und des anderen (im
impliziten Umkehrschluss) als weniger oder gar nicht problematisch. Das
Framing wird mit einer Kombination dreier methodischer Stränge analy-
siert: der Inhaltsanalyse (content analysis) als Haupttechnik sowie der
Rahmenanalyse (frame analysis) und der Diskursanalyse (discourse analy-
sis) als weiteren Techniken. Die drei Methoden, die in den folgenden
Unterabschnitten beschrieben werden, erfüllen unterschiedliche Zwecke
und ergänzen sich aufgrund ihrer unterschiedlich gelagerten Stärken und
Schwächen gut. Die Inhaltsanalyse, als weit entwickelte und sehr syste-
matische Herangehensweise zur Erhebung, Kategorisierung und Auswertung
von Daten, ist insbesondere für die Verarbeitung großer Textmengen –
denen ich mich gegenüber sehe – instruktiv. Sie bietet allerdings wenig
konkrete Handreichungen für das Erfassen und die Interpretation von
Methodische Herangehensweise 239

Bedeutungen, welche ja gerade im Zusammenhang mit Framing zentral


sind. Hier wiederum sind rahmen- und diskursanalytische Ansätze hilf-
reich, die zwar keine konkrete Technik der Datensystematisierung anbie-
ten, sich jedoch der Aufdeckung von Bedeutung verschrieben haben.

Rahmenanalyse
Die Rahmenanalyse ist das methodische Pendant zum theoretischen
Framing-Ansatz. Damit lassen sich die Rahmen, die bestimmte Probleme
umgeben, sowie ihre Konstruktion und Diffusion empirisch untersuchen
(Tannen 1993: 4, Creed et al. 2002: 34-36). Obwohl gemeinhin als Me-
thode gehandelt, handelt es sich bei der Rahmenanalyse (wie auch bei
der Diskursanalyse) eher um eine Forschungsperspektive. Dies deshalb,
weil sich aus der rahmenanalytischen Herangehensweise zwar eine Reihe
von Fragen ableiten lassen, die an den Gegenstand gerichtet werden
können und daher einen Blickwinkel bilden. Welche Wege zur Beant-
wortung dieser Fragen beschritten werden können, ist jedoch nicht fest-
gelegt, weshalb sich die Rahmenanalytikerinnen unterschiedlicher Tech-
niken bedienen.
Der Untersuchungsgegenstand von Rahmenanalysen sind Prozesse öf-
fentlicher Kommunikation (de Vreese/Lecheler 2012: 292). Frames kön-
nen, je nach Erkenntnisinteresse, sowohl den Status von abhängigen als
auch von unabhängigen Variablen einnehmen (de Vreese/Lecheler 2012:
293). Sie werden zu abhängigen Variablen, wenn es etwa darum geht, sie
im Diskurs zu erkennen, ihr Zustandekommen oder ihren Wandel zu-
rückzuverfolgen und zu erklären; sie werden zu unabhängigen Variablen,
wenn es um ihre Wirkung geht, z. B. von gleichen Frames auf unter-
schiedliches Publikum oder von unterschiedlichen Frames zum gleichen
Issue (de Vreese/Lecheler 2012: 293, Reese 2001: 9).
Folgende Fragen konstituieren die rahmenanalytische Perspektive auf
Kommunikation: Die erste große empirische Forschungsfrage richtet sich
auf die Inhalte der Frames, also einzelne Frame-Bestandteile. Die zweite
große Frage, die von der ersten nicht ganz zu trennen ist, richtet sich auf
die Wirkung von Frames. Das Ziel hier ist, nachzuvollziehen, wie mittels
Frames Bedeutung – im Sinne kollektiver Problemverständnisse – gene-

240 Das Modell im Test

riert wird. Konkreter geht es darum, wie einzelne Elemente zu „Bedeu-


tungspaketen“ zusammengefügt, wie mit diesen Bedeutungspaketen auch
unausgesprochene Annahmen transportiert werden, und wie bestimmte
Framing-Strategien zur Schaffung von Issues und zur Mobilisierung der
Öffentlichkeit eingesetzt werden (Creed et al. 2002: 37-38, 43, Keller
2011: 39-41).
In dieser Studie sind Frames die unabhängige Variable – sie interessie-
ren mich als ein struktureller Faktor, der einen Effekt ausübt: Es geht mir
um ihre permissive Wirkung, die mutmaßlich zur Nicht-Entstehung einer
Norm führt. Für die empirische Untersuchung sind alle soeben genann-
ten Fragen wichtig. Die Inhalte der hier analysierten Frames setzen sich
aus einzelnen Bestandteilen der Problemdefinition (wie Einsatzpraktiken
und Waffenwirkungen) sowie aus Attributen, die den jeweiligen Waffen
zugeschrieben werden, zusammen. Ich frage auch danach, welche unter-
schiedlichen Bedeutungen den jeweiligen Waffenarten verliehen und wie
diese Bedeutungen im Diskurs konstruiert wurden. Was waren die unaus-
gesprochenen Implikationen der jeweiligen Framings? Haben bestimmte
Framings die Umkehrschlüsse, die das Modell der permissiven Effekte
annimmt, befördert und wenn ja, wie? Welches Framing hat die Wahr-
nehmung der einen Waffenarten als besonders inhuman und der ande-
ren als akzeptabel befördert? Lassen sich die erwarteten unterschiedli-
chen Anschluss- und Mobilisierungsfähigkeiten der jeweiligen Framings
empirisch aufzeigen? Und lässt sich dies auf theoretisch denkbare Erklä-
rungen zurückführen, etwa auf unterschiedlich häufige Verwendung von
generischen Frames, Referenzen zu anderen inhumanen Waffenarten
oder Emotionalisierungsstrategien?
Unter Rückgriff auf die rahmenanalytische Perspektive lässt sich also
eine Reihe von Fragen generieren, die dabei helfen, einen Fokus auf den
Untersuchungsgegenstand einzunehmen und ihn zu strukturieren. Doch
eine festgelegte rahmenanalytische Methode gibt es nicht. Manche Stu-
dien (z. B. Gusfield 1981) haben eher essayistischen Charakter, viele al-
lerdings (z. B. Gamson 1992, Schmid-Petri 2012) verwenden systemati-
sche Verfahren, um (in der Regel in großen Datenkorpora) „bedeutungs-
tragende Elemente“ zu identifizieren, welche dann zu Frames – „Deu-
tungspaketen“ – gebündelt werden (Keller 2011: 39). Im textanalytischen
Methodische Herangehensweise 241

Verfahren wird für jede einzelne Untersuchungseinheit (bspw. einen


Zeitungsartikel) eine bestimmte Gesichtspunkte umfassende Datenmatrix
erstellt und daraus auf die Frames geschlossen. Im interpretativ-
quantifizierenden Verfahren werden die Frames zunächst in einer kleinen
Anzahl von Untersuchungseinheiten identifiziert und dann am gesamten
Untersuchungsmaterial überprüft. Im Frame-Mapping-Verfahren werden
die Frames aus Begriffen zusammengesetzt, welche häufig zusammen
auftreten; im deduktiven Verfahren werden die Frames aus dem For-
schungsstand generiert und ihre empirische Prävalenz überprüft
(Matthes/Kohring 2004: 58-60).
Wie deutlich wird, handelt es sich bei allen diesen Verfahren um die
eine oder andere Form der Inhaltsanalyse, weshalb ich mich im folgen-
den Abschnitt mit dieser auseinandersetze, um zu konkretisieren, wie ich
die Frames erhebe.

Inhaltsanalyse
Neben der Präferenz der rahmenanalytischen Studien für Inhaltsanalyse
ist letztere für mein Projekt aus vier weiteren Gründen die Methode der
Wahl: Erstens liegt ihr Ursprung in der Massenkommunikationsfor-
schung; sie wurde also zur Analyse von schriftlich festgehaltenen Kom-
munikationsprozessen, und zwar öffentlichen und deshalb datenreichen,
entwickelt (Kuckartz 2009: 335, Mayring 2010: 11-12). Ebensolche Pro-
zesse stehen auch hier im Zentrum der Untersuchung. Zweitens bietet die
Inhaltsanalyse das Handwerkszeug für eine Bestandsaufnahme des Mate-
rials, indem sie spezifiziert, wie sich große Datenmengen erheben, erfas-
sen und ordnen lassen – sie ermöglicht uns also, „was ist“- bzw. „wie
ist...“-Fragen zu beantworten (Holsti 1969: 15). Drittens gibt das Be-
schreiben und das Ordnen des Materials nicht schlicht Aufschluss über
den Untersuchungsgegenstand, sondern es macht den systematischen
Vergleich der Daten – etwa zwischen verschiedenen Zeitpunkten oder
zwischen verschiedenen Materialarten – möglich, was für diese Studie,
die sowohl zwei unterschiedliche Waffenarten als auch größere Zeitspan-
nen untersucht, wesentlich ist. Schließlich spezifiziert die Inhaltsanalyse
mit der Technik des Kodierens ein konkretes Verfahren der Datenanalyse,

242 Das Modell im Test

welches zugleich systematisch und flexibel genug ist, um für unterschied-


liche Erkenntnisinteressen verwendet zu werden. Zusammengenommen
lassen sich damit die Grundlagen für die Interpretation, d. h. die Beant-
wortung der Frage „was bedeutet...“ herstellen.
Da es sich beim Kodieren um ein Kernelement der inhaltsanalytischen
Methode handelt, gilt es nun, die Tätigkeit des Kodierens, deren zentrale
Begriffe und Funktionen zu beschreiben sowie zu erläutern, wie der Ko-
dierprozess in dieser Arbeit vonstatten ging. Ganz allgemein steht Kodie-
ren für das „Zuordnen von Schlüsselwörtern zu einzelnen Textstellen“
(Berg/Milmeister 2011: 308). Dies geschieht bei einer genauen Lektüre
des Materials (Holsti 1969: 2) und nach dem „Cut+File-Prinzip“, wonach
die Schlüsselwörter gewissermaßen die Fächer eines Zettelkastens bilden,
in welche die jeweiligen Textstellen einsortiert werden (Kuckartz 2009:
341). Solche Schlüsselwörter bezeichnet man als Codes – eines oder meh-
rere Wörter umfassende Begriffe, welche beispielsweise für das relevante
Thema oder das relevante Attribut stehen (Behnke et al. 2009: 360,
Kuckartz 2010: 57).
Freilich kann die Kodierung je nach Forschungsabsicht unterschiedli-
che Zwecke erfüllen, jedoch lassen sich einige allgemeine Funktionen des
Kodierens benennen: Reduzieren, Ordnen, Aggregieren und Vergleichen.
So können erstens vielfältige und umfangreiche Informationen in Daten
transformiert werden, indem deren Inhalt auf die für die Forscherin rele-
vanten Aspekte reduziert wird (Holsti 1969: 3, Krumm 2009: 316). Wie
bereits mit der Metapher des Zettelkastens (die erst im digitalen Zeitalter
zur Metapher wurde) verdeutlicht, bricht die Kodierung zweitens die
ursprüngliche Textstruktur auf und verleiht dem Text eine neue Ord-
nung, welche es ermöglicht, das Material im Sinne der Fragestellung zu
erfassen (Baumann 2006: 95, Behnke et al. 2009: 359). Drittens wird das
Material auf diese Weise verdichtet und zusammengefasst, sodass aggre-
gierte Aussagen über die Daten möglich werden (Keller 2011: 78, 97).
Dadurch, dass die Kategorien die Merkmale vorgeben, auf die bei den
jeweiligen Untersuchungseinheiten zu achten ist und die Codes die Aus-
prägungen dieser Merkmale definieren, ergeben sich viertens Ver-
gleichsmöglichkeiten durch die Datenmatrix: Es wird möglich, Untersu-
chungseinheiten auf Basis von Ähnlichkeiten und Unterschieden zu
Methodische Herangehensweise 243

Klassen zusammenzufassen bzw. voneinander zu trennen, sodass sich mit


dem Blick auf das große Ganze ggf. Typen und Muster feststellen lassen
(Früh 2007: 153-154, Muckel 2011: 340, Krumm 2009: 313).
Es werden zwei Haupttypen von Codes unterschieden: Vom Forscher
formulierte und in der Regel etwas abstraktere Codes heißen Forscher-
Codes; „natürliche“ Codes, die im Material selbst vorkommen, heißen In-
vivo-Codes (Behnke et al. 2009: 361, Kuckartz 2010: 68). Weitere Code-
typen sind etwa Faktencodes, die schlicht bestimmte Vorkommnisse
bezeichnen, Meinungs- und Bewertungscodes, oder Materialcodes, die
den Materialtyp (z. B. Zeitungsartikel, Protokoll) oder weitere Material-
merkmale (z. B. Erscheinungsdatum, Rubrik) erfassen (Kuckartz 2010: 61-
62). In meiner Untersuchung habe ich verschiedene Codetypen verwen-
det: neben Materialcodes beispielsweise auch Indikatoren der Prominenz
wie Schlagzeilen, bestimmte Textarten wie Leserbriefe oder Faktencodes
wie Konflikte, in denen die Waffen eingesetzt wurden. Auch enthält das
Schema sowohl Forscher-Codes wie z. B. „Stigmatisierung“ oder „Vor-
wurf“, wenn ich bestimmte Äußerungen als solche klassifiziert habe, als
auch In-vivo-Codes wie z. B. „inhuman“ oder „abscheulich“, wenn diese
von den Sprechern selbst verwendet wurden.
Die Codes werden üblicherweise hierarchisch geordnet und zu Ober-
begriffen – sogenannten – Kategorien gebündelt (Berg/Milmeister 2011:
308). Codes unterscheiden sich von Kategorien durch ihre Reichweite:
Erstere sind enger gefasst und in der Regel nah am Gegenstand formu-
liert; letztere sind weiter gefasst und in der Regel nah an der Theorie for-
muliert (Glaser/Strauss 2005: 45, Berg/Milmeister 2011: 308). Mit ande-
ren Worten handelt es sich bei Kategorien um die Schemata, die wir an
den Gegenstand anlegen und die in Form von Fragen daherkommen,
während es sich bei Codes um die konkreten Inhalte, mit denen diese
Schemata gefüllt werden, also um verschiedene Antworten auf die ge-
stellten Fragen handelt (Kuckartz 2009: 336, Krumm 2009: 313).
Zusammengenommen bilden Codes und Kategorien das Codebuch
(auch: Kodierschema) eines Forschungsprojektes, welches die Fragestel-
lung operationalisiert, indem es festlegt, welche Merkmale zu erheben
und wie die Daten diesen Merkmalen zuzuordnen sind (Krumm 2009:
315, Behnke et al. 2009: 314). Außer Kategorien und Codes zu benennen

244 Das Modell im Test

und anzuordnen muss das Kodierschema daher auch die Kodierregeln


vorgeben. Zu diesen gehört etwa die Erläuterung der Kategorien und
Codes sowie Ankerbeispiele, welche die Zuordnung der Textstellen er-
leichtern und Abgrenzungsprobleme mindern sollen (Holsti 1969: 94,
Kuckartz 2009: 336, Mayring 2010: 92). Dabei ist auch zu bestimmen,
was die jeweilige Kodiereinheit – „der kleinste Textbestandteil, der unter
eine Kategorie fallen kann“ (Kuckartz 2009: 339) – ist, d. h. ob Texte,
Absätze, ganze Sätze, Satzausschnitte oder schon einzelne Wörter kodiert
werden. Hierfür gibt es keine grundsätzlich optimale Länge, sondern es
gilt der Grundsatz der „gegenstandsangemessenen Kodierung“ (Behnke et
al. 2009: 361). Ferner muss festgelegt werden, ob das Kodierschema Über-
schneidungen zulässt und somit einer Textstelle mehrere Codes zugewie-
sen werden dürfen (Behnke et al. 2009: 362, Kuckartz 2009: 337). Das
Codebuch zu dieser Untersuchung ist auf ExtrasOnline verfügbar.
Der Weg zur Datenmatrix, d. h. der Ablauf einer Inhaltsanalyse, un-
terscheidet sich in Abhängigkeit davon, ob das Kodierschema deduktiv
oder induktiv gewonnen wurde. Die inhaltsanalytische Methode erlaubt
grundsätzlich beides, und auch bei ihren Anwendungen finden sich in
der Regel keine Reinformen, sondern Kombinationen beider Vorgehens-
weisen (Behnke et al. 2009: 359, Kuckartz 2009: 340). In stärker dedukti-
ven Designs, welche auf die Überprüfung von theoretischen Konzepten
und Modellen zielen, findet ein Großteil der theoretischen Arbeit im
Vorfeld statt. Bereits zu Beginn der Kodierung existiert daher zumindest
ein vorläufiges Kategorienschema, welches aus dem theoretischen Rah-
men entwickelt wurde; üblicherweise wird es nach einer Probekodierung
modifiziert und in dieser modifizierten Form an das gesamte Material
angelegt (Mayring 2010: 61-62, 83). In stärker induktiven Designs, wel-
che auf die empirisch begründete Generierung von theoretischen Kon-
zepten und Modellen zielen, beginnt die Kodierung ohne Kategorien-
schema, denn dieses wird erst aus der Auseinandersetzung mit den Daten
entwickelt und während des gesamten Forschungsprozesses auf Basis
neuer Daten modifiziert (Mayring 2010: 83-84, Muckel 2011: 335). Eine
solche induktive Vorgehensweise wird als Grounded-Theory-Methode,
das Produkt dieser Vorgehensweise als Grounded Theory – aus den Daten
Methodische Herangehensweise 245

entwickelte, gegenstandsbegründete Theorie – bezeichnet (Mey/Mruck


2011: 15, Breuer 2010: 39).
Beim Kodierprozess habe ich mich für zwei Kodierdurchgänge und
dabei für ein Hybrid aus einer deduktiven und induktiven Vorgehenswei-
se entschieden: Beim ersten Kodierdurchgang (mithilfe der Software De-
vonThink Pro, die sich besonders gut zum Verschlagworten eignet) habe
ich angelehnt an die Grounded-Theory-Methode das gesamte Material
relativ offen kodiert. So basieren die Kategorien – oder eher meine Per-
spektive auf das Material – zwar auf theoretischen Erkenntnissen und
Anforderungen des Erklärungsmodells; die Codes allerdings, die diese
Kategorien füllen, habe ich im ersten Kodierdurchgang selbst gewonnen
(siehe Schörnig 2007: 231 für eine ähnliche Vorgehensweise). Weil sich
die Relevanz/Irrelevanz bestimmter Codes erst nach einer Durchsicht des
gesamten Materials zeigt, folgte ich der Maxime, im Zweifel mehr zu
kodieren und habe entsprechend alle Aspekte kodiert, die mir relevant
erschienen, auch wenn sie nicht in eine der vorläufigen Kategorien fielen
(Corbin 2011: 172).
Nach Abschluss des ersten Kodierdurchgangs habe ich das Kodier-
schema überarbeitet, wie es für Inhaltsanalysen üblich ist (Mayring 2010:
61-62). Hierfür habe ich zunächst eine Übersicht aller vergebenen Codes
samt ihren Häufigkeiten erstellt. Auf dieser Basis habe ich das Kodier-
schema erstens bereinigt, d. h. besonders seltene Codes entfernt (Gamson
1992: 199, Schmid-Petri 2012: 120) und synonyme bzw. uneinheitlich in
Plural- oder Singular-Form vergebene Codes zusammengefasst. Zweitens
habe ich das Kodierschema hierarchisch strukturiert, d. h. die Codes sys-
tematisch den Kategorien zugeordnet und außerdem Haupt- und Sub-
codes bestimmt (Behnke et al. 2009: 364-366, Krumm 2009: 316). Drit-
tens habe ich das theoretische Kategorienschema um neue Kategorien, zu
denen sich Codes verknüpfen ließen, ergänzt (Mey/Mruck 2011: 25).
Dieses konsolidierte Schema habe ich in einem zweiten Durchgang (mit-
hilfe der inhaltsanalytischen Software MAXQDA) erneut auf das ganze
Material angelegt.
Dieses Vorgehen beruht auf folgenden Überlegungen: Zwar ist das ar-
gumentative Gerüst meiner Arbeit bereits im Vorfeld der Untersuchung
theoretisch formuliert und eben nicht empirisch gewonnen worden. D.

246 Das Modell im Test

h. dass meine Perspektive auf das Material konkret durch das zu testende
Modell, aber auch allgemeiner durch die Normenforschung, die For-
schung zu Waffeneinsatzverboten und durch meine Kenntnisse des hu-
manitären Völkerrechts informiert war. Dennoch wollte ich meinen Blick
auf die Empirie nicht mehr als nötig verengen und habe deshalb, wie in
der Operationalisierung der konstitutiven Dimension des Modells deut-
lich wurde, darauf verzichtet, konkrete Codes zu formulieren, sondern
mich hier auf allgemeine Kategorien beschränkt. Dadurch habe ich die
Möglichkeit offengelassen, aus dem empirischen Material theoretische
Impulse zu erhalten. Dies ist insbesondere deshalb wichtig, weil sich das
Erklärungsmodell bisher noch nicht bewähren konnte und es gestärkt
werden kann, wenn in seiner endgültigen Formulierung im Anschluss an
den empirischen Schritt theoretische und empirische Erkenntnisse verar-
beitet werden. Mit anderen Worten sollte die Empirie durch die empiri-
sche Generierung der Codes nicht nur eine theorietestende, sondern
auch systematisch eine theoriegenerierende Funktion erhalten. Zugleich
wurde durch den zweiten Kodierschritt, in dem ich mich an das so gene-
rierte, aber nun systematisierte, bereinigte und konsolidierte Kodier-
schema gehalten habe, eine konsistente Kodierung sichergestellt.
Nach der Kodierung erfolgt die Aufbereitung und Auswertung der Da-
ten. Je nach Erkenntnisinteresse kann die Datenmatrix mit unterschiedli-
chen Instrumenten analysiert werden. In der Regel bietet sich ein Mix
aus quantitativen und qualitativen Verfahren an, um aus den Daten
möglichst viele Informationen zu extrahieren und auf dieser Basis eine
dichte und fundierte Interpretation vorzunehmen (Holsti 1969: 9). Die
gelegentlich getroffene Unterscheidung in die qualitative und quantitati-
ve Inhaltsanalyse erübrigt sich dadurch; vielmehr handelt es sich bei
beiden Verfahren um „zwei komplementäre Seiten einer Medaille“, die
besonders im Zusammenspiel den größtmöglichen Nutzen versprechen
(Schörnig 2007: 223-226, Holsti 1969: 11). Mit dem Verzicht auf die eine
oder andere Seite würde man sich Möglichkeiten der Erkenntnis verge-
ben: Verzichtet man auf die qualitative Interpretation, läuft man Gefahr,
zu reduktionistisch mit dem Material umzugehen und schlicht Zahlen zu
präsentieren, ohne dass daraus Erkenntnis generiert wird; verzichtet man
auf die quantitative Auswertung, läuft man wiederum Gefahr, Muster zu
Methodische Herangehensweise 247

übersehen und sich in Einzelbeobachtungen zu verlieren, ohne die Theo-


riebildung voranzutreiben (Reese 2001: 8). Da in der vorliegenden Arbeit
sowohl quantitative (die Verteilung und Entwicklung der Aufmerksam-
keit, die Salienz bestimmter Codes und Frames) als auch qualitative As-
pekte (der Inhalt und die Bedeutung bestimmter Frames) ohnehin Teil
des theoretischen Argumentes sind, ist hier der Rückgriff auf quantitative
und qualitative Instrumente auch ohne diese grundsätzlichen Überle-
gungen allein deshalb unumgänglich, weil man die interessierenden
Mechanismen ohne ein entsprechendes Instrumentarium nicht vollstän-
dig überprüfen könnte.
Das einfachste – aber deshalb nicht weniger aussagekräftige – quanti-
tative Instrument ist die Frequenzanalyse, welche die absoluten und rela-
tiven Häufigkeiten der Codes (oder Kategorien) erfasst und mittels derer
die Verteilung der Codes (oder Kategorien) über Zeit, untereinander (ins-
gesamt oder innerhalb einer Kategorie) sowie ggf. zwischen verschiede-
nen Fällen verglichen werden kann (Schörnig 2007: 238-240, Kuckartz
2009: 342, Mayring 2010: 13, 83-84). Dieser Schritt abstrahiert bereits
vom Material, da die konkreten Textstellen nicht aufgelistet werden,
sondern hinter den Codes verborgen bleiben (Behnke et al. 2009: 311).
Die Frequenzanalyse dient dazu, in Diskursen Muster zu entdecken, zu
beschreiben und miteinander zu vergleichen. In der Regel hat sie in mei-
ner Untersuchung die notwendigen Ergebnisse erbracht und war daher
das hauptsächliche Analyseinstrument. Ein elaborierteres Verfahren ist
die Clusteranalyse (auch Kontingenzanalyse), welche darauf zielt, die Häu-
figkeit festzustellen, mit der bestimmte Codes gemeinsam auftreten
(Holsti 1969: 7, 118). Hier geht es also darum, Zusammenhänge zwischen
Begriffen und Argumenten und sogenannte Code-Cluster zu entdecken
(Schörnig 2007: 235, Mayring 2010: 15). Dieses Verfahren habe ich bei-
spielsweise benutzt, um festzustellen, welche konkreten Attribute stigma-
tisierende Äußerungen enthielten.

Diskursanalyse
Angesichts der Erkenntnisse, die die Inhaltsanalyse mittels der Frequenz-
und der Kontingenzanalyse erbringen kann, ist die Einschätzung, es

248 Das Modell im Test

handele sich dabei vor allem um ein Mittel der Beschreibung, nicht je-
doch der Erkenntnis (Früh 2007: 149), sicherlich ungerechtfertigt. Doch
auch wenn die Inhaltsanalyse bei der Erhebung, Kategorisierung und
Auswertung der Daten systematisch und elaboriert daherkommt, bietet
sie für die Interpretation kein vergleichbares Instrumentarium. Da mein
Forschungsziel jedoch auch darin besteht, den Diskurs zu interpretieren,
um zu verstehen, wie, warum und mit welchen Wirkungen die unter-
suchten Waffenarten mit unterschiedlichen Bedeutungen versehen wur-
den – die Frames also nicht nur zu erheben, sondern auch ihre permissive
Wirkung nachzuvollziehen – greife ich ergänzend auf diskursanalytische
Ansätze zurück. Dies tue ich, das sei einschränkend gesagt, ziemlich in-
strumentell. Das bedeutet, dass der diskurstheoretische Überbau hier nur
insoweit Eingang findet, als es für die Schärfung meiner Analyseperspek-
tive notwendig ist. Außerdem orientiere ich mich bei der methodischen
Herangehensweise nicht an einem konkreten diskursanalytischen Strang,
sondern verwende selektiv diejenigen Techniken der empirischen Analy-
se von Diskursen, die meinen Zwecken dienlich sind.
Die Schaffung von Bedeutungen steht im Zentrum der Diskursanalyse.
Sie schaut sich Diskurse als diejenigen „Orte“ an, an denen Bedeutungen
generiert werden, und versucht, deren Funktionsweise zu verstehen
(Ensink/Sauer 2003: 1, Hardy et al. 2004: 20, Crawford 2004: 22). Für
dieses Buch sind diskursanalytische Ansätze auch aufgrund ihrer Sensibi-
lität für das Implizite und das Nicht-Gesagte interessant (Fairclough
1992: 9, Van Dijk 1998: 92). Erstens setzt das Konzept der permissiven
Effekte ebensolche, nicht notwendigerweise direkt formulierte und in-
tendierte, aber im Umkehrschluss doch mögliche Implikationen voraus.
Zweitens stützt sich das Konzept des Framings auch auf implizierte und
erhoffte Assoziationen.
Auch in ihrer dekonstruktiven Zielsetzung decken sich diskursanalyti-
sche Ansätze mit der meinigen: Vermeintliche Fakten werden hinterfragt,
indem ihre soziale – genauer, diskursive – Konstruktion und die Kontin-
genz solcher Konstruktionen offengelegt wird.123 In der kritischen Dis-

123
Shapiro 1989: 14, Milliken 1999: 242, Hardy et al. 2004: 22, Herschinger/Renner
2014: 21.
Methodische Herangehensweise 249

kursanalyse liegt der Fokus insbesondere auf der Verknüpfung mit


Macht- und Herrschaftsstrukturen, deren Wirkung in Diskursen zutage
tritt und durch diese stabilisiert wird (Fairclough 1992: 12, Jabri 1996:
96). Diese Denaturalisierung dient dazu, Perspektiven für Wandel zu er-
öffnen und „alternative Stimmen“ zu stärken. Wenn bestimmte Kon-
struktionen nicht natürlich und zwingend, sondern sozial hergestellt
sind, sind Alternativen zu diesen denkbar und umsetzbar – zugleich je-
doch im Diskurs marginalisiert, wenn nicht gar ausgeschlossen (Weldes
1996: 285, Milliken 1999: 236, Herschinger/Renner 2014: 16-17, 22). Für
dieses Buch folgt daraus das Ziel, die Kontingenz der Konstruktion be-
stimmter Waffenarten als human oder inhuman aufzuzeigen, wobei ich
Kontingenz im Anschluss an Katja Freistein (2014: 113) nicht als Belie-
bigkeit, sondern als „Versuch der Sinnfixierung“ unter der Bedingung
von Macht verstehe. Dies geschieht mit dem Ziel, dafür zu sensibilisieren,
dass es neben den Waffen, die ins globale Scheinwerferlicht geraten, auch
andere nicht minder problematische Waffen gibt.
Der zentrale Begriff, dem die Methode und ihre theoretischen Grund-
lagen ihre Bezeichnung verdanken, ist der des Diskurses. Je nach Perspek-
tive gibt es unterschiedliche Diskursdefinitionen, als deren gemeinsame
Bestandteile sich Sprache, Text, sozialer Kontext und Bedeutungszu-
schreibungen nennen lassen (Fairclough 1992: 3, Baumann 2006: 78,
Keller 2011: 8). Unter Diskursen verstehe ich Prozesse und Produkte von
öffentlicher Kommunikation mittels Sprache, in denen Phänomenen
Bedeutungen zugeschrieben werden. Sie folgen bestimmten Regeln und
bewegen sich innerhalb von bestimmten Strukturen, welche sie zugleich
reproduzieren und produzieren.124
Diskurse sind aufgrund ihrer Wirkungsmacht interessant, d. h. als
produktive Phänomene, die selbst Effekte hervorbringen, indem sie zur
Grundlage des Handelns werden – sie haben kausalen Stellenwert.125 Im
Unterschied zu anderen Ansätzen, die ebenfalls auf Sprache fokussieren,
betonen diskurstheoretische Ansätze, dass Sprache – gesprochene, ge-

124
Shapiro 1989: 14, Laffey/Weldes 2004: 28, Hardy et al. 2004: 20, Keller 2011: 29.
125
Ashley 1989: 278, Fairclough 1992: 3, Jabri 1996: 95, Weldes 1996: 285, Milliken
1999: 236, Crawford 2004: 23.

250 Das Modell im Test

schriebene oder bildlich ausgedrückte – nicht nur als Abbild der Realität
fungiert, sondern diese kreiert (Doty 1993: 302-303, Fierke 2002: 337).
Dadurch löst sich auch der Disput über das Primat von Materialität ver-
sus das Primat von Ideen auf, denn im diskurstheoretischen Verständnis
verleihen sie sich wechselseitig Bedeutung: „neither ideas nor materiality
have a meaningful presence separate from each other” (Hansen 2006:
22). So müssen materielle Gegebenheiten einerseits im Diskurs als in
bestimmter Hinsicht relevant konstruiert und auf eine bestimmte Art
und Weise gerahmt werden; andererseits wirken Diskurse auf ebendiese
Gegebenheiten zurück (Adler-Nissen 2014: 146).
Das Kernargument dieses Buches verdeutlicht, dass und wie dies ge-
schieht: Die materielle Realität bestimmter Waffen – durch sie angerich-
tete Zerstörungen – wird diskursiv verarbeitet (oder ausgeblendet). Je
nachdem, ob die Waffen Gegenstand des Diskurses werden und ob sich
darin die Idee durchsetzen kann, sie seien inhuman, bildet sich eine Wel-
le öffentlicher Empörung, die für das Verbot dieser Waffen unter Um-
ständen entscheidend ist. Ob ein solches – diskursiv mediiertes – Verbot
zustande kommt, hat, in Anbetracht der Effektivität solcher Verbote,
enorme materielle Konsequenzen, denn dadurch werden Leben gerettet –
oder nicht, falls die Normsetzung unterbleibt.
Aus der Anerkennung der sozialen und politischen Wirkung von Dis-
kursen ergibt sich der diskursanalytische Fokus auf Prozesse, welche diese
Wirkung hervorbringen. Um Intentionen und Motive der Diskursbetei-
ligten geht es dabei nur am Rande – im Mittelpunkt steht die Frage, wie
Bedeutung konstruiert wird und wie diese wirkt (Gregory 1989: xiii, Doty
1993: 305, Keller 2011: 102). Die Perspektive auf diese Frage wird durch
verschiedene Eckpunkte definiert, die je nach konkretem Erkenntnisinte-
resse in unterschiedlichen Zusammensetzungen und Gewichtungen zum
Tragen kommen (Van Dijk 1998: 86, Milliken 1999: 231, Keller/Viehöver
2006: 104). Folgende Eckpunkte waren für meine interpretative Perspek-
tive relevant: Welche sprachlichen Ressourcen – Vokabular, Semiotik,
Grammatik, Rhetorik, Narrativität – werden eingesetzt und mit welcher
Wirkung (Shapiro 1989: 12-14, Ashley 1989: 282, Yee 1996: 65)? Was ist
die Position des Sprechers, d. h. in welcher Eigenschaft und in welchem
Rahmen tritt er auf und an welches Publikum richtet sich der Text (Creed
Methodische Herangehensweise 251

et al. 2002: 43, Baumann 2006: 76)? Was ist der historische, soziale, kul-
turelle und sprachliche Kontext der Äußerungen?126
Die Diskursanalyse bietet auch konkretere Analysetechniken: So un-
terscheidet Roxanne Doty (1993: 306) die textuellen Mechanismen der
Präsupposition, der Prädikation und der Subjektpositionierung. Die Be-
achtung von Präsuppositionen zielt darauf ab, die bereits angesprochenen
impliziten Bedeutungen von Aussagen zu erfassen, indem man das in
diesen Aussagen vorausgesetzte und transportierte, nicht aber ausformu-
lierte Wissen zu entschlüsseln versucht (Van Dijk 1995: 273). Nach Mark
Laffey und Jutta Weldes (2004: 28) geschieht dies durch die Schaffung
von Assoziationen und Konnotationen in Form von Referenzen zu beste-
henden sozialen Institutionen. In meiner Analyse kommen solche Prä-
suppositionen etwa im Vergleich mit anderen Waffenarten oder durch
Referenzen zu anderen Normen zum Ausdruck. Die Beachtung von Prädi-
kationen bzw. Attributen (den Eigenschaften, die dem Phänomen zuge-
schrieben werden) zielt darauf ab, das entworfene Bild dieses Phänomens
zu erfassen. In meiner Analyse sind das die Charakterisierungen der je-
weiligen Waffenarten.
Die Beachtung der Subjektpositionierung zielt darauf ab, die im Dis-
kurs zum Ausdruck gebrachten Beziehungen der Personen oder Objekte
zu erfassen. Lene Hansen (2006: 41) bzw. der diskursanalytischen Tradi-
tion nach Laclau und Mouffe folgend, geschehen solche Positionierun-
gen mittels „linking und differentiation“ – der Konstruktion von Ähn-
lichkeiten und Unterschieden, von Äquivalenten und Gegensätzen, von
Exklusion und Inklusion (Gregory 1989: xv, Jabri 1996: 7, Fairclough
1998, Keller 2011: 54). Während die meisten Diskursanalysen damit
Sprecherpositionen erfassen, geht es in meiner Analyse um Einordnun-
gen der Waffen in bestimmte Kategorien, die auf Basis von Ähnlichkeiten
und Unterschieden vorgenommen werden. Auch die Analyse von Dar-
stellungen vermeintlicher „Fakten“ – in meinem Fall etwa Benennungen
der Konflikte, in denen die Waffen eingesetzt wurden oder der Angriffs-
ziele, gegen die sie gerichtet waren – ist ein wichtiges Element der Reali-

126
Ashley 1989: 282, Weldes 1996: 284, Creed et al. 2002: 38, Crawford 2004: 23-24,
Baumann 2006: 77.

252 Das Modell im Test

tätskonstruktion (Holzscheiter 2010: 74-75). Schließlich achte ich darauf,


wie genau – im Sinne von komplett und detailliert – die Beschreibungen
sind, weil deren Wirkungsmacht auch von der Schärfe der im Diskurs
erzeugten Bilder abhängt (Van Dijk 1995: 275).
Die Frage nach der Vereinbarkeit der Inhaltsanalyse mit der Dis-
kursanalyse, die üblicherweise unterschiedlichen epistemologischen Posi-
tionen zugeordnet werden, löse ich pragmatisch. D. h. dass ich grund-
sätzliche Inkommensurabilitätsfragen ausspare und mich bei der Ent-
wicklung meines Analyserahmens einzig auf die Nützlichkeit von me-
thodischen Perspektiven und Techniken dieses Vorhaben konzentriere.
Ich sehe allerdings auch eine große Schnittmenge der mit beiden Metho-
den üblicherweise verfolgten Forschungsfragen – beide versuchen, über
die Sprache einen Zugriff auf die soziale Realität zu erhalten, und beide
interessieren sich für sprachliche bzw. diskursive Muster und Regelmä-
ßigkeiten sowie für Effekte von Kommunikation. Für die gemeinsame
Verwendung beider Methoden spricht nicht zuletzt auch die Tatsache,
dass es bereits Arbeiten gibt, die das fruchtbar tun (Crawford 2002,
Baumann 2006).

Datenmaterial und Untersuchungszeiträume


Wer eine Inhalts- oder Diskursanalyse durchführen will, sieht sich in der
Regel mit einer hohen Textmenge konfrontiert. Diese zu reduzieren ist
aus arbeitsökonomischen, methodischen und inhaltlichen Gründen
sinnvoll (Baumann 2006: 86). Da dieser Schritt so notwendig wie willkür-
lich ist, soll dieser Abschnitt Transparenz darüber schaffen, wie ich den
Datenkorpus zusammengestellt und die Untersuchungszeiträume defi-
niert habe.
Das ausgewählte Material sollte den Diskurs möglichst breit in dem
Sinne abdecken, dass die zentralen Frames darin zum Vorschein kom-
men. Deshalb ist einerseits eine große Textmenge, andererseits eine viel-
fältige Textmenge anzustreben – Triangulation zielt darauf, den Gegen-
stand mithilfe verschiedener Datenquellen aus verschiedenen Perspekti-
ven zu betrachten (Yin 2009: 18, Bennett/Checkel 2015: 28, Flick 2011:
12). Die Methoden, mit denen man die Daten erhebt und auswertet,
Datenmaterial und Untersuchungszeiträume 253

müssen das Kriterium der Reliabilität erfüllen, d. h. das, was man erhe-
ben will, zuverlässig und richtig erheben. Eine weitere wesentliche An-
forderung an empirische Evidenz ist deren Validität: Man muss in der
Lage sein, damit das zu erheben, was man erheben will.
Indem das Erklärungsmodell zwei Arten von Diskursen, den öffentli-
chen und den institutionellen, unterscheidet, gibt eine Orientierung für
die Frage, welches Material grundsätzlich in Frage kommt. Da ich oben
den Mediendiskurs als Sammellinse des öffentlichen Diskurses definiert
habe, bilden Medienquellen in dieser Studie den ersten Teil des Materials.
Angesichts der Vielzahl potentieller Medienquellen stellt sich die Heraus-
forderung der Materialreduktion insbesondere hier. Zusätzlich kommt die
Schwierigkeit hinzu, dass es das internationale Leitmedium, über das
man den internationalen öffentlichen Diskurs erheben könnte, im Un-
terschied zu national durchaus existierenden Leitmedien nicht gibt.
Die New York Times kommt einem solchen internationalen Leitmedi-
um am nächsten, weil sie weltweit von Entscheidungsträgern rezipiert
wird, weshalb ich sie als Quelle ausgewählt habe (Nisbet/Huge 2006: 18-
19). Diese Zeitung vertrat allerdings, zumindest zu Beginn des Vietnam-
krieges, welcher in einem großen Teil meines Untersuchungszeitraumes
stattfand, eher regierungsnahe Positionen (Gitlin 1980: 271-273, Neer
2013: 114). Dies ist insofern von Vorteil, weil dort dadurch die dominan-
ten politischen Frames zu erwarten sind. Dennoch habe ich mich ent-
schieden, den britischen Guardian als Korrektiv in das Sample aufzuneh-
men – zumal bekannt ist, dass in Großbritannien bereits während des
Koreakrieges Kritik an Napalmeinsätzen laut wurde (Neer 2013: 113).
Dadurch bleibt das Problem, dass es sich bei beiden um westliche Me-
dien handelt. Ich gestehe ein, dass meine Analyse dadurch verzerrt wird,
möchte aber dieses Problem mit folgenden Argumenten relativieren:
Erstens wurde der humanitäre Diskurs, der mich interessiert, vor allem
im Westen geführt (Latham 2001: 170-171).127 Zweitens haben die Daten
meine Hoffnung bestätigt, dass die New York Times (und in gewissem

127
Auch aktuelle Studien verweisen darauf, dass etwa Menschenrechtsorganisatio-
nen den Menschenrechtsdiskurs vor allem über Medien des Nordens vorantrei-
ben, weil diese dafür empfänglich seien (Krain 2012: 575, 579).

254 Das Modell im Test

Maße auch der Guardian) auch Stimmen aus anderen Regionen der Welt
– in Form von Presseschauen, Leserbriefen oder direkten Zitaten – ein-
fing. Drittens bildet der institutionelle Diskurs, in dem Sprecher aus der
ganzen Welt zu Wort kommen, eine Vergleichsquelle, durch die eventu-
elle Diskrepanzen auffallen würden, und bei der Interpretation berück-
sichtigt werden könnten.
Der Diskurs der zivilgesellschaftlichen Organisationen ist ebenso wichtig,
gibt dieser schließlich Aufschluss über die Rolle der Normunternehmer.
Hier sind zwei Arten von Material zu unterscheiden: Das externe, d. h.
nach außen kommunizierte Material wie Pressemitteilungen, Presseauf-
tritte sowie sonstige Veröffentlichungen (etwa Bücher und Reports), und
das interne, d. h. die Kommunikation innerhalb der Community doku-
mentierende Material wie Memos und Sitzungsprotokolle. Üblicherweise
stützt sich die moderne NGO-Forschung auf Internetdokumente und auf
Interviews, um insbesondere auf die nicht dokumentierten Diskussions-
und Entscheidungsprozesse, welche in dieser informellen Sphäre gar
nicht so selten sind, zuzugreifen (z. B. Brühl 2003, Carpenter 2010, Dany
2013).128 Für meine Fallstudien erwiesen sich diese beiden Quellentypen
aufgrund des weit zurückliegenden ersten Untersuchungszeitraumes als
schwierig, weshalb ich den NGO-Diskurs nicht direkt, sondern nur inso-
fern systematisch ausgewertet habe, als er in die von mir analysierten
Medien Eingang gefunden hat. Dennoch habe ich auch Primärquellen
(etwa Reports) durchgeschaut und als Hintergrundinformation berück-
sichtigt, und ansonsten versucht, das Materialdefizit durch Sekundärlite-
ratur zu kompensieren. Auch den Diskurs der Bevölkerung habe ich nur
insofern erhoben, als er sich in den Medien in Form von Zitaten oder
Leserbriefen niederschlug.
Den Datenkorpus für den öffentlichen Diskurs habe ich über digitale
Stichwortsuchen der New York Times (NYT) und des Guardian (GRD) zu-
sammengestellt.129 Sowohl die Listen mit den Suchergebnissen als auch

128
Das Problem nicht dokumentierter Entscheidungsprozesse ist aber ein generelles
Problem (Holzscheiter 2010: 97).
129
Für den Fall Napalm war es das Suchstichwort „napalm“, für den Fall Streumuni-
tion habe ich verschiedene Suchstichwörter gewählt, weil es für diese Waffe meh-
Datenmaterial und Untersuchungszeiträume 255

die Artikel selbst waren teils über die Datenbanken ProQuest und Factiva,
teils direkt über die Webseiten zugänglich. Hierbei handelt es sich um
eine Vollerhebung, d. h. dass ich zunächst alle Artikel, in denen die rele-
vanten Stichwörter mittels elektronischer Suchen gefunden wurden, in
den Datenkorpus aufgenommen habe und irrelevante Treffer beim ersten
Kodierdurchgang aussortiert habe.
Der institutionelle Diskurs umfasst die Agenden der politischen Orga-
ne, d. h. der internationalen Organisationen, deren Personal und der dort
aktiven staatlichen Vertreter (Staats- und Regierungschefs, Außenminis-
ter, Botschafter etc). Wo der für diese Studie relevante internationale
institutionelle Diskurs stattgefunden hat, kann auf Basis bestehender
Forschung zu Waffeneinsatzverboten gut lokalisiert werden. Eine wichti-
ge Plattform waren die Vereinten Nationen und hier vor allem die Gene-
ralversammlung mit ihren Unterausschüssen. Eine weitere wichtige Platt-
form ist das Internationale Komitee vom Roten Kreuz, welches das The-
ma der Waffeneinsatzverbote schon seit den 1950ern auf der Agenda
hatte und in den 1970ern verschiedene Expertentreffen und Konferenzen
abhielt. Die dritte Quelle ist die UN-Konferenz zur Konvention über be-
sondere konventionelle Waffen in den Jahren 1978-1980 (United Nations
Conference on Prohibitions or Restrictions of Use of Certain Conventio-
nal Weapons Which May be Deemed to be Excessively Injurious or to
Have Indiscriminate Effects, UNCCW), sowie dazugehörige Überprü-
fungskonferenzen in den Jahren 1995/1996, 2001 und 2006 sowie jährli-
che Treffen der Vertragsparteien, die es erst seit 2002 gab. Die vierte
Quelle ist der in den Jahren 2007 und 2008 durchgeführte Oslo-Prozess.
Den Datenkorpus für den institutionellen Diskurs habe ich aus Sit-
zungs- und Konferenzdokumentationen der relevanten Organe zusam-
mengestellt. Sie enthalten die Sitzungsagenden, Sitzungs- bzw. Verhand-
lungsprotokolle sowie staatliche Stellungnahmen und in Verhandlungen
eingebrachte Positionspapiere. Ich habe die Materialauswahl auf Wort-
protokolle und zusammenfassende Protokolle eingeschränkt, da für mich
Verhandlungs- und Deliberationsprozesse relevant waren. Andere Doku-

rere Bezeichnungen gibt: „cluster bomb/bombs“, „cluster munition/munitions“,


„cluster weapon/weapons“, „fragmentation bomb/bombs”.

256 Das Modell im Test

mente (wie Reports, Resolutionen oder Arbeitspapiere) habe ich nach


Notwendigkeit gesichtet, aber nicht kodiert.
Da sich die digitalen Suchmaschinen der UN insbesondere für den
ersten Untersuchungszeitraum als unzuverlässig erwiesen, habe ich in
UN-Archiven130 alle Tagesordnungen der Generalversammlung und ihrer
Ausschüsse durchgesehen, und dabei alle Protokolle ins Sample aufge-
nommen, in denen potentiell Aussagen zu den relevanten Themen ent-
halten waren. Die Dokumente habe ich entweder digital aus dem Archiv
der Generalversammlung oder dem Online-Abrüstungsarchiv der Verein-
ten Nationen131 heruntergeladen, oder, wenn nicht vorhanden, in UN-
Archiven eingescannt. Die gesamte Dokumentation der UNCCW aus den
Jahren 1978-1980 habe ich eingescannt; die Dokumente seit 1996 sind
digital verfügbar. Die vollständige Dokumentation der Rot-Kreuz-
Verhandlungen ist im Online-Archiv der US Library of Congress enthal-
ten.132 Die Dokumentation des Oslo-Prozesses ist nicht vollständig, aber
in großen Teilen digital verfügbar.133 Mittels digitaler Suche habe ich
schließlich diejenigen Protokolle, in denen die Suchstichwörter tatsäch-
lich vorkamen, identifiziert.134 Auch der institutionelle Diskurs wurde
voll erhoben, d. h. dass alle relevanten Protokolle – sofern in irgendeiner
Form zugänglich – systematisch analysiert wurden.
Den Beginn des gesamten Analysezeitraumes habe ich auf den 1. Ja-
nuar 1945, dessen Ende auf den 30. Mai 2008 gelegt. Der Anfangszeit-
punkt wurde ausgewählt, um erstens die letzten Monate des Zweiten

130
Anlaufstellen waren das UN-Archiv in der Hessischen Stiftung Friedens- und
Konfliktforschung sowie die UN-Depositarbibliotheken im UN-Hauptquartier in
Genf und im Max-Planck-Institut für ausländisches öffentliches Recht und Völ-
kerrecht in Heidelberg.
131
https://www.un.org/disarmament/publications/library/, 1.11.2018.
132
http://www.loc.gov/rr/frd/Military_Law/Geneva-Conventions_materials.html,
1.11.2018.
133
http://www.clusterconvention.org/documents-and-resources/documents-from-
the-process-on-cluster-munitions/, 1.11.2018.
134
Im Unterschied zur Suche in den Medien, die ich für den Fall Napalm lediglich
mit dem Stichwort „napalm“ durchgeführt habe, habe ich im institutionellen
Diskurs auch Dokumente einbezogen, die das Stichwort „incendiary“ aufwiesen,
weil deutlich wurde, dass häufig von Brandwaffen (=incendiary weapons) gespro-
chen wurde, wenn Napalm gemeint war. Nach Dokumenten zu Streumunition
habe ich mit den Suchbegriffen „cluster“ und „fragm“ gesucht.
Datenmaterial und Untersuchungszeiträume 257

Weltkrieges abzudecken, in denen Napalm und Streumunition massiv


eingesetzt wurden. Zweitens trage ich damit der Tatsache Rechnung, dass
die Formalisierung des humanitären Völkerrechts in den Jahrzehnten
nach dem Zweiten Weltkrieg stattgefunden hat (Dill 2015: 4-5). Der ins-
gesamt knapp 63,5 Jahre umfassende Analysezeitraum ist in drei Zeit-
räume unterteilt: Der erste Zeitraum (p1) geht vom 1. Januar 1945 bis 10.
Oktober 1980, dem Datum der Verabschiedung der Konvention über
besondere konventionelle Waffen, welches die Entstehung der Anti-
Napalmnorm und die Nicht-Entstehung der Anti-Streumunitionsnorm
markiert. Der zweite Zeitraum p2 geht vom 11. Oktober 1980 bis zum 18.
September 1997, dem Datum der Verabschiedung des Landminenverbots,
welches die Entstehung der Anti-Landminennorm und die zweite Nicht-
Entstehung der Anti-Streumunitionsnorm markiert. Der dritte Untersu-
chungszeitraum geht vom 19. September 1997 und endet am 30. Mai
2008, dem Datum der Verabschiedung der Konvention über Streumuni-
tion, welches die Entstehung der Anti-Streumunitionsnorm markiert.
Insgesamt basiert die Studie auf einem endgültigen Sample aus 4392
Dokumenten. Während genaue Aufschlüsselungen jeweils vor den em-
pirischen Kapiteln sowie im Datenanhang auf ExtrasOnline zu finden
sind, seien hier ein paar allgemeine Kennzahlen genannt: 4072 (92,7 %)
dieser Dokumente gehören zum öffentlichen Diskurs und 320 (7,3 %)
zum institutionellen Diskurs; im öffentlichen Diskurs entstammen
2496 Dokumente der New York Times und 1576 dem Guardian; im insti-
tutionellen Diskurs sind 144 Dokumente der Generalversammlung, 67
aus den Rot-Kreuz-Prozessen, 86 aus der UNCCW und 23 aus dem Oslo-
Prozess enthalten. Für die Querschnittsfallstudie Napalm/Streumuni-
tion wurden 3138, für die Längsschnittfallstudie Streumunition 1669
Dokumente herangezogen.135

135
Die Summe der Dokumente aus beiden Fallstudien übersteigt die Gesamtsumme,
weil die Dokumente zu Streumunition aus dem ersten Analysezeitraum in beiden
Fallstudien ausgewertet und daher auch eingerechnet wurden. In den genannten
Zahlen nicht berücksichtigt sind die Dokumente zum Fall Landminen, da hier die
Erhebung nur zu Plausibilitätszwecken und nicht in der gleichen Detailliertheit
und Systematik durchgeführt wurde.

258 Das Modell im Test

Zusammenfassung und Ausblick auf die Prozessanalysen


In diesem Kapitel habe ich die empirische Analyse in drei Schritten vor-
bereitet: Ich habe erstens das Modell operationalisiert, d. h. für die bei-
den zu testenden Mechanismen Beobachtungen formuliert, die deren
Vorliegen indizieren würden. Zweitens habe ich den methodischen Zu-
griff dargelegt, der diese Beobachtungen ermöglichen soll und drittens,
das Material und die Untersuchungszeiträume, an dem bzw. in denen
diese Beobachtungen gemacht werden sollen, ausgewählt. Als wichtigste
Methode habe ich die Inhaltsanalyse vorgestellt und zugleich aufgezeigt,
wie sie durch die Rahmen- und die Diskursanalyse in meinem Projekt –
vor allem bei der Interpretation, aber auch schon bei der Generierung des
Kodierschemas – sinnvoll ergänzt wird.
Nach dieser Aufbauarbeit erfolgen nun in den nächsten beiden Kapi-
teln die Prozessanalysen selbst. Dort werden die Ergebnisse, die die hier
geschilderte Vorgehensweise aus dem empirischen Material gefördert hat,
vorgestellt und zum Modell der permissiven Effekte in Beziehung gesetzt.

8 Streumunition vs. Napalm:


Prozessanalyse der Nicht-Entstehung der
Streumunitionsnorm in den 1970er Jahren

Hat die entstehende Norm gegen Napalm permissive Effekte auf die
Norm gegen Streumunition ausgeübt und deren Entstehung verhindert?
In diesem Kapitel überprüfe ich in einer Querschnittsfallstudie, ob sich
die beiden Mechanismen – der Mechanismus der Blockade und der Me-
chanismus der Ex-Negativo-Legitimierung – empirisch entdecken lassen.
Zunächst führe ich auf Basis von Sekundärliteratur in den Fall Napalm
ein, in dem ich einen Konkurrenten der Streumunitionsnorm vermute.
Nach einem Überblick über den Datenkorpus stelle ich den erwarteten
Evidenzen für beide Mechanismen die tatsächlichen Ausprägungen der
Indikatoren in den Fällen Napalm und Streumunition im Untersu-
chungszeitraum p1 (1.1.1945-10.10.1980) gegenüber. Zum Schluss rekon-
struiere ich auf Basis der Datengrundlage den Nicht-Entstehungsprozess
der Streumunitionsnorm im Lichte der beiden Mechanismen und unter
Verwendung des von mir entwickelten Normentstehungsmodells.

Die Konkurrenz im Porträt: Napalm


Die Auseinandersetzung mit dem Fall „Napalm“ geschieht mit dem Ziel,
die Interpretation der empirischen Ergebnisse zu erleichtern wie auch die
Auswahl des relevanten Untersuchungsmaterials zu begründen – vor
allem in Bezug auf die institutionellen Foren, in denen die Norm aufge-
baut, verhandelt und schließlich verabschiedet wurde. In diesem Ab-
schnitt umreiße ich zunächst die materiellen Grundlagen der Norm und

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
E. Rosert, Die Nicht-Entstehung internationaler Normen, Studien des
Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung,
https://doi.org/10.1007/978-3-658-25042-3_8

260 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

schildere die Wirkungsweise dieser Waffen, deren Einsatzzwecke und die


Einsatzgeschichte – der Schwerpunkt liegt auf dem Vietnamkonflikt, zu
dessen Symbol Napalm wurde. Anschließend werden die durch Brand-
waffen verursachten humanitären Probleme offengelegt und humanitär-
völkerrechtlich eingeordnet. Schließlich liegt der Fokus auf den Bestim-
mungen und dem Entstehungsprozess der Anti-Napalmnorm.

Napalm im Krieg: Technologie, militärischer Zweck und


Einsatzgeschichte
Anders als bei Streumunition, die für eine ganze Waffenkategorie steht,
handelt es sich bei Napalm um einen spezifischen Waffentyp innerhalb
der Kategorie Brandwaffen. Nimmt man die Funktionsweise von Waffen
als Grundlage der Klassifizierung, kann man Brandwaffen wiederum als
Unterkategorie von Chemiewaffen ansehen, da ihre Wirkung durch
chemische Substanzen ausgelöst wird (Kier/Mercer 1996: 95). Orientiert
man sich allerdings an den Definitionen der entsprechenden Verträge,
welche die (beabsichtigten) Effekte der jeweiligen Waffen zur Grundlage
haben, kann man Brandwaffen als eigene Kategorie betrachten: Brand-
waffen dienen in erster Linie dazu, Feuer und Verbrennungen zu erzeu-
gen,136 während Chemiewaffen dazu dienen, eine toxische Wirkung
zu erzeugen.137
Napalm ist ein Brandmittel, welches in unterschiedliche Behälter (et-
wa Bomben, Granaten oder Flammenwerfer) gefüllt werden kann. Bei der
Verwendung in Flammenwerfern wird Napalm beim Austritt, bei der
Verwendung in Bomben beim Aufprall entzündet; aus beiden schießt die
brennende Substanz mit Druck hinaus (Mountcastle 1999: 110). Ihre
Besonderheit liegt im Aggregatszustand: Anders als die festen Brennstoffe
wie Magnesium oder Thermit, die in früher entwickelten und eingesetz-
ten Brandwaffen enthalten waren (Parks 1990: 543-544), ist Napalm ein
flüssiger bzw. gelartiger Brennstoff. Weil es ein Gel ist, hat es verschiede-
ne Eigenschaften, die es aus militärischer Sicht attraktiv machen: Es lässt

136
Protokoll III der Konvention über besondere konventionelle Waffen, Art. 1.
137
Chemiewaffenübereinkommen, Art. 2 (1a) und (1b).
Die Konkurrenz im Porträt: Napalm 261

sich besser verteilen und hat dadurch eine höhere Reichweite; es haftet
an verschiedenen Oberflächen und lässt sich dadurch schwerer entfer-
nen; es ist leicht entzündlich, und brennt zugleich langsamer, länger und
heißer – bis zu 1200 Grad Celsius (Mountcastle 1999: 81, Chong 1999:
89). Die Bezeichnung Napalm leitete der Entwickler der Waffe, Louis F.
Fieser, aus den chemischen Substanzen Aluminium Napthenat und Alu-
minium Palmitat ab. Obwohl Fieser später klarstellte, dass der Name in-
akkurat ist, weil der für die Wirkung wesentliche Inhaltsstoff Laurinsäure
und nicht Palmitat sei, hat sich „Napalm“ dennoch als allgemeine Be-
zeichnung für alle zähflüssigen ölbasierten Substanzen eingebürgert
(Parks 1990: 544, Neer 2013: 33).
Das Mittel selbst wurde während des Zweiten Weltkrieges entwickelt,
doch Vorläufer Napalms und anderer moderner Brandwaffen finden sich
bereits in der Vorantike, wo Feuer als Kriegswaffe, z. B. zur Verbrennung
von Erntefeldern, eingesetzt wurde.138 Später schoss man mit flammen-
den Pfeilen, kippte bzw. katapultierte brennendes Öl auf die Angreifer
und nutzte das sogenannte griechische Feuer – Druckbehälter, die bren-
nende Substanzen sogar über eine gewisse Reichweite beförderten und
damit als eine Art vormoderner Flammenwerfer gelten können. Im Ersten
Weltkrieg nutzten zunächst die Deutschen, später auch die Briten und
die Franzosen erstmals in größerem Maße tragbare Flammenwerfer, die
mit brennendem Benzin etwa 30 Meter weit schossen. Aus Zeppelinen
wurden erste Brandbomben auf englische Städte abgeworfen.
In der Zwischenkriegszeit schritt mit dem Ausbau der Fähigkeiten zur
Luftkriegsführung auch die Brandbombenforschung in Europa und den
USA voran. In den dreißiger Jahren wurden mehrfach Brandbomben
eingesetzt: von Italien gegen Äthiopien, von Deutschland gegen die spa-
nische Stadt Guernica und von Japan gegen Shanghai. Im Zweiten Welt-
krieg kündigte sich früh eine Ausweitung des Luftkrieges, insbesondere
des Luftkrieges mit Brandwaffen, an, als die Deutschen verheerende An-
griffe mit magnesiumbasierten Brandbomben auf britische Städte flo-

138
Der Abschnitt basiert auf Parks 1990: 535-536, Jutzi 1997: 15-17, Mountcastle
1999: 1-33, Neer 2013: 17-25.

262 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

gen.139 Zur Vergeltung griff 1941 die britische Royal Air Force Städte in
Deutschland mit Brandbomben an; seit 1942 bombardierten die USA
damit japanische Städte und Industriezentren.
Die USA bauten die Brandbombenforschung weiter aus. An der Har-
vard-Universität begann das „Anonymous Research Project No. 4“ unter
der Leitung des Chemieprofessors Louis F. Fieser – hier wurde Anfang des
Jahres 1942 Napalm entwickelt. Das Brandmittel wurde zunächst von US-
amerikanischen Truppen in Flammenwerfern eingesetzt: erstmals im
Sommer 1943 gegen deutsche Streitkräfte in Italien und ein halbes Jahr
später gegen japanische Streitkräfte in der Nähe von Papua-Neuguinea.
Nachdem die Nützlichkeit des neuen Kampfstoffes für die Luftkriegsfüh-
rung erfolgreich an Nachbauten japanischer und deutscher Häuser getes-
tet worden war, warf die US-Luftwaffe im Oktober 1943 zum ersten Mal
Napalmbomben im Kampf ab – sie trafen die deutsche Flugzeugfabrik
in Marienburg.
An der pazifischen Front wurden die Waffen im Februar 1944 bei der
Bombardierung der von Japanern besetzten mikronesischen Stadt Pohn-
pei eingesetzt. Von da an nahmen die Einsätze von Napalm massiv zu.
Zunächst wurde es vor allem gegen Truppen und Industrie eingesetzt,
doch im Jahr 1945 begannen auch sogenannte strategische Flächenbom-
bardements deutscher, und insbesondere japanischer Städte mit Napalm.
So kam es in Japan im März zu verheerenden Großangriffen auf u. a.
Tokio, Osaka und Nagoya mit Hunderttausenden von Toten. Die im Au-
gust 1945 auf Hiroshima und Nagasaki abgeworfenen Atombomben er-
regten zwar deutlich mehr Aufsehen und werden von vielen als der
Grund für die Kapitulation Japans angesehen – doch sie trafen ein Land,
das bereits zuvor durch den monatelangen Feuerkrieg mit Napalm demo-
ralisiert und zerstört war: „The Bomb got the press, but napalm did the
work” (Neer 2013: 86).
Nach einem kurzen, auf Großbritannien beschränkten Aufschrei wäh-
rend des Koreakrieges, zog die massive Nutzung von Napalm im Viet-
namkrieg dauerhaft die Aufmerksamkeit der Medien auf sich. Die US-
Beteiligung an diesem Konflikt lässt sich etwa auf 1960-1973 datieren,

139
Der Abschnitt basiert auf Mountcastle 1999: 34-118, Neer 2013: 29-86.
Die Konkurrenz im Porträt: Napalm 263

doch die Konfliktgeschichte umfasst mehrere Jahrhunderte französischer


Kolonialbesatzung mit damit einhergehendem innerstaatlichen Konflikt.
Nach dem Zweiten Weltkrieg begann der als Indochinakrieg bezeichnete
Krieg der Franzosen gegen die Vietminh-Einheiten, die für die Unabhän-
gigkeit des Landes kämpften; in diesem Krieg trafen auch die ersten –
französischen – Napalmbomben Vietnam (Karnow 1997: 139-175, Neer
2013: 106).
Die im Jahr 1954 geschlossenen Genfer Abkommen (Geneva Accords)
besiegelten nicht nur einen Waffenstillstand, sondern legten auch den
Grundstein für die Fortsetzung des Konflikts, denn sie schrieben die – als
vorübergehend geplante – Teilung des Landes in einen Süd- und einen
Nordteil fest (Karnow 1997: 229). Die Gewalt ging in beiden Landesteilen
weiter: In der von Ho Chi Minh regierten kommunistischen Demokrati-
schen Republik Vietnam im Norden wurden Tausende Bauern und Land-
besitzer im Zuge der Landreform getötet und in Arbeitslagern interniert;
in der von Ngo Dinh Diem regierten Republik Vietnam im Süden ging
die Regierung gewaltsam gegen politische Gegner und deren (potentielle)
kommunistische Unterstützer vor (Karnow 1997: 240-243). Im Dezember
1960 gab die nordvietnamesische Regierung die Gründung einer neuen
Widerstandsbewegung, der Nationalen Befreiungsfront, im Süden be-
kannt. Diese Bewegung wurde von der südvietnamesischen Regierung als
Vietcong – Vietnamese Communists – bezeichnet und fortan bekämpft
(Karnow 1997: 245-255).
Die Vereinigten Staaten, die bereits Frankreich im Indochinakrieg
massiv unterstützt hatten, leisteten nun auch Militärhilfe an die südviet-
namesische Regierung in Form von militärischem Personal („Berater und
Ausbilder“) und Ausrüstung. Den Einsatz eigener Kampftruppen leugne-
ten sie allerdings bis 1965 (Karnow 1997: 264-276, Turse 2013: 8). Na-
palm war schon in den ersten Jahren dieses Krieges zur Hauptwaffe ge-
worden: 1962 hatten südvietnamesische Piloten erstmals US-
amerikanisches Napalm in einem Putschversuch gegen Diem verwendet;
seit 1963 führten die US- und die südvietnamesische Luftwaffe kontinu-
ierlich Angriffe mit Napalmbomben gegen die Vietcong durch, und seit
1965 auch gegen Ziele in Nordvietnam (Neer 2013: 109-111). Obwohl
sich früh abzeichnete, dass es für einen Luftkrieg weder nützliche Bom-

264 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

bardierungsziele gab noch eine klare Frontlinie oder die Sicherheit, wer
Freund oder Feind war, wurde Napalm bis zum Truppenrückzug der USA
im Jahr 1973 weiterhin aus der Luft eingesetzt (Karnow 1997: 28, 34,
Neer 2013: 113).
Napalm wurde nicht nur im Vietnamkrieg eingesetzt, sondern davor,
währenddessen und danach auch in einigen weiteren (zwischen- wie
innerstaatlichen) Konflikten: von der griechischen Armee 1949 gegen
kommunistische Kämpfer; von UN-Truppen Anfang der 1950er Jahre im
Koreakrieg gegen nordkoreanische und chinesische Truppen wie auch für
strategische Städtebombardements; von Israel und den europäischen
Verbündeten gegen Ägypten im Suez-Konflikt; von Frankreich in Tunesi-
en und Algerien; mehrfach von Israel allein gegen Ägypten, Syrien und
Libanon, aber auch von Ägypten im jemenitischen Bürgerkrieg; von der
türkischen Armee im Zypernkonflikt; von Portugal gegen mehrere afrika-
nische Länder in Dekolonialisierungskonflikten; vom Irak gegen die Kur-
den und von Brasilien gegen maoistische Kämpfer (Neer 2013: 87-108).
Auch die Verabschiedung des Brandwaffenprotokolls im Jahr 1980 be-
deutete nicht das Ende Napalms als Kampfwaffe – die UdSSR setzte Na-
palmbomben im Afghanistan-Krieg wie auch zusammen mit Kuba im
Angola-Konflikt ein; Äthiopien gegen eritreische und somalische Kämp-
fer; Thailand gegen die Vietnamesen in Kambodscha; die elsalvadoriani-
sche Armee im Bürgerkrieg; die USA im Ersten Golfkrieg und im Irakkrieg
und die serbische Armee im Jugoslawienkrieg (Neer 2013: 193-197). Im
derzeitigen Syrienkrieg wurde der syrischen Regierung und Russland vor-
geworfen, napalmähnliche Brandwaffen eingesetzt zu haben.140

Humanitäre Probleme: Napalm und seine Opfer


Die Entwicklung von Napalm war mit der Erwartung verbunden, damit
gegen feuerresistente und harte Ziele (wie gepanzerte Fahrzeuge oder
Bunker) vorgehen zu können, doch schnell wurde klar, dass das Brand-
mittel gegen diese nichts ausrichten kann. Dafür erwies es sich jedoch als

140
https://www.hrw.org/news/2017/11/20/overdue-review-addressing-incendiary-
weapons-contemporary-context, 1.11.2018.
Die Konkurrenz im Porträt: Napalm 265

besonders wirksam gegen sogenannte weiche Ziele, z. B. gegen leicht


entflammbare Materialen wie Holz und damit etwa gegen japanische
Städte im Zweiten Weltkrieg – und vor allem gegen Menschen (Mountca-
stle 1999: 30, 81, Neer 2013: 103). Ebendiese Anti-Personen-Wirkung
macht Napalm für das Militär besonders attraktiv und begründet zugleich
seine besondere Grausamkeit: Napalm verursacht schwerste Verbrennun-
gen bzw. Verbrühungen.
Brandwunden zählen ohnehin zu den schlimmsten Verletzungsarten,
doch Brandwunden durch Napalm gelten als besonders schwer und füh-
ren zu hohen Sterberaten. Die Überlebenschancen von Verbrennungsop-
fern hängen erstens von der Schwere der Verbrennung, zweitens von der
Größe der betroffenen Fläche und drittens von den Behandlungsmög-
lichkeiten ab. Napalm haftet an Flächen, lässt sich kaum entfernen und
dringt immer weiter in die Haut ein, weil es als flüssiger, alkalischer Stoff
mit den Hautfetten reagiert. Es schwelt im Körper weiter und verursacht
durch die lange Kontaktzeit mit dem Gewebe Verbrennungen dritten
Grades (von drei). Dies bedeutet, dass nicht nur alle Hautschichten und
damit auch die Nervenenden, sondern auch Gewebe, Knochen, Sehnen
und Muskeln beschädigt werden (Gauglitz et al. 2009: 6, Chong 1999: 89).
Sind mehr als 20 % der Hautoberfläche von einer Verbrennung betrof-
fen, kann dies auch systemisch auf den Körper wirken, d. h. einen soge-
nannten kardiovaskulären Schock auslösen, womit ein Versagen der
Herz- und Gefäßfunktionen und dadurch auch anderer innerer Organe
gemeint ist (Gauglitz et al. 2009: 9). Napalm verursacht in der Regel sol-
che großflächigen Verbrennungen, da die Opfer direkt und von hohen
Mengen des Stoffes getroffen werden (Chong 1999: 89, Neer 2013: 133).
Die Verletzungen müssen so schnell wie möglich, spätestens jedoch in-
nerhalb von 72 Stunden medizinisch behandelt werden und zwar in Kli-
niken, die auf Brandopfer spezialisiert sind, weil in normalen Kranken-
häusern in der Regel das Fachpersonal und die nötige Ausstattung fehlt
(Chong 1999: 99). Doch in Entwicklungsländern, den Haupteinsatzorten
von Napalm, ist schon die Dichte an Ärzten und einfachen Krankenhäu-
sern gering – entsprechende Spezialkliniken sind umso seltener vorhan-

266 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

den.141 Aus diesen Faktoren erklären sich die hohen Sterblichkeitsraten


durch Napalm: Etwa ein Drittel der Opfer stirbt in den ersten Minuten
nach dem Angriff, ein weiteres Drittel infolge der Verletzungen. Den
Überlebenden steht ein langer und besonders schmerzhafter Heilungs-
prozess und danach häufig ein Leben mit schmerzenden Narben und
Entstellungen bevor (Turse 2013: 83).
Die häufig dokumentierte tiefsitzende Angst der Menschen vor Feuer
bzw. vor Brandwaffen erklärt sich aus der Natur von Verbrennungswun-
den – und auch aus der Tatsache, dass die meisten Menschen im Laufe
ihres Lebens zumindest leichte Verbrennungen erleiden und daher wis-
sen, welche Schmerzen bereits mit diesen verbunden sind (Mountcastle
1999: 1, Neer 2013: 16). Brandwaffen sollten daher schon immer nicht
nur materiell durch Zerstörung, sondern auch psychologisch durch Panik
und Demoralisierung wirken (Jutzi 1997: 17, Mountcastle 1999: 2). Selbst
die als besonders widerstandsfähig porträtierten Nordkoreaner und Viet-
cong-Kämpfer wurden davon in Panik versetzt und ihr Widerstandswille
brach: „People have this thing about being burned to death“, wird ein
US-Pilot zitiert (Neer 2013: 111).
Dazu, wieviele Menschen Napalmwaffen in Konflikten bisher zum
Opfer gefallen sind, gibt es keine verlässlichen Angaben – weil über die
Konfliktopfer insgesamt keine Zahlen vorliegen, weil die Opfer einzelner
Angriffe gar nicht erfasst wurden, weil nur militärische Opfer gezählt
wurden oder weil die Waffen häufig in Kombination mit anderen Waffen
eingesetzt wurden, sodass es nicht möglich war, einzelne Opfer einzelnen
Waffen zuzurechnen. Die Zahl der Opfer kann daher bestenfalls vorsich-
tig geschätzt werden und zwar auf Basis der abgeworfenen Napalmmen-
gen und der Gesamtopferzahlen derjenigen Konflikte bzw. Konfliktzeit-
räume, in denen es zu massiven Einsätzen von Napalm kam: Direkt und
ziemlich sicher Napalm zugerechnet können 300.000 bis 400.000 Todes-

141
Dies traf beispielsweise auf Vietnam zu, wo es während des Krieges genau eine
Klinik für plastische Chirurgie und rekonstruktive Medizin gab, die von einer US-
amerikanischen Stiftung gegründet wurde und in der US-Spezialisten arbeiteten.
Sie nahm nur Kinder an, etwa 1.000 pro Jahr, wobei es Schätzungen zufolge etwa
100.000 kriegsversehrte Kinder gab, die eine entsprechende Behandlung ge-
braucht hätten (Chong 1999: 84-88).
Die Konkurrenz im Porträt: Napalm 267

opfer der Bombardements japanischer Städte im letzten halben Jahr des


Zweiten Weltkrieges.142 Im Koreakrieg lagen die Mengen der eingesetzten
Napalmbomben um ein Vierfaches höher und waren in großen Teilen
ebenso gegen Städte gerichtet, sodass wir davon ausgehen können, dass
Napalm mehrere Hunderttausend der insgesamt drei Millionen Todesop-
fer des Koreakrieges verursachte. Im Vietnamkrieg war die eingesetzte
Menge mehr als doppelt so hoch wie im Luftkrieg gegen Japan, und auch
wenn es keine Großangriffe auf Städte gab, sind auch in diesem Krieg
vermutlich mindestens Hunderttausende der insgesamt über 4 Millionen
Todesopfer Napalm zum Opfer gefallen.143 Nimmt man allein diese Zah-
len, ohne weitere Konflikte zu berücksichtigen, liegt die Zahl der Todes-
opfer durch Napalm vermutlich nahe an einer Million.

Napalm aus humanitärvölkerrechtlicher Perspektive


Für die humanitärvölkerrechtliche Einschätzung von Napalm sind die in
Kapitel 2 vorgestellten Grundprinzipien des HuV maßgeblich: das Verbot
unnötigen Leides und die Gebote der Diskriminierung und der Verhält-
nismäßigkeit. Dass sich Napalmwaffen als Waffen klassifizieren lassen,
die gegen das Verbot unnötigen Leides verstoßen, ergibt sich aus den
Schilderungen des vorherigen Abschnitts: Die Opfer erleiden grausame
und mehrheitlich tödliche Brandverletzungen; für die Überlebenden ist
die Heilung langwierig und besonders schmerzhaft und sie müssen für
den Rest ihres Lebens mit irreversiblen Folgeschäden in Form von starker
Vernarbung, Entstellung und Schmerzen kämpfen; schließlich ist die
medizinische Versorgung von solch schweren Brandverletzungen unter
Kampfbedingungen, besonders in Entwicklungsländern, nicht oder nur
sehr eingeschränkt möglich.
Mit Blick auf das Diskriminierungsgebot ist auch in diesem Fall zwi-
schen der grundsätzlichen Diskriminierungsfähigkeit von Waffen und

142
Eine Übersicht verschiedener Schätzungen mit Verweisen zu den jeweiligen Quel-
len findet sich auf http://de.wikipedia.org/wiki/Luftangriffe_auf_Japan,
1.11.2018.
143
http://www.globalsecurity.org/military/systems/munitions/napalm-war.htm,
http://necrometrics.com/20c1m.htm, 1.11.2018.

268 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

der üblichen Einsatzweise zu unterscheiden (Neer 2013: 187): Zwar ist es


grundsätzlich möglich, Napalmbomben (oder Flammenwerfer) aus-
schließlich gegen militärische Ziele einzusetzen, doch zwei Punkte
schränken die Diskriminierungsfähigkeit dieser Waffen erheblich ein.
Erstens wirkt Napalm nicht punktzielgenau, sondern trifft Flächen und
nicht vorhergesehene Ziele, wenn es vergossen wird oder beim Aufprall
des Containers in brennenden Gelklumpen hinausschießt (Neer 2013:
35). Zweitens lässt sich die Ausbreitung von Feuer nur schwer kontrollie-
ren. Die Einsatzgeschichte von Napalm zeigt, dass der Stoff am stärksten
in der Luftkriegsführung eingesetzt wurde und zwar mitnichten aus-
schließlich gegen militärische Ziele. Im Gegenteil: Die Waffen trafen
entweder gezielt oder als Kollateralschaden immer auch zivile Ziele –
schließlich ist Napalm gerade gegen solche ungeschützten Ziele am wirk-
samsten (Blix 1974: 26-27). Durch die Gefahr des Ausbreitens von Feuer
nach dem Einsatz, die Flächenwirkung beim Einsatz sowie durch die üb-
liche nicht-diskriminierende Einsatzweise lassen sich Napalmwaffen also
als nicht-diskriminierende Waffen klassifizieren.

Völkerrechtliche Während des Angriffs Nach dem Angriff


Prinzipien

Unnötiges Leid schwere Brandverletzungen fehlende medizinische Ver-


hohe Sterberaten sorgung
schmerzhafter Heilungspro-
zess
bleibende Schäden (Narben,
Entstellung)

Diskriminierung Kollateralschäden aufgrund der Kollateralschäden durch


Flächenwirkung Ausbreitung des Feuers
Angriffe auf zivile Ziele

Verhältnismäßigkeit Kollateralschäden großflächige und restlose


Zerstörung
Umweltschäden (Entwaldung)

Tabelle 27: Napalm und die Prinzipien des HuV


Die Konkurrenz im Porträt: Napalm 269

Aus den Verstößen gegen die beiden genannten Prinzipien folgt bereits,
dass die Einsätze von Napalm in der Regel nicht als verhältnismäßig ein-
gestuft werden können. Zwei weitere Gründe unterstreichen die Unver-
hältnismäßigkeit dieses Kampfmittels: Erstens zerstört Napalm aufgrund
der hohen Brenntemperaturen restlos, und aufgrund der entfachten Feuer
großflächig (Prokosch 1995: 126, Neer 2013: 44). Zweitens sind Napalm-
waffen umweltschädlich: Zwar wird mit der Umweltkriegsführung in
Vietnam mehrheitlich das dioxinhaltige Herbizid Agent Orange (Martin
2016) und nicht Napalm assoziiert, doch auch Napalm wurde zur Ver-
brennung von Erntefeldern und zur Entwaldung genutzt, was für die
Umwelt des Landes zum Teil irreversible Schäden, mindestens aber eine
jahrzehntelange Wiederherstellungszeit bedeutete (Jones Griffiths 2003:
17, Turse 2013: 95).

Die Norm gegen Napalm in der Konvention über besondere


konventionelle Waffen und danach

Die rechtlichen und sozialen Norminhalte


Das rechtliche Fundament der Norm gegen Napalm ist das Dritte Proto-
koll der Konvention über besondere konventionelle Waffen.144 Anders als
bei Landminen und Streumunition trägt diese Rechtsnorm nicht Napalm
im Titel, sondern Protokoll III reguliert Brandwaffen als Kategorie ohne
einzelne Typen zu benennen. Da jedoch Napalm in diese Kategorie fällt
und zudem diejenige Brandwaffe war, die den Anlass zur Verregelung
gab, setze ich die Rechtsnorm gegen Brandwaffen mit der Rechtsnorm
gegen Napalm gleich. Damit markiert die Verabschiedung des Brandwaf-
fenprotokolls den Entstehungszeitpunkt der rechtlichen Norm gegen Na-
palm – doch im Einklang mit dem konstruktivistischen Normverständnis
argumentiere ich im Folgenden, dass die soziale Norm gegen Napalm
mehr umfasst als den verrechtlichten Inhalt.

144
Protocol on Prohibitions or Restrictions on the Use of Incendiary Weapons.

270 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

Art. 2 (1) des Protokolls verbietet den Einsatz von Brandwaffen gegen
die Zivilbevölkerung, einzelne Zivilisten oder zivile Objekte; Art. 2 (2)
verbietet den Einsatz von Brandwaffen aus der Luft gegen militärische
Objekte, die sich in einer Konzentration von Zivilisten befinden, wobei
als solche Konzentrationen Wohngebiete in Städten oder Dörfern,
Flüchtlingslager oder Flüchtlingsgruppen definiert werden; Art. 2 (3)
verbietet auch den Einsatz von nicht luftbeförderten Brandwaffen gegen
militärische Objekte in zivilen Konzentrationen – ausgenommen sind
solche militärischen Objekte, die von den zivilen klar getrennt und mit
entsprechenden Vorsichtsmaßnahmen erreicht werden können ohne die
Zivilisten zu gefährden; Art. 2 (4) verbietet den Einsatz von Brandwaffen
gegen Wälder und andere flächendeckende Bepflanzungen, sofern diese
nicht der Tarnung von militärischen Zielen dienen oder selbst ein militä-
risches Ziel darstellen. In Art. 1 wird zudem der Geltungsbereich be-
grenzt: Als Brandwaffen definiert das Protokoll nur solche Waffen, die
dazu bestimmt sind, Verbrennungen durch Hitze, Flammen oder beides
hinzuzufügen. Ausgenommen sind damit solche Waffen, die nur als Ne-
beneffekt Verbrennungen oder Brände erzeugen könnten (wie Leuchtra-
keten) oder bei denen die Brandwirkung zwar in Kombination mit ande-
ren Wirkungen auftreten kann, jedoch nicht die primär beabsichtigte
Wirkung darstellt (wie hochexplosive Bomben).145
Die Inhalte der Rechtsnorm sind als schwach zu beurteilen. Obwohl
Brandwaffen im Allgemeinen und Napalmwaffen im Besonderen mit
humanitärvölkerrechtlichen Prinzipien unvereinbar sind, erklärt das Pro-
tokoll sie nicht per se für völkerrechtswidrig, sondern verbietet lediglich
bestimmte Einsatzarten – statt eines Einsatzverbotes oder gar eines voll-
ständigen Verbotes (welches etwa auch Entwicklung, Lagerung und Han-
del umfassen würde) liegt lediglich eine Einsatzbeschränkung vor (Bring
1987: 277). Im Einklang mit diesen Vorschriften dürfen Brandwaffen
folglich weiterhin eingesetzt werden. Auch gehen die Bestimmungen
nicht oder kaum über bereits geltendes Völkerrecht hinaus, sondern be-
kräftigen bloß anerkannte Prinzipien (Kalshoven 1987: 157). Dies gilt vor
allem für drei Normen, die bereits in das Erste Zusatzprotokoll zu den

145
http://disarmament.un.org/treaties/t/ccwc_p3/text, 1.11.2018.
Die Konkurrenz im Porträt: Napalm 271

Genfer Konventionen eingeflossen waren: das Verbot von Angriffen auf


Zivilisten;146 das Verbot von Angriffen auf Objekte, welche für die Zivil-
bevölkerung notwendig sind,147 sowie die Verpflichtung der Angreifer zu
Vorsichtsmaßnahmen148 (Parks 1990: 547-549). Dennoch sehen einige
Autoren in Art. 2 (2) und 2 (3) eine strengere Bestimmung als in den
Zusatzprotokollen, weil erstere den Einsatz von Brandwaffen nicht nur
direkt gegen zivile Ziele, sondern auch gegen sich inmitten ziviler Ziele
befindende militärische Ziele verbieten (Sandoz 1981: 13). Das Verbot
unnötigen Leides lässt Protokoll III hingegen völlig außer Acht und bleibt
in dieser Hinsicht sogar hinter dem Zusatzprotokoll I zurück, welches
dieses Prinzip in Art. 35 kodifiziert. Kombattanten, deren Schutz gegen
grausame Waffen durch das Verbot unnötigen Leides sichergestellt wer-
den soll, dürfen weiterhin legal mit Brandwaffen angegriffen werden
(Marei 1981: 96, Kalshoven 1987: 156-157).
Doch der begrenzten rechtlichen Norm zum Trotz haftet Brandwaffen
– und insbesondere Napalm – ein soziales Stigma geächteter Waffen an
(Levie 1994: 662-663). Direkt nach der Verabschiedung der CCW galten
Brandwaffen als die von der öffentlichen Meinung am stärksten abge-
lehnte konventionelle Waffenart (Sandoz 1981: 13). Das schlechte Image
hat sich bis heute gehalten: Robert M. Neer (2013: 193) konstatiert eine
„near universal antipathy to napalm“ und diagnostiziert, zumindest für
die USA, eine „Anti-Napalm-Hysterie“, welche sich etwa darin bemerkbar
macht, dass auch Transporte von Napalm oder sein Einsatz für nicht-
militärische Zwecke, wie z. B. zur Seuchenbekämpfung, von Protesten
begleitet werden (Neer 2013: 193-204). Die Schwäche der Rechtsnorm
wird also durch die Stärke und Salienz der sozialen Norm aufgefangen.

Die Normentstehung
Die (Ur-)Angst der Menschen vor Feuer hat seit den ersten Einsätzen von
Brandwaffen immer wieder Kritik an ihnen motiviert – Brandwaffen wur-

146
Art. 52 des ZPI, Art. 2 (1), 2 (2) und 2(3) des Protokolls III.
147
Art. 54 des ZPI, Art. 2 (4) des Protokolls III.
148
Art. 57 und 58 des ZPI, Art. 2 (3) des Protokolls III.

272 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

den schon in den Jahrtausenden vor der Entwicklung von Napalm als bar-
barisch und unzivilisiert gebrandmarkt (Mountcastle 1999: 4, Neer 2013:
22). Doch in der Herausbildung des modernen humanitären Völkerrechts
haben Brandwaffen nur insofern eine Rolle gespielt, als die St. Petersburger
Erklärung von 1868 auch Projektile mit entzündlichen Substanzen verbot –
dies stellte den Versuch dar, Kombattanten vor der Verletzungswirkung
bestimmter Geschosse zu schützen, betraf aber nicht die Brandkriegsfüh-
rung als solche (Mountcastle 1999: 7). In der Zwischenkriegszeit fanden
erste Normierungsversuche statt: In einigen nach dem Ersten Weltkrieg
geschlossenen Friedensverträgen wurde den besiegten Mächten das Recht
auf den Besitz von Flammenwerfern abgesprochen; auf der Abrüstungskon-
ferenz, die der Völkerbund 1932 austrug, kam ein Sonderausschuss zu dem
Schluss, dass Brandwaffen verboten werden sollten (Neer 2013: 170-171).
Die Konferenz ging ergebnislos zu Ende149 und obwohl es auch während
des Zweiten Weltkrieges Kritik an den Einsätzen von Brandwaffen gab,
brachte die rücksichtslose Kriegsführung aller Seiten die Diskussion um die
Legalität und Illegalität von Kampfmitteln und Kampfmethoden zunächst
zum Erliegen (Neer 2013: 63-64, 172).
Doch die Debatte kam in den 1950er Jahren wieder in Gang und fand
fortan sowohl öffentlich als auch institutionell statt. In der Öffentlichkeit
katapultierten Berichte über die Einsätze von Napalm im Koreakrieg die
Waffe ins öffentliche Bewusstsein und führten zu einem heftigen, jedoch
kurzen Aufschrei – vor allem in Großbritannien (Neer 2013: 107-113).
Massive und anhaltende Kritik an Napalm entspann sich erst während
des Vietnamkrieges, nun auch in der US-amerikanischen Öffentlichkeit.
Die Proteste gegen Brandwaffen richteten sich neben der US-Regierung
auch an die Hersteller von Napalm und fanden hauptsächlich in drei
Formen statt: Eingebettet in die allgemeinen Proteste gegen den Viet-
namkrieg und die US-Kriegsführung, lokal gegen Produktionsstätten von
Napalm sowie an den Universitäten gegen die Unternehmensvertreter,
die Personal anwerben wollten. Die lokalen Proteste trafen den Produzen-
ten United Technology Center (UTC) in Redwood City in der Nähe von San
Francisco, wo sich 1966 das Redwood City Committee Against Napalm

149
Zum Verlauf und zu den Gründen des Scheiterns siehe Davies 2007: 73-148.
Die Konkurrenz im Porträt: Napalm 273

gründete. Von der Bevölkerung unterstützt, versuchte das Komitee zu-


nächst mittels Petitionen den Bau der Produktionsstätte zu verhindern.
Als dies nicht gelang, organisierte es große Demonstrationen vor der
Fabrik, die die Aufmerksamkeit der Medien auf sich zogen und erst auf-
hörten, als 1967 der Produktionsvertrag des Unternehmens mit der US-
Regierung auslief (Prokosch 1995: 129-131).
Das Unternehmen, das aufgrund von Napalm – aber auch aufgrund
von Agent Orange – in eine richtige und anhaltende PR-Krise stürzte, war
allerdings Dow Chemical. Dieser Chemikalienhersteller wurde, ebenfalls
im Jahr 1966, zum Ziel der ersten (aus moralischen Gründen) geführten
Anti-Unternehmenskampagne überhaupt (Huxman/Bruce 1995: 61-62).
Während auch in diesem Fall ein Teil der Proteste direkt vor den Produk-
tionsstätten stattfand, bot Dow Chemical im Unterschied zu UTC wesent-
lich mehr Potential für landesweite Proteste: Erstens war das Unterneh-
men nicht auf Rüstungsgüter beschränkt, sondern stellte auch diverse
Haushaltsgegenstände her, wodurch es mit bekannten Handelsmarken
assoziiert – und von Konsumenten boykottiert – werden konnte (Proko-
sch 1995: 131, Neer 2013: 121-122). Zweitens bot es mehrere Anlaufstel-
len für Protest, weil es mehrere Produktionsstätten und mehrere Unter-
nehmenssitze hatte. Und schließlich betrieb Dow Chemical eine offensive
Anwerbekampagne an den Universitäten, wodurch sich für die Kriegs-
und Napalmgegner die Möglichkeit ergab, direkt gegen Unternehmens-
vertreter vorzugehen (Neer 2013: 130). 1969 verlor (unklar, ob absicht-
lich oder nicht) Dow Chemical den Produktionsvertrag mit der US-
Regierung an das reine Rüstungsunternehmen American Electric Inc.,
wodurch auch die Proteste abflauten. Doch der Imageschaden durch
Napalm und Agent Orange haftet der Firma bis heute an: Noch 2005 wur-
de sie vom Economist zu einer der „America’s most hated companies“
gekürt (Neer 2013: 145).
Die öffentliche Stigmatisierung von Napalm im Zuge dieser Protest-
formen konzentrierte sich vor allem auf dessen Wirkung auf vietnamesi-
sche Zivilisten, insbesondere auf Kinder. Es gab öffentlichkeitswirksame
Aktionen wie Flüge von Napalmopfern zur Behandlung in die USA. Auch
fotografische Dokumentationen wurden verbreitet – als Transparente mit
Fotos von Opfern auf Anti-Kriegsdemonstrationen und erst zögerlich,

274 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

aber zunehmend auch in Medienberichten. In den ersten Kriegsjahren


waren große Zeitungen wie die New York Times weitgehend der Regie-
rungslinie gefolgt; die (heute aufgedeckten, doch bei Weitem nicht auf-
gearbeiteten) US-Kriegsverbrechen gegen die Zivilbevölkerung in Viet-
nam blieben der Öffentlichkeit verborgen (Turse 2013: 5-6). Doch seit
etwa 1967 positionierten sich auch die Medien zunehmend gegen den
Krieg: NYT-Korrespondenten vor Ort hatten von US-Angriffen auf Städte
und Dörfer und hohen Zahlen ziviler Opfer berichtet (Karnow 1997: 502-
504); der US-Journalist Seymour Hersh brachte das im Jahr 1969 von US-
Streitkräften verübte Massaker im Dorf MyLai ans Licht (Turse 2013:
227);150 die großen Zeitungen entdeckten sukzessive ihre Sympathie für
die erstarkte Friedensbewegung (Gitlin 1980: 273).
In dieser Stimmung druckten die Medien immer wieder Fotos na-
palmverbrannter vietnamesischer Kinder und anderer Zivilisten (Hari-
man/Lucaites 2003: 40, Neer 2013: 148). Das bekannteste dieser Fotos
entstand am 8. Juni 1972 in der Nähe der Stadt Trang Bang: Das Bild mit
verschiedenen Titeln („Accidental Napalm Attack“, „Children Fleeing a
Napalm Strike“, „Napalm Girl at Trang Bang“),151 zeigt im Zentrum die
nackte rennende Phan Ti Kim Phuc, um sie herum andere Kinder mit
angstverzerrten Gesichtern, dahinter (gehende) südvietnamesische Solda-
ten und im Hintergrund dunkle (Napalm)-Rauchwolken. Fast wäre das
Bild in der Vietnam-Redaktion von Associated Press (AP) aussortiert wor-
den, weil die Nacktheit des Mädchens gegen die Presserichtlinien ver-
stieß, doch der verantwortliche Bildredakteur Horst Faas erkannte den
Wert des Bildes und entschied sich für die Übermittlung ins AP-Büro
nach New York. In den darauffolgenden Tagen erreichte es die Titelseiten
der großen Zeitungen auf der ganzen Welt und der Fotograf Huynh Cong
Ut (auch bekannt als Nick Ut) erhielt dafür im darauffolgenden Jahr alle
großen Fotografiepreise, darunter auch den Pulitzerpreis.152 Während auf

150
Seymour Hersh war es auch, der im Jahr 2004 den Abu-Ghraib-Skandal ins Rollen
brachte (Rosert/Schirmbeck 2006: 170).
151
Zusammenstellung in Westwell 2011: 421, Fußnote 1.
152
Zur Geschichte des Vorfalls in Trang Bang und dieses Bildes sowie zum Schicksal
der Opfer und zum Leben von Phan Ti Kim Phuc siehe Chong 1999 und West-
well 2011; zu Interpretationen Hariman/Lucaites 2003 und Ravenscroft 2004.
Die Konkurrenz im Porträt: Napalm 275

dem Bild selbst Kim Phucs Verbrennungen nicht zu sehen sind, und die
Auswirkungen von Napalm auf anderen Bildern deutlicher und drasti-
scher dokumentiert waren, ist es dieses Foto, das im öffentlichen Be-
wusstsein heute noch mit Napalm assoziiert wird und als eines der wich-
tigsten Zeugnisse des Vietnamkrieges gilt (Beattie 1998: 12, Chong 1999).
Als das Bild erschien, waren die institutionellen Prozesse, die zur Ver-
ankerung der Anti-Napalm-Norm in der CCW geführt haben, bereits im
Gange. Sie decken sich weitestgehend mit der bereits beschriebenen Ent-
stehungsgeschichte der CCW und fanden damit im Vorfeld ebenfalls in
den Vereinten Nationen und auf den Rot-Kreuz-Konferenzen statt. Aller-
dings ist hervorzuheben, dass Napalm in diesem breiten, verschiedene
Waffenarten umfassenden Rahmen, von Beginn an verstärkte Aufmerk-
samkeit gewidmet wurde. Dies gilt stärker für die UN, in gewissem Maße
aber auch für das Rote Kreuz. In den Draft Rules von 1956 erklärte es in
Art. 14 Brandwaffen als einzige konventionelle Waffenart für verboten,
mit der Begründung, dass sich deren Effekte nicht kontrollieren ließen
und sie deshalb eine Gefahr für die Zivilbevölkerung darstellten (Kals-
hoven 1975: 78). Im Memorandum von 1967 bezeichnete das ICRC Mas-
senvernichtungswaffen, Napalm, Bomben mit verzögerter Wirkung und
Seeminen als Waffen, die potentiell gegen das Gebot der Diskriminierung
und das Verbot unnötigen Leides verstoßen.
Verschiedene Organe der Vereinten Nationen konzentrierten sich
schon früh und lange auf Brandwaffen alleine (Baxter 1977: 47-49). 1968
wurde in der Abschlussresolution der UN-Menschenrechtskonferenz in
Teheran der Einsatz von Napalmbomben als menschenrechtswidrig be-
zeichnet.153 Der UN-Generalsekretär U Thant (1961-1971 im Amt) gab
1970 einen Bericht heraus, in dem er unter anderem die Notwendigkeit
unterstrich, Kampfmittel und Kampfmethoden zu beschränken. Neben
Massenvernichtungswaffen stellte der Bericht auch die Gefahren von
Napalm heraus.154 Danach initiierte U Thant einen weiteren Bericht, wel-
cher sich dezidiert mit Brandwaffen befasste, und 1972, nach Ende seiner

153
Resolution „Human Rights in Armed Conflicts. Resolution XXIII adopted by the
International Conference on Human Rights“ vom 12.5.1968.
154
Report des UN-Generalsekretärs „Respect for Human Rights in Armed Conflict“,
A8052, 18.09.1970, S. 41.

276 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

Amtszeit erschien (Blix 1974: 23).155 Sein Nachfolger Kurt Waldheim


(1972-1981 im Amt), schloss daran mit seinem 1976 vorgelegten Bericht
an, in dem er die Entwicklungen auf den parallel laufenden ICRC-
Konferenzen zusammenfasste. Obwohl letztere verschiedene Waffenty-
pen diskutierten, waren im Berichtstitel nur Brandwaffen explizit be-
nannt, wohingegen andere Waffen als „andere besondere konventionelle
Waffen“ zusammengefasst wurden.156
Die Generalversammlung hatte 1971 erstmals Napalm namentlich in
einer Resolution zu Menschenrechten in bewaffneten Konflikten er-
wähnt und es dabei als grausame, nicht-diskriminierende Waffe kriti-
siert.157 Im Jahr 1972 wurde Brandwaffen und Napalm in der allgemeinen
Resolution zur Abrüstung als einzigen Nicht-Massenvernichtungswaffen
ein ganzer Unterpunkt eingeräumt.158 In den Jahren 1973-1975 kam Na-
palm als eigener Tagesordnungspunkt auf die Agenda, und es wurden
jeweils entsprechende Resolutionen mit dem Titel „Napalm and other
incendiary weapons and all aspects of their possible use“ beschlossen.159
In den Jahren 1976 und 1977 wurden die Diskussionen der Rot-Kreuz-
Konferenzen, die mehrere Waffenarten umfassten, dahingehend reflek-
tiert, als sich die Inhalte der UNGA-Resolutionen nun auch auf nicht-
entdeckbare Splitter, Landminen und kleinkalibrige Schnellgeschosse
bezogen – doch Brandwaffen blieben, wie schon im entsprechenden Be-
richt des Generalsekretärs, weiterhin die einzige Waffenart, die im Titel
namentlich erwähnt wurde.160
In den darauffolgenden Jahren verlor Napalm insofern an besonderer
Sichtbarkeit, als sich der Tagesordnungspunkt nun allgemein auf die
Konferenz und seit 1981 auf die Konvention über besondere konventio-

155
Report des UN-Generalsekretärs „Napalm and Other Incendiary Weapons and All
Aspects of Their Possible Use”, A/8803, 9.10.1972.
156
Report des UN-Generalsekretärs „Incendiary and Other Specific Conventional
Weapons which May be the Subject of Prohibitions or Restrictions of Use for
Humanitarian Reasons”, A/31/146, 10.9.1976.
157
Resolution 2852 (XXVI) „Human Rights in Armed Conflict“, 20.12.1971.
158
Resolution 2932 (XXVII) „General and Complete Disarmament“, 29.11.1972.
159
Resolutionen 3076 (XXVIIl) vom 06.12.1973, 3252 (XXIX), 9.12.1974 und 3464
(XXX), 11.12.1975.
160
Resolutionen 31/64, 19.12.1976 und 32/152, 9.12.1977.
Das empirische Material im Überblick 277

nelle Waffen bezog.161 Die Normbildung für Napalm war mit der CCW
vorerst abgeschlossen. Heute hat das Brandwaffenprotokoll 115 Vertrags-
parteien, mit den USA als einem der fünfzehn zuletzt beigetretenen Staa-
ten (Stand: November 2018).162

Das empirische Material im Überblick


In diesem Abschnitt beschreibe ich das Material und die Daten, auf de-
nen die Fallstudien basieren. Zuerst schlüssele ich den Datenkorpus nach
den verwendeten Quellen, zugehörigen Dokumenten und in diesen iden-
tifizierten relevanten Textstellen (im Folgenden auch Fundstellen oder
Segmente) auf. Danach binde ich den Diskurs an die Akteure zurück,
indem ich die Sprecherinnen, die in den analysierten Dokumenten zu
Wort kamen, anhand von zwei Kriterien, nämlich ihrer Rolle und ihrer
geographischen Zugehörigkeit, beschreibe. Die detaillierten, zum Teil
disaggregierten Daten zu sämtlichen Tabellen und Abbildungen sind als
Anhang auf ExtrasOnline verfügbar.

Materialquellen
Der Beginn des Untersuchungszeitraumes p1 am 1. Januar 1945 fällt mit
dem Beginn des gesamten Untersuchungszeitraumes zusammen. Das
Ende von p1 legte ich auf den 10. Oktober 1980 – das Datum, an dem die
Konvention über besondere konventionelle Waffen angenommen wurde.
Der endgültige Datenkorpus für diese knapp 36 Jahre besteht aus 3138
Dokumenten,163 in denen ich 4594 Textstellen als relevant kodierte. Die
Dokumente bilden zwei Unterdiskurse ab, den Mediendiskurs und den

161
Resolutionen 33/70, 14.12.1978, 34/82, 11.12.1979, 35/153, 12.12.1980 und
36/93, 9.12.1981.
162
https://www.icrc.org/applic/ihl/ihl.nsf/States.xsp?xp_viewStates=XPages_NO
RMStatesParties&xp_treatySelected=515, 1.11.2018.
163
Zwischen den Dokumenten gibt es eine gewisse Schnittmenge, weil einige von
ihnen sowohl für den Fall Napalm als auch für den Fall Streumunition relevant
sind. Jedes Dokument wurde pro Fall einmal gezählt; die Gesamtzahl wurde nicht
um diese Doppelungen bereinigt.

278 Prozessanalyse der Nicht-Entstehung der Streumunitionsnorm in den 1970er Jahren

institutionellen Diskurs. Den Mediendiskurs aus insgesamt 2887 Artikeln


bildete ich anhand der New York Times (2060 Artikel) und dem Guardian
(827 Artikel) ab. In diesen Artikeln identifizierte ich 3690 relevante Text-
stellen, davon 2595 in der New York Times und 1095 im Guardian.

  



$ "# !" !
!
' ' ' $
!$


 $
$#
"'

!
 $

!
"
$
""'

Dokumente (Anteil an insgesamt 3138 in %) Textstellen (Anteil an insgesamt 4594 in %)

Abbildung 16: Zusammensetzung des empirischen Materials nach Quellen im Untersuchungs-


zeitraum p1

Der institutionelle Diskurs umfasst 251 Dokumente. Davon gehören 128


zur UN-Generalversammlung (GA),164 67 zum Internationalen Komitee
vom Roten Kreuz (ICRC)165 und 56 zur Konferenz über besondere kon-
ventionelle Waffen (UNCCW).166 Diese drei Institutionen wählte ich auf
Basis des Forschungsstands zur Entstehung der Konvention über beson-
dere konventionelle Waffen aus – es sind diejenigen Foren, in denen die
Normkandidaten aufgebaut und die Normen verhandelt wurden. Die
Vollerhebung war weitestgehend möglich, mit Ausnahme des Ersten
Ausschusses der Generalversammlung, für den nicht alle Jahrgänge voll-

164
Darunter gefasst sind das Plenum (GAPLN) sowie der 1., 3. und 6. Ausschuss
(GA1, GA3, GA6).
165
Darunter gefasst sind vorbereitende Berichte des ICRC (ICRCREP), Konferenzen
der Regierungsexperten (ICRCCGE) und Sitzungen des Ad-hoc-Komitees (ADHC).
166
Darunter gefasst sind Protokolle des Vorbereitungskomitees (CCWPC) und der
Hauptverhandlungen (CCWMN).
Das empirische Material im Überblick 279

umfänglich zugänglich waren.167 In den genannten Dokumenten identi-


fizierte ich 904 Textstellen, davon 302 in GA-Dokumenten, 393 in ICRC-
Dokumenten und 209 in CCW-Dokumenten.

Sprecher im Diskurs
Sofern ersichtlich, kodierte ich für jede Fundstelle die Rolle der Spreche-
rin und ihre geographische Zugehörigkeit. Wie aufgrund der Zusammen-
setzung des Materials zu erwarten war, waren Journalisten mit einem
Anteil von 34 % im Napalmdiskurs (nap) und 40 % im Streumunitions-
diskurs (cm) die häufigsten Sprecher, gefolgt von politischen Akteuren168
(27 % im Napalm- und 34 % im Streumunitionsdiskurs). Im Napalmdis-
kurs hatten andere Sprechergruppen einen Anteil von einem Drittel, im
Streumunitionsdiskurs von einem Viertel – vor allem in Mediendoku-
menten kamen demnach durchaus auch andere Akteure (beispielsweise
das Militär169 oder die Zivilgesellschaft170) zu Wort. Dass im Streumuniti-
onsdiskurs sowohl Journalisten als auch Politiker etwas stärker repräsen-
tiert waren, ging zulasten der Zivilgesellschaft, denn während auf sie und
auf NGOs171 im Napalmdiskurs 20 % aller Sprecher-Kodierungen entfie-
len, war der Anteil dieser beiden Gruppen im Streumunitionsdiskurs mit
11 % nur etwa halb so hoch.

167
So fehlen für das Jahr 1974 (29. Sitzungsperiode) die Protokolle mit den Num-
mern A/C.1/PV.2001 sowie A/C.1/PV.2025 bis A/C.1/PV.2044 und für das Jahr
1975 (30. Sitzungsperiode) die Protokolle mit den Nummern A/C.1/PV.2082 so-
wie A/C.1/PV.2093 bis A/C.1/PV.2108.
168
Als politische Akteure wurden alle Akteure gezählt, die sich dem Staat zurechnen
lassen, z. B. Regierungsmitglieder, Botschafterinnen, Pressesprecherinnen oder
Präsidentschaftskandidaten (siehe Codebuch auf ExtrasOnline).
169
Dies kommt dadurch zustande, dass die New York Times während des Koreakrie-
ges fast täglich Pressemitteilungen des Militärs über das Geschehen an der Front
abgedruckt hat.
170
Bestehend aus der Friedensbewegung bzw. Aktivisten, der breiteren Bevölkerung,
Intellektuellen, beispielsweise Künstlern und Schriftstellern, Geistlichen und Wis-
senschaftlern.
171
Obwohl NGOs freilich Teil der Zivilgesellschaft sind, habe ich ihnen zugehörige
Sprecherinnen gesondert kodiert und ausgewiesen, um der besonderen Rolle, die
ihnen in der Literatur zugeschrieben wird, Rechnung zu tragen.
!
NFX! 75?6.&&#$#/S&.!3.5!>2AB9KL$9&9.B($'!3.5!@95.(<($292?$&$?5<!2$!3.$!H[IX.5!v#B5.$!

   
 
 ))
-,
% ),
()) *4
(2    +4
,2
,.
  04

#
   '(/-
)*2    
++( **,
/.
'*2 ,(4
),4

 
,)'
',2
 
  
 )00
'&+* +,4
(-2
 "  ).*)2  ! $  --14
,
733/+6'#&(@E9 8K1.>*.1(/4(D"K"+46/%$'1%('#6(/4(8,1.'4'#/,/2#%6/%$'1%(

Die geographische Zugehörigkeit der Sprecher spiegelt einerseits das wi-


der, was aufgrund der Quellenauswahl – einer US-amerikanischen und
einer britischen Tageszeitung – zu erwarten war: Westliche Sprecher hat-
ten mit 78 % einen großen Anteil am Diskurs. Andererseits kamen
durchaus auch Sprecherinnen aus nicht-westlichen Staaten zu Wort.





 
# #


#




 
#



 
 
 #

733/+6'#&(@H9 8K1.>*.1(#">*(^'&.*=1/&$./,(P'(K2+/,/%>*.#(N+=>$.#(/#(K@(
Der Mechanismus der Blockade im Test 281

Der Mechanismus der Blockade im Test: Die Salienz von Napalm


im Vergleich mit der Salienz von Streumunition
Lässt sich die These, die entstehende Norm gegen Napalm habe die entste-
hende Norm gegen Streumunition blockiert, empirisch bestätigen? An-
hand der zuvor formulierten Indikatoren teste ich im Folgenden das Vor-
liegen des Blockademechanismus, indem ich die Salienz der beiden Issues
vergleiche. Diese Indikatoren beziehen sich auf die Frequenz und auf die
Prominenz der Issues auf verschiedenen Agenden. Der Abschnitt ist wie
folgt gegliedert: Zunächst präsentiere ich die Daten zur Salienz der Issues
im gesamten Diskurs in den beiden Dimensionen Frequenz und Promi-
nenz. Danach schlüssele ich die Daten in den öffentlichen und in den
institutionellen Diskurs auf. Im Zwischenfazit fasse ich die Befunde hin-
sichtlich ihrer Aussagekraft für den getesteten Mechanismus zusammen.

Die Salienz von Napalm und Streubomben im Gesamtdiskurs


Die aggregierten Daten zum Gesamtdiskurs erzeugen ein grobes, jedoch
deutliches Bild über die Salienz der beiden Issues: Das Issue Napalm war
in jeglicher Hinsicht salienter als das Issue Streumunition – es war so-
wohl deutlich häufiger als auch deutlich sichtbarer, und zwar in allen Un-
terdiskursen. Napalm wurde also sehr viel Aufmerksamkeit zuteil, Streu-
bomben hingegen sehr wenig. Mit der starken Beachtung des einen und
der weitgehenden Nicht-Beachtung des anderen Issues liegt damit die
Voraussetzung für die Vermutung vor, dass es in der attentionalen Di-
mension zu einem permissiven Effekt gekommen ist.
Frequenz: Die Gesamtzahl der in p1 ausgewerteten Dokumente beträgt
3138, die der darin kodierten Textstellen 4594. Mit Anteilen von rund
86-88 % nahm Napalm im Gesamtdiskurs wie auch aufgeschlüsselt in
den öffentlichen und in den institutionellen Diskurs den weitaus größe-
ren Teil ein. Da die Anteile an Dokumenten hier wie auch bei allen ande-
ren Daten sehr nah an den Anteilen der Textstellen liegen, beschränke ich
mich im Folgenden auf die Textstellen, welche das präzisere Maß sind.
Um das Verhältnis der Häufigkeiten des Napalm- und des Streumuni-
tionsissues zueinander zu erfassen, verwende ich eine Maßzahl, die ich
als „Frequenzquotient“ bezeichne. Bei gleicher Frequenz (Anzahl der
!
NFN! 75?6.&&#$#/S&.!3.5!>2AB9KL$9&9.B($'!3.5!@95.(<($292?$&$?5<!2$!3.$!H[IX.5!v#B5.$!

Textstellen in bestimmten Zeiträumen bzw. Diskursen) beider Issues be-


trüge der Frequenzquotient 1 (Verhältnis 1:1). Je größer der Frequenzquo-
tient, desto stärker ist also das dominantere Issue im Vergleich zum
schwächeren Issue überrepräsentiert. Im Gesamtuntersuchungszeitraum
lag der Frequenzquotient im Gesamtdiskurs bei 7,0 (4019 Fundstellen zu
Napalm zu 575 Fundstellen zu Streumunition); d. h., dass auf eine
Streumunitionstextstelle sieben Napalmtextstellen kamen. Mit anderen
Worten war Napalm im Gesamtdiskurs 7-fach häufiger vertreten als
Streumunition. Im öffentlichen Diskurs lag der Frequenzquotient bei 7,3
und im institutionellen bei 6,0 – die Diskrepanz zwischen den Issues war
im letzteren also geringer.

    ! 



 
 



  

 .

&"#+*)'
&"""

%'""
%$&'**"

%"""
 





$'""

$"""

#'""

#"""
))&*'(
')'#$'
&&'#$#
'""
#%"#&%
"
  ")*.)#  
 "(+.& -& (1#  ".&) '. ,1#



)"   )%   ("

733/+6'#&(@U9 F1.f'.#P(L2#(D"K"+4('#6(8,1.'4'#/,/2#(/4(S.%"4,6/%$'1%(

Prominenz: Die beiden Issues waren nicht nur ungleich häufig erwähnt,
sondern auch ungleich sichtbar platziert. Die Anteile von Napalm an den
insgesamt 540 Textstellen, die die Prominenz der Issues indizieren, lagen,
je nach Diskurs, bei 86-89 %. Der Prominenzquotient (berechnet analog
zum Frequenzquotienten) lag bei 7,7 im Gesamtdiskurs, bei 8,1 im öf-
fentlichen und bei 6,2 im institutionellen Diskurs.
".5!R.AB#$2&<(&!3.5!G/?A%#3.!2<!,.&9! NFT!

     



 
 



  

 .

'""
&)***'

&'"
%+**+"
&""
 





%'"

%""

$'"

$""

#'"

#""
*"*("
($##' &+##"
'"
#%#&"
"
  !)($"  
 !((*+&+/"  !,'%*&/"
 

))  *#   ($

733/+6'#&(CW9 0124/#.#P(L2#(D"K"+4('#6(8,1.'4'#/,/2#(/4(S.%"4,6/%$'1%(

"2.!@#/2.$6!D?$!>#\#/<!($3!@95.(-?<-.$!2<!VCC.$9/2AB.$!"2&%(5&!
Die Salienz der beiden Issues im öffentlichen Diskurs erhob ich aus zwei
Medien, der New York Times und dem Guardian. Aufgrund der geringen
Unterschiede zwischen ihnen stelle ich die Ergebnisse in der Regel aggre-
giert dar. Neben der öffentlichen Salienz erhob ich aus den Zeitungen
zwei Indikatoren, die Aussagen über das Mobilisierungsniveau sowie über
das Volumen sozialen Drucks erlauben: Mit dem Code „Mobilisierung“
wurden Textstellen versehen, in denen es um Mobilisierungsaktionen
wie Sit-Ins oder Protestaktionen ging; mit dem Code „sozialer Druck“
wurden Textstellen versehen, in denen die Akteure für Aktivitäten wie
den Einsatz, die Produktion oder den Handel von Napalm und Streumu-
nition kritisiert wurden.
Ich betrachte im Folgenden die Issue-Frequenzen im Mediendiskurs
insgesamt (erwartete Beobachtungen S1-S3), das Mobilisierungsniveau
(erwartete Beobachtungen S4-S6) und den sozialen Druck (erwartete Be-
obachtungen S7-S9). Anschließend präsentiere ich die Ergebnisse zur
Prominenz der beiden Issues (erwartete Beobachtungen S10-S12). Zum
Abschluss fasse ich die Befunde zusammen.
!
NFO! 75?6.&&#$#/S&.!3.5!>2AB9KL$9&9.B($'!3.5!@95.(<($292?$&$?5<!2$!3.$!H[IX.5!v#B5.$!

`,+a1+&U!C-&!W)G):0!1&7!B$,+101&#$#-&!#0!5JJ+&$:#D%+&!.#*/1,*!
Die Anzahl der in p1 ausgewerteten Mediendokumente beträgt 2887, die
der relevanten Textstellen 3690 – 2292 davon fanden sich in der New
York Times, 1095 im Guardian. Mit Anteilen von 87-91 % (je nach Quelle)
nahm Napalm den weitaus größeren Teil des öffentlichen Diskurses ein.
Während der Diskursanteil von Streumunition in der New York Times mit
13,2 % und mit einem Frequenzquotienten von 6,6 schon recht gering
war, wurde Streumunition im Guardian noch seltener erwähnt: Dort ent-
fielen nur 9,3 % aller Textstellen auf Streumunition; der Frequenzquoti-
ent lag bei 9,7. Damit ist die Erwartung S1, dass Napalm häufiger präsent
ist, deutlich bestätigt.

 !  %  $  


  
 
       / 
  
&%'(+*, 
&%(#

&###

%*(#

%(##
   
   

%%(%+)+ 
%%(#

%###

$*(#

$(##

$%(#
,,&,#* 
$###

*(#
''($%$ 
(##
&'&$&% 
%(#
$#%,& 
#
  &,.0)' 
&+-0+$/)$+3' &*)0-$+0$/3'
   *&   ))   ,* 

733/+6'#&(C@9 F1.f'.#P(L2#(D"K"+4('#6(8,1.'4'#/,/2#(/4(=55.#,+/>*.#(!/%$'1%(

Die Diskursverläufe zeigen, dass Napalm während des Untersuchungs-


zeitraumes fast durchgehend (mit Ausnahme der Jahre 1945-1948 und
des Jahres 1978) häufiger präsent war; die Erwartung S1 bestätigt sich also
auch über Zeit. Im Napalmdiskurs lagen die Häufigkeitspeaks in den Jah-
ren 1951, 1952 und 1967 – die ersten beiden Jahre fielen in die Zeit des
Koreakrieges und das letzte Jahr in die Zeit des Vietnamkrieges. Im Streu-
bombendiskurs waren es die Jahre 1945, 1967 und 1978 – das erste Jahr
".5!R.AB#$2&<(&!3.5!G/?A%#3.!2<!,.&9! NF_!

fiel in die Zeit des Zweiten Weltkrieges, 1967 in die Zeit des Vietnamkrie-
ges und das letzte Jahr in die Zeit nach dem Vietnamkrieg. Dieser letzte
und zugleich höchste Peak wurde durch einen Exportskandal ausgelöst:
Den USA wurde vorgeworfen, Streumunition an Israel geliefert zu haben,
welche Israel gegen zivile Ziele in Libanon eingesetzt haben soll. Dass
Streumunition vor Napalm im Diskurs präsent war, widerlegt die Erwar-
tung S2 nur scheinbar. Denn die Präsenz172 von Streumunition sank nach
dem Zweiten Weltkrieg wieder auf null und die Diskussion über Kampf-
mittel insgesamt kam für einige Jahre zum Erliegen. Gehen wir von ei-
nem Neubeginn nach 1945 aus, war das Napalmissue zuerst präsent und
hob viel früher ab als das Streumunitionsissue.

 
       
         
'##

&(& &(&
&(#
&%,

&##
      

%(#

%##

$(#

$##
*$
(' (+

(#

#
$, 

$, 
$, 
$, 

$, 

$, 

$, 
$, 
$, 

$, 

$, 

$, 
$, 
$, 

$, 

$, 

$, 
$, 
$, 
$, 

$, 

$, 
$, 
$, 

$, 

$, 

$, 
$, 
$, 

$, 

$, 

$, 
$, 
$, 

$, 


'(

'*
'+
',

($

((

(*
(+
(,

)$

)(

)*
)+
),

*$

*(

**
*+
*,
')

(#

(%
(&
('

()

)#

)%
)&
)'

))

*#

*%
*&
*'

*)

+#
$,

 
  
       


   

733/+6'#&(CC9 F1.f'.#P(L2#(D"K"+4('#6(8,1.'4'#/,/2#(/4(<.1+"'5(6.%(=55.#,+/>*.#(!/%$'1%.%(

Die Erwartung S2 – das frühere Erscheinen von Napalm – bestätigt sich


auch, wenn wir die Daten nach den Zeiträumen der beiden großen Kon-
flikte aggregieren. Zwar war die Frequenz von Napalm in absoluten Zah-

172
Wenn ich von Präsenz statt von Frequenz spreche, hat es semantische Gründe.
!
NFW! 75?6.&&#$#/S&.!3.5!>2AB9KL$9&9.B($'!3.5!@95.(<($292?$&$?5<!2$!3.$!H[IX.5!v#B5.$!

len während des Vietnamkrieges mit US-Beteiligung doppelt so hoch wie


während des Koreakrieges. Doch da auf den Zeitraum des Vietnamkrieges
9, auf den Zeitraum des Koreakrieges lediglich 4 Untersuchungsjahre
entfallen, können wir schließen, dass Napalm bereits während des Ko-
reakrieges genauso salient war wie während des Vietnamkrieges. Dass
Streumunition hingegen erst im Vietnamkrieg an Salienz gewann, zeigt
sich in absoluten Zahlen (45 Erwähnungen im Zeitraum des Koreakrieges,
181 im Zeitraum des Vietnamkrieges) wie auch in den Diskursanteilen im
Verhältnis zu Napalm (4,8 % während des Koreakrieges, 9,8 % während
des Vietnamkrieges).173

  !   %    $    


 






 -

"'("*!#
"(!!

 
"'!!
 
"&!!
"%!!
"$!!
 





"#!!
""!!
"!!!
))**&#
*!!
)!!
(!!
'!!
&!!
%!!
$!!
")"*) ###'%*
#!!
"#!$&"
"!! %&%)
!
  '/+,(
    '*.-,( &
  '+,*(



"*)  *#   "*

733/+6'#&(CB9 F1.f'.#P(L2#(D"K"+4('#6(8,1.'4'#/,/2#(/4(=55.#,+/>*.#(!/%$'1%(#">*(O2#5+/$,G
P./,1;'4.#(

Die Erwartung S3 – solange Napalm präsent ist, wird Streumunition nicht


präsent – trifft ebenfalls zu. Bis auf einen kleinen und kurzen Peak im
Jahr 1967 war Streumunition durchgehend ähnlich selten präsent, wäh-
rend Napalm wesentl