Sie sind auf Seite 1von 439

Die Politik der großen Zahlen

Alain Desrosières

Die Politik
der großen Zahlen
Eine Geschichte der statistischen Denkweise

Aus dem Französischen von Manfred Stern

123
Alain Desrosières
Institut National de la Statistique et des Études Économiques
INSEE-Timbre D 005
Boulevard Adolphe Pinard 18
75014 Paris, France

Übersetzer:
Manfred Stern
Kiefernweg 8
06120 Halle, Germany
e-mail: manfred@mstern.de

Ouvrage publié avec le concours du Ministère français de la Culture-Centre national du livre.


Dieses Werk wurde mit Unterstützung des französischen Ministeriums für Kultur (Centre national du
livre) veröffentlicht.
Übersetzung der 2. Auflage von “La Politique des Grands Nombres – Histoire de la raison statistique”
©Éditions La Découverte, Paris, France 1993, 2000.

Bibliografische Information der Deutschen Bibliothek


Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail-
lierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.

ISBN 3-540-20655-8 Springer Berlin Heidelberg New York


Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der
Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funk-
sendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in
Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Ver-
vielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen
der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9.
September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig.
Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes.
Springer ist ein Unternehmen von Springer Science+Business Media

springer-online.com

© Springer-Verlag Berlin Heidelberg 2005


Printed in Germany
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne
der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von
jedermann benutzt werden dürften.
Satz: Reproduktionsfertige Vorlage vom Übersetzer
Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig
Einbandgestaltung: design & production GmbH, Heidelberg
Gedruckt auf säurefreiem Papier 46/3142YL - 5 4 3 2 1 0
Zum Gedenken an Michaël Pollak, dessen moralischer Anspruch und
dessen Arbeit zur Politik der Sozialwissenschaften einen großen Ein-
fluß auf dieses Buch hatten.
VI

STADER: ... Hören Sie mich an: Mein Institut arbeitet mit den neu-
zeitlichen Mitteln der Wissenschaft. Mit Graphologik, Pathographik,
hereditärer Belastung, Wahrscheinlichkeitslehre, Statistik, Psychoana-
lyse, Experimentalpsychologik und so weiter. Wir suchen die wis-
senschaftlichen Elemente der Tat auf; denn alles, was in der Welt
geschieht, geschieht nach Gesetzen. Nach ewigen Gesetzen! Auf ih-
nen ruht der Ruf meines Instituts. Ungezählte junge Gelehrte und
Studenten arbeiten in meinen Diensten. Ich frage nicht nach läppi-
schen Einzelheiten eines Falls; man liefert mir die gesetzlichen Be-
stimmungsstücke eines Menschen und ich weiß, was er unter gege-
benen Umständen getan haben muß! Die moderne Wissenschaft und
Detektivik engt den Bereich des Zufälligen, Ordnungslosen, angeblich
Persönlichen immer mehr ein. Es gibt keinen Zufall! Es gibt keine
Tatsachen! Jawohl! Es gibt nur wissenschaftliche Zusammenhänge ...
Gerade in wissenschaftlichen Kreisen erfreut sich mein Institut noch
nicht des Verständnisses, das es verdient. Wofür Ihre Hilfe daher ganz
unersetzlich wäre, ist: Die Ausbildung der Detektivik als der Lehre
vom Leben des überlegenen wissenschaftlichen Menschen. Es ist nur
ein Detektivinstitut, aber auch sein Ziel ist die wissenschaftliche Ge-
staltung des Weltbildes. Wir entdecken Zusammenhänge, wir stellen
Tatsachen fest, wir drängen auf die Beobachtung der Gesetze ... Meine
große Hoffnung ist: die statistische und methodische Betrachtung der
menschlichen Zustände, die aus unsrer Arbeit folgt ...

THOMAS: Mein lieber Freund, Sie sind entschieden zu früh auf die
Welt gekommen. Und mich überschätzen Sie. Ich bin ein Kind dieser
Zeit. Ich muß mich damit begnügen, mich zwischen die beiden Stühle
Wissen und Nichtwissen auf die Erde zu setzen.

Robert Musil (1921): DIE SCHWÄRMER


Vorwort des Übersetzers

Bei der Übersetzung dieses Buches traten Probleme auf, die hin und
wieder kleinere Abweichungen und Zusätze erforderlich machten. Zum Bei-
spiel verwendet der Autor an mehreren Stellen ganz spezifische französische
Wortschöpfungen, die einem uneingeweihten Leser kaum etwas sagen, und
über deren Herkunft man auch in größeren Wörterbüchern und Nachschla-
gewerken nichts findet. Stellvertretend seien hier die folgenden drei Begriffe
genannt: adunation, bottin und barème.
Unter adunation, einem von Emmanuel Joseph Sieyès (1748–1836) ge-
prägten Wort, ist die gewollte Vereinheitlichung der Bezugssysteme zu verste-
hen, wie sie nach der Französischen Revolution verwirklicht worden ist, um die
eine und unteilbare Nation zu errichten. Diese Adunation“ hatte juristische,

metrologische und taxonomische Aspekte und schloß die Aufteilung des Ter-
ritoriums in Departements sowie die Einführung des metrischen Systems der
Maße und Gewichte ein. Die beiden anderen Begriffe leiten sich von Personen
ab, die durch das Wirken statistischer Prozesse sogar in Frankreich weitgehend
der Vergessenheit anheimgefallen sind. Unter bottin versteht man jetzt u.a. ein
Telefonbuch oder Fernsprechverzeichnis. Diese Bezeichnung wurde zu Ehren
von Sébastien Bottin geprägt, der 1799 ein politisch-wirtschaftliches Jahrbuch
( Verzeichnis“) herausgab. Das Wort barème bedeutet heute u.a. Tabelle und

leitet sich von François Barème ab, einem französischen Rechenmeister des
17. Jahrhunderts.
Bei derartigen Begriffen habe ich zur Erläuterung zusätzliche Fußnoten
eingearbeitet. Ähnlicherweise habe ich bei einer Reihe von historischen Be-
griffen ergänzende Fußnoten und Bemerkungen eingefügt, zum Beispiel bei
Ancien Régime, intendant, brumaire, germinal, l’un portant l’autre.
Bei den Erläuterungen zur Herkunft des Wortes probabilité bezieht sich
der Verfasser naturgemäß auf den früheren und auf den jetzigen französischen
Bedeutungsinhalt dieses Wortes, das lateinischen Ursprungs ist. Im Gegen-
satz hierzu hat die deutsche Übersetzung Wahrscheinlichkeit des französischen
Wortes probabilité einen ganz anderen, nichtlateinischen Ursprung. Diese Tat-
sache mußte in die deutsche Übersetzung eingearbeitet werden.
Das Buch ist 1993 erschienen, die hier übersetzte zweite französische Aus-
gabe im Jahr 2000. Wie der Verfasser in seinem Nachwort schreibt, enthält
das ursprüngliche Literaturverzeichnis die zitierten und bis 1992 veröffentlich-
ten Arbeiten. In einem zusätzlichen Literaturverzeichnis zur zweiten französi-
schen Auflage hat der Autor weitere Arbeiten angegeben, die in den Jahren
1992–2000 verfaßt worden sind; im Nachwort geht er kurz auf den Inhalt
dieser Arbeiten ein. Im dritten Teil des Literaturverzeichnisses habe ich wei-
tere Titel aufgeführt, die für den deutschsprachigen Leser von Interesse sind.
Außerdem habe ich ständig wiederkehrende Abkürzungen in einem Anhang
zusammengefaßt.
VIII

In Ergänzung zu den Abbildungen von Kapitel 4 ist unten schema-


tisch das Galtonsche Brett dargestellt, das auch als Galton-Brett oder als
Quincunx bezeichnet wird.1 Francis Galton, der Erfinder, ließ sich 1873
von einem Instrumentenbauer einen Quincunx anfertigen, den man im Gal-
ton Laboratory des University College London besichtigen kann. Galton
verwendete dieses Instrument, um bei seinen Untersuchungen über Erb-
anlagen die Eigenschaften der Binomialverteilung und der Normalvertei-
lung zu verstehen.2 Die nachstehende Abbildung ist eine Momentaufnah-

me“ eines Java-Applets von Damien Jacomy (Paris), durch das man un-
ter http://www-sop.inria.fr/mefisto/java/tutorial1/tutorial1.html
nach Anklicken von La planche de Galton ein bewegliches Bild erzeugen kann:
dabei bewirkt der simulierte Durchlauf der roten Kugeln den schrittweisen
Aufbau einer Binomialverteilung.

Der Autor machte mich freundlicherweise auf das obengenannte Java-


Applet aufmerksam und sprach sich dafür aus, die Abbildung in dieses Über-
setzervorwort aufzunehmen. Das obige Schwarzrotbild veranschaulicht die auf
Seite 132 gegebene Beschreibung des Galtonschen Bretts und ergänzt die Ab-
bildung des Zwei-Stufen-Quincunx auf Seite 136. Im Java-Applet sieht man
1
Für genauere Ausführungen zum Galtonschen Brett und zur Bezeichnung Quin-
cunx vgl. Kapitel 4 (Francis Galton: Vererbung und Statistik).
2
Den Originalentwurf von Galton findet man z.B. in W. Dyck, Katalog mathe-
matischer und mathematisch-physikalischer Modelle, Apparate und Instrumente.
Nebst Nachtrag. Nachdruck der Ausgabe 1892 und des Nachtrags 1893, Georg
Olms Verlag, Hildesheim 1994; Figur 7 auf Seite 6 des Nachtrags).
IX

weitere Farben zur Verdeutlichung des Sachverhalts und bei zunehmender


Anzahl von Versuchen zeichnet sich im Hintergrund die Normalverteilung ab.
Mein herzlicher Dank gilt Karin Richter (Martin-Luther-Universität Hal-
le, Fachbereich Mathematik) für zahlreiche – oder besser gesagt: zahllose –
Bemerkungen und für eine nicht ganz zufällige Folge von Konsultationen. Für
kontinuierlichen technischen und TEX-nischen Support danke ich Gerd Richter
(Angersdorf) und Frank Holzwarth (Springer-Verlag) ganz besonders. Eben-
so bedanke ich mich bei Peggy Glauch und Claudia Rau von der LE-TEX
Jelonek, Schmidt & Voeckler GbR (Leipzig) für hilfreiche Bemerkungen zur
Herstellung der Endfassung für den Druck.
Wertvolle Hinweise zu sprachlichen, inhaltlichen und sonstigen Fragen er-
hielt ich von Gerhard Betsch (Weil im Schönbuch), Corrado Dal Corno (Mai-
land), Lorraine Daston (Berlin), Menso Folkerts (München), Walter Hauser
(München), Jean-Noël Mesnil (Paris), Bert Scharf (Boston), Veronika Schlüter
(Darmstadt), Ivo Schneider (München) und Sylvia Stern (Springe). Für wei-
testgehendes Entgegenkommen seitens des Springer-Verlages danke ich Ute
McCrory, Angela Schulze-Thomin und enfin, tout particulièrement“ Martin

Peters.

Halle an der Saale, Herbst 2004 Manfred Stern


Inhaltsverzeichnis

Einleitung: Soziale Tatbestände als Dinge . . . . . . . . . . . . . . . . . . . . . . 1


Eine anthropologische Sicht auf die Wissenschaften . . . . . . . . . . . . . . . 4
Beschreibung und Entscheidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Wie man dauerhafte Dinge macht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Zwei Arten der historischen Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1 Präfekten und Vermessungsingenieure . . . . . . . . . . . . . . . . . . . . . 19


Deutsche Statistik: Identifizierung der Staaten . . . . . . . . . . . . . . . . . . . 22
Englische politische Arithmetik: Entstehung der Expertise . . . . . . . . . 26
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 30
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs . . . 36

Peuchet und Duvillard: schreiben oder rechnen? . . . . . . . . . . . . . . . . . 40
Wie man Diversität durchdenkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2 Richter und Astronomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51


Aleatorische Verträge und faire Abmachungen . . . . . . . . . . . . . . . . . . . 52
Konstruktiver Skeptizismus und Überzeugungsgrad . . . . . . . . . . . . . . . 58
Der Bayessche Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate . . . . . . 70

Messungsanpassungen als Grundlage für Übereinkünfte . . . . . . . . . . . 75

3 Mittelwerte und Aggregatrealismus . . . . . . . . . . . . . . . . . . . . . . . . 77


Nominalismus, Realismus und statistische Magie . . . . . . . . . . . . . . . . . 79
Das Ganze und seine Trugbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Quetelet und der Durchschnittsmensch“ . . . . . . . . . . . . . . . . . . . . . . . . 84

Konstante Ursache und freier Wille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Zwei kontroverse Fälle aus der medizinischen Statistik . . . . . . . . . . . . 93
Eine Urne oder mehrere Urnen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Der angefochtene Realismus: Cournot und Lexis . . . . . . . . . . . . . . . . . 103
Durchschnittstyp und Kollektivtyp bei Durkheim . . . . . . . . . . . . . . . . 108
Der Realismus der Aggregate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
XII Inhaltsverzeichnis

4 Korrelation und Ursachenrealismus . . . . . . . . . . . . . . . . . . . . . . . . 117


Karl Pearson: Kausalität, Kontingenz und Korrelation . . . . . . . . . . . . 120
Francis Galton: Vererbung und Statistik . . . . . . . . . . . . . . . . . . . . . . . . 127
Schwer zu widerlegende Berechnungen . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Fünf Engländer und der neue Kontinent . . . . . . . . . . . . . . . . . . . . . . . . 144
Kontroversen über den Realismus der Modelle . . . . . . . . . . . . . . . . . . . 152
Yule und der Realismus der administrativen Kategorien . . . . . . . . . . . 156
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz . 162

5 Statistik und Staat:


Frankreich und Großbritannien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Französische Statistik – eine diskrete Legitimität . . . . . . . . . . . . . . . . . 169
Entwurf und Scheitern eines Einflußnetzwerks . . . . . . . . . . . . . . . . . . . 175
Statistik und Wirtschaftstheorie – eine späte Verbindung . . . . . . . . . . 182
Britische Statistik und öffentliche Gesundheit . . . . . . . . . . . . . . . . . . . . 186
Sozialenqueten und wissenschaftliche Gesellschaften . . . . . . . . . . . . . . 193

6 Statistik und Staat:


Deutschland und die Vereinigten Staaten . . . . . . . . . . . . . . . . . . 199
Deutsche Statistik und Staatenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Historische Schule und philosophische Tradition . . . . . . . . . . . . . . . . . . 206
Volkszählungen in der amerikanischen politischen Geschichte . . . . . . 211
Das Census Bureau: Aufbau einer Institution . . . . . . . . . . . . . . . . . . . . 218
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte . 222

7 Pars pro toto: Monographien oder Umfragen . . . . . . . . . . . . . . 235


Die Rhetorik des Beispiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Halbwachs: Die soziale Gruppe und ihre Mitglieder . . . . . . . . . . . . . . . 243
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 246
Von Monographien zu systematischen Stichprobenerhebungen . . . . . 251
Wie verbindet man was man schon weiß“ mit dem Zufall? . . . . . . . . 257

Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen . . . . . . . . . . . . . . . 258

8 Klassifizierung und Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263


Statistik und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Die Taxonomien der Lebewesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Die Durkheimsche Tradition: sozio-logische Klassifizierungen . . . . . . 270
Die Zirkularität von Wissen und Handeln . . . . . . . . . . . . . . . . . . . . . . . 274
Gewerbliche Tätigkeiten: instabile Verbindungen . . . . . . . . . . . . . . . . . 277
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen . . . . 283
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum . . . . 288
Vom Gewerbe zur qualifizierten Tätigkeit . . . . . . . . . . . . . . . . . . . . . . . 293
Vier Spuren der Französischen Revolution . . . . . . . . . . . . . . . . . . . . . . . 297
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit . 302
Wie man einer Sache Zusammenhalt verleiht . . . . . . . . . . . . . . . . . . . . 306
Inhaltsverzeichnis XIII

9 Modellbildung und Anpassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311


Wirtschaftstheorie und statistische Beschreibung . . . . . . . . . . . . . . . . . 314
Glaubensgrad oder Langzeithäufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 317
Zufälligkeiten und Regelmäßigkeiten: Frisch und der Schaukelstuhl . 323
Mittel gegen die Krise: Das Modell von Tinbergen . . . . . . . . . . . . . . . . 328
Ingenieure und Logiker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
Über den richtigen Gebrauch der Anpassung . . . . . . . . . . . . . . . . . . . . 336
Autonomie und Realismus von Strukturen . . . . . . . . . . . . . . . . . . . . . . 343
Drei Methoden zur Berechnung des Nationaleinkommens . . . . . . . . . . 347
Theorien testen oder Diversität beschreiben? . . . . . . . . . . . . . . . . . . . . 351

Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen . . . . . . . . . 359


Ein zu praktischen Zwecken konstruierter kognitiver Raum . . . . . . . . 360
Mittelwerte und Regelmäßigkeiten, Skalen und Verteilungen . . . . . . . 363
Ein Raum für Verhandlungen und Berechnungen . . . . . . . . . . . . . . . . . 368
Statistische Argumentation und soziale Debatten . . . . . . . . . . . . . . . . . 372

Nachwort: Wie schreibt man Bücher, die Bestand haben? . . . . . 375


Einige zwischen 1993 und 2000 veröffentlichte Arbeiten . . . . . . . . . . . 375
Wie verbindet man die Aspekte der Geschichte der Statistik? . . . . . . 378
Wie bedienen sich die Sozialwissenschaften dieser Aspekte? . . . . . . . . 380
Kritiken und Diskussionsthemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385

Anhang: Abkürzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393

Namensverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
Einleitung: Soziale Tatbestände als Dinge

Arbeitslosigkeit, Inflation, Wachstum, Armut, Fertilität – diese Objekte und


ihre statistischen Messungen dienen als Anhaltspunkte zur Beschreibung öko-
nomischer Situationen, zur Denunziation3 sozialer Ungerechtigkeiten und zur
Rechtfertigung politischer Aktionen. Diese Anhaltspunkte sind Bestandteil
routinemäßiger Anwendungen, die zur Formung der Realität der beschriebe-
nen Landschaft beitragen, indem sie eine stabile und weitgehend akzeptierte
Sprache liefern, in der sich die Debatte ausdrückt. Aber die Anwendungen
implizieren ein Paradoxon. Die Bezugspunkte, das heißt die Objekte, müssen
als unanfechtbar wahrgenommen werden und über dem Streit stehen. Wie
also soll eine Debatte angelegt sein, die sich um genau die obengenannten
Objekte dreht? Fragen dieser Art werden oft im Zusammenhang mit Denun-
ziationen aufgeworfen. Lügt die Statistik? Wie groß ist die tatsächliche Anzahl
der Arbeitslosen? Welches ist der wahre Fertilitätsrate? Als Bezugspunkte der
Debatte sind die betreffenden Messungen ebenfalls Gegenstand der Debatte.
Die Kontroversen lassen sich in zwei Kategorien einteilen, je nachdem, ob
sie sich nur auf die Messung beziehen oder ob sie das Objekt selbst betreffen.
Im ersten Fall ist die Realität des zu messenden Dings von der Meßtätigkeit
unabhängig. Die Realität wird nicht infrage gestellt. Die Diskussion dreht sich
um die Art und Weise, in der die Messung erfolgt und um die Zuverlässigkeit“

des statistischen Prozesses auf der Grundlage der von den physikalischen Wis-
senschaften oder von der Industrie gelieferten Modelle. Im zweiten Fall faßt
man jedoch die Existenz und die Definition des Objekts als Konventionen
auf, über die man diskutieren kann. Die Spannung zwischen diesen beiden
Standpunkten – der eine betrachtet die zu beschreibenden Objekte als reale
Dinge, der andere hingegen als Ergebnis von Konventionen – ist schon seit
langem Bestandteil der Geschichte der Humanwissenschaften, ihrer jeweili-
3
Für genauere Ausführungen zur Bedeutung des hier durchgehend verwendeten
Begriffs Denunziation“ verweisen wir auf das Buch Homo academicus von Bour-

dieu, 1988, [357]. (Die Zahlen in eckigen Klammern beziehen sich auf das Litera-
turverzeichnis am Ende des Buches.)
2 Einleitung: Soziale Tatbestände als Dinge

gen sozialen Anwendungen und der einschlägigen Debatten. Im vorliegenden


Buch analysieren wir die Beziehung zwischen diesen beiden Interpretationen:
es ist schwierig, sich gleichzeitig vorzustellen, daß die gemessenen Objekte
tatsächlich existieren und daß es sich dabei dennoch nur um Konventionen
handelt.
Die erste und grundlegende Regel besteht darin, die sozialen Tatbestände4

als Dinge zu behandeln“. Mit dieser seiner 1894 aufgestellten Regel der sozio-
logischen Methode stellte Durkheim die Sozialwissenschaften in eine Perspek-
tive der Objektivierung wie sie für die Naturwissenschaften charakteristisch
ist. Aber die Formulierung ist zweideutig. Die Durkheimsche Regel läßt sich
auf zweierlei Weise lesen. Zum einen als Realitätsbestätigung und zum an-
deren als methodologische Herangehensweise: Die sozialen Tatbestände sind

Dinge“ oder Die sozialen Tatbestände müssen so behandelt werden, als ob

sie Dinge wären“. Bei der zweiten Lesart liegt die Betonung auf den Wörtern
behandeln und als ob. Diese Wörter implizieren eine instrumentalistische Ein-
stellung, bei der die Frage nach der Realität der Dinge eine untergeordnete
Rolle spielt. Hier zählen die Prozedur und die diesbezüglichen Konventionen,
mit denen so getan wird als ob“.

Diese Schwierigkeiten ähneln denjenigen, mit denen sich die Erfinder der
statistischen Ausdrucksweisen konfrontiert sahen, welche es uns ihrerseits
ermöglichen, die sozialen Tatbestände in Dingen zu konstituieren. Heute stützt
sich die Sprache der Statistik auf klar formalisierte synthetische Begriffe: Mit-
telwerte, Standardabweichungen, Wahrscheinlichkeit, Äquivalenzklassen, Kor-
relation, Regression, Stichproben, Nationaleinkommen, Schätzungen, Tests,
Residuen, Maximum-Likelihood-Methode, simultane Gleichungen. Studenten,
Forscher oder Anwender von statistischen Daten bekommen kompakte Begrif-
fe in die Hand, die in knappe und ökonomische Formeln gegossen sind. Diese
Werkzeuge sind jedoch ihrerseits das Ergebnis eines historischen Entstehungs-
prozesses, der von Phasen des Zauderns, von Neuübersetzungen und Interpre-
tationskonflikten durchsetzt ist. Zur Meisterung dieser Werkzeuge muß sich
der Lernende Fragen stellen, die über Jahrzehnte oder sogar Jahrhunderte
diskutiert worden sind – und er muß diese Fragen in kurzer Zeit beantworten.
Die Weiterführung dieser Debatten ist nicht nur das Ergebnis einer gelehr-
ten Neugier, die gleichsam als gefühlsmäßige Zulage bei der Aneignung von
formalisierten Techniken in Erscheinung tritt, sondern stellt eine Orientie-
rung und eine Hilfe im Prozeß des Lernens und des Verstehens bereit. Die
Hindernisse, denen sich die Innovatoren von gestern bei der Transformation
von sozialen Tatbeständen in Dinge gegenübergestellt sahen, gleichen denje-
nigen Hindernissen, die auch heute noch einen Studenten stören können und
zur Erschwerung der gleichzeitigen Vorstellung der beiden Interpretationen
– das heißt der realistischen und der nichtrealistischen Interpretation – der
4
Der französische Begriff fait social“ und seine englische Entsprechung social
” ”
fact“ werden im Deutschen auch durch soziologischer Tatbestand“ wiedergege-

ben.
Einleitung: Soziale Tatbestände als Dinge 3

Durkheimschen Regel beitragen. Die Geschichte vermittelt uns ein Verständ-


nis dessen, auf welche Weise die sozialen Tatbestände zu Dingen geworden
sind – und zwar für jeden, der statistische Techniken anwendet.
Diese Techniken sollen wissenschaftliche und politische Argumente unter-
mauern. Die Entstehungsgeschichte der Techniken ermöglicht es uns, die alten
Kontroversen und Debatten zurückzuverfolgen und dadurch einen Raum zu
skizzieren, in dem die technische Sprache und deren Anwendung in der sozialen
Debatte miteinander verknüpft werden. Statistische Argumente können nur
dann in eine reflexive Wissenschaftskultur reintegriert werden, wenn wir auf
die Begriffsübertragungen und Debatten zurückkommen und dabei die Pfa-
de der Ungewißheit und die Momente der Innovation wiederentdecken. Diese
Vorgehensweise führt dazu, daß es zu ständig neuen Verbindungen zwischen
den alten Schemata kommt.
Die Werkzeuge der Statistik ermöglichen die Entdeckung oder die Erschaf-
fung von Entitäten, auf die wir uns zur Beschreibung der Welt stützen und
dabei Einfluß auf den Gang der Dinge nehmen. Von diesen Objekten können
wir sagen, daß sie gleichzeitig real und konstruiert sind, sobald sie in anderen
Zusammenhängen wiederholt verwendet werden und unabhängig von ihrem
Ursprung zirkulieren. Damit teilen diese Objekte das Schicksal zahlreicher an-
derer Produkte. Wir rufen die Geschichte und die Soziologie der Statistik auf
den Plan, um die Art und Weise zu verfolgen, in der die betreffenden Objek-
te geschaffen und wieder abgeschafft werden, wobei man sie zur Förderung
von Wissen und Handeln in eine realistische oder nicht-realistische Rhetorik
einkleidet. In Abhängigkeit vom jeweiligen Fall wird der antirealistische (oder
einfach nicht-realistische) Standpunkt als nominalistisch, relativistisch, instru-
mentalistisch oder konstruktivistisch bezeichnet. Es gibt zahlreiche mögliche
Einstellungen in Bezug auf wissenschaftliche (insbesondere statistische) Kon-
struktionen. Die Auffassungen unterscheiden sich häufig sowohl in theoreti-
scher als auch in praktischer Hinsicht. Dieser Umstand legt es nahe, nicht
Partei für eine dieser Einstellungen zu ergreifen, um die anderen zu denunzie-
ren. Vielmehr kann es sich als fruchtbarer erweisen, diejenigen Umstände zu
untersuchen, unter denen sich jede der genannten Sichtweisen auf kohärente
Weise in ein allgemeines Gefüge, in ein Netz von Aufzeichnungen einordnen
läßt.
Die Frage nach der Realität hängt mit der Solidität dieses Netzes und des-
sen Widerstandsfähigkeit gegenüber Kritik zusammen. Je umfassender und
dichter dieses Netz ist, desto realer ist es. Die Wissenschaft ist ein unermeßli-
ches und unermeßlich reales Netz. Wahrscheinlichkeitsrechnung und Statistik
sind wesentliche Werkzeuge zur Auffindung, zur Konstruktion und zum Beweis
wissenschaftlicher Fakten – sowohl in den Naturwissenschaften als auch in den
Sozialwissenschaften. Nehmen wir die realistische und die nicht-realistische
Einstellung in Bezug auf die statistischen Techniken gleichermaßen ernst, dann
besteht die Möglichkeit, eine größere Vielfalt von Situationen zu beschreiben
– auf jeden Fall aber sind wir dann dazu in der Lage, überraschendere Ge-
4 Einleitung: Soziale Tatbestände als Dinge

schichten zu erzählen, als wenn wir eine Erzählungsform gewählt hätten, die
den einen oder den anderen Standpunkt bevorzugt.

Eine anthropologische Sicht auf die Wissenschaften

Als Untersuchungsobjekt nehmen wir uns diejenigen Praktiken vor, die Wis-
senschaft und Handeln in besonders spezifischer Weise miteinander verbinden.
Dabei werden wir nicht aufzeigen, wie diese Interaktion beschaffen sein sollte,
sondern wie sie – historisch und sozial – gewesen ist. Zu diesem Zweck müssen
wir Debattenkontexte und alternative oder konkurrierende Sprech- und Ver-
fahrensweisen rekonstruieren. Darüber hinaus müssen wir in den sich mit der
Zeit ändernden Kontexten auch Bedeutungsverschiebungen und Neuinterpre-
tationen von Objekten verfolgen. Auf diesem Untersuchungsgebiet geht es um
die Interaktion zwischen der Welt des Wissens und der Welt der Macht, zwi-
schen Beschreibung und Entscheidung, zwischen es gibt“ und wir müssen“ –
” ”
und genau aus diesem Grund besteht eine besondere Beziehung zur Geschich-
te, eine Beziehung, die der Forschungstätigkeit zeitlich vorausgeht. Man kann
sich auf die Geschichte berufen, um eine Tradition Wurzeln schlagen zu lassen,
um die Schilderung der Gründung einer Gemeinschaft zu pflegen und um die
Identität dieser Gemeinschaft zu bekräftigen. Die Geschichte kann aber auch
zu polemischen Zwecken in Momenten oder Situationen eines Konflikts oder
einer Krise angerufen werden, um irgendeinen verborgenen Aspekt zu denun-
zieren. Diese beiden Möglichkeiten, sich auf die Geschichte zu berufen, können
als einseitig oder partiell bezeichnet werden, denn sie sind an den jeweiligen
Intentionen ausgerichtet und werden in diesem Sinne geformt – im vorliegen-
den Fall durch die Absicht, eine Identität zu bestätigen oder zu denunzieren.
Dennoch ist es nicht möglich, die betreffenden Darstellungen in umfassender
Weise zu behandeln, denn sie sind immer viel zahlreicher und vielgestaltiger,
als wir es uns vorstellen können.
Andererseits können wir die Debattenräume und die Spannungslinien re-
konstruieren, an denen sich unterschiedliche Ansichten positionierten und mit-
einander vermischten. Das schließt die Rekonstruktion dieser Ansichten mit
Hilfe eines Vokabulars ein, das der Terminologie der Akteure ähnelt, wobei
dieses Vokabular gleichzeitig objektiviert, das heißt zum Vorschein gebracht
wird. Beispielsweise erwähnen wir, wie sich eine um ihre Tradition bemühte
Gemeinschaft auf die Geschichte beruft. Man hätte auch von Selbstzelebrie-

rung“ oder von einem apologetischen Diskurs“ sprechen können. Ich habe

jedoch den Begriff Identitätsbestätigung“ bevorzugt, denn das ist die Bedeu-

tung, welche die Akteure diesem historischen Brauch gegeben haben. Diese
Verwendungsweise bildet – ebenso wie der polemische Sprachgebrauch – das
Material für die gewünschte anthropologische Rekonstruktion. Es geht nicht
mehr darum, ob eine Schilderung wahr ist, sondern es geht um den Platz, den
diese Schilderung unter zahlreichen anderen einnimmt.
Eine anthropologische Sicht auf die Wissenschaften 5

Es besteht die Gefahr, im Überfluß dieser Schilderungen unterzugehen. Die


hier folgende Darstellung ist nicht linear geordnet, wie es bei der Geschichte
der aufgeklärten, über die Finsternis triumphierenden Wissenschaft der Fall
ist. Bei der linearen Darstellungsweise erscheint die Beschreibung der Ver-
gangenheit als Sortierverfahren, das bereits vorhandene Dinge von noch nicht
existierenden Dingen trennt, oder aber als Methode, mit deren Hilfe man nach
Vorgängern sucht. Anstelle der Definition einer unzweideutigen Richtung des
Fortschritts durch Ordnen und Beschreiben sukzessiver Konstrukte gebe ich
in der Einleitung einige Spannungslinien an, die in der einen oder anderen
Weise zur Strukturierung der aufgetretenen Debatten geführt haben. Zu be-
achten ist, daß die Gegensätze im Laufe der Zeit Schwankungen unterworfen
sind. Es handelt sich dabei häufig um Rückübersetzungen oder Metamorpho-
sen der jeweiligen Begriffe: Beschreibung und Entscheidung, objektive und
subjektive Wahrscheinlichkeiten, Frequentismus und Epistemismus, Realis-
mus und Nominalismus, Meßfehler und natürliche Streuung. Es ist jedoch kein
vollständiges Verständnis der in dieser Einleitung genannten Themen erfor-
derlich, um die nachfolgenden Kapitel zu lesen. Ich versuche hier einfach nur,
einen Zusammenhang zwischen scheinbar disparaten Elementen von Schilde-
rungen herzustellen und wende mich dabei an Leser, die einen gleichermaßen
vielfältigen kulturellen Hintergrund haben. Die Diversität, die das Unterfan-
gen so schwierig macht, hängt mit dem Stellenwert der statistischen Kultur
in der wissenschaftlichen Kultur und dem Stellenwert der wissenschaftlichen
Kultur in der allgemeinen Kultur zusammen. Diese Diversität ist Bestandteil
des hier zu untersuchenden Objekts.
Die Geschichte und die Soziologie der Wissenschaften werden seit langem
von zwei extrem unterschiedlichen – wenn nicht gar konträren – Standpunkten
aus untersucht, die man als internalistisch“ bzw. externalistisch“ bezeich-
” ”
net. Der internalistische Standpunkt besagt, daß es sich um die Geschichte
des Wissens handelt, um die Geschichte der Instrumente und der Resulta-
te, um die Geschichte der Sätze und ihrer Beweise. Diese Geschichte wird
von den Spezialisten der jeweiligen Disziplinen geschrieben (das heißt von
Physikern, Mathematikern u.a.). Im Gegensatz hierzu geht es beim externa-
listischen Standpunkt um die Geschichte der sozialen Bedingungen, die den
Lauf der erstgenannten Geschichte ermöglicht oder auch erschwert haben:
Labors, Institutionen, Finanzierungen, individuelle wissenschaftliche Karrie-
ren und Beziehungen zur Industrie oder zur Staatsmacht. Diese Geschich-
te wird üblicherweise von Historikern und von Soziologen geschrieben. Die
Beziehungen zwischen der internalistischen und der externalistischen Auffas-
sung sind Gegenstand zahlreicher Debatten und blicken ihrerseits auf eine
komplexe Geschichte zurück (Pollak, 1985, [235]). In den 1950er und 1960er
Jahren predigte beispielsweise Merton eine deutliche Aufgabentrennung. Er
untersuchte die normalen Funktionsregeln einer effizienten Wissenschaftsge-
meinde: Professionalisierung, Institutionalisierung und Forschungsautonomie,
6 Einleitung: Soziale Tatbestände als Dinge

Rivalität zwischen den Forschern, Transparenz der Ergebnisse, Beurteilungen


durch Peergruppen5 .
Mit Beginn der 1970er Jahre stellte man diese Arbeitsteilung sowohl in
Großbritannien (Bloor, 1982, [17]) als auch in Frankreich (Callon, 1989, [42];
Latour, 1989, [167]) infrage. Das starke Programm“ dieser Autoren richtete

das Scheinwerferlicht auf die im Entstehen begriffene“ Wissenschaft. Dabei

wurde die Gesamtheit der praktischen wissenschaftlichen Operationen berück-
sichtigt, einschließlich der Operationen innerhalb eines Labors. Diese Opera-
tionen werden durch die Registrierung und Konsolidierung von Objekten und
durch die Schaffung immer umfassenderer und dauerhafterer Netze von Alli-
anzen beschrieben – Allianzen, die zwischen den Objekten und den Menschen
geschmiedet werden. Aus dieser Sicht verschwindet der Unterschied zwischen
technischen und sozialen Objekten, welcher der Trennung zwischen interna-
listischer und externalistischer Geschichtsauffassung zugrunde liegt, und die
Soziologie untersucht die Gesamtheit der betreffenden Objekte und Netze.
Insbesondere in wissenschaftlichen Kreisen hat diese Forschungslinie einige
Autoren vor den Kopf gestoßen: sie zeichnet sich nämlich u.a. dadurch aus,
daß sie die Frage nach der Wahrheit als nachgeordnet betrachtet. Bei der im
Entstehen begriffenen Wissenschaft (hot science) ist die Wahrheit noch ein
Streitobjekt, ein Debattengegenstand. Nur allmählich, wenn sich die Wissen-
schaft wieder abkühlt“, werden gewisse Ergebnisse durch Einkapselung“ zu
” ”
anerkannten Tatsachen“, während andere gänzlich verschwinden.

Dieses Programm hat Anlaß zu Mißverständnissen gegeben. Positioniert
man nämlich die Frage nach der Wahrheit dermaßen außerhalb des jeweiligen
Gebietes und favorisiert man auf diese Weise die Analyse derjenigen sozia-
len Mechanismen, die dem Kampf um die Überführung gewisser Resultate
in anerkannte Fakten zugrundeliegen, dann hat es den Anschein, als negie-
re man die Möglichkeit einer Wahrheit überhaupt und bevorzuge stattdessen
eine Art Relativismus, bei dem alles zu einer Frage der Meinung oder des
Kräfteverhältnisses wird. Die Richtung des Programms ist jedoch subtiler.
Denn der Durkheimsche Wahlspruch Man muß die sozialen Tatbestände als

Dinge behandeln“ darf nicht nur als Realitätsaussage aufgefaßt werden, son-
dern ist auch als methodologische Entscheidung anzusehen. Wir können dieser
Forschungslinie auch folgen, um andere Dinge aufzuzeigen. Auf dem Gebiet
der Wahrscheinlichkeitsrechnung und der Statistik, wo sich schon immer die
Probleme des Staates und der Entscheidungsfindung mit den Problemen des
Wissens und der Erklärung vermischt haben, drängt sich die Herausforderung
eines Programms, das über die Trennung zwischen internalistischer“ und ex-
” ”
5
Unter Peergruppe (engl. peer group) ist hier eine Gleichrangigengruppe“ zu ver-

stehen.
Beschreibung und Entscheidung 7

ternalistischer“ Geschichte hinausgeht, sogar noch zwingender auf, als es in


der theoretischen Physik und in der Mathematik der Fall ist.6

Beschreibung und Entscheidung

Die Spannung zwischen diesen beiden Standpunkten, das heißt zwischen dem
deskriptiven und dem präskriptiven Standpunkt, kann in einer Geschichte
der Wahrscheinlichkeitsrechnung und der statistischen Techniken als Triebfe-
der der Schilderung verwendet werden. Die Rationalität einer Entscheidung
– ganz gleich, ob sie individuell oder kollektiv getroffen wird – hängt mit der
Fähigkeit zusammen, auf Dingen aufzubauen, die eine stabile Bedeutung ha-
ben: dadurch wird es möglich, Vergleiche durchzuführen und Äquivalenzen
aufzustellen. Diese Forderung gilt gleichermaßen für jemanden, der die zeit-
liche Kontinuität seiner Identität garantieren möchte (zum Beispiel bei der
Übernahme von Risiken, beim Verleihen von Geld gegen Zinsen, bei Versiche-
rungen und bei Wetten), wie auch für Personen, die – ausgehend vom gesunden
Menschenverstand und von objektiven Gegebenheiten – all das konstruieren
möchten, was die Garantie einer sozialen Existenz ermöglicht, die über die
individuellen Kontingenzen hinausgeht. Eine Beschreibung läßt sich also mit
einer Geschichte vergleichen, die von einer Person oder von einer Gruppe von
Personen erzählt wird – mit einer hinreichend stabilen und objektivierten Ge-
schichte, die sich unter anderen Umständen erneut und insbesondere dazu
verwenden läßt, Entscheidungen zu untermauern, die man für sich selbst oder
für andere trifft.
Das galt bereits für Beschreibungsformen, die allgemeiner waren als die-
jenigen, die sich seit dem späten 17. Jahrhundert aus den Techniken der
Wahrscheinlichkeitsrechnung und der Statistik entwickelt hatten: zum Bei-
spiel für Beschreibungen, die auf einem theologischen Fundament ruhten. Mit
der Gründung wissenschaftlicher Akademien, mit dem Auftreten professionel-
ler Gelehrter und mit der Durchführung von reproduzierbaren – und somit
vom Experimentator unabhängigen – Versuchen entstand im 17. Jahrhundert
eine neue Art von Objektivität. Diese Objektivität hing mit der sozialen und
argumentativen Autonomie eines neuen Beschreibungsraumes zusammen, den
die Wissenschaft liefert. Die Sprache der Wissenschaft stützt ihre Originalität
auf ihre Unabhängigkeit von anderen Sprachen – den Sprachen der Religion,
des Rechts, der Philosophie und der Politik – und hat deswegen eine wi-
dersprüchliche Beziehung zu diesen Sprachen. Die Sprache der Wissenschaft
macht einerseits eine Objektivität und somit eine Universalität geltend, die –
falls dieser Anspruch erfolgreich durchgesetzt wird – auch Anhaltspunkte und
allgemeine Bezugspunkte für die Debatte über andere Räume bereitstellt: das
6
Aber nicht alle Forscher treffen diese Wahl. Zum Beispiel ist das ungemein nütz-
liche Werk von Stephen Stigler (1986, [267]) zur Geschichte der mathematischen
Statistik des 19. Jahrhunderts hauptsächlich internalistisch angelegt.
8 Einleitung: Soziale Tatbestände als Dinge

ist der Aspekt der unanfechtbaren Wissenschaft“. Andererseits kann diese



Autorität, die ihre Berechtigung im eigentlichen Prozeß der Objektivierung
und in ihren strikten Forderungen nach Universalität findet, nur dann aus-
geübt werden, wenn sie Bestandteil der Gesamtheit der Handlungen, der Ent-
scheidungen und der Transformationen der Welt ist. Diese Autorität ist der
Motor des Prozesses – und sei es nur durch die zu lösenden Fragen, durch die
mit diesen Fragen zusammenhängenden mentalen Strukturen und durch die
materiellen Mittel zur dauerhaften Erfassung neuer Dinge in übertragbaren
Formen.
Es geht also nicht darum, zu wissen, ob man sich eine reine – das heißt eine
von ihren unreinen“ Anwendungen autonomisierte – Wissenschaft schlicht-

weg vorstellen kann, und sei es nur als ein unerreichbares Ideal. Vielmehr
geht es um die Untersuchung der Art und Weise, in der die zwischen dem
Objektivitäts- und Universalitätssanspruch und dem festen Zusammenhang
zum Handlungsuniversum bestehende Spannung die Quelle für die eigentliche
Dynamik der Wissenschaft und für die Transformationen und Rücküberset-
zungen ihrer kognitiven Schemata und ihres technischen Instrumentariums
darstellt. In der Geschichte der Wahrscheinlichkeitsrechnung und der Stati-
stik, die nacheinander mit der Zähmung“ von Risiken, der Verwaltung von

Staaten, der Beherrschung der biologischen und ökonomischen Reproduktion
von Gesellschaften, aber auch mit der Kontrolle der militärischen und admini-
strativen Tätigkeiten zusammenhing, wimmelt es von Beispielen für derartige
Transformationen. Im Falle der Wahrscheinlichkeitsrechnung haben wir den
Übergang vom Begriff des Glaubensgrundes“ zum Begriff des Häufigkeitsli-
” ”
mits bei einer größeren Anzahl von Ziehungen“ (Kapitel 2); im Falle der sta-
tistischen Techniken stellen wir die Rückübersetzung der Interpretation von
Mittelwerten und der Methode der kleinsten Quadrate fest – von der Feh-
lerrechnung in der Astronomie und dem Durchschnittsmenschen“ (homme

moyen) von Quetelet (Kapitel 3) bis hin zur Vererbungsanalyse von Pearson
und zur Armutsanalyse von Yule (Kapitel 4).
Die komplexe Verbindung zwischen dem präskriptiven und dem deskripti-
ven Standpunkt kommt besonders deutlich in der Geschichte der Wahrschein-
lichkeitsrechnung zum Ausdruck, wo man dem immer wiederkehrenden Ge-
gensatz zwischen subjektiver und objektiver Wahrscheinlichkeit begegnet. In
einer anderen Terminologie ist es der Widerspruch zwischen epistemischer
und frequentistischer Wahrscheinlichkeit (Hacking, 1975, [117]). Aus episte-

mischer“ Sicht handelt es sich um einen Glaubensgrad. Die Ungewißheit der
Zukunft und die Unvollständigkeit unseres Wissens über das Universum impli-
zieren Wetten über die Zukunft und über das Universum. Die Wahrscheinlich-
keitsrechnung gibt rationalen Menschen Verhaltensregeln in die Hand, wenn
Informationen fehlen. Aus frequentistischer“ Sicht liegen dagegen Diversität

und Zufall in der Natur selbst begründet und sind nicht einfach nur das Er-
gebnis unvollständigen Wissens. Es handelt sich um externe, vom Menschen
unabhängige Faktoren, die zum Wesen der Dinge gehören. Der Wissenschaft
kommt die Aufgabe zu, die beobachteten Häufigkeiten zu beschreiben.
Beschreibung und Entscheidung 9

Die beiden Wahrscheinlichkeitsauffassungen sind durch zahlreiche Kon-


struktionen miteinander verknüpft worden. Zunächst gibt es, beginnend mit
Jakob Bernoulli (1713), unterschiedliche Formulierungen des Gesetzes der

großen Zahlen“. Dieses Gesetz ist der Grundpfeiler, der die beiden Standpunk-
te miteinander verbindet – unter dem wichtigen Vorbehalt, daß sich zufällige
Ereignisse unter identischen Bedingungen beliebig reproduzieren lassen (zum
Beispiel Kopf oder Zahl“ beim Werfen einer Münze oder die Augen“ bei
” ”
Würfelspielen). Das ist jedoch nur ein äußerst geringer Teil der Situationen,
deren Ausgang ungewiß ist. In anderen Situationen führt der Satz von Bayes
(1765, [10]), der die partiellen Informationen beim Auftreten einiger weniger
Ereignisse mit der Hypothese einer A-priori -Wahrscheinlichkeit“ verknüpft,

zu einer besser gesicherten A-posteriori-Wahrscheinlichkeit“, welche die Ra-

tionalität einer Entscheidung erhöht, die auf einem unvollständigen Wissen
beruht. Die vom Standpunkt der Verhaltensrationalisierung plausible (epi-
stemische) Argumentation ist aus deskriptiver (frequentistischer) Sicht nicht
mehr plausibel, bei der eine A-priori -Wahrscheinlichkeit“ keine Grundlage

hat. Diese Spannung zieht sich durch die gesamte Geschichte der Statistik
und ist der Dreh- und Angelpunkt für den Gegensatz zwischen den beiden
Auffassungen: in dem einen Fall veranlaßt man“ etwas, da eine Entschei-

dung getroffen werden muß; im anderen Fall gibt man sich nicht mit einer
ungerechtfertigten Hypothese zufrieden, die nur als Anleitung zum Handeln
gedacht ist.
Die Diskussion über den Wissensstand, der von den ab Mitte des 19. Jahr-
hunderts gegründeten statistischen Bureaus akkumuliert wurde, hängt eben-
falls mit der Spannung zwischen den beiden Auffassungen – das heißt zwischen
dem präskriptiven und dem deskriptiven Standpunkt – zusammen. Die admi-
nistrative Produktionstätigkeit statistischer Information befand sich von ihren
frühesten Ursprüngen an – aufgrund ihrer Ansprüche, ihrer Funktionsregeln
und wegen ihrer öffentlich angekündigten Finalität – in einer ungewöhnlichen
Position: sie kombinierte die Normen der Welt der Wissenschaft mit denen
des modernen, rationalen Staates, also mit Normen, die sich auf die Bedienung
des allgemeinen Interesses und der Effizienz konzentrieren. Die Wertesysteme
dieser beiden Welten sind nicht antinomisch, unterscheiden sich aber dennoch
voneinander. Die Ämter für öffentliche Statistik kombinieren in subtiler Weise
diese beiden Autoritätstypen, die von der Wissenschaft und vom Staat getra-
gen werden (Kapitel 1, 5 und 6).
Wie die Etymologie des Wortes zeigt, hängt die Statistik mit dem Aufbau
des Staates, mit dessen Vereinheitlichung und seiner Verwaltung zusammen.
All das beinhaltet die Aufstellung von allgemeinen Formen, Äquivalenzklassen
und Nomenklaturen, die über die Singularitäten der individuellen Situationen
hinausgehen – sei es durch die Kategorien des Rechts (juristischer Standpunkt)
oder durch Normen und Standards (Standpunkt der Verwaltungsökonomie
und der wirtschaftlichen Effektivität). Der Kodierungsvorgang, bei dem ei-
ne Zuordnung von Einzelfällen zu Klassen erfolgt, ist eines der wesentlichen
Merkmale des Staates, die er durch und über seine Behörden zum Ausdruck
10 Einleitung: Soziale Tatbestände als Dinge

bringt. Beide Vorgänge, das heißt die Definition von Äquivalenzklassen und die
Kodierung, sind die konstituierenden Schritte der statistischen Arbeit (Kapitel
8). Diese Arbeit ist nicht nur ein Nebenprodukt der Verwaltungstätigkeit zum
Zweck des Wissenserwerbs, sondern wird auch direkt durch diese Tätigkeit
konditioniert, wie man anhand der Geschichte der Zählungen, Stichprobener-
hebungen (Kapitel 7), Indizes und der volkswirtschaftlichen Gesamtrechnung
erkennt – alles untrennbar miteinander verbundene Erkenntnis- und Entschei-
dungsinstrumente.
Der Zusammenhang zwischen Beschreibung und Verwaltung kommt deut-
lich zum Vorschein, wenn mehrere Staaten – wie es heute in der Europäischen
Union der Fall ist – ihre Steuergesetzgebung, Sozialgesetzgebung und Wirt-
schaftsgesetzgebung harmonisieren, um den freien Verkehr von Menschen,
Gütern und Kapital zu ermöglichen. Ein Vergleich der statistischen Systeme
bringt zahlreiche Unterschiede an den Tag, deren Harmonisierung eine gewal-
tige Arbeit bedeutet, die mit dem Aufwand zur Vereinheitlichung der Ge-
setzesvorschriften, Normen und Standards verglichen werden kann. Die Kon-
struktion eines politischen Raumes impliziert und ermöglicht die Schaffung
eines einheitlichen Meßraumes, in dem man die Dinge vergleichen kann, weil
die Kategorien und die Kodierungsverfahren identisch sind. So war die Arbeit
an der Standardisierung des Territoriums eine der wesentlichen Aufgaben der
Französischen Revolution von 1789 mit ihrem einheitlichen System der Maße
und Gewichte, mit der Aufteilung des Territoriums in Departements, mit der
Schaffung eines säkularen Zivilstaates und eines Bürgerlichen Gesetzbuches.

Wie man dauerhafte Dinge macht

Die moderne Statistik ist das Ergebnis der Vereinigung wissenschaftlicher


und administrativer Praktiken, die ursprünglich weit voneinander entfernt
waren. In diesem Buch versuche ich, Schilderungen miteinander zu verbinden,
die üblicherweise getrennt voneinander behandelt werden: die technische Ge-
schichte der kognitiven Schemata sowie die Sozialgeschichte der Institutionen
und der statistischen Quellen. Der Faden, der diese Schilderungen miteinan-
der verknüpft, ist die – in einem kostspieligen Investitionsprozeß verlaufende
– Herstellung von technischen und sozialen Formen, die einen Zusammenhalt
unterschiedlicher Dinge ermöglichen und dadurch Dinge anderer Ordnung her-
vorbringen (Thévenot, 1986, [273]). Ich gebe im Folgenden eine schematische
Zusammenfassung dieser Forschungslinie, die im vorliegenden Buch entwickelt
wird.
In den beiden scheinbar voneinander verschiedenen Gebieten der Geschich-
te des wahrscheinlichkeitstheoretischen Denkens und der Verwaltungsstatistik
hat man die Ambivalenz einer Arbeit betont, die gleichzeitig auf Wissen und
Handeln, auf Beschreiben und Vor schreiben ausgerichtet ist. Es geht hierbei
um zwei verschiedene Aspekte, die einander bedingen, und es ist unbedingt
notwendig, zwischen beiden zu unterscheiden: weil das Objektivierungsmo-
Wie man dauerhafte Dinge macht 11

ment autonomisierbar ist, kann das Handlungsmoment auf festgefügten Ob-


jekten aufbauen. Der Zusammenhang, der die Welt der Wissenschaft mit der
Welt der Praxis verbindet, ist demnach die Objektivierungsarbeit, das heißt
die Erzeugung von Dingen, die dauerhaft sind – entweder weil man sie vorher-
sehen kann oder weil ihre Unvorhersehbarkeit dank der Wahrscheinlichkeits-
rechnung in gewissem Grad beherrschbar ist. Dieser Umstand macht die Be-
ziehung verständlich, die zwischen der Wahrscheinlichkeitsrechnung – mit den
einschlägigen Überlegungen zu Glücksspielen7 und Wetten – und den makro-
skopischen Beschreibungen der Staatsstatistiken besteht. Beide Bereiche ha-
ben sich in Abhängigkeit von der jeweiligen Zeit immer wieder überschnitten
und berührt; zu anderen Zeiten wiederum strebten sie auseinander. Bereits im
18. Jahrhundert kam es zu einer Überschneidung, als die Sterbetafeln zum Be-
zugsrahmen für Versicherungssysteme wurden; ein anderes Beispiel sind die
Bevölkerungsschätzungen des französischen Königreichs durch Laplace, der
von einer Stichprobe“ ausging, die sich auf einige Kirchengemeinden bezog

(Kapitel 1).
Die umfassende Verbreitung des Arguments, das den wahrscheinlichkeits-
theoretischen Diskurs mit statistischen Beobachtungen verbindet, war jedoch
das Verdienst von Quetelet in den 1830er und 1840er Jahren. Mit dem Begriff
des Durchschnittsmenschen stellte das Queteletsche Konstrukt einen Zusam-
menhang zwischen dem zufälligen, unvorhersehbaren Aspekt des individuellen
Verhaltens und der Regelmäßigkeit – also auch der Vorhersehbarkeit – der
statistischen Totalisierung8 der individuellen Handlungen her. Das Konstrukt
stützt sich einerseits auf die Allgemeingültigkeit der Gaußschen Wahrschein-
lichkeitsverteilung (das heißt des künftigen Normalgesetzes“) und anderer-

seits auf die Reihen der Moralstatistik“ (Heiraten, Verbrechen, Selbstmorde),

die von den statistischen Bureaus erstellt wurden. Diese Argumentation ließ
das wahrscheinlichkeitstheoretische Denken für lange Zeit von seiner subjek-
tiven, epistemischen Seite (Stichwort: Glaubensgrund“) in Richtung seiner

objektiven, frequentistischen Seite ausschlagen: im Gegensatz zum Chaos und
zur Unvorhersehbarkeit der individuellen Handlungen lieferte die statistische
Regelmäßigkeit von Mittelwerten ein extrem leistungsstarkes Objektivierungs-
instrument. Kapitel 3 ist der Analyse dieses wesentlichen Ansatzes gewidmet.
Die durch die Berechnung von Mittelwerten erzeugten Dinge sind mit ei-
ner Stabilität ausgestattet, welche die Anforderungen und die Methoden der
Naturwissenschaften in den Humanwissenschaften einführt. Man kann den
Enthusiasmus verstehen, den diese Möglichkeit zwischen 1830 und 1860 unter
denjenigen Akteuren auslöste, die statistische Bureaus gründeten und inter-
7
Der Zufall ist in allen Glücksspielen der bestimmende Faktor und es sei hier daran
erinnert, daß hasard“ das französische Wort für Zufall“ ist und daß Glücks-
” ” ”
spiel“ auf Französisch jeu de hasard“ ( Hasardspiel“) heißt. Das Wort Hasard“
” ” ”
ist über das Französische ins Deutsche gekommen und geht letztlich auf das ara-
bische az-zahr“ zurück, was Spielwürfel“ bedeutet (vgl. Osman [420]).
8 ” ”
Unter Totalisierung“ ist hier die Zusammenfassung unter einem Gesamtaspekt“
” ”
zu verstehen.
12 Einleitung: Soziale Tatbestände als Dinge

nationale Kongresse organisierten, um die neue, universelle Sprache zu propa-


gieren und die Registrierungsverfahren9 zu vereinheitlichen. Die Objektivie-
rungsarbeit liefert dauerhafte Dinge, auf denen die Verwaltung der sozialen
Welt beruht. Und die Objektivierungsarbeit ist das Ergebnis der Vereinigung
zweier unterschiedlicher Universen. Einerseits zielt das wahrscheinlichkeits-
theoretische Denken auf die Beherrschung der Unsicherheit ab. Andererseits
gestattet die Konstruktion administrativer und politischer Äquivalenzräume,
eine große Anzahl von Ereignissen auf der Grundlage von Standardnormen
aufzuzeichnen und zusammenzufassen. Ein Ergebnis dieses Vereinigungspro-
zesses ist die Möglichkeit, repräsentative Stichproben aus Urnen zu ziehen, um
sozioökonomische Phänomene auf der Grundlage von Stichprobenerhebungen
kostengünstiger zu beschreiben. Man verwendete politisch konstruierte Äqui-
valenzräume in der Praxis, bevor sie zu einem kognitiven Mittel wurden. Aus
diesem Grund konnten wahrscheinlichkeitstheoretische Verfahren der Ziehung
von Kugeln aus Urnen überhaupt erst entworfen und angewendet werden. Be-
vor man die Kugeln ziehen konnte, mußten die Urne und auch die Kugeln erst
einmal konstruiert werden. Darüber hinaus mußten die Nomenklaturen und
die Verfahren zur Klassifizierung der Kugeln geschaffen werden.
Die Konzentration der Aufmerksamkeit auf die Objektivierungsarbeit
ermöglichte es, die in der Wissenschaftssoziologie klassische Debatte zwischen
den Objektivisten und den Relativisten zu beenden. Für die Objektivisten
existieren die Objekte und die Aufgabe der Wissenschaft besteht darin, die
Struktur dieser Objekte zu klären. Für die Relativisten sind die Objekte das
Ergebnis einer von den Wissenschaftlern bewirkten Formgebung – andere
Formgebungen würden zu anderen Objekten führen. Falls nun eine Konstruk-
tion tatsächlich auftritt, dann ist sie Bestandteil des sozialen und historischen
Prozesses, über den die Wissenschaft Rechenschaft ablegen muß. Der Umfang
der in der Vergangenheit durchgeführten Forminvestition ist der entscheiden-
de Faktor, der die Solidität, die Dauerhaftigkeit und den Gültigkeitsraum der
so konstruierten Objekte konditioniert. Die Bedeutung dieses Begriffes be-
steht genau darin, die beiden Aspekte – das heißt den ökonomischen und den
kognitiven Aspekt – durch die Konstruktion eines Systems von Äquivalenzen
zu approximieren. Die Stabilität und die Permanenz der kognitiven Formen
hängen (in einem allgemeinen Sinne) vom Umfang der Investition ab, die diese
Formen hervorgebracht hat. Diese Beziehung ist von erstrangiger Wichtigkeit,
wenn man die Konstruktion eines statistischen Systems aufmerksam verfolgt
(Héran, 1984, [130]).
Die Konsistenz der Objekte wird mit Hilfe von statistischen Techniken
getestet, die aus Wahrscheinlichkeitsmodellen hervorgegangen sind. Der Sta-
tus derartiger Objekte ist Gegenstand von Debatten und die Wahlmöglichkeit
9
Im französischen Text ist hier von méthodes d’enregistrement“ die Rede. In

diesem Zusammenhang sei bemerkt, daß die Registrierbehörde in Frankreich den
Namen l’Enregistrement“ trägt; bei dieser Behörde müssen rechtlich wichtige

Verhältnisse registriert werden.
Wie man dauerhafte Dinge macht 13

zwischen der epistemischen oder frequentistischen Interpretation dieser Mo-


delle – ausgedrückt durch die Rationalisierung einer Entscheidung oder durch
eine Beschreibung – bleibt offen. Die Wahl einer Interpretation ist nicht das
Ergebnis einer philosophischen Debatte über das Wesen der Dinge, sondern
vielmehr das Ergebnis des Gesamtkonstruktes, in dem das Modell seinen Platz
findet. Es ist normal, daß die Akteure im täglichen Leben so argumentieren, als
ob die Objekte existierten; denn einerseits sorgt die vorhergehende Konstruk-
tionsarbeit im betrachteten historischen Handlungsraum für die Existenz der
Objekte und andererseits würde eine andere Sichtweise jegliche Einwirkung
auf die Welt verbieten.
Ebenso handelt es sich bei der Praxis der statistischen Anpassungen – die
darauf abzielt, die Parameter eines Wahrscheinlichkeitsmodells so zu berech-
nen, daß das beibehaltene Modell dasjenige ist, das den beobachteten Resul-
taten die größtmögliche Mutmaßlichkeit verleiht – um eine Art und Weise,
beide Interpretationen offen zu lassen. Die Berechnung eines arithmetischen
Mittels, das zur Maximierung der Glaubwürdigkeit eines Objekts führt, kann
als tatsächlicher Nachweis der Existenzberechtigung dieses Objekts aufgefaßt
werden – mit Abweichungen, die man als Fehler behandelt (von Quetelet
vertretene frequentistische Auffassung) – oder aber als Möglichkeit, die Be-
obachtungen zur Entscheidungsoptimierung zu verwenden (epistemische Auf-
fassung), wobei die Abweichungen als Streuung interpretiert werden.
Die Existenz eines Objekts ist das gleichzeitige Ergebnis eines sozialen
Aufzeichnungs- und Kodierungsverfahrens und eines kognitiven Formgebungs-
verfahrens, mit dem die Multiplizität auf eine kleine Anzahl von Merkma-
len reduziert wird, die man aus frequentistischer Sicht als Objektmerkmale
und aus epistemischer Sicht als Modellparameter bezeichnet. Trotz der Vor-
kehrungen, die ein guter Statistikdozent treffen muß, um seinen Studenten
die verschiedenen möglichen Festlegungen eines Wahrscheinlichkeitsmodells
zu vermitteln, gleiten der übliche Sprachgebrauch und die sozialen Anwen-
dungen dieser Methoden häufig von einer Interpretation zur anderen, ohne
überhaupt darauf zu achten. Die Wahl hängt mit der Konsistenz einer um-
fassenden Argumentation zusammen, bei der die statistischen Hilfsmittel ein
Element darstellen, das sich mit anderen rhetorischen Hilfsmitteln verbindet.
In Abhängigkeit vom jeweiligen Fall ist die Existenz eines Objekts normal
und notwendig, oder aber man kann und muß sich die Konstruktion dieses
Objekts ins Gedächtnis rufen. Diese Ambivalenz ist unvermeidlich, denn man
kann das Objekt nicht von seiner Anwendung trennen.
Die Frage nach der Konsistenz und Objektivität von statistischen Messun-
gen wird häufig gestellt. Mit der hier vorgeschlagenen Auffassung beabsichtige
ich, das stets wiederkehrende Dilemma zu vermeiden, dem sich der Zahlen-

konstrukteur“ ausgesetzt sieht, wenn er seiner Aufgabe vollständig gerecht
werden will. Einerseits stellt er klar, daß die Messung von den Konventionen
abhängt, die in Bezug auf die Objektdefinition und die Kodierungsverfahren
getroffen werden. Aber andererseits fügt er hinzu, daß seine Messung eine
Realität widerspiegelt. Paradoxerweise sind diese beiden Aussagen zwar un-
14 Einleitung: Soziale Tatbestände als Dinge

vereinbar, aber gleichwohl ist es unmöglich, eine andere Antwort zu geben.


Ersetzt man die Frage der Objektivität durch die der Objektivierung, dann
schafft man sich eine Möglichkeit, diesen Widerspruch anders zu sehen. Die
Realität erscheint nun als Produkt einer Reihe von materiellen Aufzeichnungs-
operationen – als ein Produkt, das umso realer ist, je umfassender diese Auf-
zeichnungen sind, das heißt je dauerhafter die (auf der Grundlage größerer
Investitionen getroffenen) Äquivalenzkonventionen sind. Diese Investitionen
erlangen aber nur in einer Handlungslogik eine Bedeutung, welche die schein-
bar kognitive Logik des Messens umfaßt. Betrachtet man das gemessene Ding
in Bezug auf eine derartige Handlungslogik, dann ist dieses Ding real, denn
die betreffende Handlung kann sich darauf stützen (was ein gutes Realitäts-
kriterium darstellt); gleichzeitig erweist sich das betreffende Ding im Rahmen
dieser Logik aber auch als konstruiert.

Zwei Arten der historischen Forschung

Die unterschiedlichen Verwendungen der Begriffe Statistik“ und Statistiker“


” ”
widerspiegeln die Spannung zwischen den Standpunkten in Bezug auf Rea-
lität und Methode. Für die einen ist Statistik eine administrative Tätigkeit
zur Aufzeichnung von Daten. Diese Daten führen ihrerseits zu unbestreitbaren
Zahlen, die in der sozialen Debatte aufgegriffen werden und eine Handlung de-
terminieren. Für die anderen handelt es sich bei Statistik um einen Zweig der
Mathematik, der an der Universität gelehrt und von anderen Wissenschaftlern
verwendet wird, zum Beispiel von Biologen, Ärzten, Ökonomen und Psycholo-
gen. Die Autonomisierung dieser beiden Bedeutungen geht bis an den Anfang
des 20. Jahrhunderts zurück, als die Techniken der Regression und der Korre-
lation routinemäßig angewendet und verbreitet wurden – beginnend mit dem
biometrischen Zentrum“ (Biometric and Francis Galton Eugenics Laborato-

ries) von Karl Pearson und der inferentiellen Statistik10 (Schätzungen, Tests,
Varianzanalyse), die im landwirtschaftlichen Experimentallabor von Ronald
Fisher entwickelt wurde. Seit dieser Zeit tritt die Statistik als Zweig der an-
gewandten Mathematik in Erscheinung.
Aber sogar noch früher war im Rahmen der Verwaltungsarbeit ein anderer
Beruf auf dem Weg dazu, Autonomie zu erlangen – der Beruf des Staatsstati-
stikers, der für die amtlichen statistischen Bureaus zuständig war und dessen
Sprecher und Organisator Quetelet vierzig Jahre lang gewesen ist. Bis in die
1940er Jahre waren die von diesen Dienststellen angewendeten mathemati-
schen Techniken rudimentär und beide Berufe unterschieden sich voneinander.
Diese Situation änderte sich in der Folgezeit mit der Anwendung der Stichpro-
benverfahren, der Ökonometrie und anderer Techniken, die immer vielfältiger
wurden. Aber die Autonomie der unterschiedlichen Fähigkeiten und Fertigkei-
10
Wir verwenden hier durchgehend den Begriff inferentielle Statistik“ anstelle von

schließender Statistik“ oder induktiver Statistik“.
” ”
Zwei Arten der historischen Forschung 15

ten blieb bestehen und trug dazu bei, die Spannung zwischen dem administra-
tiven und dem wissenschaftlichen Aspekt dieser Berufe aufrecht zu erhalten.
Das Ziel der Statistik besteht darin, die Vielfalt der Situationen zu reduzieren
und deren zusammenfassende Beschreibung zu liefern – eine Beschreibung,
die aufgezeichnet und als Grundlage des Handelns verwendet werden kann.
Das impliziert einerseits die Konstruktion eines politischen Äquivalenz- und
Kodierungsraumes und andererseits eine mathematische Behandlung, die sich
häufig auf die Wahrscheinlichkeitsrechnung stützt. Aber diese beiden Aspekte
der Statistik werden im Allgemeinen als zwei gesonderte Tätigkeiten angese-
hen und die Forschungsarbeiten zu deren Geschichte werden ebenfalls getrennt
voneinander durchgeführt.
Ich habe mich im vorliegenden Buch dazu entschlossen, diese beiden roten
Fäden gleichzeitig zu verfolgen, um ihre Wechselwirkungen und Verbindun-
gen genau zu untersuchen. Die Vereinigung der beiden Linien erfolgte erst
in den 1930er und 1940er Jahren. In meiner Darstellung verwende ich zwei
Kategorien der historischen Forschung. Die erste Kategorie bezieht sich auf
die statistischen Institutionen und die statistischen Systeme. Abgesehen von
den vom Institut national de la statistique et des études économiques (INSEE)
im Jahre 1987 veröffentlichten zwei Bänden Pour une histoire de la statisti-
que sind für Frankreich die wichtigsten Werke diejenigen von J. C. Perrot
(1992, [227]) und Bourguet (1988, [27]) über das 18. Jahrhundert und den
Beginn des 19. Jahrhunderts, von Armatte (1991, [5]), Brian (1989, [35]) und
Lécuyer (1982, [173]) über das 19. Jahrhundert sowie von Fourquet (1980,
[95]) und Volle (1982, [284]) über das 20. Jahrhundert. In Großbritannien
behandeln die Forschungsarbeiten von Szreter (1984 [270], 1991 [271]) das
General Register Office (GRO) und die Public Health Movement. In den Ver-
einigten Staaten beschreiben Anderson (1988, [4]) sowie Duncan und Shelton
(1978, [74]) die allmähliche Zunahme der Verwaltungsstatistik und deren an-
schließende Transformation in den 1930er Jahren. Diese Transformation führte
zu den gegenwärtigen Organisationen, die auf vier bedeutenden Innovationen
beruhen: Koordinierung durch Nomenklatur; Stichprobenerhebungen; volks-
wirtschaftliche Gesamtrechnung; maschinelle Datenverarbeitung und später
die Informatik.
Die zweite Kategorie von Arbeiten bezieht sich auf die Wahrscheinlich-
keitsrechnung und die mathematische Statistik. Dieses Gebiet der historischen
Forschung zeichnete sich in den 1980er Jahren durch eine starke Aktivität aus
– zuerst in Frankreich mit dem originellen, aber isolierten Buch von Benzécri
(1982, [12]) und dann in England im Anschluß an eine kollektive Arbeit, die
1982–1983 in Bielefeld von Forschern mehrerer Länder durchgeführt wurde.
Dem Buch The Probabilistic Revolution (Band 1, herausgegeben von Krüger,
Daston, Heidelberger, 1987 [158], und Band 2, herausgegeben von Krüger,
Gigerenzer, Morgan, 1987 [159]) folgten einige weitere Werke: Stigler (1986,
[267]), Porter (1986, [240]), Daston (1988, [54]), Gigerenzer et al. (1989, [107])
und Hacking (1990, [119]). Parallel hierzu wurde die Geschichte der Ökono-
16 Einleitung: Soziale Tatbestände als Dinge

metrie von Epstein (1987, [85]) und Morgan (1990, [204]) untersucht und in
einem Sammelband der Oxford Economic Papers (1989) herausgegeben.
Das Aufblühen der Forschungen zur Geschichte der Statistik (Verwaltungs-
statistik und mathematische Statistik), der Wahrscheinlichkeitsrechnung und
der Ökonometrie ermöglicht eine Gesamtinterpretation aus der Sicht der Wis-
senschaftssoziologie. Diese Interpretation ist gleichzeitig historisch und verglei-
chend. Dabei betrachte ich vier Länder: Frankreich, Großbritannien, Deutsch-
land und die Vereinigten Staaten. Ich habe diese Länder gewählt, weil eine
einschlägige Dokumentation vorhanden ist und weil sich die signifikantesten
Ereignisse in diesen Ländern abgespielt haben. Die historische Schilderung
wird bis zu den 1940er Jahren geführt. Um diese Zeit traten Institutionen
und Technologien auf den Plan, deren Charakter dem der heutigen Institutio-
nen und Technologien ähnelt. Die Interpretation der seither stattgefundenen
Entwicklungen dieser Institutionen und Technologien erfordert historische Un-
tersuchungen ganz anderer Art. Statistische Methoden werden jetzt in vielen
verschiedenen Bereichen angewendet und sind Bestandteil der unterschied-
lichsten wissenschaftlichen, sozialen und politischen Konstrukte. Die neuere
Geschichte der statistischen Ämter ist noch kaum untersucht worden, aber
in Bezug auf Frankreich wurde entsprechendes Material in Pour une histoire
de la statistique (INSEE, 1987, [136]) gesammelt. Mathematische Statistik,
Wahrscheinlichkeitsrechnung und Ökonometrie haben sich in so zahlreichen
und unterschiedlichen Richtungen entwickelt, daß es schwierig geworden ist,
sich eine synthetische Darstellung vorzustellen, die sich mit der von Stigler
für das 18. und 19. Jahrhundert gegebenen Darstellung vergleichen läßt.
In diesem Buch verfolgen wir die Entwicklungen der beiden Aspekte der
Statistik, das heißt des wissenschaftlichen und des administrativen Aspekts.
Wir untersuchen in den Kapiteln einige Zweige des Stammbaums der Stati-
stik und der modernen Ökonometrie. Am Anfang von Kapitel 9 findet der
Leser eine skizzenhafte Darstellung dieses Stammbaums mit einer Zusam-
menfassung der verschiedenen Wege, die wir zurückverfolgt haben. Das erste
Kapitel beschreibt die Entstehung der Verwaltungsstatistik in Deutschland,
England und Frankreich. Im zweiten Kapitel schildern wir das Auftreten der
Wahrscheinlichkeitsrechnung im 17. und 18. Jahrhundert, ihre Anwendung
auf Meßprobleme in der Astronomie, sowie die Formulierung des Normal-
verteilungsgesetzes und der Methode der kleinsten Quadrate. Im dritten und
vierten Kapitel geht es hauptsächlich um die Begriffe des Mittelwertes und der
Korrelation, wobei wir uns an den Arbeiten von Quetelet, Galton und Pearson
orientieren. Im fünften und sechsten Kapitel analysieren wir die Beziehungen
zwischen Statistik und Staat an den Beispielen Frankreichs, Großbritanniens,
Deutschlands und der USA. Das siebente Kapitel beschreibt die sozialen Be-
dingungen, unter denen die Techniken der Stichprobenerhebung entstanden
sind.11 Das achte Kapitel behandelt Probleme der Nomenklatur und der Ko-
11
Dieses Kapitel greift in geänderter Form einen Text auf, der in einer von Mairesse
(1988, [184]) herausgegebenen Kollektivarbeit veröffentlicht wurde.
Zwei Arten der historischen Forschung 17

dierung, insbesondere ausgehend von den Forschungsarbeiten, die ich zuvor


mit Laurent Thévenot durchgeführt hatte. Im neunten Kapitel untersuche ich
die Schwierigkeiten der Vereinigung der vier Traditionen, die zur modernen
Ökonometrie geführt haben. Diese Traditionen sind: die Wirtschaftstheorie,
die historizistisch-deskriptive Statistik12 , die aus der Biometrie hervorgegan-
gene mathematische Statistik und die Wahrscheinlichkeitsrechnung. In der
Schlußfolgerung behandle ich in gedrängter Form die Entwicklung und die
relative Krise der Sprache der Statistik nach 1950.13
Ein auslösender Faktor dafür, das vorliegende Buches zu schreiben, war
das Interesse für die sozialen Bedingungen der Produktion von Wissen über
die soziale Welt – ein Interesse, das Pierre Bourdieu in seiner Lehrtätigkeit
vor langer Zeit in mir erweckt hatte. Sehr viel verdanke ich dem langjährigen
Meinungsaustausch mit Statistikern, Demographen und Ökonomen (Joëlle Af-
fichard, Michel Armatte, Denis Bayart, Annie Cot, Jean-Jacques Droesbeke,
François Eymard-Duvernay, Annie Fouquet, Michel Gollac, François Héran,
Jacques Magaud, Maryse Marpsat, Pascal Mazodier, Robert Salais, Philippe
Tassi, Michel Volle, Elisabeth Zucker-Rouvillois), aber auch dem Meinungs-
austausch mit Historikern und Philosophen (Marie-Noëlle Bourguet, Stéphane
Callens, François Ewald, Anne Fagot-Largeault, François Fourquet, Bernard
Lécuyer, Jean-Claude und Michelle Perrot) und den Diskussionen mit eini-
gen britischen, deutschen und amerikanischen Spezialisten, die mir wertvolle
Ratschläge gegeben haben (Margo Anderson, Martin Bulmer, Lorraine Da-
ston, Gerd Gigerenzer, Ian Hacking, Donald Mac Kenzie, Mary Morgan, Ted
Porter, Stephen Stigler, Simon Szreter). Das Buch hat auch vom Seminar zur
Geschichte der Wahrscheinlichkeitsrechnung und Statistik profitiert, das an
der École des hautes études en sciences sociales (EHESS) von Marc Barbut,
Bernard Bru und Ernest Coumet geleitet wurde. Der Standpunkt der Wis-
senschaftssoziologie ist durch die Arbeiten beeinflußt worden, die ich in der
Gruppe für Politik- und Moralsoziologie (EHESS) zusammen mit Luc Bol-
tanski, Nicolas Dodier und Michaël Pollak (gest. 1992) durchgeführt hatte,
deren Ideen zum Vorgang der statistischen Formgebung eine ebenso wesent-
liche Rolle gespielt haben, wie die Forschungen des Centre de sociologie de
l’innovation der École des mines (Michel Callon und Bruno Latour). Und
schließlich hätte dieses Buch nicht ohne die freundliche Aufnahme und Hilfe
des Forschungsseminars des INSEE geschrieben werden können. Die von den
Mitgliedern des Seminars geäußerten sachdienlichen Kritiken haben sich als
12
Wir verwenden hier durchgehend den Begriff deskriptive Statistik“ anstelle von

beschreibender Statistik“.
13 ”
Obgleich die beiden Standpunkte, das heißt die internalistische und die externa-
listische Sichtweise, in Anbetracht der verfügbaren Quellen möglichst eng mit-
einander verknüpft werden, beziehen sich Kapitel 2, 3, 4 und 9 eher auf die
Metamorphosen der kognitiven Schemata, während Kapitel 1, 5, 6 und 7 der
Sozialgeschichte und der Geschichte der Institutionen näher stehen. Kapitel 8, in
dem es um Klassifikationen geht, liegt in gewisser Weise an der Schnittstelle“

der beiden Sichtweisen.
18 Einleitung: Soziale Tatbestände als Dinge

sehr wertvoll erwiesen – insbesondere gilt das für die kritischen Bemerkun-
gen von Francis Kramarz. Ebenso danke ich Elisabeth Garcia und Dominique
d’Humières für die sorgfältige Arbeit bei der Aufbereitung des Textes für den
Druck.
1
Präfekten und Vermessungsingenieure

Welche Gemeinsamkeiten haben die Statistik – das heißt eine Gesamtheit von
Verwaltungsroutinen, die zur Beschreibung eines Staates und seiner Bevölke-
rung erforderlich sind –, die um 1660 von Huygens und Pascal geschaffene
Wahrscheinlichkeitsrechnung – eine subtile Entscheidungshilfe in Fällen von
Ungewißheit – und die gegen 1750 auf der Grundlage disparater empirischer
Beobachtungen durchgeführten Schätzungen physikalischer und astronomi-
scher Konstanten? Erst im 19. Jahrhundert, nachdem eine Reihe von Hin- und
Rückübersetzungen der Werkzeuge und Fragestellungen durchgeführt worden
waren, kam es zu Überschneidungen und dann zu Verbindungen dieser unter-
schiedlichen Traditionen. Die Überschneidungen und Verbindungen entstan-
den durch den wechselseitigen Austausch von Techniken der Verwaltung, der
(damals als Moralwissenschaften“ bezeichneten) Humanwissenschaften und

der Naturwissenschaften.
Die Notwendigkeit, eine Nation zu kennen, um sie zu verwalten, führte –
ausgehend von den äußerst unterschiedlichen Sprachen der englischen politi-
schen Arithmetik und der deutschen Statistik – zum Aufbau der sogenannten
statistischen Bureaus“ im ersten Drittel des 19. Jahrhunderts.1 Andererseits

entwickelte sich der Prozeß des Nachdenkens über die Gerechtigkeit und die
Rationalität der menschlichen Verhaltensweisen auf der Grundlage der Begrif-
fe Erwartung und Wahrscheinlichkeit. Und schließlich führte das Streben nach
der Formulierung von Naturgesetzen, bei denen differierende empirische Auf-
zeichnungen berücksichtigt werden, zu einer zunehmend präziseren Herausar-
beitung des Begriffes Mittelwert und der Methode der kleinsten Quadrate. In
den ersten beiden Kapiteln dieses Buches beschreiben wir diese drei Traditio-
nen, die sich – trotz ihrer scheinbaren Heterogenität – mit der Erstellung von
1
Diese Verwaltungsdienstellen wurden zunächst mit der Aufgabe betraut, eine
Generalstatistik“ zu erstellen. Für Deutschland wurde 1871 die Errichtung eines

Statistischen Amtes beschlossen. Der Zuständigkeitsbereich dieses Kaiserlichen

Statistischen Amtes“ wurde 1872 festgelegt. Von daher rührt die Benennung die-
ser Sparte der administrativen Statistik als amtliche“ Statistik.

20 1 Präfekten und Vermessungsingenieure

Formen befassen, die jeder akzeptieren kann: Es handelt sich um Objekte, die
dem Allgemeinwissen zugänglich sind. Jedoch ignorierten die Bureaus für amt-
liche Statistik lange Zeit hindurch die Forschungen zur Wahrscheinlichkeits-
rechnung und zur Fehlerrechnung. Die Untersuchungen zur Wahrscheinlich-
keitsrechnung sind Gegenstand von Kapitel 1 ( Präfekten und Vermessungs-

ingenieure“), während die Untersuchungen zur Fehlerrechnung im Kapitel 2
( Richter und Astronomen“) behandelt werden.

In der Einleitung habe ich die Idee betont, daß die soziale Welt ein Kon-
strukt ist. Damit wollte ich nicht suggerieren, daß die von der Statistik geliefer-
ten Beschreibungen dieser Welt bloße Artefakte sind. Ganz im Gegenteil: diese
Beschreibungen haben nur dann Gültigkeit, wenn die von ihnen beschriebenen
Objekte konsistent sind. Aber diese Konsistenz ist nicht im Voraus gegeben.
Sie wird geschaffen. Das Ziel von statistischen Erhebungen besteht in der Ana-
lyse dessen, was den Dingen Zusammenhalt verleiht – einen Zusammenhalt in
dem Sinne, daß es in Bezug auf diese Dinge gemeinsam genutzte Darstellun-
gen gibt, die durch Handlungen von allgemeiner Bedeutung beeinflußt werden
können. Ein wichtiger Bestandteil dieser – zur Beschreibung und Schaffung
von Gesellschaften erforderlichen – Sprache ist die moderne Statistik, denn sie
hat einen besonderen Ruf aufgrund ihrer Faktizität, ihrer Objektivität und
ihrer Fähigkeit, Bezugsrahmen und Ansatzpunkte zu liefern.
Wie ist es nun zu dem besonderen Ruf gekommen, den die Statistik unter
den Erkenntnisformen genießt? Diese Ehre ist das Ergebnis einer eigenartigen,
von der Geschichte gewobenen Interaktion zwischen zwei ansonsten deutlich
verschiedenen Autoritätsformen – zwischen der Autoritätsform der Wissen-
schaft und derjenigen des Staates. Im 17. und im 18. Jahrhundert bildete
sich ein begrifflicher Rahmen heraus, in dem man über zweierlei nachdenken
konnte: erstens über die Denkansätze zur Untermauerung zukunftsbezogener
Entscheidungen und zweitens – mit Hilfe der Fehlerrechnung – über die Grade
der Sicherheit wissenschaftlicher Erkenntnisse. Die Autorität der Naturphi-

losophie“ (der Wissenschaft von einst) sonderte sich allmählich von der Auto-
rität der Religion und der Autorität der Fürsten ab. Die Trennung zwischen
der Konstitution der Dinge und der Konstitution der Menschen wurde immer
deutlicher, wobei die Konstitution der Dinge ihre Autonomie mit Nachdruck
bekräftigte (Latour, 1991, [168]).
Gleichzeitig entwickelten sich jedoch die Formen der fürstlichen Auto-
ritätsausübung – auf unterschiedliche Weise in den einzelnen Ländern und
in Abhängigkeit davon, wie sich die Beziehungen zwischen Staat und Gesell-
schaft änderten. So bildeten sich spezifische Wissensgebiete heraus, die sowohl
für die Fürsten als auch für deren Verwaltungen nützlich waren und ein Pro-
dukt ihrer Aktivitäten darstellten. Im Übrigen nahmen in dem Maße, wie
eine vom Staat verschiedene Zivilgesellschaft ihre Autonomie erlangte und
sich öffentliche Räume bildeten (wobei Form und Tempo von Staat zu Staat
unterschiedlich waren), auch andere spezifische Wissensgebiete der betreffen-
den Gesellschaft Gestalt an. Alle diese Konstrukte gingen (im Wesentlichen,
aber nicht ausschließlich) aus der Arbeit des Staates hervor und sollten die
1 Präfekten und Vermessungsingenieure 21

zweite Quelle für das ungewöhnliche Ansehen bilden, das die moderne Stati-
stik genießt – zumindest in der mehr oder weniger einheitlichen Bedeutung,
den der Begriff im Laufe des 19. Jahrhunderts erlangt hatte: nämlich als ko-
gnitiver Äquivalenzraum, der zu praktischen Zwecken konstruiert wurde, um
menschliche Gesellschaften zu beschreiben, zu verwalten und um sie umzuge-
stalten.
Aber diese Wissensgebiete hatten ihrerseits Ursprünge und Formen, die
von Staat zu Staat unterschiedlich waren und davon abhingen, wie diese Staa-
ten errichtet wurden und mit der Gesellschaft verbunden waren. Wir nennen
hier Deutschland, das uns das Wort Statistik und eine Tradition der globalen
Beschreibung der Staaten vererbt hat. Wir nennen England, das uns durch
seine politische Arithmetik die Zählungen kirchlicher und verwaltungstechni-
scher Aufzeichnungen, aber auch Rechentechniken hinterlassen hat, mit denen
diese Zählungen analysiert und extrapoliert werden konnten. In Frankreich
schließlich lieferten die Zentralisierung und Vereinheitlichung – zuerst in der
absoluten Monarchie und dann während der Revolution und im Ersten Kai-
serreich – einen politischen Rahmen für die Konzipierung und Errichtung ei-
nes Modells des Bureaus für allgemeine Statistik“ im Jahre 1800 (in einigen

Staaten erfolgte das bereits früher, wie zum Beispiel in Schweden im Jah-
re 1756). Auf höherer Ebene führten Zentralisierung und Vereinheitlichung in
Frankreich zu einer ursprünglichen Form der Staatswissenschaften“ mit ihren

Ingenieur-Korps“, die nicht aus den Universitäten, sondern aus den grandes
” 2
écoles hervorgingen.
Der Gegensatz zwischen der deutschen deskriptiven Statistik und der eng-
lischen politischen Arithmetik ist ein klassisches Thema von Arbeiten, deren
Gegenstand die Geschichte der Statistik oder der Demographie ist. Einige
Autoren heben insbesondere das Scheitern und den Schiffbruch hervor, den
die deskriptive Statistik zu Beginn des 19. Jahrhunderts erlitten hatte. Diese
Autoren betonen auch die Tatsache, daß die politische Arithmetik, die zu die-
sem Zeitpunkt lediglich den Namen ihrer Rivalin ( Statistik“) geerbt hatte,

die wahre Vorläuferin der heutigen Methoden war (Westergaard, 1932, [286];
Hecht, 1977, [125]; Dupaquier, 1985, [75]). Andere Autoren sehen dagegen in
den Methoden der deutschen Statistik einen interessanten Vorgriff auf gewisse
Fragen der modernen Soziologie (Lazarsfeld, 1970, [170]) und einen bedeut-
samen Versuch, die territoriale Diversität eines Nationalstaates gedanklich zu
erfassen und zu beschreiben (Perrot, 1977, [226]; Bourguet, 1988, [27]). Wir
unternehmen in diesem Buch den Versuch einer Rekonstruktion der Verbin-
dungsstellen, auf deren Grundlage sich die betreffenden Beschreibungsmetho-
2
Das höhere Bildungswesen Frankreichs ist durch die scharfe Trennung und Kon-
kurrenz zwischen Universitäten und grandes écoles geprägt. Die Anfänge die-
ser grandes écoles gehen auf Gründungen ingenieurwissenschaftlicher Ausbil-
dungsstätten gegen Ende des Ancien Régime zurück. Zu ihnen gehören einige
der noch heute renommiertesten Ingenieurhochschulen. Genauere Ausführungen
zum französischen Hochschulsystem findet man bei Schwibs (1988, [435]) und bei
Grattan-Guinness (1990, [392]).
22 1 Präfekten und Vermessungsingenieure

den entwickelten – Methoden, deren jeweilige Sprachen und Objekte vollkom-


men verschieden waren und deren Vergleich erst nach 1800 erfolgte.
Vom Standpunkt der Geschichte der Akkumulation statistischer Techniken
steht fest, daß die englische politische Arithmetik entsprechende Werkzeuge
hinterlassen hat: die Auswertung der Kirchenregister über Taufen, Heiraten
und Sterbefälle (Graunt, 1662), die Aufstellung von Sterbetafeln und die Be-
rechnung der Lebenserwartung (Huygens, 1669) sowie Bevölkerungsschätzun-
gen auf der Grundlage von Stichproben mit der Berechnung des zu befürch-

tenden Fehlers“ (Laplace, 1785). Dagegen hat die deutsche Statistik, die einen
formalen Rahmen für die globale Beschreibung der Macht der Staaten lie-
ferte, keinen besonderen Wert auf quantitative Methoden gelegt und nichts
Vergleichbares hinterlassen. Es ist deswegen normal, daß in einer als Genese
von Techniken betrachteten Geschichte die politische Arithmetik im Vorder-
grund steht und die deutsche Tradition als veraltetes geisteswissenschaftliches
Konstrukt behandelt wird, für das ein nur geringes Interesse besteht.

Deutsche Statistik: Identifizierung der Staaten


Dennoch ist für die Perspektive, die eine explizite Angabe des relativen Stand-
orts und der kulturellen Bedeutung der statistischen Denkweise unter den
verschiedenen Darstellungsweisen der sozialen Welt anstrebt, der Pol bedeut-
sam, den die deutsche Statistik“ darstellte (die ihrerseits jedoch nur wenig

mit der heutigen Statistik gemeinsam hat). Dieser Pol drückt das umfassen-
de synthetische Bestreben aus, eine menschliche Gemeinschaft (einen Staat,
eine Region und später eine Stadt oder einen Beruf) als Ganzes zu verste-
hen, das mit einer singulären Macht ausgestattet ist und nur durch die Ver-
knüpfung zahlreicher Merkmale beschrieben werden kann, wie zum Beispiel:
Klima, natürliche Ressourcen, Wirtschaftsorganisation, Bevölkerung, Gesetze,
Bräuche und politisches System. Eine derartige holistische Sicht auf die be-
schriebene Gemeinschaft hat für einen analytischen Verstand, der das von ihm
benutzte Werkzeug direkt auf eine klar identifizierte Frage anwendet, einen
großen Nachteil: Die für die Beschreibung relevanten Merkmale sind in einer
potentiell unbegrenzten Anzahl vorhanden und man weiß nicht, warum man
das eine Merkmal beibehalten soll, das andere hingegen nicht. Dagegen rich-
tet die politische Arithmetik ihre Aufmerksamkeit auf eine kleine Anzahl von
unmittelbar anwendbaren Schätzungen, womit sie ohne Schwierigkeiten den
Anspruch auf Legitimität und soziale Anerkennung erheben kann. So dienten
beispielsweise die Sterbetafeln als Grundlage zur Festsetzung der Leibrenten
und der Lebensversicherungsprämien. Für die Erhebung von Steuern und für
die Rekrutierung von Soldaten waren Bevölkerungsschätzungen in den ver-
schiedenen Provinzen unerläßlich.
Aber die deutsche Statistik gab Antworten auf andere sorgenvolle Proble-
me. Sie bot dem Fürsten oder dem zuständigen Beamten einen Organisations-
rahmen für die vielgestaltigen Wissensformen, die in Bezug auf einen Staat
Deutsche Statistik: Identifizierung der Staaten 23

zur Verfügung standen – dieser Organisationsrahmen bestand aus einer No-


menklatur und einer Logik , die von der aristotelischen Logik inspiriert worden
war. Um das Jahr 1660 kodifizierte Conring (1606–1681) diese Form, die im
gesamten 18. Jahrhundert von der Universität Göttingen und ihrer statisti-

schen Schule“ weitergegeben wurde, insbesondere von Achenwall (1719–1772)
3
– der als Erfinder des Wortes Statistik“ gilt – und Schlözer (1735–1809),

dem Nachfolger Achenwalls auf dem Lehrstuhl für Statistik. Schlözer war
der Autor einer Abhandlung zur Statistik“. Donnant übersetzte dieses Werk

1804 ins Französische, wodurch die deutsche Denkweise zu Beginn des 19.
Jahrhunderts in Frankreich bekannt wurde. Schlözer war der erste Vertreter
dieser Strömung; er empfahl die Verwendung exakter Zahlen anstelle von ver-
bal umschriebenen Angaben, ohne sich allerdings an seine eigene Empfehlung
zu halten (Hecht, 1977, [125]). Eine der Formulierungen Schlözers ist für die
eher strukturalistische und synchronische Denkweise der deutschen Statistik
bezeichnend: Statistik ist stillstehende Geschichte und Geschichte als Wis-

senschaft ist eine laufende Statistik“.
Conring faßte seine Statistik als eine Art und Weise der Klassifizierung von
heteroklitischem Wissen auf. Wie Lazarsfeld (1970, [170]) feststellte, suchte

er nach einem System, mit dem sich die Fakten leichter merken, leichter lehren
und von den in der Regierung tätigen Leuten leichter verwenden ließen“. Ein-
prägen, lehren und anwenden, um zu regieren: das ist nicht allzu weit entfernt
vom Streben nach Objektivierung, vom Bemühen, Dinge auszudrücken, sie
in Büchern niederzulegen, um diese Dinge selbst wiederverwenden zu können
oder aber um sie anderen zu vermitteln. Dieser organisatorische und taxo-
nomische Bestandteil ist ebenso charakteristisch für die moderne Statistik,
wie ihre rechnerische Seite, die von der politischen Arithmetik auf den Weg
gebracht wurde. Aber der vom Standpunkt des aktiven Staates aus organi-
sierte Klassifikationsrahmen war sehr allgemein. Er stützte sich auf die vier
Ursachen der aristotelischen Logik, die ihrerseits systematisch unterteilt wur-
den (Hoock, 1977, [132]). Die materiale Ursache (causa materialis) beschreibt
das Territorium und die Bevölkerung. Die formale Ursache (causa formalis)
stellt das Recht, die Verfassung, die Gesetze und die Bräuche zusammen. Die
Finalursache (causa finalis) hat mit den Tätigkeitszielen des Staates zu tun:
Erhöhung der Bevölkerungszahl, Sicherung der Verteidigung, Modernisierung
der Landwirtschaft und Entwicklung des Handels. Und schließlich legt die ef-
fektive Ursache (causa efficiens) Rechenschaft über die Mittel ab, über die
der Staat verfügt: Verwaltungspersonal und politisches Personal, Justizap-
parat, Führungsstäbe und Eliten (Bourguet, 1988, [27]). Diese aristotelische
Unterscheidung zwischen den materiellen Kräften, dem rechtlichen Rahmen,
den Tätigkeitszielen und der effektiven Organisation ist in der lateinischen
3
Die Staatenkunde war eine rein beschreibende Darstellung von Staats-

merkwürdigkeiten“ zum Gebrauch für Staatsmänner. Eine der Quellen für das
Wort Statistik“ war das italienische Wort statista“, das Staatsmann“ bedeu-
” ” ”
tet.
24 1 Präfekten und Vermessungsingenieure

Maxime Schlözers zusammengefaßt: vires unitae agunt ( die Kräfte handeln



vereint“). Diese Formel erinnert an den Zusammenhang zwischen der Kon-
struktion der Äquivalenz, die bei der Addition als arithmetischer Operation
erforderlich ist, und der Bildung einer Koalition, das heißt einer Vereinigung
von disparaten Kräften, die zu einer höheren Macht verschmelzen. In beiden
Fällen spielen Repräsentationsprozesse eine Rolle: Es geht um typische Ele-
mente oder Repräsentanten von Äquivalenzklassen sowie um Sprecher oder
Vertreter im Falle von vereinten Kräften (Latour, 1984, [166]).
Lazarsfeld (1970, [170]) setzt dieses deskriptive System in Beziehung zur
Lage Deutschlands in der zweiten Hälfte des 17. Jahrhunderts nach dem Dreis-
sigjährigen Krieg. Das Reich war zu dieser Zeit in nahezu dreihundert Klein-
staaten zersplittert, die alle arm waren und miteinander rivalisierten. Das Pro-
blem der Definition oder Redefinition der Rechte und Pflichten dieser Staaten
war ein wesentlicher Punkt. In allen juristischen Streitfällen bei Problemen
in Bezug auf Territorium, Eheschließungen oder Erbfolge mußten Entschei-
dungen getroffen werden, wobei man sich auf Präzedenzfälle berief oder die
Archive durchforstete. Diese Situation verlieh denjenigen Geistern Autorität
und Prestige, die nicht auf die Konstruktion neuer Dinge, sondern auf eine
systematische Katalogisierung vorhandenen Wissens orientiert waren. Dieser
Umstand trug seinerseits zu einer Weiterführung der scholastischen Tradi-
tionen bei, deren Einfluß in anderen Bereichen bereits gesunken war. Die
Schwäche der Kleinstaaten und deren Bedürfnis nach Selbstdefinition führten
zu diesem Denkrahmen, der eine Art kognitives Patchwork darstellte. Dieses
Patchwork löste sich später von selbst auf, als im 19. Jahrhundert mächtige
Staaten (vor allem Preußen) auf den Plan traten und hinreichend komplexe
Bürokratien errichteten, um statistische Bureaus“ zu verwalten, die mit dem

im Jahre 1800 gegründeten französischen Bureau vergleichbar waren (Hoock,
1977, [132]).
Bevor diese Tradition ausstarb, führte sie zu Beginn des 19. Jahrhunderts
zu einer bedeutsamen Kontroverse. Es kam der Vorschlag auf, den detaillierten
formalen Rahmen der deskriptiven Statistik zu verwenden, um Vergleiche zwi-
schen den Staaten vorzunehmen. Das sollte durch die Aufstellung von Kreuz-
tabellen 4 geschehen, bei denen die Länder zeilenweise und die verschiedenen
verbalen Beschreibungselemente spaltenweise angeordnet waren, so daß sich
die Diversität der betreffenden Staaten entsprechend den unterschiedlichen
Gesichtspunkten mit einem Blick erfassen ließ. Die Möglichkeit der Nutzung
der beiden Dimensionen einer Buchseite zur Verknüpfung und Klassifizierung
von Objekten gestattete deren gleichzeitige Betrachtung und unterschied radi-
kal zwischen schriftlichem und mündlichem Material, zwischen grafischer und
diskursiver Argumentation (Goody, 1979, [111]). Aber diese Eroberung des

zweidimensionalen Raumes“ durch die Kreuztabelle lief nicht ohne Schwie-
4
Auch Kreuztafeln genannt. In der heutigen deutschsprachigen Literatur wird
Kreuztabelle ( crosstabulation“) auch als Synonym für Kontingenztafel ( con-
” ”
tingency table“) verwendet, vgl. z.B. [434].
Deutsche Statistik: Identifizierung der Staaten 25

rigkeiten ab, denn sie ging mit dem Zwang einher, Komparabilitätsräume,
allgemeine Bezugsräume und Kriterien zu konstruieren. Das wiederum führte
zu der weitverbreiteten Kritik, daß die beschriebenen Objekte reduziert“ und

ihrer Singularität beraubt würden. Nun handelte es sich hierbei um genau die-
selbe Art von Einwänden, die gegen die Methode der Kreuztabellen ins Feld
geführt wurden – um so mehr, da diese Darstellung dazu ermunterte, auch
Zahlen in den Tabellenzeilen auftreten zu lassen. Und diese Zahlen konnten
direkt miteinander verglichen werden, während die zu klassifizierenden Infor-
mationen anfänglich noch in verbaler Umschreibung gegeben waren. Es war
demnach die Tabellenform selbst, die zur Suche nach Zahlen und zu deren
Vergleich anregte. Es war im buchstäblichen Sinne diese Form, die den zur
quantitativen Statistik führenden Begriff des Äquivalenzraumes schuf.
Die Tatsache, daß zur Durchführung von Vergleichen zwischen Ländern
oder zwischen Personen gewisse Merkmale ausgewählt werden müssen, kann
immer zu einer Art holistischer Kritik führen, denn ein bestimmtes Land oder
eine einzelne Person lassen sich nicht auf ausgewählte Vergleichsmerkmale
reduzieren. Diese Form der Kritik an der Aufstellung von Äquivalenzen hat
einen hohen Allgemeinheitsgrad und der rote Faden des vorliegenden Buches
besteht darin, die wiederholt auftretenden Modalitäten dieser Art von Debat-
te zurückzuverfolgen und die Gemeinsamkeiten der Protagonisten der einen
oder anderen Position aufzudecken. Ein bezeichnendes Beispiel ist die Kon-
troverse um die Tabellenknechte“, die aus dieser statistischen Schule hervor-

gingen. Die Befürworter der Tabellen vertraten die Position eines allgemeinen
Überblicks, wie man ihn von einem Felsvorsprung aus hat. Diese Aussichts-
position ermöglichte es ihnen, die verschiedenen Länder gleichzeitig durch ein
und dasselbe Raster zu sehen. Die Gegner dieser Position unterschieden zwi-
schen subtiler und distinguierter“ Statistik und vulgärer“ Statistik. Ihrer
” ”
Meinung nach hat die letztere
... die große Kunst zu einer stupiden Arbeit degradiert ...“ Diese
” ”
armen Narren verbreiten die verrückte Idee, daß man die Macht eines
Staates durch die Kenntnis seiner Fläche, seiner Bevölkerung, seines
Nationaleinkommens und der Anzahl der Tiere erfassen kann, die seine
Weiden ringsumher abgrasen“. Die Machenschaften, in denen sich

diese kriminellen politischen Statistiker in ihrem Bestreben ergehen,
alles durch Zahlen auszudrücken ... sind verachtenswert und über alle
Maßen lächerlich. (Göttingische gelehrte Anzeigen um 1807; vgl. John
(1884, [139]).)
Später findet sich dieselbe Kontroverse in den Positionen wieder, die von
der historischen Schule“ der deutschen Statistiker im 19. Jahrhundert vertre-

ten wurde und die im Gegensatz zu den verschiedenen Formen des abstrakten
ökonomischen Universalismus (der Engländer) oder des politischen Universa-
lismus (der Franzosen) stand. Diese Kontroverse war auch für die Debatten
charakteristisch, die durch die Anwendung der numerischen Methode“ in der

Medizin (um 1835) sowie durch die Nutzung der Statistik in der Psychologie
26 1 Präfekten und Vermessungsingenieure

und in der Dozimologie“ (der Wissenschaft von den Prüfungen) ausgelöst



wurden. In jedem Fall berief man sich auf Formen von (historischen, natio-
nalen oder individuellen) Singularitäten und verwies auf Möglichkeiten der
Beschreibung, das heißt der Konstruktion von Gesamtheiten, die sich von de-
nen der Statistik unterscheiden. So können etwa die im Rahmen der Göttinger
Schule erstellten und kritisierten Tabellen auch spaltenweise gelesen werden,
das heißt durch Vergleich einer Variablen“ (dieser Begriff kam damals auf)

für die verschiedenen Länder. Die Tafeln können aber auch zeilenweise gelesen
werden, wobei ein Land in allen seinen Aspekten beschrieben wird und man
danach suchen kann, was die Einheit des betreffenden Landes und seine Spezi-
fik ausmacht. Jede dieser beiden Interpretationen ist auf ihre Weise kohärent.
Die zweite Interpretation ist in keiner Weise singulärer“ als die erste, aber

sie impliziert eine andere Art und Weise der Totalisierung der elementaren
Aufzeichnungen.
Jedoch beinhaltete das spaltenweise Lesen der Tabellen – und somit der
Vergleich der Länder – die Möglichkeit, daß man in Bezug auf den Staat
eine Position der Exteriorität und Distanz einnehmen konnte. Diese Möglich-
keit ließ sich aber schwerlich mit der Position der deutschen Statistiker ver-
einbaren, die sich in ihren Argumenten den Standpunkt der Macht und der
Machtausübung ihres Staates zu eigen gemacht hatten. Sie identifizierten sich
mit dem Staat und waren deswegen nicht imstande, sich eine vom Staat ver-
schiedene Zivilgesellschaft vorzustellen oder die Überblicksposition einzuneh-
men, die beim Aufstellen und Lesen von Tabellen vorausgesetzt wurde. Ge-
nau das ist es, was die deutschen Statistiker von den englischen politischen
Arithmetikern unterscheidet. In England entwickelte sich gegen Ende des 17.
Jahrhunderts ein neues Verhältnis zwischen dem monarchischen Staat und
den verschiedenen sozialen Schichten. Dieses neue Verhältnis ermöglichte es
den sozialen Schichten, ihren Tätigkeiten relativ unabhängig vom Monarchen
nachzugehen, wobei die beiden Häuser des Parlaments die Vertretung dieser
sozialen Gruppen, des Adels und der Bourgeoisie, gewährleisteten. In Deutsch-
land hingegen erfolgten diese Unterscheidungen erst sehr viel später und in
anderen Formen.

Englische politische Arithmetik:


Entstehung der Expertise

Im englischen Kontext, in dem der Staat zu einem Teil der Gesellschaft wur-
de und nicht – wie in Deutschland – deren Gesamtheit darstellte, entstand in
den Jahren nach 1660 unter der Bezeichnung politische Arithmetik“ (poli-

tical arithmetic) eine Reihe von Aufzeichnungs- und Rechentechniken. Diese
durch die Arbeit von Graunt (1620–1674) über Sterbezettel5 angeregten Me-
5
Im damaligen Englisch als bill of mortality“ bezeichnet; im Deutschen auch To-
” ”
tenzettel“ oder Totenliste“ genannt. Der Titel der Grauntschen Schrift lautet in

Englische politische Arithmetik: Entstehung der Expertise 27

thoden wurden zuerst von Petty (1623–1687) und dann von Davenant (1656–
1714) systematisiert und theoretisch untermauert. Vom Standpunkt unserer
Untersuchung zur Genese der materiellen Objektivierungsverfahren implizie-
ren diese Methoden drei wichtige Momente: erstens das Führen schriftlicher
Aufzeichnungen, zweitens deren Auswertung und Totalisierung gemäß einem
vorher festgelegten Schema und drittens ihre Interpretation durch Zahlen,

Maße und Gewichte“.
Die Eintragungen in Register, welche die Spuren von Taufen, Heiraten und
Beerdigungen bewahrten, hingen mit dem Bemühen zusammen, die Identität
einer Person zu juristischen oder verwaltungstechnischen Zwecken zu bestim-
men. Das war der Gründungsakt aller statistischen Arbeit (im modernen Sin-
ne), bei der definierte, identifizierte und stabile Einheiten vorausgesetzt wer-
den. Die Funktion des Aufschreibens bestand darin, die Existenz und Perma-
nenz einer Person und deren Bindungen zu einer Mutter, einem Vater, einem
Ehepartner und zu Kindern zu verstetigen und (im Rahmen eines notariel-
len Aktes) zu beweisen. Ebenso wie die Ermittlung von Wahrscheinlichkeiten
mit dem Bemühen zusammenhing, Glaubensgründe“ und Grade der Sicher-

heit festzuhalten und zu bescheinigen (das heißt sie zu objektivieren), zielten
auch die Eintragungen in den Kirchenbüchern darauf ab, die Existenz von
Individuen und deren familiäre Bindungen zu registrieren und zu bezeugen:
Es ist ganz und gar wahrscheinlich, daß das Auftreten und die Ver-
breitung von Registern in eine Zeit fiel, als – und auf die Tatsache
zurückzuführen war, daß – in der Rechtsprechung des späten Mittel-
alters das Gewicht des schriftlichen Beweises gegenüber dem münd-
lichen zugenommen hatte und die alte juristische Maxime Zeugen

gehen vor Buchstaben“ 6 nun durch eine neue ersetzt wurde, die da
lautete Buchstaben gehen vor Zeugen.“ (Mols, 1954, [201], zitiert

von Dupaquier, 1985, [75].)

Diese Registrierungen wurden durch königliche Dekrete zur Pflicht ge-


macht, was nahezu gleichzeitig in England (1538) und in Frankreich erfolgte
(Edikt von Villers-Cotterêts, 1539). Später machte man andere Listen öffent-
lich. Zum Beispiel wurden bei Epidemien die Ankündigungen von Beerdigun-
gen angeschlagen. Es waren Verzeichnisse dieser Art, auf denen Graunt und
Petty ihre politische Arithmetik aufbauten, in der sie mit Hilfe von sukzessiven
Hypothesen bezüglich der Strukturen von Familien und Häusern die Gesamt-
bevölkerungszahl sowie die Anzahl der Verstorbenen für verschiedene Städte
berechneten. Dabei waren sie um die Einführung von Methoden bemüht, die
sich an anderer Stelle bewährt hatten. So gab etwa Petty folgende Erklärung:
der 1702 in Leipzig erschienen Übersetzung Natürliche und politische Anmer-

ckungen über die Todten-Zettul der Stadt London, fürnemlich ihre regierung,
religion, gewerbe, vermehrung, lufft, kranckheiten, und besondere veränderungen
betreffend“.
6
Pluris est testis, quam litterae“.

28 1 Präfekten und Vermessungsingenieure

... die von mir zu diesem Zweck genutzte Methode ist noch nicht sehr
verbreitet, denn anstatt der ausschließlichen Verwendung von Begrif-
fen im Komparativ und im Superlativ sowie anstelle rein rationaler
Argumente, habe ich (als Muster für die politische Arithmetik, die
mir schon lange vorschwebte) die Methode verwendet, bei der man
sich durch Zahlen, Maße und Gewichte ausdrückt. (Petty, 1690, zi-
tiert von Hecht, 1977, [126].)

Diese Berechnungen wurden als praktische Methoden zur Lösung konkre-


ter Probleme vorgelegt. Graunt sprach von shopkeeper’s arithmetic“. Dave-

nant erwähnte die Kunst des Argumentierens mit Zahlen bei regierungsre-

levanten Objekten“. Der Unterschied zu den deutschen Statistikern ist klar:
Die Vertreter der politischen Arithmetik waren keine Universitätstheoreti-
ker, die eine globale und logische Beschreibung des Staates im Allgemeinen
gaben, sondern Männer unterschiedlicher Herkunft, die sich im Laufe ihrer
Tätigkeit ein praktisches Wissen zusammengeschmiedet hatten und dieses der
Regierung“ anboten. Graunt war Kaufmann; Petty war Arzt und betätigte

sich später nacheinander als Mathematiker, Parlamentsabgeordneter, Beamter
und Geschäftsmann; Davenant war Beamter und Tory-Mitglied im Parlament
(Schumpeter, 1983, [254]). Somit zeichnete sich eine neue soziale Rolle ab: Ein
Experte mit exakt definierter Kompetenz schlägt den Regierenden Techniken
vor und versucht, sie davon zu überzeugen, daß sie sich zur Umsetzung ihrer
Absichten zuerst an ihn wenden müssen. Diese Männer boten eine präzise
artikulierte Sprache an, währenddessen die deutschen Statistiker, die sich mit
dem Staat identifizierten, eine allumfassende Sprache vorlegten.
Einer der Gründe, warum die englischen politischen Arithmetiker zur Er-
reichung ihrer Ziele auf indirekte Methoden und auf Rechenumwege zurück-
greifen mußten, hing mit der liberalen Auffassung vom Staat und den Be-
schränkungen seiner Vorrechte zusammen. Diese Auffassung erlaubte es den
betreffenden Arithmetikern nicht, umfassende direkte Erhebungen durch-
zuführen, wie es manche Länder auf dem Kontinent, insbesondere Frankreich,
bereits getan hatten. So denunzierten etwa die Whigs 1753 einen Plan zur
Volkszählung als Weg zum vollständigen Ruin der letzten Freiheiten des

englischen Volkes“. Auch aus diesem Grund stagnierte die Systematisierung
einer (noch nicht als Statistik“ bezeichneten) quantifizierten Beschreibung

in England in der zweiten Hälfte des 18. Jahrhunderts, während Schweden
1749 eine Volkszählung durchführte. In Holland erfolgten Anwendungen der
Wahrscheinlichkeitsrechnung auf die Länge des menschlichen Lebens (Huy-
gens, 1669), auf die Schätzung des Kaufpreises von Renten mittels Sterbeta-
feln (Witt, 1671) und auf die Schätzung der Bevölkerungszahl mit Hilfe der
jährlichen Geburtenzahlen und der Lebenserwartung bei der Geburt (Kersse-
boom, 1738). In Amsterdam wurde 1672 eine Zählung durchgeführt (Dupa-
quier, 1985, [75]).
Von den Techniken, die uns die politische Arithmetik des 18. Jahrhun-
derts hinterlassen hat, war der Bevölkerungsmultiplikator“ die berühmteste

Englische politische Arithmetik: Entstehung der Expertise 29

(und im darauffolgenden Jahrhundert umstrittenste) Technik. Das Problem


bestand in der Schätzung der Gesamtbevölkerung eines Landes unter Berück-
sichtigung der Tatsache, daß man keine Zählung durchführen konnte, dafür
aber die Anzahl der jährlichen Geburten überall aus den Kirchenbüchern her-
vorging. Die Methode bestand darin, die Bevölkerung einiger Orte zu zählen,
dann das Verhältnis zwischen diesen Zahlen und der Anzahl der jährlichen
Geburten in denselben Orten zu berechnen und – unter der Voraussetzung,
daß dieses Verhältnis überall das gleiche ist – die Gesamtbevölkerungszahl zu
schätzen, indem man die allgemein angenommene Anzahl der Geburten mit
dieser Verhältniszahl multiplizierte. Der Multiplikator lag meistens zwischen
25 und 30. Dieser Kalkül, der im Europa des 18. Jahrhunderts weit verbreitet
war, wurde 1785 von Laplace vervollkommnet. Ausgehend von Hypothesen
über die Wahrscheinlichkeitsverteilung des Bevölkerungsmultiplikators“ lei-

tete er einen zu befürchtenden Fehler“ für die geschätzte Bevölkerungszahl

ab (Bru, 1988, [37]).
Diese Technik – die Vorläuferin des Verfahrens der Zufallsauswahl – wurde
im 19. Jahrhundert heftig angegriffen und bis zum Beginn des 20. Jahrhun-
derts bevorzugte man Voll erhebungen.7 Die Hauptkritik bezog sich auf die
Hypothese der Konstanz des Bevölkerungsmultiplikators auf dem gesamten
Territorium. Die Vorstellung, daß das Königreich eine einzige Wahrschein-

lichkeitsurne“ mit einem konstanten Verhältnis zwischen Bevölkerungszahl
und Geburtenzahl sein könnte, erwies sich als problematisch. Die Konstruk-
tion des nationalen Territoriums in Form eines einzigen Äquivalenzraumes
sollte das große Problem werden, das in Frankreich vor allem nach 1789 auf-
geworfen wurde. Dieses Problem war auch einer der hauptsächlichen Streit-
punkte der großen Präfekten-Enquete“ 8 des Jahres 1800, deren Ziel es war,

die Disparitäten zwischen den Departements9 zu ermitteln, diese Disparitäten
nach Möglichkeit abzumildern und sich der einen und unteilbaren Republik
zu nähern, von der die Revolution geträumt hatte.

7
Man verwendet für Vollerhebung auch den Begriff Totalerhebung. Im Gegensatz
zur Stichprobenuntersuchung wird bei einer Vollerhebung die komplette Grund-
gesamtheit untersucht.
8
Das französische Wort enquête bedeutet in der Statistik u.a. Erhebung, Unter-
suchung. Eine Enquete ist ein Untersuchungsverfahren, das sich im Gegensatz
zur Vollerhebung auf die schriftliche Befragung oder mündliche Vernehmung von
Sachverständigen, Fachleuten usw. beschränkt, um auf diese Weise ein zutref-
fendes Bild über soziale und wirtschaftliche Tatbestände sowie deren Zusam-
menhänge zu gewinnen.
9
Departement (département), Verwaltungsbezirk in Frankreich.
30 1 Präfekten und Vermessungsingenieure

Französische Statistik des Ancien Régime:


Intendanten und Gelehrte10

Auf dem Gebiet der Statistik hat das Frankreich der absoluten Monarchie
keine stereotype, in speziellen Abhandlungen niedergeschriebene intellektuelle
Tradition hinterlassen, die später von der akademischen Kultur weitergeführt
werden konnte, wie es in Deutschland mit Conring, Achenwall und Schlözer
und in England mit Graunt, Petty und Davenant der Fall war. Aber das
Frankreich der absoluten Monarchie vermachte den nachfolgenden Zeiten –
vor allem der Revolution und dem Ersten Kaiserreich (Empire)– zwei wichtige
Dinge: zum einen eine sehr lebendige Verwaltungstradition von Denkschriften
(mémoires) und Enqueten, die in den 1780er Jahren beinahe zur Gründung
einer spezifischen statistischen Institution geführt hätte (was dann im Jahre
1800 tatsächlich erfolgte), und zum anderen eine brodelnde Atmosphäre der
wissenschaftlichen Bildung und der Gelehrsamkeit, die außerhalb des eigent-
lichen Staates anzutreffen war und sich auf empirische Beschreibungen sowie
auf Systeme zur Organisierung dieser Beschreibungen bezog. Die faktische
Umsetzung unterschiedlicher Anforderungen, die Bestandteil der deutschen
und der englischen Tradition waren (globale Beschreibung und taxonomische
Logik im einen Fall, Quantifizierung und Mathematisierung im anderen), eb-
nete den Weg für die späteren Synthesen.
Zur Schilderung dieses Gärungsprozesses verfolgen wir hier den Auf-
bau eines starken, zentralisierten Staates und die verschiedenen Beschrei-
bungsmöglichkeiten des Staates und der Gesellschaft. Dabei betrachten wir
einerseits die Entwicklung vor 1789 und andererseits die Zeit zwischen 1789
und 1815 (Bourguet, 1988, [27]). Seitens der königlichen Macht waren Be-
schreibungen des Landes dazu bestimmt, dem Fürsten Bildung zu vermitteln.
Administrative Enqueten, die mit der Führung von Prozessen zu tun hatten,
schlossen bereits quantitative Analysen ein. Außerhalb des Staates verfaßten
Reisende, Ärzte, lokal ansässige Gelehrte, Wissenschaftler und Philosophen
Forschungsarbeiten, die noch nicht auf der Grundlage präzise festgelegter Dis-
ziplinen kodifiziert waren. Für die nachrevolutionäre Zeit zeigt jedoch eine
Gegenüberstellung der während des Konsulats und in der Zeit des Ersten
Kaiserreiches durchgeführten statistischen Versuche, wie das Wort Statistik“

in Frankreich von seiner deutschen Bedeutung im 18. Jahrhundert auf seine
moderne Bedeutung als quantifiziertes Beschreibungssystem umschwenkte.
Die Besonderheit Frankreichs im Vergleich zu Deutschland und England
bestand darin, daß seit etwa 1660 die Königsmacht sehr stark war und über
eine verhältnismäßig zentralisierte Verwaltung verfügte – auch wenn es in den
Provinzen immer noch Disparitäten in Bezug auf Recht und Bräuche gab. Die-
se Disparitäten wurden denunziert und 1789 abgeschafft. Tocqueville (1856,
10
Ancien Régime“ ist die Bezeichnung für die absolutistische Monarchie vor 1789,

Intendant“ die Bezeichnung eines hohen Verwaltungsbeamten im damaligen

Frankreich.
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 31

[277]) hat nachgewiesen, daß die vereinheitlichende Tradition der Jakobiner


bereits in der absoluten Monarchie tief verwurzelt war und daß die Revoluti-
on ebenso wie das Erste Kaiserreich einen Teil der bereits im Ancien Régime
vorhandenen Wesenszüge beibehalten und weiter ausgebaut hat. Somit waren
Funktion und Verhalten der Intendanten bereits Vorboten der entsprechen-
den Rollen, welche die Präfekten im 19. und 20. Jahrhundert spielen sollten.
Seit 1630 (Zeit Richelieus) und 1663 (Zeit Colberts) sowie in regelmäßigen
Abständen danach wurden die Intendanten damit beauftragt, dem König Be-
schreibungen ihrer Provinzen zukommen zu lassen, wobei die Beschreibungen
einen zunehmend größeren Kodifizierungsgrad hatten. Dieses System von En-
queten ging auf die mittelalterliche Tradition des Fürstenspiegels“ zurück,

der den Fürsten unterrichten sollte und ihm Reflexionen über seine Größe“,

das heißt über die Größe seines Reiches vermitteln sollte, das eine metapho-
rische Erweiterung seines eigenen Körpers darstellte. Allmählich teilte sich
dieses System von Enqueten in zwei Teile auf: zum einen in eine allgemeine
und beschreibende Tabelle, die dem König vorbehalten war, und zum anderen
in eine Gesamtheit von speziellen, quantifizierten und periodischen Erkennt-
nissen, die für die Verwaltungsbeamten bestimmt waren.
Für den König handelte es sich dabei um eine methodische Darstellung,
die in ihrem Geist und Inhalt der deutschen deskriptiven Statistik ziemlich
nahe stand. Diese Beschreibung zeigte aus einer statischen und juristischen
Perspektive, worin die Macht des Königs bestand – gemessen durch die Höhe
der Steuern und die Funktionstüchtigkeit der Institutionen. Auf diese Weise
wurden der Rahmen und die Grenzen seines Handelns abgesteckt. Die Dar-
stellung beschrieb eine unveränderliche Ordnung. Im Fürstenspiegel war die
Vielfalt der Sitten und Gebräuche aufgezeichnet, aber es ging nicht darum,
diese zu ändern. Die Analyse wurde vom Standpunkt des Königs und seiner
Macht durchgeführt und hatte deswegen wenig mit dem Zustand der Gesell-
schaft, ihrer Ökonomie oder mit einer genauen Zählung der Einwohner zu tun.
Ein Archetyp dieser Art von Beschreibung war die Reihe der von den Inten-
danten zwischen 1697 und 1700 verfaßten Mémoires, die das Ziel verfolgten,
den Thronfolger Herzog von Bourgogne auf der Grundlage eines Programms
zu unterweisen, das von Fénelon angeregt worden war.
Ganz anders waren die Informationen beschaffen, die ab Ende des 17. Jahr-
hunderts durch und für die Verwaltungsbureaus gesammelt wurden, und zwar
nicht zu pädagogischen Zwecken, sondern aus direkteren und praktischeren
Erwägungen. Diese mit der Entwicklung der administrativen Monarchie und
deren Dienststellen zusammenhängenden Enqueten waren weniger ortsbezo-
gen, dafür aber spezialisierter und sehr viel quantitativer angelegt; sie bezo-
gen sich auf Volkszählungen, Vorratsbestände und Preise. Häufig verfolgten
diese Erhebungen fiskalische Ziele. Vauban verfaßte 1686 mit dem Ziel einer
Steuerreform eine Allgemeine und leichte Methode zur Durchführung von

Volkszählungen“ (Méthode générale et facile pour faire le dénombrement des
peuples), die er später in seinem Königszehnt“ (dı̂me royale) weiterführte.

Im Jahre 1684 wurde eine Zählung der Gesamtbevölkerung als Grundlage für
32 1 Präfekten und Vermessungsingenieure

die erste Kopfsteuer vorgeschlagen. Die durch Hungersnöte, Epidemien und


Kriege bewirkten Notstände waren in den Jahren 1693 und 1720 (Pest in Mar-
seille) der Grund für Teil-Enqueten zur Bevölkerung und zu den Vorräten. In
der Folge wurden nach und nach spezialisierte und regelmäßige Statistiken er-
stellt, die nichts mit Dringlichkeitsfällen oder Steuerreformen zu tun hatten.
Die wichtigsten dieser Statistiken waren: die von Abbé Terray 1772 veran-
laßten jährlichen Verzeichnisse der Geburten, Heiraten und Sterbefälle (diese
Verzeichnisse waren der Ausgangspunkt für die vom Standesamt herausgege-
ben Statistiken zur Bevölkerungsbewegung), die Registrierungen der Preise
für Landwirtschafts- und Industrieprodukte – die Preise wurden jede Woche
nach Paris geschickt und ermöglichten die Erstellung einer allgemeinen Ta-

belle des Königreiches“ – und schließlich von 1775 bis 1786 ein von Montyon
verfaßtes Verzeichnis der Strafurteile, das ein Vorläufer der Moralstatistik von
Quetelet war.
Auf diese Weise wurden Zählpraktiken und regelmäßige Statistiken ein-
geführt, die sich auf exakt umrissene Bereiche bezogen, nationalen Charakter
hatten und nicht den Umweg über lokale Beschreibungen gingen; insbeson-
dere war eine Beschreibung der zeitlichen Entwicklungsprozesse beabsichtigt.
Ausgangspunkt waren die Registrierungen, die mit der ständigen Verwaltung
der staatlichen Behörden zusammenhingen. Alle diese Merkmale bildeten ein
Konstrukt, das sich von den verbalen Beschreibungen eines Conring oder eines
Fénelon unterschied und ein Vorbote der Praktiken der statistischen Bureaus
des 19. Jahrhunderts war. Es gab jedoch einen wesentlichen Unterschied: Die-
se Beschreibungen waren – ganz gleich, ob für den König oder seine Admi-
nistration bestimmt – geheim und an das königliche Vorrecht gebunden. Die
Beschreibungen waren nicht dazu vorgesehen, eine vom Staat verschiedene
Zivilgesellschaft aufzuklären und eine eigenständige öffentliche Meinung zu
fördern. Die beiden letztgenannten Dinge erfuhren erst in den Jahren nach
1750 eine immer größere Bedeutung und brachten ihrerseits Wissensformen
hervor, die sich getrennt von den Wissensformen der Regierung entwickelten.
Außerhalb der Regierung entwickelte sich eine private Tradition der Gesell-
schaftsbeschreibung. Reiseberichte, geographische Analysen von Orten, Kom-
pilationen über den Boden, die Sitten und Gebräuche und über die Ökonomie
wurden von lokal ansässigen Gelehrten, Wissenschaftlern, Ärzten und Juri-
sten verfaßt, die von der neuen Philosophie der Aufklärung beflügelt waren
und sich in Gesellschaften und Reformklubs versammelten. Dort diskutierten
und formulierten sie diejenigen Themen, die 1789 die Oberhand gewannen.
Von großer Bedeutung war hierbei die Gruppe der Ärzte, denn deren Ein-
fluß setzte sich bis ins späte 19. Jahrhundert in der Bewegung der Hygieni-
ker fort (Lécuyer, 1977, [172]), die vergleichbare Vorstellungen hatten. Diese
Ärzte entwickelten Luft- und Klimatheorien, die von Hippokrates11 und Ga-
11
Hippokrates (von Kos), der Vater der Medizin“, wurde um 460 v. Chr. geboren

und starb um 380. Nicht zu verwechseln mit seinem Namensvetter, dem Mathe-
matiker Hippokrates von Chios, der insbesondere wegen seiner Beiträge zu den
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 33

len12 inspiriert worden waren. Auf der Grundlage dieser Theorien ließen sich
Krankheiten entsprechend der geographischen Umgebung interpretieren. Das
ermunterte diese Ärzte dazu, detaillierte lokale Enqueten zu organisieren, bei
denen die pathologischen Erscheinungen in Beziehung zu den verschiedenen
natürlichen, ökonomischen und sozialen Merkmalen der betreffenden Orte ge-
setzt wurden. So führte im Jahre 1776 Vicq d’Azyr, der Generalsekretär der
Société royale de médicine eine Enquete bei allen französischen Ärzten mit
dem Ziel durch,
... einen topographischen und medizinischen Plan Frankreichs (zu er-
stellen), in dem das Temperament, die Konstitution und die Krank-
heiten der Einwohner aller Provinzen oder Kantone unter Bezugnah-
me auf die Natur und die Bodennutzung erfaßt werden. (Zitiert nach
Bourguet, 1988, [27].)
Das Geheimnis, das die Ergebnisse der administrativen Enqueten umgab,
regte diese Gelehrten zu Schätzungen an, die – ausgehend von Stichproben
und Rechenumwegen, wie es bei der Anwendung des Bevölkerungsmultiplika-
tors der Fall war – auf partiellen Informationen beruhten und in ihren Me-
thoden der englischen politischen Arithmetik nahestanden. Aber diese alge-

braischen“ Kunstgriffe, die auf das Fehlen empirischer Daten zurückzuführen
waren, hatten in beiden Ländern jeweils andere Gründe. In England war die-
ser Mangel das Zeichen einer liberalen Orientierung der Macht. In Frankreich
dagegen resultierte er aus den Geheimhaltungsbestrebungen des königlichen
Absolutismus, der die Informationen für sich behielt. Es standen sich somit
zwei konträre Methoden der Staatsführung gegenüber.
Parallel zur Staatsmacht entwickelte sich die optimistische Vorstellung,
daß eine auf Mathematik und empirischen Beobachtungen beruhende Ratio-
nalität zu einer Objektivität und somit zu einer Transparenz führen kann,
die gleichermaßen auf Beschreibungen und Entscheidungen zutrifft. Das erst-
genannte, beschreibende Element wurde durch die Werke von Laplace zur
Theorie der Beobachtungsfehler in der Physik und zum Bevölkerungsmultipli-
kator repräsentiert. Das zweite, sich auf Entscheidungen beziehende Element,
trat in den Untersuchungen von Condorcet13 auf, der eine Algebra des Men-

schen“ in der Gesellschaft anstrebte, eine soziale Mathematik“, welche mit

Hilfe der Wahrscheinlichkeitsrechnung die Entscheidungen von Geschworenen
oder gewählten Volksvertretungen zum Ausdruck bringt.
Die Formalisierungen bezogen sich in manchen Fällen auf spezielle Schätz-
oder Entscheidungsprobleme und lieferten präzise Lösungen dieser Probleme.
sogenannten klassischen Probleme der griechischen Mathematik (Kreisquadratur,
Würfelverdoppelung, Winkeldreiteilung) berühmt wurde.
12
Galen (Galenos) lebte von ca. 130 bis 200 in Pergamon.
13
Marquis de Condorcet, Marie-Jean-Antoine-Nicolas Caritat (1743–1794). Fran-
zösischer Adliger, der durch seine Verbindung zum Minister Turgot politischen
Einfluß hatte; nahm aktiv an der Französischen Revolution auf der Seite der
Girondisten teil.
34 1 Präfekten und Vermessungsingenieure

Es konnte aber auch vorkommen, daß die Formalisierungen der Ausdruck ei-
nes umfassenderen, systematischeren Bestrebens waren und in dieser Hinsicht
der deutschen Statistik nahestanden, wobei jedoch andere Werkzeuge ver-
wendet wurden. So verhielt es sich zum Beispiel im Fall der Physiokraten, die
eine allzu leichte Versuchung zum Rechnen“ denunzierten. Im Unterschied

zu den oben erwähnten traditionellen deutschen Statistikern kritisierten sie
jedoch weniger die Tatsache, daß auf Rechnungen zurückgegriffen wurde, son-
dern vielmehr die Auswahl der berechneten Größen und die Tatsache, daß
sich diese Größen – ihrer Meinung nach – in kein relevantes globales Kon-
strukt einfügten. So machte etwa Dupont de Nemours in einem Brief zur

Notwendigkeit, die Vorratsberechnungen mit den Volkszählungen in Überein-
stimmung zu bringen“ (1766) folgende ironische Bemerkung über
... alle diejenigen Schreiber, die sich in ihren Arbeitszimmern penibel
damit befassen, die Eintragungen in den Geburten- oder Sterberegi-
stern zu addieren und willkürliche Multiplikationen durchführen, um
die Menschen zu zählen ..., die sich einbilden, durch ihre Berechnun-
gen – die überhaupt nichts mit den Berechnungen von Reichtümern
zu tun haben – die Macht und die Prosperität der Nation beurtei-
len zu können ..., und die es als Gefangene dieser ihrer Vorstellung
vernachlässigen, ihren Eifer und ihre mühevolle Tätigkeit darauf zu
verwenden, den Zustand des Fortschritts und der Arbeiten auf dem
Gebiet der Kultur, den Zustand der Produkte und vor allem den Zu-
stand des Nettoproduktes kennenzulernen (Dupont de Nemours, zi-
tiert von Bourguet, (1988), [27].)
Mit Quesnay kam die Idee der allgemeinen Konstruktion einer Menge auf,
die nicht nur ein formales logisches System bildete, wie bei den Deutschen in
Göttingen, sondern einen deskriptiven Rahmen darstellte, der die verschiede-
nen Schätzungen durch das berühmte tableau économique“ 14 ( Wirtschafts-
” ”
tableau“) miteinander verknüpfte. (Schumpeter, 1983, [254].) Diese Idee – die
in vielerlei Hinsicht dem ähnelte, was die Kalkulatoren“ der volkswirtschaft-

lichen Gesamtrechnung seit Beginn der 1940er Jahre behaupteten – vereinigte
die Forderung nach einer zumindest potentiellen Totalität der von der deut-
schen Scholastik stammenden Systeme mit der Forderung der Arithmetiker
nach Messungen. Nun bedeutet die Messung eines Dings auch eine Prüfung
der Konsistenz dieses Dings, denn es wird mit der Eigenschaft der Exterio-
rität und der Unabhängigkeit von seinem Erfinder oder seinem Beobachter
14
Das tableau économique“ beinhaltet die zahlenmäßige und grafische Darstellung

des makroökonomischen Prozesses. In einem enthusiastischen zeitgenössischen
Kommentar heißt es: Ich habe mir gestattet, diese Figuren mit dem Einverständ-

nis des großen Meisters gesondert anzuführen, dessen schöpferischer Genius die
wunderbare Idee dieses Schaubildes erfand, das allen Augen das Ergebnis der
höchsten Wissenschaft vorführt und das diese Wissenschaft in ganz Europa zum
ewigen Ruhm seiner Erfindung und zum Wohl des Menschengeschlechts dauernd
lebendig halten wird.“
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 35

ausgestattet (je nachdem, ob es sich um die relativistische oder um die reali-


stische Auffassung handelt). Wird ein Ding auf diese Weise durch eine Mes-
sung konsistent (objektiv) gemacht, dann läßt es sich in einen Mechanismus
integrieren, in ein System von Dingen, die unabhängig von ihrem Konstruk-
teur zusammengehalten werden. Im vorliegenden Fall ist der Mechanismus ein
Modell , das die Gesellschaft nicht nur durch eine Nomenklatur, sondern auch
durch Messungen simuliert. Die Diskussion über den Realismus des Objekts
bekommt hier einen neuen Aspekt – den Aspekt des Realismus des betreffen-
den Mechanismus, das heißt des Modells. Der Modellbegriff hat verschiedene
Konnotationen, die sich durch deskriptiv“ (vereinfachtes Schema), kausal“
” ”
(Erklärungskette), normativ“ (zu imitierende Form) oder wahrscheinlich-
” ”
keitstheoretisch“ (hypothetisches System der Verteilungen von Zufallsvaria-
blen) umschreiben lassen. Mehrere dieser Konnotationen traten bereits im
Konstrukt von Quesnay auf, das gleichzeitig deskriptiv (Einteilung von Wirt-
schaftssubjekten und Messung ihres Handelsverkehrs), explikativ (Funktion
der Landwirtschaft) und präskriptiv (Befreiung von den Fesseln des Handels
und der Industrie) sein wollte. Auf diese Weise entstand der Begriff des em-
pirischen Modells, aber es sollte noch über ein Jahrhundert dauern, bis die
Werkzeuge zur Prüfung der Solidität dieses Modells konstruiert wurden.
Ob nun staatlich oder privat: die im Frankreich des Ancien Régime prak-
tizierten Arten der Beschreibung und Kalkulation vertraten – wie von den
Zeitgenossen allmählich wahrgenommen wurde – eine Vielzahl von Positio-
nen, die zwischen den beiden Polen der deutschen und der englischen Tra-
dition angesiedelt waren. So findet man zum Beispiel in den Arbeiten der
Physiokraten das systemorientierte Streben der deutschen Richtung und das
Streben der englischen Richtung nach quantifizierter Objektivierung wieder.
Die wichtigste Tatsache dieses Zeitraums gegen Ende der Monarchie ist jedoch,
daß es immer noch eine Trennung gab – eine Trennung zwischen den von der
königlichen Verwaltung durchgeführten Enqueten, die dem eigenen Gebrauch
vorbehalten waren, und den Untersuchungen, die außerhalb des Staates durch-
geführt wurden. Die letztgenannten Untersuchungen waren vom neuen Geist
der Aufklärung getragen: Zirkulation und Öffentlichkeit des Wissens waren
nach dieser Auffassung wesentliche Bedingungen für den gesellschaftlichen
Fortschritt. Die mehr oder weniger mühelose Verarbeitung dieser Forderung
im Staat neuen Typus, der nach 1789 errichtet wurde, stellte demnach ein
entscheidendes Moment dar, das nach langem Herumtasten zu einer Neudefi-
nition des Begriffes Statistik führte und dem Wort einen anderen Inhalt gab,
auch wenn diese Definition im gesamten 19. Jahrhundert der Gegenstand von
Debatten geblieben ist (Armatte, 1991, [5]).
36 1 Präfekten und Vermessungsingenieure

Revolution und Erstes Kaiserreich:


Die Adunation“ Frankreichs15

Der Zeitabschnitt von 1789 bis 1815 war entscheidend für die Bildung poli-
tischer, kognitiver und administrativer Werkzeuge, die der statistischen Be-
schreibung der sozialen Welt (im Vergleich zu anderen Beschreibungsarten)
und der französischen Statistik (im Vergleich zur Statistik anderer Länder)
eine eigene Originalität verliehen. Die obengenannten konträren Konzepte
prallten mitunter hart aufeinander. Die Konfrontationen fanden im Verlauf
wohl abgegrenzter Perioden statt, in denen ruckweise auftretende Dringlich-
keitsfälle, großangelegte deskriptive Bestrebungen und schließlich fast rou-
tinemäßige statistische Reihen aufeinander folgten (Woolf, 1981, [288]). Zwi-
schen 1789 und 1795 konzipierte man Zählungen und spezielle Enqueten, aber
aus ihnen ist nichts geworden, denn sie wurden in Notlagen, Armuts- und
Kriegszeiten in die Wege geleitet und es fehlte eine adäquate Verwaltungs-
infrastruktur. Danach organisierte man in den Jahren von 1795 bis 1806 in
den neuen Departements Vollerhebungen, deren Geist mit dem der deutschen
Statistik vergleichbar war. Und schließlich wurden zwischen 1806 und 1815 re-
gelmäßige quantitative Statistiken eingeführt, vor allem Landwirtschafts- und
Gewerbestatistiken.
Das Vorhaben der Konstruktion von Äquivalenzen war während des Vier-
teljahrhunderts zwischen der Revolution und dem Ersten Kaiserreich beson-
ders spektakulär. Hierbei handelte es sich sogar um einen der Momente der
Weltgeschichte, in dem diese Konstruktion gewollt, durchdacht und syste-
matisch in kurzer Zeit und in Bezug auf viele Fragen umgesetzt wurde: das
metrische System und die Vereinheitlichung der Maße und Gewichte (zum Bei-
spiel wurden die Längenmaße vereinheitlicht und auf logische Weise durch ihre
Relation zum Meter ausgedrückt); die Verbreitung der französischen Sprache
und die Reduzierung der Mundarten (durch Armee und Schule); die Uni-
versalisierung der Menschenrechte ( Frei und gleich an Rechten werden die

Menschen geboren und bleiben es“ 16 ); die Abschaffung der Adelsprivilegien
und der Zünfte; die Schaffung des Bürgerlichen Gesetzbuches (inspiriert durch
ein allgemeines natürliches Menschenrecht, das nicht an eine besondere Ge-
sellschaft gebunden ist) und die Aufteilung des (durch die Abschaffung der
Sonderrechte bestimmter Provinzen homogen gemachten) Landesterritoriums
in Departements, die identisch organisiert waren und eine vergleichbare Größe
hatten. Einige dieser Versuche zur Transformation der Bezugsrahmen in Natur
und Gesellschaft scheiterten jedoch, wie zum Beispiel der Revolutionskalender,
vielleicht weil er – im Unterschied zu anderen Reformen – zu keiner univer-
selleren, rationelleren und ökonomischeren Kodierung der Zeit geführt hatte.
15
Der Begriff Adunation“ geht auf das spätlateinische Substantiv adunatio“ (Ver-
” ”
einigung) zurück, das sich vom Verb adunare“ ( zu Einem machen“) ableitet.
16 ” ”
Les hommes naissent et demeurent libres et égaux en droits“. (Beginn des Ersten

Artikels der Erklärung der Menschen- und Bürgerrechte.)
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs 37

In diesem Fall wurden die Investitionskosten, die zur Änderung des christ-
lichen Kalenders erforderlich waren – einer Form, die das Papsttum bereits
seit Jahrhunderten dauerhaft vereinheitlicht hatte – nicht durch nachträgliche
signifikante Einsparungen kompensiert, wie es bei den anderen, erfolgreichen
Reformen der Fall war: Hier ist der doppelte Aspekt der Forminvestition er-
kennbar, nämlich der kognitive und der wirtschaftliche Aspekt.
Alle diese metrologischen, juristischen und taxonomischen Konstruktionen
hatten das grundsätzliche Ziel, physikalische Messungen, Urteilssprüche und
Kodierungen identisch wiederholbar, übertragbar und generalisierbar zu ma-
chen. Dadurch sollten die Konstruktionen eine theoretische Unabhängigkeit
von den singulären und lokalen Umständen erhalten. Man verfolgte damit die
Absicht, die Gerechtigkeit in den zwischenmenschlichen Beziehungen ebenso
zu gewährleisten, wie die Genauigkeit bei der Eichung von Dingen. Die Uni-
versalität und Transparenz des Systems der Maße und Gewichte ermöglichte
es also, Betrügereien beim Warenaustausch zu vermeiden; die administrativen
und juristischen Formen der Kodierung waren dagegen unerläßlich, wenn man
den Dingen eine objektive Konsistenz geben wollte, ohne die sie nicht gezählt
werden konnten: Heiraten, Verbrechen, Selbstmorde und später Betriebe, Ar-
beitsunfälle und Arbeitslose.
Die sichtbarste Manifestierung dieser Homogenisierungs- und Kodierungs-
arbeit in Bezug auf zahlreiche Aspekte des menschlichen Lebens war die Ver-
einheitlichung des nationalen Territoriums, denn es wurden viele Dinge und
Vorschriften neu definiert und verallgemeinert, die vorher nur auf lokaler Ebe-
ne oder auf Provinzebene spezifiziert waren. Diese komplexe, kostenaufwendi-
ge und oftmals quälende Arbeit wurde von Sieyès, einem der dabei beteiligten
Hauptakteure, als Adunation bezeichnet, womit die gewollte Vereinheitlichung
der Bezugssysteme gemeint ist. Ein bedeutendes Ereignis war die Einteilung
in Departements, die Ende 1789 von der verfassunggebenden Versammlung in-
nerhalb weniger Monate durchgeführt wurde (Ozouf Marignier, 1986, [217]).
Das Prinzip bestand darin, ein bereits vereinigtes Ganzes – die Nation – auf-
zuteilen, und nicht einfach nur die früheren Entitäten (das heißt die Provin-
zen) mit ihren einzelnen Merkmalen zusammenzufassen. Deswegen wurde die
Aufteilung auf der Grundlage allgemeiner, von der Versammlung definierter
Kriterien durchgeführt und nicht auf der Grundlage lokaler Zufälligkeiten. (Es
gab sogar den extremen Plan, für die Aufteilung ein durch die Längen- und
Breitengrade definiertes quadratisches Gitternetz zu verwenden.)
Zu diesen Kriterien gehörte, daß die Flächen der Departements von glei-
cher Größenordnung sein mußten und die Präfekturen so zu errichten waren,
daß man sie von einem beliebigen Punkt des jeweiligen Departements in einer
Tagesreise erreichen konnte; die Unterpräfekturen mußten so gelegen sein, daß
man die Hin- und Rückreise an einem Tage bewältigen konnte. Die Namen der
Departements wurden von Fluß- oder Bergnamen abgeleitet und man vermied
die Bezeichnungen der alten Provinzen. Auf Drängen der von ihren Regionen
entsandten Emissäre versuchten die Abgeordneten mitunter, die Wahl gewis-
ser Namen zu beeinflussen. Aber das widersprach dem Grundprinzip, daß sie
38 1 Präfekten und Vermessungsingenieure

die kollektiv gewählten Vertreter der ganzen Nation und nicht Delegierte ih-
rer Provinz waren. Durch diese nationale Vorschrift waren die Volksvertreter
gezwungen, den betreffenden Forderungen zu widerstehen und genau dieser
Umstand ermöglichte es überhaupt erst, die Arbeit innerhalb einer so kur-
zen Frist durchzuführen. Das allgemeine Prinzip bestand darin, tabula rasa
mit einer Gesellschaft zu machen, die zuvor durch Privilegien, provinzbezo-
gene Steuergesetzgebungen und lokalen Aberglauben charakterisiert war. Die
Departements (im Jahre 1789) und die Präfekten (die 1800 eingesetzt wur-
den) sollten die Instrumente“ dieser Adunation sein, das heißt der politisch-

kognitiven Konstruktion eines gemeinsamen Meßraumes mit der Skala der
einen und unteilbaren Nation. Der Vorgang der Adunation wurde durch eine
monumentale statistische Erhebung in Gang gesetzt, für die exakt die neuen
Präfekten verantwortlich zeichneten.
Zwischen 1789 und 1800 durchlebte Frankreich eine Zeit, in der die Be-
strebungen zur Neugründung der Gesellschaft mit ausgeprägten politischen,
ökonomischen und militärischen Krisensituationen einhergingen. Diese Kri-
sen entfachten das heftige Verlangen, die Gesellschaft in allen ihren Aspekten
zu beschreiben, um sie umzugestalten. Deswegen gab es zahlreiche Pläne für
Volkszählungen und detaillierte Enqueten – insbesondere sollte dem neuen
Rahmen der Departements auch ein Inhalt gegeben werden. Die Dringlich-
keiten der Krisen führten jedoch dazu, daß die Informationsanforderungen
der Zentralregierung in unzusammenhängender Aufeinanderfolge am Bestim-
mungsort eintrafen, kaum kontrolliert wurden und im Allgemeinen folgenlos
blieben (Gille, 1964, [108]).
Der 18. Brumaire17 (9. November 1799) führte zur Installation einer star-
ken und autoritären Macht, welche die früheren ehrgeizigen Pläne umsetz-
te, Gesetze erließ und effiziente Einrichtungen gründete. Hierzu gehörten das
Bürgerliche Gesetzbuch ebenso wie Universitäten, Lyzeen, Präfektorialver-
waltungen, statistische Bureaus und Zählungen. Aber in der Statistik folg-
ten zwei ziemlich unterschiedliche Momente aufeinander, die in einem signi-
fikanten Gegensatz zueinander standen: Erhebungen nach deutschem Vor-
bild und eingeschränkte, direkt anwendbare Statistiken. Die unterschiedlichen
Beschreibungs- und Formalisierungsweisen der sozialen Welt, über die gerade
erst in philosophischen Zirkeln und außerhalb der königlichen Verwaltung de-
battiert worden war, konnten jetzt von denjenigen mobilisiert werden, die – in
erster Linie im Innenministerium – für die dringlichsten Bedürfnisse Abhilfe
schaffen sollten und gleichzeitig die Grundlagen für ein umfassendes Beschrei-
bungsmodell der französischen Gesellschaft schaffen mußten. Das war bereits
bei François de Neufchâteau der Fall, der als Minister zwischen 1797 und
17
Der brumaire war die historische Bezeichnung des zweiten Monats des republi-
kanischen Kalenders (vom 22.-24. Oktober bis zum 20.-22. November). Journée
du 18 Brumaire bezeichnet den 9. November 1799 (Jahr VIII der Republik), der
Tag, an dem Bonaparte durch einen Staatsstreich das Direktorium stürzte und
den Rat der 500 auflöste.
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs 39

1799 regelmäßig an die Städte und Departements Rundschreiben verschickte,
in denen er Informationen aller Art anforderte.
Auf Anforderung der neuen Administration sammelte man also sämtliche
Arbeiten, die von lokal ansässigen Gelehrten, wissenschaftlichen Gesellschaf-
ten, Ärzten und Philanthropen verfaßt worden waren, die früher in allen Win-
keln des Königreiches unkoordiniert wirkten. Der Wissensdurst der sozialen
Gruppen, die zwischen 1789 und 1795 die Revolution getragen hatten, wurde
auf diese Weise für den Staatsdienst requiriert. Diese Gruppen waren es, an die
sich François de Neufchâteau und später, nach 1800, Chaptal gewandt hatten.
Ein wichtiger Aspekt dieser neuen Art, Statistik zu betreiben, bestand im Un-
terschied zur Verwaltungsarbeit des Ancien Régime darin, daß die Statistiken
zur Veröffentlichung vorgesehen waren. Der erste, der das tat, war Sébastien
Bottin, der 1799 das Jahrbuch Annuaire politique et économique du Bas-Rhin
herausgab, bevor er ein Almanach-Unternehmen gründete, das später von Di-
dot gekauft wurde, dem Herausgeber der unter dem Namen Bottins“ bekannt

gewordenen Verzeichnisse (Marietti, 1947, [191]). De Neufchâteau begrüßte
diese Verzeichnisse als das erste wahrhaft statistische Werk dieser Art, das

wir in Frankreich haben“ und machte folgende Voraussage: Ich gebe die Hoff-

nung nicht auf, daß sein Name mit dieser Art von Werk verbunden sein wird
und daß man eines Tages unter dem Begriff bottin eines Departements ein
instruktives und vollständiges statistisches Jahrbuch verstehen wird – so wie
man im Zusammenhang mit Berechnungstafeln von einem barème 18 spricht.“
Die Einigung der Nation ging einher mit einer umfassenden Verbreitung
der Kenntnisse über die Regionen, aus denen diese Nation bestand, über die
neuen landwirtschaftlichen und industriellen Produktionstechniken und über
die potentiellen Märkte. In dieser Zeit erfolgte der Übergang der Statistik von
– in Verwaltungsarchiven eingeschlossenen – Manuskripten zu Drucksachen,
die prinzipiell für eine große Öffentlichkeit bestimmt waren. Diese Verschie-
bung hing mit der Tatsache zusammen, daß der republikanische Staat, der
18
Das französische Wort barème bezeichnete zunächst Rechenbücher und später
auch Tabellen. Das Wort bedeutet heute u.a. Berechnungstafel, Tabelle, Tarif und
kommt zum Beispiel in der Zusammensetzung barème des salaires“ (Lohntabelle)

vor. Der Vergleich zwischen bottin und barème ist aufschlußreich. Es handelt sich
in beiden Fällen um die Bezeichnungen von Standardisierungswerkzeugen. Die
Personen, von denen sich diese Bezeichnungen ableiten, sind durch die Launen des
Schicksals in der Anonymität verschwunden. Über François Barème (Franciscus
Barreme), den französischen Adam Ries“, heißt es in dem Werk Fortsetzung
” ”
und Ergänzungen zu Christian Gottlieb Joechers allgemeinem Gelehrten-Lexico,
worin die Schriftsteller aller Staende nach ihren vornehmsten Lebensumstaenden
und Schriften beschrieben werden“ (Leipzig 1784): Ein nützlicher Rechenmeister

zu Paris, welcher von Lyon gebürtig war, und 1703 zu Paris starb. Man hat von
ihm Les Tarifs et Comptes faits du grand Commerce, Paris 1670; worauf es sehr
oft wieder aufgelegt worden“.
40 1 Präfekten und Vermessungsingenieure

zur öffentlichen Sache ( res publica“ 19 ) geworden war, die ganze Gesellschaft

repräsentierte – über den Umweg der durch Wahlen erfolgenden Vertretung,
aber auch durch die Statistik, die zum Spiegel der Nation“ wurde und nicht

mehr lediglich ein Fürstenspiegel“ war. Das Bestreben, der Gesellschaft mit

Hilfe eines Netzes von Präfekten-Enqueten“ ihr eigenes Spiegelbild vor Augen

zu halten, war die primäre Orientierung des neuen Bureau de statistique de la
République. Dieses Bureau wurde 1800 vom Innenminister Lucien Bonaparte
gegründet, den man bald danach durch Chaptal ersetzte.
De Ferrière und Peuchet – bis zum Jahre 1805 die beiden obersten Leiter
dieses Bureaus – gehörten der geisteswissenschaftlichen Kultur an; sie fühl-
ten sich zur deutschen Statistik hingezogen (die Abhandlung Schlözers war
von Donnant ins Französische übersetzt worden) und verhielten sich zurück-
haltend zur Algebra“ der englischen politischen Arithmetiker. Beide wurden

jedoch innerhalb des eigenen Bureaus von Duvillard herausgefordert, einem
Mathematiker, der auf Sterbetafeln und deren Anwendung zur Berechnung
von Leibrenten spezialisiert war. Zwei Kulturen, zwei Erkenntnisweisen und
zwei Anforderungskataloge prallten in wechselseitigem Unverständnis in einer
Zeit aufeinander, als die Humanwissenschaften“ noch nicht in voneinander

abgegrenzte akademische Disziplinen unterteilt waren und die – sich eben erst
herausbildenden – Fachsprachen in direkter Konkurrenz zueinander standen.

Peuchet und Duvillard: schreiben oder rechnen?


Peuchet förderte die schriftliche Beschreibung in Form von Tabellen, die eine
Schilderung und Einprägung ermöglichten, denunzierte aber den reduzieren-
den Charakter der Tabellen, die man mit Skeletten ohne Substanz vergleichen
könne. Duvillard hingegen erhob Anspruch auf die Präzision der Zahlen, die
man durch Vergleiche überprüfen konnte und deren Gesetze sich durch Glei-
chungen darstellen ließen. Es ist interessant, die auf diese Weise typifizierten
Diskurse zu lesen – nicht so sehr im Hinblick darauf, wer Recht hatte“, son-

dern vielmehr in Bezug auf die innere Konsistenz dieser Diskurse. Dabei ist
auch die Untersuchung dessen interessant, mit welchen sozialen und politi-
schen Kräften sich diese Männer liieren wollten, wem sie sagen wollten Seht

her, wie sehr Ihr mich braucht!“ und welche Argumente sie zu diesem Zweck
ins Feld führten.
Peuchet veröffentlichte 1805 ein Werk, dessen vollständiger Titel die da-
hinter stehende Absicht erkennen läßt: Elementare Statistik Frankreichs, ein-
schließlich der Prinzipien dieser Wissenschaft und ihrer Anwendung auf die
Analyse des Reichtums, der Kräfte und der Macht des französischen Empire,
zur Verwendung durch Personen, die ein Studium der Administration wählen.
Er ließ seinem Namen eine Liste von landwirtschaftlichen Gesellschaften und
19
Der lateinische Begriff res publica“ bedeutet Gemeinwesen, Staatswesen, Staat,
” ”
Staatsverwaltung, Staatsgewalt“ (eigentlich öffentliche Sache“).

Peuchet und Duvillard: schreiben oder rechnen? 41

Handelsgesellschaften folgen und gab Beispiele für politische und administra-


tive Instanzen, denen diese Gesellschaften angehörten. Das Wort Admini-

stration“ hatte für ihn eine allgemeine Bedeutung: er verwendete es für die
Verwaltung öffentlicher oder geschäftlicher Angelegenheiten. Er wandte sich
an die betreffenden prominenten Persönlichkeiten, zu deren Kreis er selber
gehörte, und bot ihnen einen umfassenden, deskriptiven, leicht zu lesenden
und leicht zu merkenden Diskurs über den Reichtum, die Kräfte und die

Macht des Empire“ an. In einem Vorwort über die Art, Statistik zu schrei-

ben“ hob er die Qualität der schriftlichen Darlegungen hervor, die sich als
genehm erweisen
... für den französischen Geist, der stets ungeduldig darauf aus ist, den
Zweck einer Arbeit zu kennen und der die Trockenheit der Tabellen
nicht ertragen kann, ganz gleich wie exakt diese auch sein mögen ...
Allgemeine Betrachtungen, nützliche Anwendungen, klare Definitio-
nen und alles, was das Nachdenken durch die Faszination von Diskurs
und Diktion aufrecht erhält, all das ist notwendigerweise Bestandteil
der französischen Bildung. (Peuchet, 1805, [230].)
Es hat den Anschein, daß er weder der deutschen Statistik Recht gab (die
sich schuldig gemacht hatte, eine Unmenge positiver Informationen oder Be-

gründungen in einem Rahmen zu ersticken, der gar nicht dazu gehört ..., in
Nomenklaturen, die fast keine Anwendungen haben ...“) noch den Berechnun-
gen der Vermessungsingenieure“ und der Algebraiker“ 20 . Jedoch richteten
” ”
sich seine Attacken hauptsächlich gegen die letzteren:

Wenn wir die Methode gerügt haben, welche die Statistik dadurch
verfälscht, daß man deren Lehre fremdes oder unnützes Wissen bei-
mengt und dadurch nur Konfusion verursacht, dann ist es unserer
Meinung nach um so mehr berechtigt, diejenigen zurückzuweisen, die
durch enigmatische Formeln, algebraische Berechnungen oder geome-
trische Figuren etwas präsentieren oder analysieren möchten, das man
viel einfacher auf natürliche Weise und ohne Ungereimtheiten zum
Ausdruck bringen kann ... Diese unsere Bemerkungen treffen um so
mehr zu, weil im Übrigen aufgeklärte Personen im guten Glauben ge-
dacht haben, daß sie zum Fortschritt der politischen Ökonomie und
zur Stärkung ihrer Grundsätze beitragen, wenn sie diese mit alge-
braischen Rechnungen gehörig aufplustern. Dabei läßt sich unmöglich
erfassen, wie sich die Berechnungen auf diese von sich aus komplizierte
Wissenschaft anwenden lassen – eine Wissenschaft, die man tunlichst
nicht noch obskurer machen sollte, indem man obendrein noch Schwie-
rigkeiten und metaphysische Abstraktionen einbaut ... (Peuchet, 1805,
[230].)
20
Mit den Algebraikern“ sind hier die (politischen) Arithmetiker gemeint, die mit

Zahlen hantierten“.

42 1 Präfekten und Vermessungsingenieure

Man könnte vermuten, daß Peuchet mit den Methoden der Arithmetiker
nur wenig vertraut war und sich bei diesen Methoden auch nicht besonders
wohl fühlte. Wichtig ist jedoch, daß er seinem Publikum, das er gut kannte,
einen lesbaren und einprägsamen Diskurs anbot, dessen Teile in ihrer Darstel-
lung durch einen roten Faden zusammengehalten wurden und auf einem ver-
einheitlichenden Plan aufbauten, nämlich auf der Analyse der Macht des Em-

pire“ durch eine sukzessive Beschreibung des Territoriums, der Bevölkerung,
der Landwirtschaft, der Industrie, des Handels, der Schifffahrt, des Staats-
haushalts und der Armee. Ansonsten versagte er es sich nicht, ausführlichen
Gebrauch von den Werken der Algebraiker“ zu machen, die er an anderer

Stelle denunzierte. Aber er hatte diese Werke gründlich studiert. Zum Bei-
spiel erwähnte er eine Ermittlung des Gesamtverbrauchs auf der Grundlage

des geschätzten Verbrauchs eines jeden Individuums“ und verglich die drei
Rechenverfahren, die für die Algebraiker typisch waren. Peuchets vehemente
Ausfälle gegen die Algebraiker können dahingehend aufgefaßt werden, daß er
vor sein Publikum trat und dessen vermutete Zurückhaltung gegenüber den
trockenen Tabellen“ zum Ausdruck bringen wollte. Er spielte demnach eher

die Rolle eines Vermittlers und Übersetzers (Callon, 1989, [42]) zwischen den
Formalisierungen der Arithmetiker und den Fragen, die sich die Administra-

toren“ stellten. Die heftigen Seitenhiebe auf die Arithmetiker waren jedoch
ohne Zweifel ungeschickt und verhinderten die Formierung einer Allianz mit
ihnen. Als schließlich Peuchets Lager zu den Verlierern gehörte, mußte De
Ferrière das Statistische Bureau im Januar 1806 verlassen.
Duvillard, der ihn anschließend für einige Zeit ersetzte, verfolgte eine ganz
andere Strategie. Von der Ausbildung her war er Mathematiker und er arbei-
tete vor 1789 beim Allgemeinen Buchprüfungsamt und beim Schatzamt. Er
hatte Sterbetafeln aufgestellt (die von den Versicherungsgesellschaften noch
bis zum Jahre 1880 verwendet wurden) und war Spezialist für die Anwendung
dieser Tafeln auf Probleme der Zahlung von Leibrenten, für die Berechnung
von Altersruhegeldern und für die Tilgung der Staatsverschuldung geworden.
Im Jahre 1791 wurde Duvillard zum Direktor des Bureau d’arithmétique po-
litique ernannt, das von der verfassunggebenden Versammlung auf Veran-
lassung von Condorcet und Lavoisier gegründet worden war. Während der
gesamten Zeit der Revolution und des Konsulats hatte er bei zahlreichen Ge-
legenheiten unter Beweis stellen können, daß seine Techniken bei der Lösung
von Problemen des Schatzamtes unentbehrlich waren. Im Jahre 1805 wurde
Duvillard von De Gérando, dem Staatssekretär des Innenministeriums, zum
stellvertretenden Leiter des Statistischen Bureaus berufen. De Gérando er-
teilte Duvillard die Aufgabe, die von De Ferrière und dessen Untergebenen
durchgeführte Arbeit zu beurteilen. Duvillard nahm Anstoß an dem, was ihm
als vollständiger Mangel an Strenge bei der Kompilation der Tabellen erschien
– vor allem bemängelte er, daß diese Tabellen auf der Grundlage der unvoll-
ständigen und unzusammenhängenden Antworten erstellt worden waren, die
in den im Jahre 1800 durchgeführten Präfekten-Enqueten auftraten. Er gab
seiner Entrüstung am 13. Januar 1806 in einer Denkschrift zur Arbeit des

Peuchet und Duvillard: schreiben oder rechnen? 43

Statistischen Bureaus“ (Mémoire sur le travail du Bureau de statistique) Aus-


druck. De Ferrière hatte das Bureau zwar verlassen, aber es gelang Duvillard
nicht, die Stelle zu bekommen. Im April 1806 wurde Coquebert de Montbret
berufen, ein besonnener und realistischer Verwaltungsbeamter. Im November
verfaßte Duvillard eine Denkschrift zur Wiedereinrichtung der Stelle eines

Vermessungsingenieurs und Kalkulators“ , in der er seine Karriere und die
von ihm durchgeführten Dienstleistungen beschrieb; obendrein äußerte er den
Wunsch, daß seine eigene Kompetenz durch die Gründung eines speziellen,
von ihm selbst geleiteten Bureaus institutionalisiert werden solle. Er schloß
beide Denkschriften, indem er sich als mittelloser Familienvater“ vorstellte

und die Anerkennung seiner Talente einforderte (Reinhart, 1965, [244]; Perrot,
1977, [226]).
In seiner Denkschrift vom Januar erklärte Duvillard präzise, was seiner
Meinung nach die Aufgabe eines statistischen Bureaus sei. Zunächst bemerkte
er, daß niemand daran gedacht habe, die Konsistenz von Objekten dadurch
zu prüfen, daß man sie miteinander vergleicht:

Niemand in diesem Bureau hat offenbar geahnt, daß man die Fak-
ten dazu verwenden kann, sie durch diese selbigen Fakten zu prüfen.
Jedoch stehen sämtliche Fakten in wesentlichen und notwendigen Be-
ziehungen zueinander. Dieselben Gründe, die zur Änderung gewisser
Fakten führen, verursachen auch bei den anderen Fakten Änderungen.
Sieht man sich ihre Beziehungen aufmerksam an, dann kann man die-
se und ihre Gesetze häufig durch Gleichungen darstellen. (Duvillard,
1806, [80].)
Er gab hiernach eine konkrete Beschreibung der beträchtlichen Investitio-
nen, die für eine noch kaum routinierte Administration zur Konstruktion von
Äquivalenzen erforderlich wäre, welche a priori gar nicht existierten. Zu die-
sen Investitionen gehörte der immense Briefwechsel mit den Präfekten und
die bei der mechanischen Arbeit des Bureaus erforderliche Sorgfalt:
... Die Hauptobliegenheit des Leiters dieses Bureaus hätte darin be-
standen: die von den Präfekten übermittelten Zusammenstellungen
aufmerksam zu untersuchen, zu diskutieren und zu vergleichen; die
Fakten zu prüfen und den Präfekten die Bemerkungen mitzuteilen,
die sie hätten machen sollen; die Präfekten aufzufordern, neue Be-
merkungen zu machen und nach den Ursachen von Ergebnissen zu
suchen, die absurd oder außergewöhnlich zu sein scheinen. Nun war
diese Funktion nicht nur nicht erfüllt worden, sondern auch die Form
der Zusammenstellungen, in denen die Fakten abgefragt wurden, er-
wies sich als mangelhaft: die vielen Fehler durch Weglassungen sowie
Additionsfehler in den unvollständigen und gedruckten Tabellen zum
Status der Manufakturen, der Bevölkerung und der Bevölkerungsbe-
wegung machen diese Tabellen zu einem nutzlosen Werkzeug und zei-
44 1 Präfekten und Vermessungsingenieure

gen, daß die mechanische Arbeit des Bureaus nicht mit hinreichender
Sorgfalt durchgeführt worden ist. (Duvillard, 1806, [80].)

Danach stellte er fest, daß die Präfekten nur dann strikte Antworten geben
können, wenn die Administration gewisse Register führt“, das heißt wenn es

eine vorher existierende Form der Aufzeichnung und der Kodierung gibt, deren
Prototyp der Personenstand ist. Fehlen diese Aufzeichnungen, dann müssen
die Statistiker auf Umwegen vorgehen und auf Überlegungen und Rechnungen
zurückgreifen (hierbei handelt es sich um die Art Algebra, die Peuchet zwar
denunziert hatte, selbst jedoch benutzte):
Man kann von den Präfekten nur erwarten, daß sie ein exaktes Fak-
tenwissen haben und daß diese Fakten von den öffentlichen und spezi-
ellen Verwaltungen aufgezeichnet werden. Es gibt eine Menge anderer
wichtiger Fakten und es wird immer schwierig sein, diese vollständig
mit Hilfe von Beobachtungen zu kennen. Beispiele hierfür sind: die
Dauer von Ehen oder Witwenschaften, der Bestand an beweglichen
Gütern, Industrieprodukten, Rohstoffen und bearbeiteten Materiali-
en sowie die entsprechenden Kenntnisse, die sich auf die Bestimmung
dieser Produkte beziehen. Aber häufig läßt sich mit Hilfe der erfor-
derlichen Daten das, was nicht unmittelbar gezählt oder gemessen
werden kann, durch Überlegung, Rechnung und durch eine metho-
dische Kombination der Fakten herausfinden. Hierfür gibt es in den
physikalisch-mathematischen Wissenschaften so manche Beispiele ...
(Duvillard, 1806, [80].)
Zum Schluß antwortete Duvillard Punkt für Punkt auf Peuchets Kritik an
den trockenen Tabellen“. Dabei betonte Duvillard, daß diese Form Verglei-
” ”
che und theoretische Vorstellungen fördert“ und gleichzeitig äußerte er sich
ironisch über Menschen, die durch den verführerischen Glanz eines eleganten

Stils“ in Erscheinung treten:
Isolierte Fakten, die man lediglich im Rahmen einer Zusammenfas-
sung erhält und die einer weiteren Erläuterung bedürfen, können nur
in Denkschriften vorgelegt werden; aber diejenigen Fakten, die mas-
senhaft und mit Detailangaben vorgelegt werden können und auf deren
Genauigkeit man sich verlassen kann, müssen in Tabellen angegeben
werden. Diese Form, welche die Fakten deutlich hervorhebt, erleichtert
Vergleiche, das Erkennen von Beziehungen und theoretische Vorstel-
lungen. Aber zu diesem Zweck sollte man Register führen, wie ich es
in Bezug auf die Bevölkerung getan habe und genau das ist noch nicht
geschehen ...
... In einem Land, in dem man mit Zusammenfassungen lebt und
sich die Menschen mehr mit der Form als mit dem Grund der Dinge
beschäftigen (denn Wissen führt nur selten zu Vermögen), mangelt
es nicht an Menschen mit dem verführerischen Glanz eines eleganten
Peuchet und Duvillard: schreiben oder rechnen? 45

Stils. Die Erfahrung lehrt jedoch, daß es für eine gute Statistik nicht
ausreicht, Pläne, Zusammenfassungen und Zusammenstellungen ma-
chen zu können ... Wie intelligent auch immer jemand sein mag – es ist
für den Betreffenden unmöglich, eine Wissenschaft zu improvisieren,
die Vorstudien und eine fast lebenslange Beschäftigung erfordert: be-
trachtet man den Umfang an Wissen in Ökonomie, politischer Arith-
metik, hervorragender Mathematik und Statistik sowie das Maß an
Scharfsinn, Talent und Genius in Kombination mit dem für eine sol-
che Position erforderlichen Ordnungssinn und Beharrungsvermögen,
dann hat es den Anschein, daß diese Position hinsichtlich der Nütz-
lichkeit und Schwierigkeit nicht allzuweit über den Fähigkeiten der-
jenigen Menschen liegt, die sich durch ihre Schriften in besonderer
Weise auszeichnen. (Duvillard, 1806, [80].)
Diese beiden Männer waren demnach weit komplexer, als es die stereoty-
pen Bilder nahelegen, welche die beiden von sich selbst zeichneten. Peuchet
verwendete die von den Algebraikern erzielten Ergebnisse, wenn sie für ihn
nützlich waren. Duvillard konnte gut schreiben und seinem Stil mangelte es
weder an Bissigkeit noch an Humor; hierauf deutet im obigen Zitat die Wen-
dung durch ihre Schriften“ in einem Satz hin, der offensichtlich auf Peuchet

gemünzt ist. Wenn einer von ihnen dem anderen seine trockenen Tabellen“

und undurchsichtigen Berechnungen“ vorwirft und dann im Gegenzug für

den verführerischen Glanz seines eleganten Stils“ verspottet wird, dann kann

man – jenseits des klassischen Gegensatzes zwischen literarischer und wissen-
schaftlicher Kultur – zwei periodisch wiederkehrende Methoden herauslesen,
mit denen die Statistiker versuchen, ihre Existenzberechtigung nachzuweisen.
In dem einen Fall besteht das Ziel darin, eine einfache und einprägsame Bot-
schaft zu vermitteln, um schlüsselfertig verwendbare Dinge zu produzieren,
auf denen sich Konstrukte einer anderen rhetorischen Natur – zum Beispiel
politischer oder administrativer Natur – aufbauen lassen: Peuchets Bemer-
kung über den Reichtum, die Kräfte und die Macht des Empire“ war von

dieser Art. Im anderen Fall liegt die Betonung jedoch auf Technizität und Pro-
fessionalität, die zur Produktion und Interpretation von Ergebnissen führen,
die weder unentgeltlich noch transparent sind. Im Laufe der Zeit artikulierten
sich diese beiden Diskurse in kultivierterer Form und die Konfrontation lief
weniger rüde ab, als der Gegensatz zwischen Peuchet und Duvillard. Jedoch
war diese Grundspannung ein inhärentes Merkmal der eigentlichen Situation
der Bureaus für Verwaltungsstatistik, deren Glaubwürdigkeit sowohl von der
Sichtbarkeit als auch von der Technizität dieser Bureaus abhing. Die Art und
Weise, in der man an diese Doppelanforderung in Abhängigkeit von der jewei-
ligen Zeitepoche und dem betreffenden Land heranging, zieht sich – ebenso
wie die Art und Weise der Rücktransformierung dieser Doppelanforderung –
wie ein roter Faden durch die Geschichte dieser Bureaus.
Im Falle des napoleonischen Statistischen Bureaus des Jahres 1806 ver-
teidigten beide Protagonisten ihre Standpunkte in einer allzu radikalen Wei-
46 1 Präfekten und Vermessungsingenieure

se und keiner von ihnen konnte sich durchsetzen. Leiter des Bureaus wurde
vielmehr Coquebert de Montbret, ein hoher Beamter, der den unmittelbaren
Bedürfnissen der Verwaltung nahestand. Die ökonomischen Folgen der Kon-
tinentalsperre gegen England führten zu einem Notstand und alle Anstren-
gungen waren darauf ausgerichtet, landwirtschaftliche und gewerbliche Pro-
duktionsreihen aufzustellen. Das Statistische Bureau wurde 1812 geschlossen
– vielleicht deswegen, weil es ihm nicht gelungen war, innerhalb der äußerst
kurz gesetzten Fristen der Forderung Napoleons nach detaillierten Informatio-
nen zur Gesamtheit des Produktionsapparates nachzukommen (Woolf, 1981,
[288]). Von dieser Zeit blieben zum einen die Denkschriften der Präfekten“

erhalten, die in Antwort auf Chaptals Enquete von 1800 verfaßt wurden und
deren Veröffentlichung 1806 eingestellt worden war. Zum anderen blieb auch
ein Versuch erhalten, wirtschaftsstatistische Reihen aufzustellen, aber auch
dieser Versuch wurde abgebrochen (Gille, 1964, [108]).

Wie man Diversität durchdenkt

Die von den Präfekten in Antwort auf Chaptals Fragebogen verfaßten Departe-
ment-Denkschriften wurden vom Statistischen Bureau bis zum Jahre 1806
gesammelt und veröffentlicht. Private Verleger druckten später, bis zum Jah-
re 1830, weitere Denkschriften. Die Historiker hielten diese Unterlagen lange
Zeit für heteroklitische und unvollständige Dokumente, vor allem aber für
unbrauchbar als Quelle numerischer Daten. Das trifft für die quantitative
Wirtschafts- und Sozialgeschichte zu, die sich zwischen 1930 und 1960 im
Anschluß an die Arbeiten von Simiand und Labrousse entwickelte. Für die-
se Historiker setzte die Konstruktion von konsistenten statistischen Reihen –
zum Beispiel in Bezug auf die amtlichen Marktpreislisten und die Erzeugung
landwirtschaftlicher Produkte – voraus, daß strikte präexistente Bedingungen
erfüllt sind: daß nämlich die Registrierungsmodalitäten zeitlich und räumlich
konstant bleiben und auch die Identität der registrierten Objekte erhalten
bleibt. Die Aufgabe der Quellenkritik besteht genau darin, diese Bedingun-
gen zu überprüfen oder vielmehr vorauszusetzen, daß die Objekte und die
Umstände, unter denen sie registriert wurden, hinreichend äquivalent dafür
sind, daß sich deren Reduktion auf ein und dieselbe Klasse als relevant er-
weist. Die Reduktion erfolgt auf der Grundlage einer Debatte über den Zu-
sammenhang zwischen hinreichender Äquivalenz und Relevanz. Diese Frage
ist von grundlegender Wichtigkeit bei der Konstruktion von langen statisti-
schen Reihen in Bezug auf Berufe oder Wirtschaftssektoren. Die Frage ist auch
wichtig, wenn Daten zu den Regionen eines Staates gesammelt werden und
wenn die Registrierungsbedingungen nicht eindeutig kodifiziert worden sind.
Das war genau die Kritik, die Duvillard gegenüber seinen Vorgängern äußer-
te, obschon er einräumte, daß die Präfekten nur von denjenigen Fakten eine

exakte Kenntnis haben können, die von den Verwaltungen registriert worden
sind“.
Wie man Diversität durchdenkt 47

Aber die Bedeutung der Denkschriften der Präfekten ändert sich, wenn
man das eigentliche Vorhaben der Adunation zum Thema der historischen For-
schung wählt und dabei beachtet, daß es sich um einen der wichtigsten Aspek-
te der Französischen Revolution handelt, einen Aspekt, dessen Konsequenzen
sich – unabhängig vom Urteil, das man über ein derartiges Projekt fällt – als
äußerst nachhaltig erweisen. Aus dieser Sicht erscheint Chaptals Enquete als
enormer Kraftakt zur Beschreibung der Diversität Frankreichs im Jahre 1800.
Der Umfang dieser Aufgabe läßt erahnen, welche Anforderungen die Aduna-
tion stellte. Die Sicht der Präfekten auf ihre Departements liefert nicht nur
genaue Informationen über die jeweiligen Departements selbst, sondern zeigt
auch und vor allem, wie sich die Akteure dieses Vorhaben vorstellten, wie
sie die Diversität Frankreichs und die möglichen Hindernisse wahrgenommen
haben, die sich diesem politischen und kognitiven Unternehmen in den Weg
stellten. Die einschlägigen Dokumente, die im Buch von Marie-Noëlle Bour-
guet (1988, [27]) analysiert werden, stellen für den Historiker ein einzigartiges
Material dar.
Die Enquete läßt sich auf mehrere Weisen interpretieren. Erstens: Wie
war die Situation Frankreichs im Jahre 1801? In einer Art Reisebeschreibung
bringt die Enquete eine Vielzahl von Beobachtungen, die mehr von ethnologi-
schem als von statistischem Interesse – im modernen Sinne des Begriffes – sind.
Zweitens: Wie wurde diese Situation gesehen? Wie wählte man die angeblich
relevanten Merkmale aus? Drittens: Welche Hindernisse wurden wahrgenom-
men, die sich dem politischen Plan der Transformation und der Einigung des
Territoriums in den Weg stellten? Die Widerstände, auf die dieser Plan stieß,
enthüllen gesellschaftliche Aspekte, für deren explizite Formulierung es zu-
vor keinen Grund gegeben hatte. Jetzt aber wollte man aktiv auf die Dinge
einwirken und genau deswegen war es erforderlich geworden, die Dinge beim
Namen zu nennen und zu beschreiben. Genauer gesagt: der Übergang vom vor-
revolutionären zum nachrevolutionären Frankreich implizierte nicht nur eine
Änderung des Territoriums, sondern auch eine Änderung der Begriffe und der
Werkzeuge zur Beschreibung dieses Territoriums. Ein überraschender Aspekt
der von den Präfekten verfaßten Denkschriften war der Zusammenprall kon-
kurrierender Analyseschemata, die unter ihrer Feder hervorströmten und sich
miteinander vermengten. Wir nennen zwei Fälle, die für diese taxonomische
Konfusion exemplarisch sind: Wie war die Aufteilung der sozialen Gruppen
und deren Ordnung zu konzipieren? Wie ließ sich die Homogenität oder die
innere Heterogenität dieser Gruppen einschätzen?
Zur Beschreibung der sozialen Gruppen standen drei sehr unterschiedli-
che Schemata zur Verfügung. Das erste Schema war eine Hinterlassenschaft
des Frankreichs der Vergangenheit und wurde 1789 vermutlich vollständig ab-
geschafft: Adel, Klerus und Dritter Stand.21 Die Ständegesellschaft war ver-
21
Die Geistlichkeit war der Erste, der Adel der Zweite Stand in der feudalen
französischen Monarchie. Die Basis beider Stände bildete der feudale Grund-
besitz. Ihre Angehörigen genossen die verschiedensten Privilegien. Den Dritten
48 1 Präfekten und Vermessungsingenieure

schwunden und wurde durch eine egalitäre Gesellschaft ersetzt, in der die

Menschen frei und gleich an Rechten geboren werden und es bleiben“. Das
neue amtliche Schema beruhte auf dem Eigentum und der Einkommensquel-
le. Der Verkauf des verstaatlichten Eigentums und die Aufteilung des Landes
unter zahlreichen neuen Eigentümern verlieh dieser Gruppe eine große Be-
deutung. Die Unterscheidung zwischen Grundstückseigentümern“ und allen

anderen bildete das wesentliche Kriterium des Schemas im Rundschreiben
22
vom 19. Germinal des Jahres IX (9. April 1801). In diesem Rundschreiben
schickte Chaptal den Präfekten den Fragebogen zu, den sie ausfüllen mußten.
Die Präfekten hatten dabei den zahlenmäßigen Umfang der nachfolgenden
Personengruppen anzugeben:
1. Grundstückseigentümer;
2. Personen, die ausschließlich von den Erträgen ihrer Grundstücke leben;
3. Personen, die ausschließlich von Geldeinkommen leben;
4. Vom Staat beschäftigte oder bezahlte Personen;
5. Personen, die von ihrer mechanischen oder gewerblichen Arbeit leben;
6. Ungelernte Arbeiter oder Gelegenheitsarbeiter;
7. Bettler.

Dieses zweite Schema, das also in Form eines Verwaltungsrundschreibens


veröffentlicht wurde, verlieh den Gruppen Konsistenz auf der Grundlage eines
eindeutig objektivierten Kriteriums, des Kriteriums der Einkommensquelle.
Es stellte die Grundstückseigentümer an den Anfang der Liste, danach folgten
die Rentiers und die Beamten. Dagegen wurde die im modernen Sinn als Lohn-
empfänger bezeichnete Gruppe damals noch nicht als eigenständige Gruppe
angesehen, denn in Kategorie 5 waren – in der Terminologie der Zünfte – Ge-
sellen (compagnons) und Meister (maı̂tres) zusammengefaßt. Die zukünftige
Arbeiterklasse war noch weniger erkennbar, da Facharbeiter in Kategorie 5
und ungelernte Arbeiter in Kategorie 6 eingeordnet waren.23
Aber aus den Kommentaren der Präfekten zu den sozialen Unterschieden
zwischen den Bevölkerungsgruppen ihrer Departements geht hervor, daß die-
ses Schema für sie – die Präfekten – einen ziemlichen Nachteil hatte: es machte
keinen Unterschied zwischen aufgeklärten Personen und dem Volk. Mit auf-

geklärten Personen“ war hier die kultivierte Stadtbevölkerung mit ihren ge-
meinsamen Lebensgewohnheiten und Interessen gemeint, durch die sie sich
ziemlich deutlich vom Volk unterschied. Das dritte Schema kam demgemäß in
den Beschreibungen der Lebensweisen zum Ausdruck – es ließ sich aber nur
Stand bildeten alle nichtprivilegierten Klassen und Schichten. Als Generalstände
bezeichnete man die Versammlung der drei Stände im Königreich Frankreich.
22
Der germinal war der siebente Monat (vom 21./22.März bis zum 19./20.April)
des republikanischen Kalenders.
23
Erst nach 1830 begann man, diese beiden Gruppen als eine einzige Klasse auf-
zufassen, die durch die Kämpfe der Arbeiterbewegung miteinander vereint sind
(Sewell, 1983, [257]).
Wie man Diversität durchdenkt 49

schwer objektivieren und die entsprechenden Grenzen konnten immer nur va-
ge angegeben werden. Der Widerspruch zwischen den beiden letztgenannten
Schemata wurde ebenfalls angesprochen. Bestimmte Grundstückseigentümer
(insbesondere auf dem Land) waren nicht sehr zivilisiert“ (und sie waren

mitunter ziemlich arm). Andererseits waren Personen mit Talent“ (Ärzte,

Lehrer) oft keine Grundstückseigentümer.
Dieser Unterscheidung zwischen aufgeklärten Personen und dem gewöhnli-
chen Volk entsprach eine signifikante Unschlüssigkeit bei der Analyse der inne-
ren Heterogenität der beiden Gruppen: Welche dieser großen Gruppen war die
homogenere? Oder besser gesagt: Wie ließ sich diese Homogenität schätzen?
Die Mehrdeutigkeit der auf diese Frage gegebenen Antworten spiegelte die
zahlreichen Möglichkeiten wider, Äquivalenzen aufzustellen. In einigen Fällen
wurden die aufgeklärten Eliten als überall gleich dargestellt: Es erübrigte sich,
sie im Detail zu beschreiben, da ihre zivilisierten Lebensgewohnheiten durch
ein und dieselben Ansprüche vereinheitlicht worden waren (Prozeß der Zi-
vilisierung der Lebensgewohnheiten, vgl. Elias, 1973, [84]). Im Gegensatz zu
diesen Eliten war die Lebensweise des Volkes in eine Vielzahl von lokalen
Sitten und Gebräuchen aufgesplittert, die sich durch Mundarten, Feste und
Rituale auszeichneten und nicht nur von Region zu Region, sondern sogar
von einer Kirchengemeinde zur anderen unterschiedlich waren. Jedoch inter-
pretierten die Präfekten in anderen Fällen die Realität ihrer Departements
auf entgegengesetzte Weise: Nur gebildete Menschen konnten eine markante
Persönlichkeit haben und eine individuelle Lebensweise führen, während die
Leute aus dem Volk als Gruppe in einer großen Masse definiert wurden und
alle gleich waren.
Dennoch erscheinen diese Interpretationen weniger widersprüchlich, wenn
wir – unter erneuter Verwendung der Terminologie von Dumont (1983) – be-
achten, daß die gewöhnlichen Menschen in beiden Fällen entsprechend einem
holistischen Schema auf der Grundlage der Gemeinschaft beschrieben wurden,
der sie angehörten. Im Gegensatz hierzu beschrieb man die Eliten gemäß einem
individualistischen Schema, das die Personen von ihrer Gruppe abstrahierte
und sie theoretisch gleich machte: das also ist das Individuum der Deklaration
der Menschenrechte und der modernen urbanen Gesellschaft. In dieser indi-
vidualistischen Vorstellung sind die Menschen voneinander verschieden, weil
sie frei sind, und alle Menschen sind gleich, weil sie vor dem Gesetz gleich
sind. Der Gegensatz zwischen holistischer und individualistischer Interpreta-
tion ist ein klassisches Schema der Soziologie, wie man es zum Beispiel bei
Tönnies findet, der zwischen Gemeinschaft und Gesellschaft unterscheidet.
Diese Unterscheidung ist vom Standpunkt der Geschichte der statistischen
Objektivierung interessant, denn man findet dementsprechend zwei Linien der
Nutzung und Interpretation von Sozialstatistiken. Die erste Linie erstreckt
sich von Quetelet und Durkheim bis hin zu einem Teil der modernen Makro-
soziologie. Die Vertreter dieser Linie diskutieren über Gruppen, die als mit
kollektiven Eigenschaften ausgestattete Gesamtheiten aufgefaßt und von der
Statistik mit Hilfe von Mittelwerten beschrieben werden. Die zweite Linie, die
50 1 Präfekten und Vermessungsingenieure

sich mit der Beschreibung der Verteilungen individueller Merkmale befaßt,


geht von Galton und Pearson bis hin zu anderen zeitgenössischen Strömun-
gen. Diese Linie weigert sich, irgendeiner Gruppe einen Status einzuräumen,
der sich vom Status der Vereinigung derjenigen Individuen unterscheidet, aus
denen die betreffende Gruppe besteht.
Die Präfekten schwankten in ihren Antworten ständig zwischen den ver-
schiedenen Methoden der Wissenserfassung hin und her (Auswertung von Ar-
chiven, schriftliche Fragebögen, direkte Beobachtungen). Das Zirkular schrieb
ihnen bald quantitative Antworten (Bevölkerung, Berufe, Preise, Ausrüstung,
Produktion), bald verbale Beschreibungen (Religionen, Bräuche, Lebenswei-
sen) vor. Die Präfekten schwankten auch zwischen verschiedenen analytischen
Schemata. In allen genannten Aspekten ist diese Enquete abschreckend für Hi-
storiker und Statistiker, die darauf bedacht sind, mit zuverlässigen Daten zu
arbeiten. Aber wir müssen uns der Tatsache bewußt sein, daß die Produktion
von zuverlässigen Daten mit der Forderung einhergeht, daß das beschriebene
Land bereits aduniert“ (das heißt vereinheitlicht) ist und über Codes zur

Registrierung und Verbreitung von elementaren und standardisierten Fakten
verfügt. Das A-posteriori-Interesse an einer derartigen Enquete besteht darin,
aufzuzeigen, wie sich die Dinge entwickeln, bevor sie sich verfestigen – wobei
dieser Verfestigungsprozeß niemals abgeschlossen ist. Ein Indiz für eine wei-
tere Entwicklung ist, daß im 19. und 20. Jahrhundert der territoriale Aspekt
allmählich seine Wichtigkeit für die nationale Statistik verloren hat, denn die-
se beruhte nicht mehr auf den Totalisierungen der einzelnen Departements,
sondern auf Totalisierungen anderer Art. Auch der Präfekt war nun nicht
mehr ein Mann, der sein Departement im Namen einer zentralen, teilweise
noch virtuellen Behörde erkundete; er wurde vielmehr zu einer Person, die
administrative Maßnahmen einleitete – Maßnahmen, die von einer nunmehr
fest verankerten Behörde formuliert wurden und auf statistischen Messungen
beruhten, die durch die Einigung des Landes möglich geworden waren.
2
Richter und Astronomen1

Die Wahrscheinlichkeitsrechnung – als Verfahren, mit dem die Rationalität


von Entscheidungen in Situationen der Ungewißheit begründet werden soll
– erblickte in einem exakt eingrenzbaren Zeitabschnitt zwischen 1650 und
1660 das Licht der Welt. Ian Hacking (1975, [117]), der das Auftauchen“

(emergence) der Wahrscheinlichkeitsrechnung beschreibt, hebt die anfängliche
Dualität dieses Werkzeugs hervor, das gleichzeitig präskriptiv und deskriptiv,
epistemisch und frequentistisch war. Dabei vergleicht er die Begriffe Glaubens-
grund und Zufall . Überlegungen zu dieser Dualität finden wir bei Condorcet,
der zwischen Glaubensgrund“ 2 und Fazilität“ unterscheidet, bei Cournot,
” ”
der von Chance“ und von Wahrscheinlichkeit“ spricht, und bei Carnap, der
” ”
die induktive Wahrscheinlichkeit“ der statistischen Wahrscheinlichkeit“ ge-
” ”
genüberstellt.
Die Prädominanz der einen oder der anderen Interpretation wird häufig
aus historischer Sicht dargestellt. Demnach scheint der Entscheidungsaspekt
im 18. Jahrhundert (der klassischen Ära der Wahrscheinlichkeitsrechnung“)

sehr wichtig gewesen zu sein, vor allem im Zusammenhang mit den Ver-
fahren, die sich aus dem Satz von Bayes ergeben: Bayes schlug vor, in die
Berechnungen eine unvollständige Information über frühere Ereignisse einzu-
beziehen, wobei sein Ziel darin bestand, die Wahrscheinlichkeit statistischer
Methoden zu messen. Diese Verfahrensweisen wurden in der Folgezeit im 19.
Jahrhundert vom frequentistischen Standpunkt aus angefochten. Die Verfech-
1
Dieses Kapitel zur Genese der wahrscheinlichkeitstheoretischen Argumentation
und deren Anwendung in den Naturwissenschaften ist etwas schwierig für Leser
mit rein geisteswissenschaftlicher Bildung. Für die Lektüre der hiernach folgenden
Kapitel ist jedoch kein vollständiges Verständnis dieses Kapitels erforderlich.
2
Condorcet stellte durch folgende Bemerkung eine Verbindung zwischen Wahr-
scheinlichkeit und Glauben her: Je größer die Wahrscheinlichkeit eines Ereignisses
ist, desto fundierter ist der Grund unseres Glaubens ( motif de croire“) daran,

daß das Ereignis eintritt. Dale (1991, [360]) übersetzt den Begriff durch reason

for belief“ ins Englische; im Deutschen findet man auch die Übersetzung Motiv

zu glauben“.
52 2 Richter und Astronomen

ter dieser Richtung machten einen deutlichen Unterschied zwischen Entschei-


dungen, die sich auf nicht quantifizierbare Urteile stützen (zum Beispiel die
Entscheidungen der Geschworenen eines Schwurgerichts), und Entscheidun-
gen, die auf wiederholten Beobachtungen beruhen, etwa auf den Beobachtun-
gen, die von den entstehenden Einrichtungen für Verwaltungsstatistik gelie-
fert wurden. Den Frequentisten“ kam das Bayessche Verfahren – das eine

kleine Anzahl von Beobachtungen mit einer rein mutmaßlichen A-priori -

Wahrscheinlichkeit“ verknüpfte, um hieraus auf eine besser gesicherte A-

posteriori -Wahrscheinlichkeit“ zu schließen – wie ein Phantasiegebilde vor.
Dagegen erfuhren im 20. Jahrhundert die Überlegungen zur Art und Weise,
in der Entscheidungen in Situationen der Ungewißheit getroffen werden, eine
Neubelebung durch die Arbeiten von Keynes, De Finetti und Savage. Die Dis-
kussionen über den Bayesianismus und seine Bedeutung erlangten erneut eine
erstrangige Wichtigkeit. Man führte Forschungsarbeiten auf dem Gebiet der
experimentellen Psychologie durch, um festzustellen, ob das menschliche Ge-
hirn tatsächlich entsprechend derartigen Verfahren arbeitet (Gigerenzer und
Murray, 1987, [106]).
Das Hin und Her zwischen dem entscheidungsbezogenen und dem be-
schreibenden Standpunkt zieht sich durch die gesamte Geschichte der wahr-
scheinlichkeitstheoretischen Formalisierungen, die gegen 1660 begann.3 Aber
die Fragen, die diese neue Sprache zu beantworten suchte, sind aus sehr viel
ältere Debatten über die Möglichkeit hervorgegangen, über den Zufall nach-
zusinnen – entweder indem man ihm die Entscheidung in schwierigen Fällen
anvertraute, oder indem man die Beurteilung einer ungewissen Zukunft in
die Gegenwart einbezog. Diese Archäologie der Wahrscheinlichkeitsrechnung
wurde von Ernest Coumet (1970, [50]) in einem überaus nützlichen Artikel
rekonstruiert, in dem er diesen Kalkül und die dadurch implizierten Äquiva-
lenzen als Antwort auf ein Problem der Billigkeit 4 oder Fairness darstellte.

Aleatorische Verträge und faire Abmachungen


Der Artikel von Coumet trägt die Überschrift Ist die Theorie des Zufalls

zufällig entstanden?“ Er wies in dieser Arbeit nach, wie die Frage der Gerech-
tigkeit zu den Äquivalenzkonventionen für Erwartungswerte geführt hat – zu
einem Begriff also, der zeitlich vor dem Begriff der Wahrscheinlichkeit zu liegen
scheint. Die Schwierigkeit rührte daher, daß der Zufall – das heißt das unge-
wisse Auftreten eines zukünftigen Ereignisses – zur damaligen Zeit als ein hei-
3
Die mathematische Wahrscheinlichkeitsrechnung, die Statistik und die Philoso-
phie der Wahrscheinlichkeit werden oft als siamesische Drillinge“ bezeichnet.
4 ”
In der lateinischen Formulierung durch aequitas“ ausgedrückt. Dieses Wort hat

u.a. folgende Bedeutungen: Gleichheit, Rechtsgleichheit und Billigkeit (im mo-
ralischen Sinne). Aus dem lateinischen Wort leitet sich das französische équité
(Billigkeit, Angemessenheit, Gerechtigkeit, Rechtlichkeit) und das englische equi-
tableness (Fairness, Billigkeit) ab.
Aleatorische Verträge und faire Abmachungen 53

liges Attribut aufgefaßt wurde, das die Menschen niemals beherrschen würden
– außer wenn sie Gott zurate ziehen. Die thomistische Theologie erkannte in
sehr präzise bestimmten Notfällen die Möglichkeit an, eine Frage durch das
Ziehen eines Loses zu entscheiden, und unterschied zwischen konsultatorischen
Losen (sortes consultatoriae), divinatorischen Losen (sortes divinatoriae) und
divisorischen Losen (sortes divisoriae). Divisorische Lose konnten verwendet
werden um zu entscheiden, wem das betreffende Ding zufällt oder was den

betreffenden Personen zugesprochen werden soll – zum Beispiel Besitz, Ehren
oder Würden“.5 In jedem anderen Fall stellte der Rekurs auf Glücksspiele“

eine schwerwiegende Sünde“ dar.

Würfel und Lose sind bereits im Altertum nicht nur in Glücksspielen ver-
wendet worden; sie waren auch Mittel zur Divination, zur Erforschung des
göttlichen Willens, allenfalls der Zukunft. Das Anrufen einer Gottheit, das
sich im Ziehen von Losen ausdrückt, um besonders heikle Streitfälle zu ent-
scheiden, schien demnach eine gerechte Lösung gewesen zu sein: sie stützte sich
nämlich auf eine Abmachung, die über den prozeßführenden Parteien stand
und daher von ihnen akzeptiert werden konnte. Diese Art Lösung war bereits
vom hl. Augustin erwähnt worden. Für ihn war das Los kein Übel an sich,
sondern zeigte dem zweifelnden Menschen den Willen Gottes an:
Nimm zum Beispiel an, daß du eine überflüssige Sache hast. Du soll-
test sie jemandem geben, der sie nicht hat. Aber du kannst sie nicht
zwei Menschen geben. Erscheinen nun zwei Menschen, von denen kei-
ner über den anderen die Oberhand gewinnt – sei es durch Not, sei es
durch die Bande der Freundschaft zu dir – ist es dann nicht die gerech-
teste Lösung für dich, durch das Los entscheiden zu lassen, welcher
der beiden das erhalten soll, was du nicht beiden gleichzeitig geben
kannst? (Vgl. hl. Augustin, De la doctrine chrétienne 6 , zitiert von
Coumet, 1970, [50].)
Das Ziehen von Losen war für einen Richter eine Art und Weise, das aus-
zuführen, was für ihn auch heute noch eine unabdingbare Pflicht ist – die
Verpflichtung nämlich, ein Urteil zu fällen. Ein Richter kann auf der Grund-
lage eines im Gesetzbuch stehenden Artikels oder aufgrund seiner inneren
Überzeugung entscheiden – das einzige, was er nicht tun darf, besteht darin,
keine Entscheidung zu treffen. Man kann sich ohne weiteres vorstellen, daß
das Los – als Ausdruck eines über den Menschen stehenden Willens – lange
Zeit hindurch in dramatischen Fällen eine Möglichkeit zu bieten vermochte,
5
Gemäß der Doktrin der sortes divisoriae wurde die Aufteilung eines Gutes unter
mehreren Personen durch einen Zufallsmechanismus unter bestimmten Bedin-
gungen als legitim erachtet. Das lateinische Wort sors (Plural: sortes) hat u.a.
folgende Bedeutungen: Losstäbchen, Lostäfelchen, Weissagungstäfelchen; Losen,
Verlosung, Los, Orakelspruch; Teil, Anteil; Los = Schicksal, Geschick.
6
Augustinus, Aurelius (354-430): De doctrina christiana. Deutsch von P. Sigisbert
Mitterer; erschienen 1925 in: Bibliothek der Kirchenväter, Bd. 49, München, Kösel
und Pustet.
54 2 Richter und Astronomen

diese schwere Last erträglicher zu machen. Die Verpflichtung, Urteile sogar in


denjenigen Fällen zu verkünden, bei denen ein Zweifel bleibt, kann mit der
Verpflichtung des Kodierens verglichen werden, das heißt mit der Tätigkeit des
Statistikers, wenn er bei einer Erhebung die Antworten (oder Nichtantwor-

ten“) in Äquivalenzklassen einteilt. Auch für den Statistiker sind zweifelhafte
Fälle eine Last und die Versuchung kann groß sein, dann auf den Zufall zurück-
zugreifen, um sich dieser Bürde zu entledigen. Der Rückgriff auf den Zufall
wird in den sogenannten Hot-Deck -Verfahren formalisiert und systematisiert,
bei denen im Falle einer Nichtantwort“ zufällige Antworten zugeordnet wer-

den. Diese Zuordnung erfolgt entsprechend den Gesetzen für bedingte Wahr-
scheinlichkeiten, die auf der Grundlage der gegebenen Antworten konstruiert
werden. Man kann also die sortes divisoriae, den ungebändigten Zufall eines
abgespannten Kodierers und die Hot-Deck-Verfahren als eine ökonomische Art
und Weise betrachten, in problematischen Fällen den Kopf aus der Schlinge
zu ziehen.
Außer diesen ziemlich unzweideutigen Fällen, in denen sich ein Richter
auf zufällige Entscheidungen als letzten Ausweg verlassen konnte, kam der
Zufall auch in verschiedenen anderen Situationen ins Spiel, deren gemeinsa-
mes Merkmal darin bestand, daß sie sich auf zukünftige unsichere Gewinne
bezogen: Investition von Kapital in den Seehandel, Versicherungen, Leibren-
ten und Glücksspiele. In allen diesen Fällen wird etwas, dessen man sich in
der Gegenwart sicher ist, gegen eine zufällige Bereicherung in der Zukunft
eingetauscht. Ist eine derartige grundlos legitime“ Bereicherung statthaft?

Ebenso wie im Falle von Zinsdarlehen oder Wucher diskutierten die Theolo-
gen erbittert über die Gerechtigkeit von Vereinbarungen, bei denen Menschen
durch zukünftige Ereignisse gebunden werden. So stellte etwa der hl. Franz
von Sales Gewinne infrage, die nicht auf die Bemühungen der Vertragspartner
zurückzuführen sind:
Wir haben uns also geeinigt, werden Sie mir sagen? Das taugt, um
zu zeigen, daß derjenige, der gewinnt, keinem Dritten schadet. Aber
daraus folgt nicht, daß auch die Abmachung selbst nicht ebenso un-
vernünftig ist wie der Einsatz. Denn der Gewinn, der ein Preis für den
Fleiß sein sollte, wird ein Preis des Zufalls, der jedoch keinen Preis ver-
dient, da er ganz und gar nicht von uns selbst abhängt. (hl. Franz von
Sales, Introduction à la vie dévote, 1628, zitiert von Coumet, 1970,
[50].)

Während sich diese Mißbilligung vor allem auf Glücksspiele bezog, konnte
das für den Seehandel erforderliche Risikokapital dagegen – und zwar gera-
de aufgrund des Risikos – zu einem Gewinn führen. Für die mittelalterliche
Theologie war dieser Umstand sogar eine mögliche Rechtfertigung für Zins-
darlehen, die im Allgemeinen verboten waren und mit Wucher gleichgesetzt
wurden (Le Goff, 1962, [175]). Im Übrigen wurden Versicherungsverträge als
zulässig angesehen.
Aleatorische Verträge und faire Abmachungen 55

Auf diese Weise entstand ein ganzer Arbeitskomplex, der sich auf unter-
schiedliche Bereiche bezog (sortes divisoriae, risikobehaftete Darlehen, Ver-
sicherungsverträge, Glücksspiele), aber dazu tendierte, den Begriff einer fai-
ren Abmachung zu formalisieren. So konnte man etwa die sortes divisoriae
aus dem Bereich der Heiligen herausnehmen und als Grundlage für derartige
Abmachungen rechtfertigen. Ebenso erwies es sich im Interesse einer soliden
Rechtsgrundlage für Verträge, die zukunftsbezogene Risiken enthielten, oder
im Interesse der Rechtfertigung eines Glücksspiels als notwendig, daß die Ver-
tragspartner oder die Spieler in den Genuß gleicher Voraussetzungen“ kamen.

Diese Forderung nach Gleichheit, die sich vom Gerechtigkeitsgedanken lei-
ten ließ, eröffnete den Weg zur Konstruktion eines gemeinsamen begrifflichen
Rahmens für Aktivitäten, die im Übrigen vollkommen unterschiedlich waren:
Würfelspiele, Lebensversicherungen und Gewinne, die man von ungewissen
Handelsgeschäften erwartete. Die Glücksspiele sind nur ein Beispiel für aleato-
rische Verträge: derartige Verträge beruhten auf freiwilligen Abmachungen,

denen zufolge der Erwerb eines Vermögens eine ungewisse Glückssache war;
um legitim zu sein, mußten diese Abmachungen bestimmten Voraussetzungen
der Fairness7 genügen“ (Coumet, 1970, [50]). Das Problem der Fairness tauch-
te in der Praxis im Zusammenhang mit Aufteilungen auf, wenn ein Geschäft
oder ein Spiel unterbrochen werden mußte: Wie sind die Gewinne oder die
Einsätze aufzuteilen? Hierbei handelt es sich um einen Spezialfall des soge-
nannten Teilungsproblems. Eine ähnliche Frage, die der Chevalier de Méré an
Pascal gerichtet hatte, war die Grundlage der Pascalschen Wahrscheinlich-
keitsrechnung. Aber diese scheinbar harmlose Frage zur belanglosen Tätigkeit
eines Spielers hing tatsächlich mit den alten Debatten über das Problem der
Gerechtigkeit von Abmachungen zusammen, auf denen aleatorische Verträge
beruhten.
Bei der Einführung seiner neuen Formalisierung lieh sich Pascal natürlich
Ausdrücke aus der Sprache der Juristen, denn das war die Sprache, in der die
zeitgenössischen Debatten geführt wurden. Aber Pascal schuf auch eine neue
Art und Weise, die Rolle eines über den besonderen Interessen stehenden
Schiedsrichters zu spielen – eine Rolle, die früher den Theologen zugekommen
war:

... Die Moralisten, welche die Voraussetzungen zu bestimmen versuch-


ten, die ein Spiel erfüllen muß, um fair zu sein, nahmen eine Positi-
on ein, die über den Begehrlichkeiten und Antagonismen der Spieler
stand; ein Mathematiker, der eine faire Verteilung“ berechnen will,

nimmt einfach nur eine Haltung ein, die noch rigoroser als die Einstel-
7
Im Zentrum der juristischen Debatte über die Doktrin der contrats aléatoires
stand die Frage nach der Billigkeit dieser Kontrakte: die Frage, ob die ungewisse
Aussicht auf ein Gut gegen ein sicheres Gut, einen Geldbetrag, billigerweise auf-
gewogen werden kann; es handelt sich also um die Frage, ob und inwieweit dem
Träger eines finanziellen Risikos ein bestimmter Betrag, eine Prämie, rechtmäßig
zusteht. (Vgl. Hauser, 1997, [397].)
56 2 Richter und Astronomen

lung der Moralisten ist: er ist der Schiedsrichter. (Vgl. Coumet, 1970,
[50].)

Aber worauf konnte sich diese Objektivierung stützen, die es Pascal


ermöglichte, die Position des Schiedsrichters zu definieren – zum Beispiel bei
seiner Beantwortung der Frage des Chevalier de Méré (bezüglich einer fairen
Aufteilung der Anteile im Falle einer Spielunterbrechung)? Die berechneten
Erwartungswerte (oder Nützlichkeitswerte) müssen so beschaffen sein, daß die
Alternativen (Spiel beenden oder fortsetzen) für die Spieler belangslos sind:

... die Regelung dessen, was ihnen gehören sollte, muß in angemessener
Weise dem entsprechen, was sie berechtigterweise vom Glück erwarten
konnten, so daß es für jeden von ihnen vollkommen gleichgültig ist,
ob sie das nehmen, was man ihnen zuteilt, oder ob sie das Abenteuer
des Spiels fortsetzen ... (Pascal, zitiert von Coumet, 1970, [50].)

Man führte also zunächst Äquivalenzen zwischen denjenigen Erwartungs-



werten“ 8 ein, die sich unter Umständen unter den Spielern austauschen ließen
– weil die Werte gleich groß waren –, um dann den Begriff der Wahrschein-
lichkeit einzuführen, indem man den Erwartungswert durch die Höhe des Ein-
satzes dividierte. Diese Erwartungswerte gehörten zum gemeinsamen Wissen
der Spieler und stellten einen Punkt dar, an dem die Kontroversen eingestellt
werden konnten: Man hatte eine Regel, auf deren Grundlage sich das Spiel
unterbrechen ließ, ohne daß sich dadurch einer der Beteiligten verletzt fühlte.
Diese Wesensverwandtschaft der Sorgen von Richtern und Vermessungsin-
genieuren implizierte für beide Berufsgruppen einen gewissen Abstand zum
betreffenden Rechtsstreit oder zur betreffenden Entscheidung: sie mußten sich
in die Position von Zuschauern, unvoreingenommenen Schiedsrichtern oder in
die Lage von Beratern eines Fürsten versetzen.
Tatsächlich verhielt es sich so, daß man diesen Abstand zum Sachverhalt
aus unterschiedlichen Gründen wahrte: entweder um zwischen zwei Spielern
zu schlichten, falls das Spiel unterbrochen werden mußte, oder um einen Tat-
menschen zu beraten, der mit der Wahl zwischen mehreren Entscheidungen
konfrontiert war, deren Konsequenzen von ungewissen zukünftigen Ereignis-
sen abhängen. Es handelte sich aber um dieselben Berechnungen von Erwar-
tungswerten oder Nützlichkeitswerten, an denen sich die Urteile von Richtern
oder die Ratschläge von Beratern orientierten. Im erstgenannten Fall strebte
man ein Fairnessprinzip an, das die Aufstellung von harmonischen zwischen-
menschlichen Beziehungen ermöglichte. Im zweiten Fall ging es um die innere
Konsistenz der von Tatmenschen getroffenen Entscheidungen und um die Su-
che nach einer Rationalität, die unterschiedliche Lebensmomente umfaßte.
Diese Umstände förderten die Akzeptanz des neuen Kalküls, der objektivier-
bar war und sich von einem Fall auf einen anderen übertragen ließ.
8
Der Begriff Erwartungswert“ ist hier im eigentlichen Sinne des Wortes zu inter-

pretieren, das heißt als zu erwartender Wert“.

Aleatorische Verträge und faire Abmachungen 57

Wir müssen jedoch erkennen, daß die Konstruktion derartiger Äquiva-


lenzräume für zukünftige, noch nicht eingetretene, inkompatible und hetero-
gene Ereignissen nur mit Schwierigkeiten zugestanden werden konnte. Man
spürt das sogar, wenn man sich das Pascalsche Wett-Argument noch einmal
durchliest, das auf dieser Art des Vergleichs aufbaute. Wir stellen diese Schwie-
rigkeit auch bei scheinbaren Paradoxa fest, die man heute gut versteht: zum
Beispiel, wenn man die schwierige Wahl zwischen Situation A (garantierter
Gewinn von einer Million Euro) und Situation B (Chance von Eins zu Zehn
für einen Gewinn von zwanzig Millionen Euro) treffen muß. Die Berechnung
der Erwartungswerte führt zur Wahl von B, aber nur wenige rational den-

kende“ Menschen würden eine solche Wahl treffen. Viele würden dagegen A
bevorzugen, das heißt einen sicheren, wenn auch geringeren Gewinn. Wir wis-
sen jetzt, daß die Berechnung der Erwartungswerte (was in diesem Fall zur
Wahl von B verleiten würde) nicht wirklich plausibel ist – es sei denn, man
nimmt den Standpunkt der Frequentisten ein: Würde diese (fiktive!) Auswahl
viele Male (zehnmal? zwanzigmal?) wiederholt werden, dann würde man of-
fensichtlich B wählen. Das dürfte auch der Fall sein, wenn es um die einmalige
Wahl kleiner Beträge ginge (sicherer Gewinn von zehn Euro oder eine Chance
von Eins zu Zehn für einen Gewinn von zweihundert Euro).
Anhand dieser verschiedenen Fälle (Schlichtung, Hilfe bei Entscheidungs-
findungen) erkennt man, daß die – häufig nicht sehr intuitive – probabilisti-
sche Rationalität ihre Berechtigung in einer allgemeinen, alles überschauenden
Sichtweise fand: in der Sichtweise des Richters, der über den prozeßführenden
Parteien steht, in der Sichtweise des Bankiers oder des Versicherers, der mit
zahlreichen Risiken umgeht, oder auch in der Sichtweise eines isolierten Indi-
viduums, das mit Mikro-Entscheidungen konfrontiert ist, die kein großes En-
gagement bedeuten (Wahl zwischen kleinen Geldbeträgen). Es gab also einen
engen Zusammenhang zwischen der Fähigkeit, Äquivalenzräume begrifflich zu
erfassen und zu konstruieren, und der Möglichkeit, derartige alles überschau-
ende Positionen einzunehmen. Die Spannung zwischen objektiver und sub-
jektiver Wahrscheinlichkeit läßt sich folgendermaßen in eine Standpunktfrage
zurückübersetzen: Eine einzige und kontingente Auswahl oder eine allumfas-
sende und verallgemeinerungsfähige Position?
Demnach mußten die ersten Probabilisten“ – ausgehend vom Standpunkt

eines Juristen oder Beraters eines Entscheidungsträgers – große Schwierigkei-
ten überwinden, als sie eine Geometrie“ zur Behandlung disparater Größen

entwickelten und die Menschen davon überzeugen wollten, diese Geometrie
zu akzeptieren. Leibniz wies auf die zögerlichen Versuche und Schwierigkeiten
hin, gleichzeitig an den möglichen Gewinn und an die Wahrscheinlichkeit zu
denken, und beides zu einem einzigen Nützlichkeitswert“ zusammenzusetzen,

ähnlich wie sich die Oberfläche eines Rechtecks durch die Multiplikation von
Länge und Breite ergibt:

Da die Größe der Konsequenz und die des Sukzedenten zwei hetero-
gene Betrachtungen sind (oder Betrachtungen, die nicht miteinander
58 2 Richter und Astronomen

verglichen werden können), waren die Moralisten, die einen Vergleich


gewollt hatten, ziemlich verwirrt, wie es im Falle derjenigen Moralisten
offensichtlich ist, die sich mit der Wahrscheinlichkeit befaßt hatten.
Die Wahrheit ist, daß hier – wie bei anderen disparaten und heteroge-
nen Schätzungen, die mehr als eine Dimension umfassen – die betref-
fende Größe das zusammengesetzte Ergebnis der einen oder anderen
Schätzung ist, ähnlich wie bei einem Rechteck, wo es zwei Betrachtun-
gen gibt, nämlich die der Länge und die der Breite; und bezüglich der
Größe der Konsequenz und der Grade der Wahrscheinlichkeit fehlt uns
immer noch dieser Teil der Logik, die eine Schätzung dieser Größen
bewirken muß. (Leibniz, Nouveaux essais sur l’entendement humain.9 )
Das Bestreben, einen Komparabilitätsraum für heterogene Größen zu kon-
struieren, ergab sich aus den Debatten der Juristen des 17. Jahrhunderts, die
darauf bedacht waren, die Fairness der aleatorischen Verträge zu rechtfertigen.
Diese Bestrebungen wurden im 18. Jahrhundert fortgeführt und erweitert, um
einen homogenen Raum von Graden der Sicherheit aufzustellen, der seiner-
seits mit den Erfordernissen von Handlungen und Entscheidungsfindungen
verknüpft war.

Konstruktiver Skeptizismus und Überzeugungsgrad

Die Geschichte der Entfaltung des wahrscheinlichkeitstheoretischen Denkens


im Rahmen einer Gesamtheit von praktischen Problemen, die eine Ungewiß-
heit implizierten, wurde von Lorraine Daston in einem 1989 [55] erschienenen
Artikel zusammengefaßt. Der Artikel setzt die von Coumet begonnene Arbeit
fort und stellt eine andere Wurzel des Werkzeugs vor, das es ermöglichte, die
verschiedenen Aspekte der Ungewißheit innerhalb ein und desselben begriffli-
chen Rahmens zu erfassen: die Debatten über Sicherheit und Wissen, die im
Ergebnis von Reformation und Gegenreformation geführt wurden.
Diese Debatten, welche die Glaubensgrundlagen betonten (die Offenba-
rung für die Protestanten und die Tradition für die Katholiken), löste gegen-
seitige Denunziationen aus, die allmählich die verschiedenen Bestandteile des
Glaubens unterhöhlten und zum Skeptizismus führten. Eine extreme Form
des Skeptizismus – der von gelehrten Freigeistern vertretene Pyrrhonismus10
– leugnete sogar die Evidenz von Empfindungen und mathematischen Bewei-
sen. Zur gleichen Zeit versuchten mehrere Autoren auf halbem Wege zwischen
9
Im Manuskript vollendet um 1705. Deutsche Übersetzung unter dem Titel Neue
Abhandlungen über den menschlichen Verstand. Neuausgabe als Band 498 der
Philosophischen Bibliothek, Felix Meiner Verlag, Hamburg, 1996. (1. Auflage 1873
als Band 56 der Philosophischen Bibliothek).
10
Pyrrhon, griechischer Philosoph aus Elis, um 360–270 v. Chr., gilt als Begründer
des Skeptizismus.
Konstruktiver Skeptizismus und Überzeugungsgrad 59

den dogmatischen Fideisten – die sich auf die Gewißheiten des wahren Glau-
bens stützten – und den äußerst bissigen Skeptikern, eine Vorstellung von dem
zu definieren, was einfach wahrscheinlich“ war, eine Vorstellung vom Über-
” ”
zeugungsgrad, der ausreicht, einen besonnenen Geschäftsmann zum Handeln
zu ermuntern ..., wobei die Überzeugung von einer intuitiven Bewertung der
möglichen Pläne und der damit zusammenhängenden Risiken abhängt“ (Da-
ston, 1989, [55]).
Diese konstruktiven Skeptiker“ (um einen von Popkin 1964 [238] ge-

prägten Ausdruck zu verwenden) betrachteten demnach das Handeln als
Grundlage des Wissens (und nicht umgekehrt). Sie waren – anders als die
Juristen, von denen Pascal seine Inspirationen erhielt – weniger an Fairness
interessiert als am rationalen Glauben, der die Orientierung für eine Entschei-
dung vorgab. Doch auch sie nutzten die Doktrin der aleatorischen Verträge,
um daraus Beispiele zu entnehmen, die zeigten, daß es mitunter vernünftig
war, einen gegenwärtigen sicheren Besitz gegen einen unsicheren zukünfti-
gen Besitz einzutauschen. Diese Erkenntnisphilosohie wies der Wahrschein-
lichkeitsrechnung ein klare epistemische“ Rolle zu, denn sie orientierte sich

am Aspekt des unzulänglichen Wissens und nicht am Aspekt des Zufalls. Die
konstruktiven Skeptiker integrierten jedoch Glücksspiele, riskante Tätigkeiten
(Handel, Impfungen) und Entscheidungen von Geschworenen zur möglichen
Schuld eines Angeklagten in ein und dasselbe Modell und bereiteten dadurch
den Übergang von einem Aspekt zum anderen vor.
Es ist interessant, die philosophische Haltung dieser konstruktiven Skep-
tiker , die zwischen den Fideisten und den radikalen Skeptikern stehen, mit
der Position zu vergleichen, die ich in der Einleitung vorgeschlagen habe, das
heißt mit der Position einer modernen Wissenssoziologie, die sich sowohl vom
wissenschaftlichen Objektivismus – für den Fakten Fakten sind“ – als auch

vom Relativismus unterscheidet, für den Objekte und Niederschriften gänzlich
von kontingenten Situationen abhängen. Die beiden historischen Konfigura-
tionen des 17. und des 20. Jahrhunderts unterscheiden sich jedoch radikal
voneinander, und sei es nur, weil im ersteren Fall der Pol der Gewißheit durch
die Religion, im letzteren Fall aber durch die Wissenschaft verkörpert wird.
Von diesem Standpunkt ist die probabilistische Verfahrensweise – welche die
Ungewißheit durch Quantifizierung objektiviert – Bestandteil eines Säkulari-
sierungsprozesses. Das ist auch der Grund dafür, warum sich heute sowohl
religiöse Menschen als auch (religiöse und nichtreligiöse) Wissenschaftler glei-
chermaßen unwohl fühlen, wenn sie sich mit Pascals Wette befassen: Beide
Gruppen spüren, daß sich in diesem berühmten Text zwei Argumentations-
weisen überschneiden, die fortan getrennt voneinander verliefen.
Hinter der Distanz, welche die konstruktiven Skeptiker“ zur nihilistischen

Skepsis der Pyrrhoneer hielten (die man heute als radikale Relativisten be-
trachten würde), stand die Absicht, Objekte zu erzeugen, auf die man sich
beim Handeln stützen konnte. Diese Objekte waren Überzeugungsgrade“,

das heißt probabilisierte Glaubensakte. Wie Lorraine Daston sagt: Die Be-

tonung des Handelns als Grundlage des Glaubens – und nicht umgekehrt –
60 2 Richter und Astronomen

ist der Schlüssel zur Verteidigung gegen den Skeptizismus. Schriftsteller wie
Wilkins machten häufig die Bemerkung, daß auch der überzeugteste Skep-
tiker sein Abendessen so verspeist, als ob die Außenwelt wirklich existiert“.
(Wilkins führte das Beispiel eines Kaufmanns an, der die Risiken einer langen
Reise in der Hoffnung auf einen höheren Gewinn auf sich nimmt, und empfahl,
derartige Handlungsregeln auch in wissenschaftlichen und religiösen Fragen zu
befolgen). Die wichtigen Wörter in der Fabel vom skeptischen Abendessens-
gast sind so, als ob“. Dadurch bezieht man sich nicht auf ein Problem von

essentieller Realität (wie es ein Fideist oder ein heutiger Realist tun würde),
sondern auf das praktische Verhalten, auf eine Handlungslogik.
Die genannten Autoren konstruierten deswegen einen Rahmen, der eine
gemeinsame Konzeptualisierung von Gewißheitsformen gestattete, die zuvor
voneinander verschieden waren: die mathematische Gewißheit eines Beweises,
die physikalische Gewißheit der sensorischen Evidenz und die moralische Ge-
wißheit von Aussage und Vermutung. Sie ordneten die verschiedenen Formen
der Gewißheit auf einer Ordinalskala an und meinten, daß die meisten Dinge
nur auf der untersten Ebene, das heißt auf der Aussagenebene, gewiß sind. Auf
diese Weise erlangte in Frankreich das Wort probabilité“ 11 , das im Mittelal-

ter eine amtlich beglaubigte Stellungnahme“ bezeichnete, die Bedeutung von

Grad der Zustimmung entsprechend der Evidenz von Dingen und Zeugen“.

Dann fügten Leibniz und Niklaus Bernoulli, die beide Mathematiker und
Juristen waren, drei Ebenen der Gewißheit in ein Kontinuum ein, das jeden
Grad an Zustimmung einschloß12 – vom Unglauben bis hin zur vollständigen
Überzeugung.
Die drei Ebenen der Gewißheit entsprachen drei sehr verschiedenen Wei-
sen der Bewertung von Wahrscheinlichkeiten: (1) gleiche Möglichkeiten auf
11
Das französische Wort geht, ebenso wie das englische probability“, auf das la-

teinische probabilitas“ zurück, das sich vom Adjektiv probabilis“ (annehmbar,
” ”
glaublich, wahrscheinlich, tauglich) ableitet. Dieses Wort hängt seinerseits mit
dem lateinischen probare“ (prüfen, billigen, gutheißen, gelten lassen, anerken-

nen) zusammen. Das deutsche Wort Wahrscheinlichkeit“ leitet sich von wahr-
” ”
scheinlich“ (= mit ziemlicher Sicherheit“) ab und wurde im 17. Jahrhundert ver-

mutlich nach dem Vorbild des gleichbedeutenden niederländischen waarschijn-

lijk“ gebildet. Das niederländische Adjektiv ist wohl eine Lehnübertragung des
lateinischen verisimilis“ (wahrscheinlich), einer Zusammensetzung aus verus“
” ”
(wahr) und similis“ (ähnlich).
12 ”
Leibniz, 1705, [412]: ... wenn die Natur der Dinge nichts enthält, was für oder

gegen ein bestimmtes Faktum spricht, so wird es, sofern es durch das Zeugnis
unverdächtiger Leute bestätigt wird (z.B. daß Julius Caesar gelebt hat), mit ei-
nem festen Glauben aufgenommen. Wenn aber die Zeugnisse dem gewöhnlichen
Naturlauf widerstreiten oder untereinander widersprechend sind, so können die
Wahrscheinlichkeitsgrade sich bis Unendliche verschieden gestalten und daher
stammen alle jene Grade, welche wir Glauben, Vermutung, Ungewißheit, Miß-
trauen nennen; und daher ist denn strenge Prüfung nötig, um ein richtiges Urteil
zu bilden und unsere Zustimmung gemäß den Graden der Wahrscheinlichkeit zu
erteilen.“
Konstruktiver Skeptizismus und Überzeugungsgrad 61

der Grundlage physikalischer Symmetrie (nur für Glücksspiele geeignet); (2)


Beobachtungshäufigkeiten von Ereignissen (die eine Sammlung von Statistiken
voraussetzten, welche ihrerseits – wie Graunts Sterbetafeln aus dem Jahr 1662
– eine hinreichende zeitliche Stabilität aufwiesen); und schließlich (3) Grade
subjektiver Gewißheit oder Glaubensgrade (zum Beispiel juristische Prakti-
ken bei der Gewichtung von Indizien und Mutmaßungen). Dieses Konstrukt
ist deswegen so überraschend, da wir hier bereits eine Zusammenfassung des-
sen finden, was in der Folgezeit erneut in Bezug auf die Unterscheidung zwi-
schen den sogenannten objektiven Wahrscheinlichkeiten und den subjektiven
Wahrscheinlichkeiten zusammengetragen wurde: die ersten hängen mit den
Zuständen der Welt (hier: den ersten beiden Ebenen) zusammen, die letzteren
entsprechen dagegen den Zuständen des Verstandes (dritte Ebene). Aber diese
Unterscheidung gilt nur dann, wenn man die Genese des Problems der Über-
zeugung außer Acht läßt: Wie gelangt man vom Glauben (dritte Ebene) zu
den objektiven Gewißheiten der ersten Ebene und der zweiten Ebene? Dieses
Problem, das ein wenig an die von den Verfechtern des starken Programms“

in der Wissenschaftssoziologie gestellte Frage erinnert, ließ den Philosophen
des Jahrhunderts der Aufklärung, den Trägern des Lichts“, keine Ruhe.

So bekundeten etwa Locke, Hartley und Hume offen eine Assoziations-
theorie, bei der sie den Verstand mit einer Addiermaschine verglichen, welche
die Häufigkeiten vergangener Ereignisse zusammenzählt und deren mögliche
Wiederholung berechnet. Hartley stellte sich vor, daß wiederholt auftretende
Empfindungen Rillen ins Gehirn“ graben und sich dort verfestigen. Hume

sprach von der zusätzlichen Lebhaftigkeit“, die eine wiederholte Erfahrung

einem geistigen Bild verleiht und betonte den Begriff der Gewohnheit – ein
Begriff, der mit dem Habitus von Bourdieu vergleichbar ist (Héran, 1987,
[130]). Das Ziel dieser Konstrukte besteht darin, die Gewißheiten der dritten
Ebene (Glaubensüberzeugungen) mit denen der zweiten Ebene (Häufigkeiten,
wiederholte Empfindungen) zu verbinden. Diese Fragen treten erneut bei der
Wahl des Gegenstandes der Wissenschaftssoziologie auf, deren Ziel es ist, den
Entstehungsprozeß der Wissenschaft und die Herausbildung einer Überzeu-
gung zu beschreiben. Will ein Wissenschaftler von seinesgleichen anerkannt
werden, dann muß er die Experimente in eindeutig formulierten Standardpro-
tokollen aufzeichnen, damit sie wiederholt werden können. Ebenso wird vor
Gericht ein einzelner Zeuge als rechtsunwirksam angesehen. Historiker und
Journalisten müssen ihre Quellen vergleichen und überprüfen. Wiederholun-
gen sind Indizien für Objektivität und können als Beweis geltend gemacht
werden.
Die klassische Wahrscheinlichkeitsrechnung“ des 18. Jahrhunderts ist in

gewisser Weise eine Vorläuferin der großen Trennung“, die zwischen dem

objektiven wissenschaftlichen Wissen – das die vom Menschen unabhängi-
gen Dinge beschreibt – und den Glaubensüberzeugungen stattgefunden hat,
die für primitive Gesellschaften und für vorwissenschaftliches Denken cha-
rakteristisch sind. Tatsächlich fügten die betreffenden Gelehrten die Wahr-
scheinlichkeiten des Würfelspiels, die Regelmäßigkeiten von demographischen
62 2 Richter und Astronomen

Statistiken und die persönlichen Überzeugungen von Richtern in einen einzi-


gen Rahmen ein. Aber durch dieses Integrationsbestreben bereiteten sie den
Boden für die große Trennung vor, indem sie versuchten, das Territorium des
Objektivierbaren immer weiter auszudehnen, und zwar auch auf Probleme wie
zum Beispiel Schwurgerichtsentscheidungen, die von Condorcet und Poisson
diskutiert wurden.
Die Trennung wurde vor allem durch mehrere Debatten vorbereitet, in
denen Zweifel bezüglich des rationalen Charakters von Verhaltensweisen zur
Sprache kamen, die einzig und allein von der Berechnung der Erwartungswer-
te diktiert waren. Ein berühmtes Beispiel hierfür war das St. Petersburger

Paradoxon“ 13 (Jorland, 1987, [140]). Daniel Bernoulli hatte seine interessante
Diskussion des Paradoxons in den Petersburger Commentarien für 1730/31“,

die 1738 erschienen, veröffentlicht. Von dieser Publikation hat das Problem
seinen Namen, und dort wird es folgendermaßen formuliert14 :
Mein sehr verehrter Oheim, der berühmte Nicolaus Bernoulli, Profes-
sor beider Rechte an der Akademie zu Basel, legte einmal dem bekann-
ten Monmort fünf Probleme vor, die man in dem Buche Analyse sur
les jeux de hazard von Herrn De Montmort findet. Das letzte dieser
Probleme lautet folgendermaßen: Peter wirft eine Münze in die Höhe
und zwar so lange, bis sie nach dem Niederfallen die Kopfseite zeigt;
geschieht dies nach dem ersten Wurf, so soll er dem Paul 1 Dukaten
geben; wenn aber erst nach dem zweiten: 2, nach dem dritten: 4, nach
dem vierten: 8, und so fort in der Weise, daß nach jedem Wurfe die
Anzahl der Dukaten verdoppelt wird. Man fragt: Welchen Wert hat
die Gewinnhoffnung für Paul?
Der Gewinnerwartungswert von Paul ist demnach
 2  3  n
1 1 2 1 n−1 1
+2 +2 + ... + 2 + ... .
2 2 2 2
Dieser Wert ist also unendlich groß. Demnach läge es entsprechend der
Theorie der Erwartungswerte in Pauls Interesse, in diesem Spiel eine beliebige
Summe einzusetzen, da der wahrscheinlich erwartete Gewinn“ stets größer

als diese Summe ist. Aber im Gegensatz zur Theorie zeigt der gesunde Men-
schenverstand, daß niemand mehr als ein paar Dukaten einsetzen würde. Die-
ser Sachverhalt verunsicherte die zeitgenössischen Gelehrten sehr. Die heute
übliche Fassung dieses Problems erwuchs aus Diskussionen zwischen Niklaus
Bernoulli, De Monmort und Gabriel Cramer in den Jahren 1713 bis 1728.
Das Problem führte auch zu einer höchst lebhaften Diskussion zwischen Ni-
klaus und Daniel Bernoulli, die von Jorland und Daston analysiert wurde. Es
13
Auch als Petersburger Paradoxon“ oder als Petersburger Problem“ bezeichnet.
14 ” ”
Zitiert nach Daniel Bernoulli, Versuch einer neuen Theorie der Wertbestimmung
von Glücksfällen (Specimen theoriae novae de mensura sortis), (übersetzt von A.
Pringsheim), Leipzig 1896.
Konstruktiver Skeptizismus und Überzeugungsgrad 63

ist das Verdienst dieser Diskussion, die verschiedenen möglichen Bedeutungen


der Berechnung von Wahrscheinlichkeiten aufzuzeigen. Ohne auf Einzelheiten
einzugehen, stellen wir hier nur fest, daß der Gegensatz der Standpunkte der
beiden Bernoullis bedeutsam ist. Für Daniel kommt die klassische Art der
Berechnung von Erwartungswerten in der Person eines unparteiischen Rich-
ters zum Ausdruck, der die individuellen Merkmale des Spielers nicht kennt,
während es sich für den Spieler weniger um Fairness als um Vorsicht handelt.
Dem mathematischen“ Erwartungswert setzt Daniel also einen moralischen“
” ”
Erwartungswert entgegen, der sich durch das Produkt der Wahrscheinlichkeit
des Ereignisses mit dessen Nützlichkeit“ (im Sinne der Wirtschaftstheorie)

ausdrückt.
Daniel entnahm seine Argumentation der Geschäftswelt, während der Ju-
rist Niklaus den Einwand machte, daß dieser moralische Erwartungswert“

nicht der Gleichheit und der Gerechtigkeit“ entspricht.

Hierauf entgegnete Daniel, daß seine Überlegung in vollkommener Über-

einstimmung mit der Erfahrung stehe“. In der Tat stützte sich Niklaus auf die
Gleichheitsbedeutung aleatorischer Verträge, während Daniel eine Art kom-
merzieller Vorsicht verteidigte. Der besonnene Kaufmann stand dem unpartei-
ischen Richter gegenüber. Bezüglich des im vorhergehenden Abschnitt Alea-

torische Verträge und faire Abmachungen“ geschilderten einfacheren Para-
doxons finden wir einerseits den Richter in der Position, die Lage von oben
überschauen zu können (zur Not sehen wir sogar einen utopischen Spieler von
unbegrenztem Reichtum, der das Spiel unendlich oft unter dem Einsatz großer
Summen spielen könnte), und andererseits den normalen“ Spieler, der mit

einem umsichtigen Kaufmann von begrenztem Glück vergleichbar ist und der
es sich nicht leisten kann, eine große Summe auf einen riesigen, wenn auch
sehr unwahrscheinlichen Gewinn zu setzen.
Der Nachteil der hier erwähnten Paradoxa bestand darin, daß sie mit fikti-
ven Problemen zu tun hatten und intellektuelle Spiele zu sein schienen. Ganz
anders verlief die Debatte über die Pockenimpfung, welche die Gelehrten zur
gleichen Zeit gegeneinander aufbrachte (Benzécri, 1982, [12]). Die Präventiv-
maßnahme der allgemeinen Impfung senkte das Auftreten der Krankheit er-
heblich, führte aber unglücklicherweise auch in einem von dreihundert Fällen
zum Tod der geimpften Personen im Jahr der Impfung. Die Bilanz war je-
doch positiv und Daniel Bernoulli rechnete aus, daß die Lebenserwartung
von geimpften Personen trotz dieser fatalen Vorfälle drei Jahre höher ist, als
die Lebenserwartung ungeimpfter Personen. Vom Standpunkt der öffentlichen
Gesundheit konnte diese Maßnahme demnach obligatorisch gemacht oder zu-
mindest mit Nachdruck empfohlen werden. Begreiflicherweise waren jedoch
einige (häufig als Familienväter“ beschriebene) Personen in Bezug auf sich

und ihre Kinder mehr als zurückhaltend. Aus diesem Beispiel ist ersichtlich,
daß der frequentistische Standpunkt mit einer makrosozialen Position (das
heißt mit der Position des Staates oder einer Allgemeinheit) zusammenhing,
während es sich beim epistemischen Standpunkt um die Position einer Person
handelte, die für sich selbst Entscheidungen treffen mußte. Das Problem kam
64 2 Richter und Astronomen

dann im 19. Jahrhundert erneut in anderen Debatten auf, in denen es um die


Anwendung der statistischen Methode in der Medizin ging.
Die Diskussion führte dazu, die Verwendung von Erwartungswerten bei
der rationalen Betrachtung menschlicher Entscheidungen in Zweifel zu ziehen
und bereitete den Weg für die spätere Trennung der wahrscheinlichkeitstheo-
retischen Betrachtungsweisen vor. Im 19. Jahrhundert wurde eine vorläufige
Grenze errichtet, welche die mit den Zuständen des Verstandes“ verknüpf-

te Seite der Wahrscheinlichkeitsrechnung zurückwies und eine Beschränkung
auf die Zustände der Welt“ und insbesondere auf die frequentistische Rich-

tung beinhaltete. Als etwa Auguste Comte die Wahrscheinlichkeitsrechnung
im Allgemeinen attackierte und sie anklagte, daß sie außerstande sei, die
Komplexität der menschlichen Verhaltensweisen zu berücksichtigen, griff er
im Grunde genommen die epistemische Interpretation dieses Kalküls an, die
den Überlegungen der klassischen Probabilisten Nahrung gegeben hatte.
Es gab mehrere Typen von Beispielen, mit denen man diese Art von Kritik
untermauern konnte. In einigen dieser Beispiele – wie etwa im St. Petersbur-
ger Paradoxon oder beim Pockenimpfungsproblem – wurde die Nützlichkeits-
funktion infrage gestellt, die mit der ihrerseits nur wenig diskutierten objekti-
ven Wahrscheinlichkeit assoziiert war (geometrisch15 für das Spiel Kopf oder

Zahl“ und frequentistisch im Falle der Impfung). In anderen Fällen dagegen –
wie etwa bei den auf Abstimmung beruhenden Entscheidungen von Geschwo-
renen in Strafsachen, in denen eine Beurteilung der Schuld unter Berücksich-
tigung von Indizien und Vermutungen erfolgte, aber auf keinem vollständigen
Beweis aufbaute – bezweifelte man sogar die Möglichkeit der Abschätzung
der (subjektiven) Wahrscheinlichkeit einer Ursache“ (der Schuld des Ange-

klagten), weil man wußte, daß bestimmte Effekte“ (Indizien oder unsichere

Zeugenaussagen) eine Rolle gespielt hatten. Die Frage nach der Ursachenwahr-
scheinlichkeit (oder inversen Wahrscheinlichkeit) spielte im 18. Jahrhundert
bei Bayes und Laplace eine wichtige Rolle. Im 19. Jahrhundert hatte man
diese Frage weitgehend verdrängt, bevor sie im 20. Jahrhundert im Rahmen
der Spieltheorie, der Entscheidungstheorie und in der Kognitionswissenschaft
wieder zum Leben erweckt wurde.

Der Bayessche Ansatz


Das Problem der Gerechtigkeit, definiert durch die Gleichheit von Erwar-
tungswerten, beherrschte die Arbeiten der Begründer der Wahrscheinlichkeits-
rechnung: Die Logik von Port Royal“ 16 machte zum Beispiel umfassenden

Gebrauch davon. Der frequentistische Standpunkt, der sich implizit in den
15
Hiermit ist die zugrunde liegende geometrische Folge der Partialsummen gemeint.
16
Das 1662 anonym in Paris erschienene Werk La Logique ou l’Art de penser war
außerordentlich einflußreich. Ein Nachdruck wurde von Baron Freytag von Löring-
hoff, Stuttgart 1965, herausgegeben. Die lateinische Fassung erschien unter dem
Titel Ars cogitandi. Als Verfasser des Buches gelten Antoine Arnauld und Pierre
Der Bayessche Ansatz 65

Glücksspielen wiederfindet, führte Jakob Bernoulli (1654–1705) zum ersten


Beweis des Gesetzes der großen Zahlen, das 1713 nach seinem Tod veröffent-
licht wurde: Die Häufigkeit des Auftretens eines Ereignisses, das eine gegebene
Wahrscheinlichkeit hat, strebt gegen diese Wahrscheinlichkeit, wenn man die
Anzahl der Versuche erhöht17 (Meusnier, 1987, [196]). Danach vervollständig-
te Abraham de Moivre (1667–1754) im Jahre 1738 den Beweis: er berechnete
die Wahrscheinlichkeit dafür, daß diese Häufigkeit in einem beliebig kleinen
Intervall auftritt, wenn man eine hinreichend große Anzahl von Ziehungen
durchführt. Nebenbei gab er die erste präzise Formulierung der späteren Nor-

malverteilung“ 18 , indem er sich auf Stirlings asymptotische Formel19 für n!
(n Fakultät) stützte (n! = 1 × 2 × 3 × . . . × n).
Die vorhergehenden Ergebnisse gestatteten es, erwartete Wirkungen aus
einer bekannten Ursache (Füllung einer Urne) – das heißt die Wahrschein-
lichkeiten der Beobachtung von Häufigkeiten – abzuleiten. Aber das inverse
Problem wurde oft in allen denjenigen Fällen gestellt, in denen es wünschens-
wert war, auf der Grundlage der beobachteten Ereignisse etwas über die (un-
bekannten) Ursachen zu sagen. Erst Bayes (1702–1761) und dann Laplace
(1749–1827) machten sich an die Beantwortung dieser Frage – und ihre Ant-
worten führten zu weiteren Debatten.
Das auf diese Weise von Bayes und Laplace gestellte Problem der inver-

sen Wahrscheinlichkeit“ spielt – bis zum heutigen Tage – eine entscheidende
Rolle in der Geschichte der Anwendung der Wahrscheinlichkeitsrechnung und
der Statistik in den verschiedenen Wissenschaften. In der Tat liegt dieses
Problem an der Nahtstelle zwischen dem objektivistischen Standpunkt (die
Wissenschaft entschleiert eine verborgene Realität – den Inhalt der Urne –
oder nähert sich dieser Realität immer mehr an) und dem konstruktivistischen
Standpunkt (die Wissenschaft konstruiert Objekte und Modelle mit Hilfe von
Kriterien und Werkzeugen, und verleiht dadurch diesen Objekten und Mo-
dellen eine relative Stabilität). Nun ist aber die Methode, bei der man von
Nicole, beide prominente Vertreter der Jansenisten, einer katholischen Reformbe-
wegung im Umkreis des Klosters Port Royal bei Paris, die in scharfem Konflikt
mit der römischen Kirche lag. Auch Blaise Pascal stand dieser Bewegung nahe
und war womöglich ein Mitverfasser des Buches.
17
Formaler ausgedrückt beinhaltet das Gesetz der großen Zahlen: Die Häufigkeit h
eines Ereignisses mit Wahrscheinlichkeit p in n unabhängigen Versuchen unter-
scheidet sich von p mit beliebig großer Wahrscheinlichkeit nur um beliebig wenig,
sobald n hinreichend groß ist. Man drückt dasselbe auch folgendermaßen aus: Die
Häufigkeit h konvergiert fast sicher für n → ∞ gegen p. Oder auch: Für n → ∞
ist h eine konsistente Schätzung für p.
18
Die Bezeichnungsweise ist sowohl im Französischen als auch im Deutschen unein-
heitlich. Der Autor verwendet hier loi normale“, was im Deutschen auch durch

Normalverteilungsgesetz“ wiedergegeben wird. √
19 ”
Stirlingsche Näherungsformel für die Fakultät: n! ≈ ( ne )n 2πn, wobei e die Basis
der natürlichen Logarithmen bezeichnet.
66 2 Richter und Astronomen

registrierten Ereignissen auf Ursachen schließt, beider Interpretationen fähig:


Ursachen werden entweder aufgedeckt oder konstruiert.
Die Bayesschen Formalisierungen zielten darauf ab, Glaubensgründe unter
Berücksichtigung vorheriger Erfahrungen so abzuschätzen, daß eine konkre-
te Situation beurteilt und eine Entscheidung getroffen werden kann. Der von
Bayes 1764 unter dem Titel An Essay Towards Solving a Problem in the Doc-
trine of Chances 20 veröffentlichte Text beginnt bei der Formulierung des zum
Problem von Bernoulli und de Moivre inversen Problems mit Worten, die heu-
te seltsam klingen (die Chance einer Wahrscheinlichkeit“), deren Zweideu-

tigkeit jedoch beim Verständnis dessen helfen kann, wonach damals gesucht
wurde:
Gegeben ist die Anzahl Male, die ein unbekanntes Ereignis eingetreten
und ausgeblieben ist. Gesucht ist die Chance, daß die Wahrscheinlich-
keit seines Eintretens bei einem einzelnen Versuch irgendwo zwischen
zwei angebbaren Graden der Wahrscheinlichkeit liegt (Bayes, 1764,
neu herausgegeben von Pearson und Kendall, 1970, [221]).
Die Wörter Wahrscheinlichkeit“ und Chance“ werden anschließend durch
” ”
Begriffe aus der Theorie der Erwartungswerte definiert, das heißt durch ein
Verhältnis von Werten, die zu schätzen sind, damit eine Wette berechtigt ist.
Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen
dem Werte, welcher einer an das Eintreten des Ereignisses geknüpften
Erwartung zu geben ist, und dem Werte des in diesem Falle erwarteten
Gewinns. Unter Chance verstehe ich dasselbe wie Wahrscheinlichkeit.
(Bayes, op. cit.)

Demnach wird den Wörtern Chance und Wahrscheinlichkeit per Dekla-


ration ein und dieselbe Bedeutung zugewiesen, was aber nicht zur Klärung
des ersten Satzes beiträgt. Jedoch zeigt die nachfolgende Überlegung, daß das
Wort Chance“ im Sinne von Glaubensgrund“ mit Blick auf eine Entschei-
” ”
dung verwendet wird, während das Wort Wahrscheinlichkeit“ eine objektive

Bedeutung hat, ähnlich wie der Begriff Füllung der Urne“. Es handelt sich

demnach um die Wahrscheinlichkeit“, daß die Füllung dieser unbekannten

Urne (also das Verhältnis zwischen den Anzahlen der schwarzen und der wei-
ßen Kugeln) innerhalb eines gegebenen Intervalls liegt. Das heißt es geht um
eine Ursachenwahrscheinlichkeit“, die sich – ebenso wie die Wahrscheinlich-
” ”
keit“ der Schuld eines Angeklagten – nur durch einen Grad der Sicherheit“

interpretieren läßt, der für eine Entscheidung notwendig ist. Die einzige Art
und Weise, dieser Ursachenwahrscheinlichkeit“ eine formalisierte Bedeutung

zu geben, wäre die Annahme, daß die Urne ihrerseits aus einer großen An-
zahl von Urnen verschiedener Füllungen gezogen wurde. Aber das führt auf
20
In deutscher Sprache erschienen unter dem Titel Versuch zur Lösung eines Pro-
blems der Wahrscheinlichkeitsrechnung in Ostwalds Klassikern der exakten Wis-

senschaften“ (Leipzig 1908).
Der Bayessche Ansatz 67

die Frage der Verteilung dieser Zusammensetzungen, das heißt auf eine A-

priori-Wahrscheinlichkeit“ zurück, und genau das ist der Punkt, an dem der
Bayessche Ansatz am meisten kritisiert wird.
Durch die Schaffung des Begriffes der bedingten Wahrscheinlichkeit“

führt das Verfahren die Irreversibilität der Zeit in die Formulierung ein ( A

dann B“) und das ist die Ursache für den Doppelcharakter dieses Begriffes
(Clero, 1986, [48]). In der Tat läßt sich die Überlegung auf der Grundlage der
folgenden doppelten Gleichheit aufbauen:

P (A und B) = P (A falls B) × P (B) = P (B falls A) × P (A)

und hieraus folgt


P (A)
P (A falls B) = P (B falls A) × .
P (B)

Übertragen auf das Problem der Wahrscheinlichkeit einer Ursache Hi (in


einer Menge von n sich gegenseitig ausschließenden Ursachen) für ein Ereignis
E läßt sich dieser Sachverhalt unter Verwendung einer moderneren Schreib-
weise folgendermaßen wiedergeben:
P (E ∩ Hi ) P (E|Hi ) · P (Hi )
P (Hi |E) = = n .
P (E) j=1 P (E|Hj ) · P (Hj )

Diese Formel wurde 1774 von Laplace in einem langen Satz ausgedrückt,
der heute schwer lesbar ist. Die Schwierigkeit läßt sich mit der andersartigen
Schwierigkeit der vorhergehenden mathematischen Formel vergleichen.
Läßt sich ein Ereignis durch eine Anzahl n von verschiedenen Ursachen
erzeugen, dann verhalten sich die Wahrscheinlichkeiten der Existenz
dieser Ursachen für das betreffende Ereignis wie die Wahrscheinlich-
keiten des Ereignisses für diese Ursachen, und die Wahrscheinlichkeit
für die Existenz einer jeden Ursache ist gleich der Wahrscheinlichkeit
des Ereignisses bei Vorliegen dieser Ursache, dividiert durch die Sum-
me aller Wahrscheinlichkeiten des Ereignisses bei Vorliegen aller dieser
Ursachen. (Laplace, 1774, Mémoire sur la probabilité des causes par
les événements. In: Oeuvres complètes, t. VIII, S. 28.)
Aber der entscheidende Punkt im Beweis von Bayes besteht darin, daß
die Symmetrie der doppelten Gleichheit, welche die bedingten Wahrschein-
lichkeiten P (A falls B) und P (B falls A) definiert, für ihn nicht existier-
te und daß beide Gleichheiten gesondert und unabhängig voneinander be-
wiesen werden (Stigler, 1986, [267]), und zwar mit Hilfe von zwei verschie-
denen Propositionen“. Diese Überlegungen stützen sich auf Zunahmen der

Gewinnerwartungswerte, die durch das Auftreten eines Anfangsereignisses A
eingeführt wurden. Jeder Beweis ist die Schilderung einer Folge von hypo-
thetischen Ereignissen und deren Konsequenzen in Bezug auf Gewinne. Aber
68 2 Richter und Astronomen

diese Schilderungen können nur dann zu einer Schlußfolgerung führen, wenn


man den Ursachen A-priori -Wahrscheinlichkeiten zuordnet, das heißt in die-
sem Fall die Wahrscheinlichkeit P (Hi ) – und das sogar tut, bevor man ir-
gendein partielles Wissen erlangt hat. Die Hypothesen der gleichbleibenden“

A-priori -Wahrscheinlichkeit derartiger Ursachen sind häufig angefochten wor-
den, indem man mit Hilfe von Beispielen zeigte, daß diese gleichbleibenden“

Wahrscheinlichkeiten auf verschiedene Weisen gewählt werden können und
daher reine Konventionen sind.
Die Spannung und die Fruchtbarkeit des Bayesschen Ansatzes ist auf
den Doppelcharakter des Anfangsausdrucks zurückzuführen: die ursprüngli-
che doppelte Gleichheit ist formal symmetrisch, aber logisch asymmetrisch,
da die Zeit eine Rolle spielt und da die Ereignisse bekannt sind, während die
Ursachen aus ihnen geschlußfolgert werden. Dieser Doppelcharakter war übri-
gens ein inhärenter Bestandteil des Apparates, den Bayes zur Untermauerung
seiner Überlegungen ersonnen hatte. In der Tat erwies sich das Beispiel der
Urne als unzulänglich, denn es war schwierig, eine Reihe von Ereignissen zu
konstruieren, bei denen man zuerst Urnen und dann Kugeln ziehen mußte:
die Asymmetrie war zu stark. Bayes schlug deswegen vor, nacheinander zwei
Kugeln auf einem quadratischen Billardtisch derart in Bewegung zu setzen,
daß die Wahrscheinlichkeitsdichten ihrer Haltepunkte auf dem grünen Tuch
gleichmäßig verteilt sind. Die Kugel A wird zuerst gestoßen und nachdem sie
zum Stillstand gekommen ist, wird eine vertikale Gerade durch ihren Halte-
punkt gelegt, wodurch das Quadrat in zwei Rechtecke P und Q zerlegt wird.
Danach wird die Kugel B gestoßen und die Wahrscheinlichkeit dessen unter-
sucht, daß sie im Rechteck Q zum Stehen kommt. Man hat demnach eine
Folge von zwei Ereignissen und kann die damit zusammenhängenden beding-
ten Wahrscheinlichkeiten berechnen, indem man sowohl deren symmetrischen
Charakter (geometrisch) als auch ihren asymmetrischen Charakter (zeitlich)
aufrecht erhält.
Die Methode der Bayesschen Inferenz kann aus der Sicht des vorliegenden
Buches vom Standpunkt der Konstruktion von Äquivalenzklassen, Taxono-
mien und Kodierungen interpretiert werden. Tatsächlich impliziert der aus
dieser Sichtweise postulierte Kausalitätsbegriff, daß ähnliche Ursachen zu ähn-
lichen Folgen führen können. Mit anderen Worten: man kann sich Kategorien
von Ursachen und Wirkungen vorstellen und zukünftige Ereignisse können mit
vergangenen Beobachtungen derart verknüpft werden, daß die Ungewißheit
der zukünftigen Ereignisse dadurch umschrieben wird. Diese Herangehens-
weise steht im Gegensatz zur Einstellung des nominalistischen Skeptizismus,
der in der Philosophie des 18. Jahrhunderts (zum Beispiel bei Berkeley) sehr
verbreitet war. In dieser Philosophie kann nichts mit etwas anderem vergli-
chen werden und es ist keine allgemeine Darstellung möglich (Clero, 1986,
[48]). In dieser Hinsicht schloß sie sich an die Philosophie von Hume an, der
das menschliche Wissen als Produkt einer Akkumulation von Bleistiftstri-

chen“ beschrieb, die Rillen in das Gehirn“ eingraben, denen jede weitere

Erfahrung eine zusätzliche Lebhaftigkeit“ verleiht. Die Vorstellung von der

Der Bayessche Ansatz 69

mit neuem Wissen zusammenhängenden Zusätzlichkeit ist im Text von Bayes


außerordentlich gegenwärtig.
Dieser Umstand ist auch für die Indizienwissenschaften typisch, die Ginz-
burg (1980) den Galileischen Wissenschaften gegenüberstellt. Während die
letzteren mit Hilfe mathematischer und statistischer Methoden eine große
Masse von Informationen gleichzeitig verarbeiten, um daraus allgemeine Ge-
setze abzuleiten, gehen die ersteren von einzelnen Merkmalen aus, um Ge-

schichten“ zu konstruieren oder um einzelne Fälle allgemeinen Familien von
Ursachen zuzuordnen. Das ist die Vorgehensweise des Historikers, des Polizi-
sten und des Arztes, der auf der Grundlage von Symptomen eine Diagnose
stellt.
Folglich kann die Kodierung von Todesursachen“ – durch Verarbeitung

der medizinischen Meldepflicht auf Totenscheinen – entsprechend der Inter-
nationalen Klassifikation der Krankheiten, Verletzungen und Todesursachen 21
als Bayessches Verfahren beschrieben werden (Fagot-Largeault, 1989, [90]): so-
wohl die einzelnen Symptome (Ereignisse) als auch der bereits bekannte Ver-
breitungsgrad einer Krankheit (A-priori -Wahrscheinlichkeit) werden berück-
sichtigt. In diesem Fall, der eine Feinanalyse der Entstehung und Entwicklung
der ICD-Nomenklatur darstellt, tritt die Kodierung der Todesursachen als
Konvention auf. Tatsächlich darf eine Ursache, deren statistische Beschrei-
bung als aufschlußreich beurteilt wird, in der Folge der dem Tod vorangehen-
den Ereignisse nicht zu früh auftreten (andernfalls wäre ihr Einfluß indirekt,
schwach und verwässert), aber diese Ursache darf auch nicht zu eng mit Tod
verknüpft sein (für den sie ein Synonym wäre: das Herz schlägt nicht mehr).
Vielmehr muß es sich um eine Kategorie handeln, die zwischen den beiden
genannten Kategorien steht und den Effekt hat, die Wahrscheinlichkeit des
Todes signifikant zu steigern, ohne ihn jedoch zur Gewißheit zu machen. Da-
bei wird angenommen, daß man auf die betreffende Ursache durch Prävention
oder durch geeignete therapeutische Maßnahmen einwirken kann, um diese
Wahrscheinlichkeit zu senken. Die Analyse der medizinischen Diagnose und
der Kodierung eines Totenscheins ist in doppelter Hinsicht für den Bayes-
schen Ansatz typisch (vgl. Fagot-Largeault, 1989, [90]): einerseits durch die
Konventionen, welche die Kausalität durch eine Kategorisierung der Ereig-
nisse definieren, deren Kenntnis wiederum Wahrscheinlichkeitsschwankungen
impliziert – andererseits durch die Verarbeitung des Kodierungsmoments, das
als Entscheidung angesehen wird, die sowohl einzelne Ereignisse als auch A-
priori-Wahrscheinlichkeiten berücksichtigt.
Der Bayessche Ansatz war also eine wesentliche Episode in der Geschichte
der Wahrscheinlichkeitsrechnung, denn dieser Ansatz war der Ursprung des
Begriffes der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit.
Dieser Begriff hat keine Bedeutung in einer rein axiomatischen Theorie der
Wahrscheinlichkeitsrechnung (etwa in der Theorie von Kolmogorow), erweist
sich aber als sinnvoll in der Analyse so manchen Entscheidungsverhaltens und
21
International Classification of Diseases, Injuries and Causes of Death (ICD).
70 2 Richter und Astronomen

bei der praktischen Konstruktion von Äquivalenzklassen – einer Schlüsselpha-


se der statistischen Tätigkeit. Das Moment der Kodierung und seine speziellen
Randbedingungen geraten mitunter in Vergessenheit, wenn man statistische
Tabellen verarbeitet und interpretiert – ebenso wie der Bayesianismus lange
Zeit in der statistischen Denkweise verdrängt worden ist.

Der goldene Mittelweg“:



Mittelwerte und kleinste Quadrate

Im Rahmen der Techniken, die heute zur Konstruktion und Stabilisierung


der sozialen Welt beitragen, spielt die Statistik eine doppelte Rolle. Einerseits
bestimmt sie Objekte, indem sie für diese Objekte mittels standardisierter
Definitionen Äquivalenzen festlegt. Dadurch wird es möglich, die Objekte zu
messen: Mit Hilfe der Sprache der Wahrscheinlichkeitstheorie präzisiert man
den Vertrauensgrad22 , der sich diesen Messungen zuordnen läßt. Andererseits
liefert die Statistik Formen, und zwar sowohl zur Beschreibung der Relationen
zwischen den so konstruierten Objekten als auch zur Prüfung der Konsistenz
dieser Relationen. Diese beiden Aspekte, das heißt die Konstruktion von Ob-
jekten und die Analyse der Relationen zwischen diesen Objekten, scheinen
eng miteinander zusammenzuhängen. Dennoch gehen beide Aspekte aus zwei
deutlich voneinander verschiedenen Traditionen hervor, die erst zu Beginn des
20. Jahrhunderts konvergierten. Mitunter konnte am Ende ein und derselbe
Formalismus auf ganz verschiedene Fragen angewendet werden, aber die ein-
fache Übertragung dieses geistigen Werkzeugs von einem Bereich auf einen
anderen dauerte ein volles Jahrhundert und bei diesem Prozeß waren aufwen-
dige begriffliche Übersetzungen erforderlich.
Ein Beispiel hierfür ist die als Methode der kleinsten Quadrate bezeich-
nete Anpassungsmethode (Armatte, 1991, [5]). Diese Methode war 1805 von
Legendre in Antwort auf eine Frage formuliert worden, die während des gesam-
ten 18. Jahrhunderts von Astronomen und Geodäten immer wieder gestellt
wurde: Wie kann man die unter verschiedenen Voraussetzungen gemachten
Beobachtungen kombinieren, um bestmögliche Schätzungen einer Reihe von
astronomischen und terrestrischen Größen zu erhalten, die ihrerseits durch
lineare Relationen verknüpft sind? Diese Größen waren mit unvollkommenen
Instrumenten unter unterschiedlichen Bedingungen gemessen worden, zum
Beispiel in verschiedenen historischen Epochen oder an mehreren Punkten
der Erde. Wie ließ sich diese Fülle von Messungen unter Berücksichtigung
des Umstandes am besten nutzen, daß sie die theoretisch vorgegebene Relati-
on niemals vollständig bestätigten, sondern das Vorhandensein einer kleinen
(auch als Fehler , Residuum oder Rest bezeichneten) Abweichung an derje-
nigen Stelle gestatteten, wo eigentlich der Wert Null auftreten müßte. Mit
anderen Worten: die zwei oder drei unbekannten Größen traten als Lösungen
22
Auch Konfidenzgrad“ genannt.

Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate 71

eines Systems auf, das zu viele Gleichungen hatte (soviele Gleichungen wie
Beobachtungspunkte). Man muß also diese Gleichungen optimal kombinieren,
um eine Schätzung der gesuchten Größen zu erhalten. Das war das Problem,
das Legendre im Jahr 1805 mit Hilfe einer Methode löste, bei der die Summe
der Quadrate dieser Abweichungen minimiert wird (Stigler, 1986, [267]).
Es handelte sich also darum, die Messung von Objekten mit größtmöglicher
Präzision durchzuführen, indem man die unterschiedlichen Beobachtungen ein
und derselben Größe bestmöglich miteinander kombiniert. Dagegen war das
in den 1890er Jahren von den englischen Eugenikern Galton und Pearson
– den Erfindern der Regression und der Korrelation – gestellte und gelöste
Problem gänzlich andersartig: Wie sind die Relationen und wechselseitigen
Beziehungen zwischen Objekten zu beschreiben, die weder voneinander un-
abhängig noch vollständig voneinander abhängig sind? Derartige Fälle treten
bei Problemen der Vererbung auf. Die Anpassung einer Variablen an eine an-
dere Variable mit Hilfe eines linearen Regressionsmodells führte nichtsdesto-
weniger zu einem System von Gleichungen und zu einem Lösungsansatz, der
formal analog zum Verfahren von Legendre war. Aber die Bedeutungsinhalte
der mathematischen Konstruktion wichen in beiden Fällen derart voneinander
ab, daß die Übertragung des Formalismus von Legendre – die dieser 1810 auf
der Grundlage seiner auf Gauß und Laplace zurückgehenden probabilistischen
Interpretation schuf – nicht wirklich vor 1930 stattfand.
Die gegen 1810 von Laplace und Gauß durchgeführte Synthese ergab sich
ihrerseits aus der Vereinigung zweier ganz unterschiedlicher Traditionen. Ei-
nerseits waren die Astronomen und die Physiker daran gewöhnt, empirisch
ungenaue Beobachtungen zu kombinieren – zum Beispiel durch Mittelwertbe-
rechnungen (das heißt durch den Mittelweg“, den man einschlagen muß), um

die Werte von Naturgrößen so gut wie möglich“ abzuschätzen. Andererseits

hatten die probabilistisch orientierten Mathematiker und Philosophen an der
Frage des Grades der Sicherheit gearbeitet, der sich einem Wissen oder ei-
nem Glauben zuordnen läßt. Die Philosophen gelangten auf diese Weise an
einen Punkt, an dem sie den von den Mathematikern verwendeten Ausdruck
so gut wie möglich“ infrage stellten: Wie soll man den Vertrauensgrad von

etwas abschätzen, das eine Schätzung verdient? Vor Gauß und Laplace hatte
niemand eine Antwort auf diese Frage gegeben.
Die erstgenannte Tradition, die sich mit der Messung astronomischer und
terrestrischer Größen befaßte, blickte bereits auf eine lange Geschichte zurück
(Stigler, 1986, [267]). Dieses Problem versprach bedeutende ökonomische und
militärische Anwendungen. Deswegen hat im gesamten 18. Jahrhundert das
Streben nach Perfektionierung der Techniken zur Berechnung von Schiffsposi-
tionen (Längen- und Breitenbestimmung) zahlreiche Forschungsarbeiten sti-
muliert. Seit 1700 war die Berechnung der Breite (auf der Grundlage der
Höhe der Fixsterne) ziemlich einfach. Dagegen machte die Längenberechnung
beträchtliche Schwierigkeiten. In England wurde 1714 eine Kommission ge-
gründet, um diese Frage zu untersuchen und Forschungen zu subventionieren,
die zur Problemlösung beitragen (zwischen dem Gründungsdatum und 1815
72 2 Richter und Astronomen

gab man mehr als 100000 englische Pfund zu diesem Zweck aus). Zwei Tech-
niken wurden damals entwickelt: die Präzision der Uhren, die an Bord von
Schiffen die Greenwich-Zeit anzeigen, und die Aufstellung von Tabellen, die
eine detaillierte Beschreibung der Mondpositionen lieferten.
Im zweitgenannten Fall besteht das Problem darin, daß sich der Mond ge-
genüber der Erde nicht immer unter ein und demselben Winkel zeigt und daß
leichte Schwankungen der Mondrotation (die Librationen“) die Berechnung

der Mondposition außerordentlich komplizieren. Der deutsche Astronom Tobi-
as Mayer (1723–1762) veröffentlichte hierzu eine geistreiche Lösung23 , indem
er die Beobachtungen in geeigneter Weise miteinander kombinierte. Berech-
nungen hatten ihn dazu geführt, zu verschiedenen Zeitpunkten die Position
eines gewissen Mondkraters präzise zu beobachten und diese Beobachtun-
gen führten zur Messung dreier unterschiedlicher astronomischer Größen, die
miteinander durch eine Gleichung der sphärischen Trigonometrie verknüpft
waren. Da er diese Beobachtungen insgesamt siebenundzwanzigmal gemacht
hatte, mußte er ein überbestimmtes System von siebenundzwanzig Gleichun-
gen in drei Unbekannten lösen.
Mayer verfügte über keine Regel zur Minimierung der Fehler zwischen
den Erwartungswerten und den durch zufällige Näherung berechneten Wer-
ten. Deswegen führte er eine gut durchdachte Umgruppierung seiner sieben-
undzwanzig Gleichungen in drei Gruppen zu je neun Gleichungen durch und
addierte dann gesondert jede der drei Gruppen. Auf diese Weise erhielt er
schließlich ein System von drei Gleichungen in drei Unbekannten, und die-
se Gleichungen lieferten ihm die gesuchten Abschätzungen. Die Richtigkeit
der Methode ist auf die scharfsinnige Auswahl dreier Teilwolken von Punk-
ten zurückzuführen, die durch ihre jeweiligen Schwerpunkte ersetzt wurden,
so daß der größtmögliche Anteil der ursprünglichen Informationen der sie-
benundzwanzig Beobachtungen erhalten blieb. Die Tatsache, daß Mayer die
Messungen selbst durchgeführt hatte und mit ihnen gründlich vertraut war,
verlieh ihm die Kühnheit, die Gleichungen umzugruppieren, und gab ihm die
erforderliche Intuition, diese Umgruppierung auf einfallsreiche Weise vorzu-
nehmen. Aber diese empirische Lösung stützte sich auf kein allgemeines Kri-
terium und konnte deswegen kaum auf andere Situationen übertragen werden.
Es handelte sich um eine Ad-hoc-Lösung, wie sie für einen Handwerker typisch
ist.
Ein allgemeines Kriterium dafür, eine Anpassung zu optimieren, wurde
wenig später im Jahre 1755 von Roger Joseph Boscovich24 in Bezug auf ein
anderes Problem vorgeschlagen, das ebenfalls viele Gelehrte des 18. Jahrhun-
23
Tobias Mayer, Abhandlungen über die Umwälzung des Mondes um seine Axe. In:
Kosmographische Nachrichten und Sammlungen, von den Mitgliedern der Kos-
mographischen Gesellschaft zusammengetragen, 1(1748), S. 52–148.
24
Ursprünglich: Rudjer Josip Bošcović (1711–1787). Kroatischer Jesuit, der seit
1740 als Professor für Mathematik am Collegium Romanum in Rom lehrte und
1764 Professor für Mathematik in Pavia wurde. Sein italianisierter Name ist Rug-
giero Guiseppe Boscovich.
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate 73

derts in Unruhe versetzt hatte: das Problem der Erdgestalt. Man vermutete,
daß die Erde keine vollkommene Kugel ist, sondern an den Polen leicht abge-
plattet25 , am Äquator dagegen verbreitert ist (einige Gelehrte vertraten übri-
gens die entgegengesetzte These). Die Überprüfung dieses Problems machte es
erforderlich, die Länge eines Meridianbogens an ganz unterschiedlichen Brei-
ten zu messen. Die Messungen wurden in Paris, Rom, Quito, Lappland und
am Kap der Guten Hoffnung durchgeführt. In diesem Fall erwies es sich als
notwendig, ein System von fünf Gleichungen in zwei Unbekannten zu lösen.
Boscovich argumentierte ganz anders als Mayer – möglicherweise weil er
eine kleinere Anzahl von Daten zur Verfügung hatte. Er erfand eine geome-
trische Technik zur Minimierung der Summe der absoluten Werte der Reste,
das heißt der Abweichungen zwischen den beobachteten Werten und den an-
gepaßten Werten. Als allgemeines Kriterium ließ sich diese Technik jedoch nur
sehr schwer handhaben und die geometrische“ Lösung war nur aufgrund der

kleinen Anzahl von Beobachtungen und unbekannten Größen möglich (Stigler,
1986, [267]). Laplace hatte versucht, die Summe der absoluten Werte mathe-
matisch zu behandeln, mußte aber wegen der Komplexität der damit verbun-
denen Berechnungen von seinem Vorhaben Abstand nehmen.
Die Lösung durch Minimierung der Summe der Quadrate der Abweichun-
gen scheint zuerst von Gauß bereits 1795 verwendet worden zu sein (zumindest
behauptete er das), aber er gab keine explizite Formulierung dafür an. Un-
abhängig von Gauß konzipierte, formulierte und veröffentlichte Legendre diese
Lösung im Jahre 1805, was einen lebhaften Prioritätsstreit zwischen beiden
zur Folge hatte (Plackett, 1972, [232]).26 Gauß behauptete, dieses Kriterium –
die Methode der kleinsten Quadrate – bereits 1795 benutzt zu haben, äußerte
aber später während der Kontroverse, ihm sei das Kriterium so trivial erschie-
nen, daß er es weder für nützlich befunden hätte, es zu veröffentlichen, noch
ihm einen Namen für die Nachwelt zu geben. Für Gauß war das Kriterium nur
ein Rechenmittel; das Wesentliche für ihn war das damit erzielte Forschungs-
resultat. Dagegen nutzten Legendre im Jahre 1805, vor allem aber Gauß selbst
im Jahre 1809 und Laplace im Jahre 1810 sehr spezielle Eigenschaften dieser
Methode. Insbesondere verwendeten Laplace und Gauß die Beziehungen, die
unter den Gesetzen der Wahrscheinlichkeitsrechnung als Gaußsches Fehler-

gesetz“ (der zukünftigen Normalverteilung“) etabliert wurden.

Wir müssen jetzt in unserer Darstellung noch einmal zurückgehen, um
kurz die andere Tradition zu verfolgen, die zur Synthese von Gauß-Laplace
25
Unter der Voraussetzung, daß die Erde wie eine homogene, mit gleichförmiger
Winkelgeschwindigkeit rotierende Flüssigkeit behandelt werden kann, hatte New-
ton in den Principia (1687) gezeigt, daß die Erde ein abgeplattetes Rotationsel-
lipsoid ist, wobei der Radius am Äquator um ca. 1/230 länger ist als der Radius
am Pol. Die Abplattung der Erde, das heißt der Längenunterschied zwischen der
Achse der Erdkugel und des Erdellipsoids, beträgt ca. 42 km.
26
Dieser Streit ist nicht nur von anekdotischem Interesse, denn er zeigt, wie sich ein
wissenschaftliches Werkzeug verfestigt, wie es übertragbar wird und sich in einen
anderen Kontext transportieren läßt.
74 2 Richter und Astronomen

führte. Es geht um die Tradition der Philosophen, die – ausgehend von pro-
babilistischen Beschreibungen – über den Grad der Sicherheit des Wissens
arbeiteten. Um ein Wahrscheinlichkeitsgesetz der statistischen Erwartung zu
formulieren, muß man sich zunächst über die entsprechenden Gesetze für ele-
mentare Beobachtungsfehler verständigen. Danach müssen diese elementaren

Gesetze“ mathematisch kombiniert“ werden, um daraus ein Gesetz für sta-

tistische Berechnungen abzuleiten. Für die Verteilungen der Elementarfehler
sind verschiedene Formen vorgeschlagen worden. Simpson (1757) versuchte es
mit einer Linearform, die zu einem gleichschenkligen Dreieck führt: −a|x| + b.
Laplace schlug 1774 zunächst eine exponentielle Form [ m 2e
−m|x|
] und 1777
1 a
einen Logarithmus [ 2a log( |x| )] vor. Laplace kam während seiner Arbeit zur
theoretischen Fehlerverteilung einer empirischen Verteilung darauf, das Pro-
blem der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit aus
einer Sicht zu betrachten, die der Auffassung von Bayes nahe stand.
Nach der von Gauß und Laplace im Jahre 1810 durchgeführten Synthese
der empiristischen und der probabilistischen Auffassung setzte sich die Gauß-
2
sche Formel e−x aufgrund ihrer mathematischen Eigenschaften und ihrer
guten Übereinstimmung mit den Beobachtungen fast vollständig durch. Die
Frage der Verteilung der Elementarfehler hatte im Übrigen einen Teil ih-
rer Bedeutung verloren, nachdem Laplace 1810 den Zentralen Grenzwertsatz
bewiesen hatte. Dieser Satz zeigt, daß sogar dann, wenn die Wahrscheinlich-
keitsverteilung der Fehler keine Normalverteilung ist, die Verteilung der Mit-
telwerte der Fehler gegen eine solche Verteilung strebt, falls die Anzahl der
Beobachtungen unbegrenzt wächst.27 Dieser Umstand verlieh der Gaußschen
Form einen entscheidenden Vorteil, auf dem – seit Quetelet und seinem Durch-
schnittsmenschen – die gesamte Statistik des 19. Jahrhunderts beruhte.
Die Ergebnisse von Gauß und Laplace führten also zu einer außerordentlich
fundierten Synthese, auf der die Experimentalwissenschaften des 19. Jahrhun-
derts aufbauten. Diese Synthese vereinigte in sich einerseits die empirischen
Arbeiten, die zur Methode der kleinsten Quadrate führten, und andererseits
die wahrscheinlichkeitstheoretischen Formalismen, die im Normalverteilungs-
gesetz und dessen zahlreichen mathematischen Eigenschaften gipfelten. Je-
doch sollte es ein ganzes Jahrhundert dauern, bis diese Techniken in den
Sozialwissenschaften und insbesondere in den Wirtschaftswissenschaften ein-
gesetzt und formalisiert wurden. Die Gründe hierfür werden wir nachfolgend
präzisieren. Eine der möglichen Hypothesen zur Erklärung dieser Verschie-
bung besteht darin, daß es noch keine Datenaufzeichnungsverfahren gab, die
ihrerseits mit der Schaffung moderner Staaten und der Konstruktion der ent-
sprechenden institutionellen Äquivalenzräume zusammenhängen – das heißt
mit der Konstruktion von Äquivalenzklassen im institutionellen Bereich und
27
Genauer gesagt beinhaltet der Zentrale Grenzwertsatz, daß die Verteilungsfunk-
N
tion einer Summe X = n=1
Xn von unabhängigen oder hinreichend schwach
korrelierten Zufallsvariablen Xn nach geeigneter Normierung unter ziemlich all-
gemeinen Voraussetzungen für N → ∞ gegen die Normalverteilung strebt.
Messungsanpassungen als Grundlage für Übereinkünfte 75

in den Bereichen der Rechtsprechung, der Gesetzgebung oder der Gewohn-


heitsrechte.

Messungsanpassungen als Grundlage für Übereinkünfte


Wurde ein Richter im 17. Jahrhundert ersucht, einen Konflikt beizulegen, der
spätere und somit noch unbekannte Ereignisse implizierte, dann hat er bei sei-
ner Entscheidung gefordert, daß die Prozeßparteien eine Übereinkunft über
äquivalente Erwartungswerte erzielen. Daher erschien die Wahrscheinlichkeit,
das heißt das Verhältnis zwischen Erwartungswert und Einsatz, als ein Maß,
auf dessen Grundlage eine Übereinkunft zwischen Personen aufgebaut wer-
den konnte. Im 18. Jahrhundert versuchten dann die Vermessungsingenieu-
re, Astronomen und Physiker, die sich mit einer Vielfalt unterschiedlicher
Naturbeobachtungen konfrontiert sahen, diese Beobachtungen in Messungen
zusammenzufassen, die von anderen Wissenschaftlern weiterverwendet wer-
den konnten. Zu diesem Zweck konstruierte man Verfahren (Berechnung von
Mittelwerten, Anpassung durch kleinste Quadrate), deren Optimalitätseigen-
schaften es ermöglichten, Übereinkünfte zu treffen. Und schließlich waren es
zu Beginn des 19. Jahrhunderts die Präfekten, die mit dem Stock in der Hand
die Wege ihres Departements entlang gingen, um Besonderheiten zu erkun-
den und zu registrieren. Mit ihren noch unbeholfenen Beobachtungen trugen
die Präfekten zum Aufbau der künftigen neuen Administration bei. Die Auf-
gabe dieser Administration bestand darin, der ganzen Nation Messungen zu
liefern, die mit hinreichender Übereinstimmung akzeptiert werden und damit
eine sichere Grundlage für öffentliche Debatten und für Entscheidungsfindun-
gen darstellen.
In den betrachteten vier Fällen – das heißt in Bezug auf Richter, Astro-
nomen, Vermessungsingenieure und Präfekten – haben wir es mit Abwand-
lungen des Wortes messen zu tun, das in scheinbar unterschiedlichen Bedeu-
tungen verwendet wird. Die Richter trafen ihre Entscheidungen mit Maß (das
heißt maßvoll), die Astronomen und die Vermessungsingenieure optimierten
ihre Messungen und die Präfekten setzten die (auf Messungen beruhenden)
Maßnahmen ihrer Minister um.28 Die Nebeneinanderstellung dieser unter-
schiedlichen Bedeutungen erscheint jedoch nicht als Zufall, sobald man hinter
den Messungen (oder den auf ihnen beruhenden Maßnahmen) die Absicht
erkennt, eine Übereinkunft zwischen prozeßführenden Parteien, unter Wissen-
schaftlern oder zwischen Bürgern zu erzielen. Demnach haben die scheinbar
heteroklitischen Personen und Situationen – die in diesem Buch als Vorläufer
im Stammbaum der modernen Verfahren der statistischen Objektivierung auf-
treten – eine Gemeinsamkeit: sie verbinden die Konstruktion der Objektivität
mit der Konstruktion von Intersubjektivitätstechnologien“ (Hacking, 1991,

[120]), das heißt mit Übereinkunftsformeln.
28
Das im französischen Original verwendete Wort mesure läßt sich im Deutschen
je nach Zusammenhang durch Messung, Maß oder Maßnahme wiedergeben.
76 2 Richter und Astronomen

Um 1820 existierten jedoch noch keine vereinheitlichten statistischen Ver-


fahren zur Bereitstellung derartiger Übereinkunftsformeln, die heute aufgrund
ihrer Solidität allgegenwärtig sind. Die spätere Geschichte läßt sich als eine
Folge von Synthesen schildern, die zwischen a priori unterschiedlichen Tra-
ditionen erfolgten. Ein erstes Beispiel hierfür ist die Laplace-Gauß-Synthese.
Diese Synthese erfolgte durch die Verschmelzung der wahrscheinlichkeitstheo-
retischen Formalisierung der Binomialgesetze von Jakob Bernoulli und Abra-
ham de Moivre mit der Legendreschen Anpassung durch die Methode der
kleinsten Quadrate. Weitere Synthesen sollten folgen. In den 1830er Jahren
verglich Quetelet die von den Bureaus für Verwaltungsstatistik beobachteten
Regelmäßigkeiten mit den Regelmäßigkeiten der astronomischen Messungen
und leitete daraus statistische Gesetze ab, die unabhängig von den Individu-
en waren. Zwischen 1880 und 1900 verknüpften Galton und Pearson die auf
Darwin zurückgehenden Fragen der Vererbung mit der von Quetelet festge-
stellten Normalverteilung der Merkmale der menschlichen Spezies und mit
den Anpassungstechniken, die ihren Ursprung in der Theorie der Meßfehler
hatten.29

29
Am Anfang von Kapitel 9 unterbreiten wir in einer schematischen Darstellung
einen Vorschlag für einen Stammbaum der Ökonometrie.
3
Mittelwerte und Aggregatrealismus

Wie kann man aus Vielem Eines machen? Und was macht man, wenn man
dieses Eine wieder zerlegen möchte, um erneut die Diversität herzustellen?
Und warum soll man das machen? Es handelt sich hierbei um drei verschie-
dene, aber untrennbar miteinander zusammenhängende Fragen. Diese Fragen
treten bei der Entwicklung und Ausarbeitung der statistischen Werkzeuge zur
Objektivierung der sozialen Welt immer wieder auf. Mit der Verwendung des
Verbs machen“ in den obigen Formulierungen möchten wir nicht suggerie-

ren, daß dieser Prozeß der Realitätsproduktion künstlich und somit unwahr“

ist. Vielmehr möchten wir an die Kontinuität erinnern, die zwischen den bei-
den Analyse-Aspekten besteht, das heißt an die Kontinuität zwischen dem
kognitiven und dem aktiven Aspekt. Diese innige Überschneidung, die für die
probabilistische und statistische Erkenntnisweise charakteristisch ist, erklärt
vielleicht, warum diese Techniken von der Wissenschaftsphilosophie nur selten
in subtiler Weise angeschnitten werden. Die offensichtliche Komplexität eines
Gebietes, dessen Technizität dieses relative Schweigen rechtfertigen könnte,
ist ihrerseits das Produkt dieser besonderen Situation, in der die Welten des
Handelns und des Wissens miteinander verknüpft sind.
Die Geschichte dieser Techniken besteht aus einer Reihe von intellektuellen
Destillationen und Läuterungsprozessen, die dazu bestimmt sind, schlüsselfer-
tige Werkzeuge herzustellen – Werkzeuge, die von den unterschiedlichen Kon-
tingenzen ihrer Entstehung befreit sind. Exemplarisch für diese Auffassung
sind die häufigen und lebhaften Debatten, die im 19. Jahrhundert zum Be-
griff des Mittelwertes, seines Status und seiner Interpretation geführt wurden.
Jenseits der scheinbaren Trivialität der Rechenweise dieses elementaren Werk-
zeugs der Statistik ging es jedoch um viel mehr: Die Debatten bezogen sich auf
die Natur des vom Kalkül bereitgestellten neuen Objekts und auf die Möglich-
keit, dieses Objekt mit einer autonomen Existenz auszustatten, die von den
elementaren Individuen unabhängig ist. Der Streit um den Durchschnitts-
menschen war lebhaft, denn es wurde ein ganz neues Werkzeug eingeführt –
einschließlich des binomischen Gesetzes“ der Verteilung der Meßfehler – um

78 3 Mittelwerte und Aggregatrealismus

eine sehr alte philosophische Frage zu behandeln, nämlich die Frage nach dem
Realismus der Aggregate von Dingen oder von Personen.
Das vorliegende Kapitel beschreibt einige Momente dieser Debatten über
den realen oder nominalen Charakter derartiger Aggregate und über die Werk-
zeuge – insbesondere die probabilistischen Werkzeuge – die bei dieser Gelegen-
heit verwendet wurden. So stellte etwa Quetelet tatsächlich drei – aus unter-
schiedlichen Denkhorizonten hervorgegangene – Möglichkeiten zusammen, die
Einheit des Diversen“ begrifflich zu erfassen. Mit Wilhelm von Ockham und

dem Gegensatz zwischen der nominalistischen und der realistischen Philoso-
phie hatte die mittelalterliche Theologie bereits die Frage nach dem Umfang
einer mehrelementigen Menge aufgeworfen. Diese Frage ist vom Standpunkt
des vorliegenden Buches wesentlich, in dem wir die Genese der Konventionen
untersuchen, die bei der Konstruktion von Äquivalenzen und bei der stati-
stischen Kodierung getroffen wurden. Die Ingenieure und Ökonomen des 17.
und 18. Jahrhunderts, zum Beispiel Vauban, hatten bereits Mittelwerte be-
rechnet, und zwar sowohl im Hinblick auf die Schätzung eines existierenden
Objekts als auch zur Schaffung neuer Entitäten. Und schließlich hatten die
im Kapitel 2 genannten Probabilisten des 18. Jahrhunderts im Ergebnis der
Fragen, die sie zu Meßfehlern und zu den hieraus geschlußfolgerten Ursachen-
wahrscheinlichkeiten stellten, leistungsstarke Werkzeuge geschaffen, um Äqui-
valenzen aufzustellen. Zu diesen Werkzeugen gehören das Gesetz der großen
Zahlen von Jakob Bernoulli und die Synthese von Gauß-Laplace, die zum
Zentralen Grenzwertsatz führte.
Quetelet stützte sich auf diese unterschiedlichen Traditionen und auf die
immer ergiebiger werdenden statistischen Aufzeichnungen der Institutionen,
deren Entstehung wir im Kapitel 1 beschrieben hatten. Durch die Nutzung
dieser Quellen schuf er eine neue Sprache, die es ermöglichte, neue Objek-
te anzubieten, die mit der Gesellschaft und deren Stabilität zu tun hatten.
Diese neue Sprache befaßte sich nicht mehr mit Individuen und der Ratio-
nalität ihrer Entscheidungen, wie es noch die Probabilisten bis hin zu La-
place und Poisson getan hatten. Die bei der Verwendung des Gesetzes der
großen Zahlen vorausgesetzten Homogenitätskonventionen wurden von Pois-
son, Bienaymé, Cournot und Lexis diskutiert und die Diskussionen führten zu
weiteren Werkzeugen, mit denen sich der Realismus der makrosozialen Objek-
te testen ließ und immer feinere Zerlegungen dieser Objekte konstruiert wer-
den konnten. Schließlich nahm die Durkheimsche Soziologie diese Werkzeuge
in ihren Besitz, um den Begriff der außerhalb der Individuen existierenden
sozialen Gruppe zu erschaffen. Diese Werkzeuge wurden später im Namen
einer Totalitätskonzeption verworfen, die nicht mehr den Berechnungen von
Mittelwerten verpflichtet war. Der in den modernen Sozialwissenschaften im-
mer wieder auftretende Gegensatz zwischen dem individualistischen und dem
holistischen Standpunkt läßt sich anhand der – in der zweiten Hälfte des 19.
Jahrhunderts äußerst lebhaften – Debatten über Statistiken und Mittelwer-
te verfolgen, wobei die Mittelwerte von beiden Gruppen mal verwendet und
dann wieder denunziert wurden.
Nominalismus, Realismus und statistische Magie 79

Nominalismus, Realismus und statistische Magie

Warum eigentlich sollte man vor der Behandlung der Mittelwertdebatten des
19. Jahrhunderts auf die mittelalterlichen Kontroversen zwischen Realisten
und Nominalisten zu sprechen kommen und damit eine Verquickung von voll-
kommen unterschiedlichen intellektuellen Kontexten riskieren? Es stellt sich
heraus, daß dieses Moment aufschlußreich ist – einerseits wegen der damals
benutzten Denkschemata (logischer Vorrang des Ganzen oder der Individu-
en, aus denen es sich zusammensetzt) und andererseits deswegen, weil die
gleichen Denkschemata in einem Streit zwischen Papsttum und Franziskaner-
orden bemüht wurden, in dem es um das Eigentum der Güter der Franziskaner
ging (Villey, 1975, [282]).
Die Debatten über die Beziehungen zwischen universellen Ideen, Wörtern
von allgemeinem Charakter und individualisierten Dingen sind selbstverständ-
lich genauso alt wie die klassische Philosophie. So unterscheidet die klassische
Philosophie drei verschiedene Bezugnahmen des lateinischen Wortes homo
(Mensch): die beiden Silben, aus denen das Wort besteht, einen besonderen
Menschen und die Menschen im Allgemeinen (das heißt den Signifikanten und
die beiden Signifikat-Ebenen: Singulärität und Allgemeinheit). Im 14. Jahr-
hundert, zur Zeit der Kontroverse zwischen Realisten und Nominalisten (die
bildhaft im Roman Der Name der Rose von Umberto Eco gezeichnet wird),
behaupteten die Realisten, daß nur Ideen und allgemeine Konzepte eine reale
Existenz haben – eine Ansicht, die wie das Gegenteil von dem anmutet, was
wir heute als Realismus bezeichnen würden (Schumpeter, 1983, [254]). Dage-
gen behaupteten die Nominalisten, deren maßgeblicher Theoretiker Wilhelm
von Ockham (William Occam, ca. 1300–1350) war, daß es nur einzelne Indi-
viduen gibt und daß die Wörter, die zur Bezeichnung einer Gesamtheit von
Individuen oder zur Bezeichnung eines Konzeptes dienen, praktische Konven-
tionen sind, aber keine Realität bezeichnen, weswegen man diesen Wörtern
gegenüber mißtrauisch sein muß. Als exponierter Vertreter des Nominalismus
ließ sich Ockham von folgendem Prinzip leiten: Wesen soll man nicht über

Gebühr vermehren“ 1 – ein Sparsamkeitsprinzip, das oft als Ockhamsches

Rasiermesser“ (Occam’s razor) oder Ockhamsches Messer“ bezeichnet wird

(Largeault, 1971, [165]).
Die nominalistische Position ist bedeutsam, da sie den Niedergang der al-
ten Scholastik ankündigte und den Weg für ein subjektives Recht“ sowie

für die individualistischen und empiristischen Philosophien der nachfolgenden
Jahrhunderte freimachte. Selbstverständlich änderte sich der Bedeutungsin-
halt dieses Nominalismus in dem Maße, wie er die Abstraktionskraft betonte,
die der Benennung von Dingen innewohnt. So hat für Paul Vignaux (1991)
1
Nach Ockham besteht die Welt aus einzelnen Dingen und verborgenen Qua-

litäten“, die nirgends entdeckt wurden. In diesem Zusammenhang wendete er
sein Messer“ an, das die nichtexistenten Wesen abschnitt“: entia non sunt
” ” ”
multiplicanda praeter necessitatem“.
80 3 Mittelwerte und Aggregatrealismus

der Nominalismus der modernen Empiriker den Akzent auf die aktive Funkti-

on des Wortes gesetzt, das einen Faktor des mentalen Abstraktionsverhaltens
darstellt, indem es gewisse Eigenschaften des Dinges nicht erwähnt“. Diese
Formulierung beschreibt präzise die Operationen der Kriterienbildung und der
statistischen Kodierung, die es durch Weglassen gewisser Eigenschaften des

Dinges“ ermöglichen, die Abstraktionsweisen zu diversifizieren und dadurch
eine Vervielfachung der Standpunkte bezüglich dieses Dinges zuzulassen.
Auch die realistische Position entwickelte sich von ihrer ontologischen und
idealistischen mittelalterlichen Version (Ideenrealismus) weiter und nahm ma-
terialistischere und empirizistischere Formen an. Hierzu waren Werkzeuge er-
forderlich, mit deren Hilfe man die Dinge miteinander verknüpfen und sie
dadurch zu Realitäten einer höheren Ebene machen konnte: die Nomenkla-
turen der Naturalisten des 18. Jahrhunderts (Linné) und die statistischen
Mittelwerte des 19. Jahrhunderts (Quetelet). Dieser werkzeugmäßig gut aus-
gerüstete Realismus neuen Typus stand also zum individualistischen Nomi-
nalismus – der für die Aufzeichnung und Kodierung der einzelnen Elemente
unerläßlich war – in einem für die statistische Erkenntnisweise charakteristi-
schen Spannungsverhältnis. Diese Erkenntnisweise zielt darauf ab, auf einer
höheren Ebene Realitäten zu bilden und zu verfestigen, die dazu fähig sind,
als synthetische Substitute für viele Dinge zu zirkulieren (zum Beispiel als
der Preisindex für die Preissteigerungen von Produkten, als die Arbeitslo-
senquote für die Arbeitslosen usw.). Aus diesem Grund war es notwendig,
die statistische Erkenntnisweise in den nominalistischen und individualisti-
schen Konventionen zu verankern. Diese Spannung ist inhärenter Bestandteil
der magischen Transmutation der statistischen Arbeit: der Übergang von ei-
ner Realitätsebene zu einer anderen impliziert auch den Übergang von einer
Sprache zu einer anderen (zum Beispiel von den Arbeitslosen zur Arbeitslo-
sigkeit). Der seit Ockham beschrittene Weg zeigt den Realitätsstatus, der den
beiden Ebenen zugeordnet werden kann, wobei diese Ebenen ihr Dasein in
partieller Autonomie verbringen können.
Diese Vielfalt der möglichen Realitätsregister wird heute durch die Tat-
sache gerechtfertigt, daß jedes von ihnen in ein Konstrukt, einen Zusammen-
hang von Dingen eingebettet ist. Die verschiedenen Mechanismen verfügen
(zumindest partiell) über autonome innere Zusammenhänge. Die Statistiken
(im Sinne der Zusammenfassung einer großen Anzahl von Aufzeichnungen)
spielen oft eine wichtige Rolle bei der Herstellung von Zusammenhängen. Die-
se komplexen Konstrukte sind gleichzeitig kognitiv und aktiv: die nationale
Arbeitslosenquote wurde erst dann berechnet und veröffentlicht, nachdem ei-
ne nationale Politik des Kampfes gegen die Arbeitslosigkeit konzipiert und
umgesetzt worden war. Vorher half man den Arbeitslosen auf lokaler Ebene
(Salais, Baverez, Reynaud, 1986, [247]).
An dieser Stelle ist es verführerisch, die politische und philosophische Kon-
troverse zu erwähnen, bei deren Gelegenheit Ockham seine nominalistische
Position in so entschiedener Weise bekräftigt hatte (Villey, 1975, [282]). Das
Überraschungsmoment ist der scheinbar paradoxe Charakter der Situation
Das Ganze und seine Trugbilder 81

und somit auch der Argumentation. Ausgangspunkt hierfür war das im 13.
Jahrhundert vom hl. Franz von Assisi ausgesprochene Armutsgelübde, das als
Vorschrift in den Regeln des Franziskanerordens verankert war. Die Franzis-
kaner waren nun aber so erfolgreich, daß sie rasch an der Spitze zahlreicher
Klöster standen und über fruchtbare landwirtschaftliche Böden verfügten. Da-
mit die Franziskaner jedoch die Möglichkeit hatten, ihr Armutsgelübde wenig-
stens dem Buchstaben nach einzuhalten, erklärte sich der Papst damit einver-
standen, diese Güter als Eigentum zu übernehmen, gleichzeitig aber den Fran-
ziskanern zur Nutzung zu überlassen. Im 14. Jahrhundert war dieses subtile
Konstrukt jedoch heftigen Kritiken ausgesetzt. Der Papst war der mühseligen
Aufgaben überdrüssig geworden, die mit der Verwaltung dieser Güter ein-
hergingen und deswegen entschloß er sich, die Güter dem Franziskanerorden
zurückzugeben. Das hätte die Franziskaner selbstverständlich reicher gemacht,
aber es hätte auch zur Kritik innerhalb des Ordens geführt – ein rebellieren-
der Flügel hätte die Rückkehr zur ursprünglichen Reinheit des Gelübdes des
hl. Franz verlangt. Das also war der komplexe Kontext, der Ockham in seiner
Intervention veranlaßt hatte, die Position der Franziskaner gegenüber dem
Papst zu verteidigen. Er argumentierte, daß es nicht möglich sei, die betref-
fenden Güter dem Orden als Ganzem zurückzugeben, da Franziskanerorden“

lediglich ein Name war, mit dem individuelle Franziskaner bezeichnet wurden.
Demnach leugnete Ockham die Möglichkeit der Existenz kollektiver Per-
sonen, die sich von Einzelpersonen unterscheiden. Dieses Problem sollte eine
fruchtbare Zukunft haben. Mit dem logischen Individualismus des Nomina-
lismus ist demnach ein moralischer Individualismus verknüpft, der seinerseits
mit einer Auffassung der Freiheit des Individuums zusammenhängt, das allein
dem Schöpfer gegenübersteht (Dumont, 1983, [73]). Wir gehen hier nicht wei-
ter auf diese Analyse ein, die auf subtile theologische und juristische Konstruk-
te verweist, deren Aufbau und Sprache uns heute weitgehend fremd sind. Aus
diesem Grund wäre auch ein allzu direkter Vergleich zwischen scheinbar nahe-
stehenden Themen (hier der Gegensatz Realismus-Nominalismus) aus einem
Abstand von fünf Jahrhunderten reichlich unvorsichtig. Die obige kurze Ge-
schichte soll lediglich auf folgenden Umstand hinweisen: Begriffliche Schemata,
die zu einem gegebenen Zeitpunkt in ein sehr viel umfassenderes Gebäude ein-
gegliedert waren, können weitergegeben werden – wobei sie sich mitunter in
ihr Gegenteil verwandeln – und lassen sich dann erneut in andere, radikal
unterschiedliche Gebäude einbinden.

Das Ganze und seine Trugbilder

Die Möglichkeit, auf der Grundlage statistischer Berechnungen mit makroso-


zialen Objekten umzugehen, ohne diese Objekte zu deformieren, führt heute
dazu, daß wir uns mühelos zwischen mehreren Realitätsebenen hin und herbe-
wegen können, deren Konstruktionsweisen stark voneinander abweichen. Hier
kommt die oben erwähnte statistische Magie“ ins Spiel. Aus dieser Sicht stell-

82 3 Mittelwerte und Aggregatrealismus

te der Zusammenhang zweier Typen von Mittelwertberechnungen, die formal


identisch, aber logisch sehr wohl voneinander verschieden waren, ein Schlüssel-
moment dar. Einerseits handelte es sich um die bestmögliche Approximation
einer Größe der Natur, wobei man von verschiedenen Messungen eines einzigen
Objekts auf der Grundlage unvollständiger Beobachtungen ausging; anderer-
seits ging es um die Schaffung einer neuen Realität auf der Grundlage von
Beobachtungen unterschiedlicher Objekte, die aber bei der betreffenden Ge-
legenheit miteinander verknüpft wurden. Der durch Quetelet berühmt gewor-
dene Zusammenhang zwischen der Permanenz eines mehrmals beobachteten
Objekts im erstgenannten Fall und der Existenz einer verschiedenen Objekten
gemeinsamen Sache im zweiten Fall verlieh dem Zusammenhang, der damals
zwischen diesen Objekten hergestellt wurde, eine ganz neue Stabilität. Aber
dieses Werkzeug ist nicht sofort akzeptiert worden und gab im gesamten 19.
Jahrhundert Anlaß zu erbitterten Kontroversen.
Wir ahnen die Bedeutung des Schrittes, den Quetelet mit Hilfe der proba-
bilistischen Formulierung des Gesetzes der großen Zahlen ging, wenn wir – wie
es Jean-Claude Perrot (1992, [227]) tat – die Terminologie prüfen, die Vauban
um 1700 bei verschiedenen Berechnungen verwendete, um eine neue nationale
Steuer, den Königszehnt, zu rechtfertigen. Hierzu benötigte der Minister ver-
schiedene Schätzungen der Fläche des Königreichs, der landwirtschaftlichen
Erträge und der Steuerlasten. In gewissen Fällen verfügte er über mehrere
Schätzungen einer unbekannten Größe (der Gesamtfläche Frankreichs), aus
denen er ein proportionales Mittel“ ableitete. In anderen Fällen nutzte er

hingegen beispielsweise Informationen über die landwirtschaftlichen Erträge
in unterschiedlichen Kirchengemeinden und in verschiedenen Jahren. Er führ-
te dann eine Berechnung durch, die der vorhergehenden ähnelte, bezeichnete
aber das Ergebnis nicht als Mittelwert“, sondern als gewöhnlichen Wert:

gewöhnliche Quadratmeile, gewöhnliches Jahr.
Diese Verfahrensweise existierte schon seit langem in den intuitiven Prak-
tiken, deren Merkmal die wechselseitige Kompensation abweichender Werte
war, die entgegengesetzte Tendenzen aufwiesen. Spuren hiervon erkennen wir
in einer Reihe von Ausdrücken der Alltagssprache. Manche dieser Ausdrücke,
die im 18. Jahrhundert verwendet wurden, sind heute verschwunden, andere
wiederum sind bis zum heutigen Tag erhalten geblieben. Beispielsweise ver-
wendet Graunt bei der Bildung des arithmetischen Mittels (medium) meist die
feststehende Wendung one with another 2 , die dem deutschen das eine in das
andere gerechnet bzw. dem französischen l’un portant l’autre (Neufranzösisch:
en faisant la compensation des différences les unes par les autres“ (1611))

entsprechen dürfte. Die französische Wendung wurde von Vauban benutzt,
2
So schreibt Graunt etwa, daß in der Landpfarrei auf eine Ehe one with another
vier Kinder kämen: Upon which Tables we observe, That every Wedding, one

with another, produces four children, and consequently that that is the proportion
of Children which any Marriageable Man or Woman may be presumed shall have“
(vgl. Hauser, 1997, [397]).
Das Ganze und seine Trugbilder 83

kommt aber auch in Briefen vor, die Lodewijk Huygens an seinen Bruder
Christiaan schrieb. In einem dieser Briefe legt Lodewijk seinen calcul des

âges“ ausführlich dar: Er rechnet alle in der Tabelle auftretenden Lebens-
dauern zu einem Mittel ineinander“ – l’un portant l’autre, wie er sagt – das

heißt er addiert die Lebensjahre aller hundert Personen in der Tabelle auf und
teilt ihre Summe durch hundert. Die Operation der Addition läßt die lokalen
Singularitäten verschwinden und führt zu einem neuen Objekt allgemeine-
rer Ordnung, wobei die unwesentlichen Kontingenzen eliminiert werden. Der
Sprung von einem Register zu einem anderen spiegelt sich auch im italieni-
schen Ausdruck in fin dei conti 3 ( alles in allem“) und in den französischen

Wendungen au bout du compte ( letzten Endes“) und tous comptes faits ( al-
” ”
les in allem“) wider.
Perrot hat (hauptsächlich auf der Grundlage des Wörterbuchs der Aka-
demie) die im 18. Jahrhundert existierenden Konnotationen der von Vauban
verwendeten Begriffe analysiert und auf die unterschiedlichen Logiken hin-
gewiesen, die in jedem der beiden Kalküle verwendet werden. Das Mittel be-
zeichnet das, was sich zwischen zwei Extremen befindet“. Eine Größe wird als

proportional bezeichnet, wenn sie in einem Verhältnis zu anderen Größen der

gleichen Art“ steht. Der Begriff Art wird in präziser Weise mit der Identität
assoziiert, das heißt mit dem, was die Permanenz ausmacht. Die Berechnung
des Mittelwertes setzte demnach voraus, daß die Größen in diesem einge-
schränkten Sinn gleichartig sind. Dagegen weist der Ausdruck gewöhnlich“

auf etwas übliches, abgedroschenes, universelles hin beziehungsweise auf et-
was, das nach Ablauf einer kontinuierlichen Folge von Okkurrenzen geändert

wird“ (gewöhnliches Jahr). In ihrem Kommentar zum Ausdruck l’un portant
l’autre führte die Akademie eine Formel ein, die bei Gegensätzen Ockhamscher
Art kaum vorstellbar war. Ein Resultat ergab sich, wenn man das Eine durch

das Andere kompensiert und eine Art Ganzes daraus zusammensetzt“ – eine
Redeweise, die Vauban bei der Untersuchung von Saaterträgen verwendete.
Diese Art Ganzes“ bezeichnete eine fließende Zone zwischen einem fest aufge-

stellten Objekt und der Diversität inkommensurabler Objekte. Die Kommen-
surabilität und die Möglichkeit der Berechnung eines gewöhnlichen Wertes“

gestatteten es, den Begriff einer Art Ganzes“ zu bilden. Noch aber war man

nicht dazu imstande, die Stabilität dieses gewöhnlichen Wertes“ zu beweisen.

Ebenso war es noch nicht möglich, die Ähnlichkeit der Fehlerabweichungen in
diesen beiden Fällen und im Falle des proportionalen Mittelwertes“ zu be-

weisen, um ein konsistentes Ganzes zu erzeugen: den Durchschnittsmenschen.
Diese Fragen führten zu einer vollständigen Neuformulierung des alten
Problems der Existenz einer allgemeinen Entität, die auf einer logisch höheren
Ebene steht als die Elemente, aus denen sich diese Entität zusammensetzt. Das
im Entstehen begriffene Ganze sollte auch noch für einige Zeit ein Trugbild
3
Wörtlich: am Ende der Rechnungen“. Das italienische conto“ (Rechnung, Kon-
” ”
to) geht ebenso wie das französische compte“ auf das spätlateinische computus“
” ”
(Berechnung) zurück.
84 3 Mittelwerte und Aggregatrealismus

des Ganzen bleiben. Dieses Trugbild tauchte zu einem Zeitpunkt auf, als Vau-
ban versuchte, die vorher verstreut auftretenden Elemente in einem einzigen
Kalkül zusammenzufassen, um die Produktionskapazitäten des Königreichs
zu verstehen und zu beschreiben. Darüber hinaus wollte er schätzen, was eine
neue Steuer aufbringen könnte, die sich aus diesen Kapazitäten ableitet. Die
neue Art und Weise der Aufstellung von Äquivalenzen, die mit wesentlichen
Eigenschaften der Addition im Einklang steht, wurde zur gleichen Zeit vorge-
schlagen, als eine neue Art von Staat im Entstehen begriffen war – ein Staat,
der den Ursprung und die Kreisläufe seines Steueraufkommens tiefgründig zu
überdenken versuchte. Aber das hierzu erforderliche begriffliche Werkzeug war
noch nicht formalisiert. Daher konnte dieses Werkzeug auch nicht zirkulieren
und mühelos in unterschiedlichen Kontexten wiederverwendet werden. Einer
der Gründe, warum diese Formalisierung noch kaum möglich war, ist in der
Abwesenheit eines zentralisierten Systems zum Sammeln der Aufzeichnungen
und im Fehlen eines elementaren Kalküls zu suchen, das heißt im Fehlen eines
– und sei es auch nur rudimentären – Apparates für eine nationale Statistik.

Quetelet und der Durchschnittsmensch“ 4



Die Existenz eines derartigen kumulativen Systems einzelner Messungen und
Kodierungen ist in der Tat notwendig, um eine Verbindung zwischen den bei-
den von Vauban vorgelegten Berechnungen zu ermöglichen. Diese Verbindung
impliziert auf zwei unterschiedliche Weisen, daß man auf eine große Anzahl
von Beobachtungen zurückgreift. Die relative Regelmäßigkeit der jährlichen
Anzahlen von Geburten, Sterbefällen, Heiraten, Verbrechen und Selbstmor-
den in einem Land wies nämlich einerseits – im Gegensatz zum zufälligen
Charakter des Auftretens eines jeden einzelnen dieser Ereignisse – darauf hin,
daß die betreffenden Totalisierungen mit Konsistenzeigenschaften ausgestattet
sind, die sich fundamental von den Eigenschaften der Einzelereignisse unter-
scheiden. Zum anderen verfestigte die frappierende Ähnlichkeit zwischen den
Verteilungsformen großer Anzahlen von Messungen – unabhängig davon, ob
diese Messungen mehrmals an ein und demselben Objekt oder einmal an meh-
reren Objekten (zum Beispiel an einer Gruppe von Rekruten) vorgenommen
wurden – die Vorstellung, daß beide Operationen von gleicher Beschaffenheit
sind, falls man über die kontingenten Einzelfälle hinaus die Existenz eines
Durchschnittsmenschen voraussetzt, von dem die besagten Einzelfälle lediglich
unvollkommene Kopien sind. Beide Arten des Zurückgreifens auf statistische
4
Quetelet prägte Mitte des 19. Jahrhunderts den Begriff des homme moyen“, d.h.

die durch die arithmetischen Mittel“ der Merkmale einer Population definierte

Person, die hier als Durchschnittsmensch“ bezeichnet wird (vgl. E. Durkheim,

Der Selbstmord, 1897 [78]; deutsche Übersetzung 1983). Obwohl es diese Person
faktisch nicht gibt, ist sie die Richtschnur für politische Entscheidungen. Diese
Personifikation des Mittelwertes als gedachte Größe ist für die Feststellung von
statistischen Regelmäßigkeiten gesellschaftlicher Phänomene von Bedeutung.
Quetelet und der Durchschnittsmensch“ 85

Aufzeichnungen und ihre Totalisierungen setzten das zentralisierte Sammeln
einer großen Anzahl von Fällen voraus, wenn man eine neue Entität schaffen
wollte. Die Verbindung und die Vertonung“ dieser beiden unterschiedlichen

Ideen waren – ebenso wie die Organisation der zur Erzeugung dieser Zah-
len erforderlichen nationalen und internationalen statistischen Systeme und
Zählungen – das Werk des Einmann-Orchesters der Statistik des 19. Jahrhun-
derts, des belgischen Astronomen Adolphe Quetelet.5
Die erste dieser Ideen, das heißt die Idee von der relativen Regelmäßig-
keit der Anzahlen der Geburten, Heiraten und Todesfälle, war bereits im 18.
Jahrhundert zum Ausdruck gebracht worden. Diese Idee war damals als Ma-
nifestation einer – über den vergänglichen und unberechenbaren Individuen
stehenden – Vorsehung oder göttlichen Ordnung interpretiert worden, von der
die Gesellschaft in ihrer Gesamtheit regiert wird. In diesem Sinne hatte Ar-
buthnot6 , Leibarzt der Königin von England und Übersetzer des von Huygens
im Jahre 1657 verfaßten ersten Lehrbuchs über die Wahrscheinlichkeitsrech-
nung, den leichten systematischen Überschuß der männlichen Geburten über
die weiblichen Geburten interpretiert. Er war auch der Erste, der Sozialstati-
stiken einem Wahrscheinlichkeitsmodell gegenüberstellte – dem Modell Kopf

oder Zahl“. Ist das Geschlecht eines neugeborenen Kindes das Ergebnis einer
derartigen Ziehung“, dann wäre die Chance Eins zu Zwei, daß in einem ge-

gebenen Jahr mehr Jungen als Mädchen geboren werden. Da aber der Über-
schuß an Jungen über einen Zeitraum von 82 aufeinanderfolgenden Jahren
beobachtet werden konnte, mußte der Vorgang mit einer Wahrscheinlichkeit
von (1/2)82 erfolgen, das heißt ca. 1/(4, 8 × 1024 ), und war deswegen ver-
nachlässigbar. Es hatte jedoch den Anschein, daß auch während der Kindheit
und in der Jugend die Sterblichkeit der Jungen größer als die der Mädchen
war. Demnach war es verführerisch, eine göttliche Vorsehung anzunehmen,
die diese höhere Sterblichkeit voraussieht und mehr Jungen als Mädchen auf
die Welt kommen läßt, damit später keine Frau dem traurigen Zustand der
Ehelosigkeit ausgesetzt ist.
Johann Peter Süssmilch (1707–1767), ein aus Berlin stammender evangeli-
scher Pastor, hatte seinerseits eine große Anzahl demographischer Informatio-
nen aus ganz Preußen zusammengetragen. Er tat dies aus einem Blickwinkel,
der dem Standpunkt der englischen politischen Arithmetiker näher stand als
der Sichtweise seiner eigenen Landsleute, die eine Statistik nach deutscher

Art“ betrieben (vgl. Kapitel 1). Sein großes Werk Die göttliche Ordnung in
den Veränderungen des menschlichen Geschlechts aus der Geburt, dem To-
de und der Fortpflanzung desselben erwiesen (1741) – das in ganz Europa
5
Lambert-Adolphe-Jacques Quetelet (1796–1874). Promotion in Mathematik; 1819
Professor für elementare Mathematik am Athenäum in Brüssel; seit 1820 Mitglied
der Königlichen Akademie in Brüssel; seit 1828 Direktor der erst 1833 fertigge-
stellten Sternwarte in Brüssel. Befaßte sich ab 1825 mit Arbeiten zur Statistik,
insbesondere zur Sozialstatistik.
6
John Arbuthnot (1667–1735), schottischer Mediziner, seit 1704 Fellow der Royal
Society. Bekannt als politischer Satiriker und Schöpfer der Figur des John Bull.
86 3 Mittelwerte und Aggregatrealismus

großen Anklang gefunden hatte – interpretierte diese Regelmäßigkeiten als


Manifestation einer Ordnung, die außerhalb der Menschen und über ihnen
stand. Bei Arbuthnot und Süssmilch wurden diese statistischen Ergebnisse –
obwohl sie sich auf individuelle Aufzeichnungen stützten – durch den Begriff
einer universellen Ordnung interpretiert, das heißt durch einen Realismus“

im oben beschriebenen mittelalterlichen Sinne. Ebenso gaben Quetelet und
später Durkheim eine holistische“ Interpretation dieser Regelmäßigkeiten:

die göttliche Ordnung von Süssmilch, der Durchschnittsmensch von Quetelet
und die Gesellschaft von Durkheim waren Realitäten sui generis, die sich von
den Individuen unterschieden und spezifische Methoden der Analyse erforder-
ten.
Aber das auf makrosoziale Regelmäßigkeiten ausgerichtete Konstrukt ließ,
selbst wenn es als Zeichen einer göttlichen Ordnung gedeutet wurde, eine Fra-
ge offen: Wie läßt sich die Diversität der körperlichen Merkmale oder des
moralischen Verhaltens der Individuen mit den Regelmäßigkeiten in Einklang
bringen, die bei einer großen Anzahl von Menschen insbesondere bezüglich
der Körpergrößen, der Heiraten, der Verbrechen und der Selbstmorde festge-
stellt wurden? Auf einer tieferliegenden Ebene stellte sich folgendes Problem:
Wurde die von den Menschen geforderte Freiheit nicht durch eine Art statisti-
scher Zwangsläufigkeit null und nichtig gemacht, die sich in diesen Ergebnissen
widerspiegelte? Das war die Frage, auf die Quetelet eine neue Antwort gab.
Er untersuchte zunächst die Diversität der leicht meßbaren körperlichen
Merkmale und suchte dabei nach einer Einheitlichkeit in dieser Diversität. Er
stellte die Häufigkeitsverteilung der Körpergrößen in einem Histogramm gra-
fisch dar und konnte dadurch eine Form nachweisen, die – trotz der Diskonti-
nuitäten, welche auf die notwendigerweise diskreten Abstufungen der Körper-
größen zurückzuführen waren – für eine gegebene Größe einer Verteilung der
Ergebnisse einer Reihe von fehlerbehafteten Messungen ähnelte. Diese Form,
die später üblicherweise als Glockenkurve“ oder Gaußsche Kurve“ bezeich-
” ”
net werden sollte, hieß damals Fehlerverteilung“ oder Möglichkeitsvertei-
” 2 ”
lung“. Der entsprechende analytische Ausdruck ke−x war von Abraham de
Moivre und Gauß formuliert worden – als Grenzwert einer Binomialverteilung
für die Ziehung von Kugeln aus einer Urne (mit Zurücklegung der Kugeln),
wobei die Füllung der Urne vorgegeben ist und die Anzahl der Ziehungen ge-
gen Unendlich geht. Das war der Grund, warum Quetelet für diese Form den
Namen Binomialverteilung“ oder Möglichkeitsverteilung“ verwendete (der
” ”
Ausdruck Normalverteilung“ entstand erst im Jahre 1894 unter der Feder von

Pearson (Porter, 1986, [240])). Diese Verteilung ist eine gute Approximation
für eine Verteilung von ungenauen Meßwerten einer Größe, die unabhängig
von diesen Messungen existiert (zum Beispiel die Rektaszension eines Sterns
oder die Verteilung der Auftreffpunkte von Geschossen auf einer Schießschei-
be). In diesen unterschiedlichen Fällen kann man zeigen, daß diese Form aus
der Zusammensetzung einer großen Anzahl von kleinen und voneinander un-
abhängigen Fehlern resultiert.
Quetelet und der Durchschnittsmensch“ 87

Auf der Grundlage dieser ersten Anpassung“ an ein Modell“ im zeit-
” ”
genössischen Sinne – das sich aus der Ähnlichkeit zwischen der Verteilung der
Rekrutengrößen und der Verteilung von ungenauen Messungen einer einzigen
Größe ableitete – zog Quetelet die Schlußfolgerung, daß die Abweichungen von
ihrer zentralen Tendenz die gleiche Beschaffenheit hatten: Es handelte sich
um Unvollkommenheiten bei der effektiven Realisierung eines Modells“ im

ursprünglichen Sinne des Wortes. Um eine Verbindung zwischen den beiden
Formen zu herzustellen, verwendete Quetelet die metaphorische Geschichte
des Königs von Preußen, der – in übergroßer Bewunderung einer vollkomme-
nen Statue des Apollo – bei tausend Bildhauern des Königreichs tausend Ko-
pien der Statue in Auftrag gegeben hatte. Die Bildhauer waren nicht perfekt
und ihre Werke verteilten sich mit Abweichungen im Vergleich zum Modell auf
die gleiche Weise, wie sich die konkreten Individuen um den Durchschnitts-
menschen verteilen. Gott der Schöpfer war also das Äquivalent des Königs
von Preußen und die Individuen waren unvollkommene Realisierungen des
perfekten Modells:

Die Dinge geschehen so, als ob die Schöpfungsursache, die das Modell
des Menschen geformt hat, ihr Modell anschließend wie ein mißgünsti-
ger Künstler zerbrach und schlechteren Künstlern die Reproduktion
des Modells überließ. (Quetelet, zitiert von Adolphe Bertillon, 1876,
[13].)

Mit Hilfe der Normalverteilung verlagerte Quetelet den Unterschied zwi-


schen den von Vauban geprägten Begriffen des proportionalen Mittels“ und

des gewöhnlichen Wertes“ auf eine andere Ebene. Quetelet unterschied drei

Arten von Mittelwerten, die bis zum Beginn des 20. Jahrhunderts den Kern
etlicher statistischer Debatten liefern sollten. Als Adolphe Bertillon (1876)
diese Unterschiede dreißig Jahre nach Quetelet vorstellte, umriß er sie in aus-
serordentlich klarer Weise. Der objektive Mittelwert entspricht einem realen
Objekt, das einer gewissen Anzahl von Messungen unterzogen wird. Der sub-
jektive Mittelwert ist das Ergebnis der Berechnung einer zentralen Tendenz,
falls die Verteilung eine Form aufweist, die sich an die Form der Binomi-

alverteilung“ anpassen läßt (Fall der Körpergrößen). Nur diese beiden Fälle
verdienen wirklich den Namen Mittelwert“. Der dritte Fall tritt auf, falls die

Verteilung nicht diese normale“ Form hat. Bertillon bezeichnete sie als arith-

metisches Mittel und wollte damit die Tatsache unterstreichen, daß es sich um
eine reine Fiktion handelt (als Beispiel nannte er die Höhen der Häuser einer
Straße, ohne aber eine konkrete derartige Verteilung anzugeben). Im zweiten
Fall hingegen bestätigte die Normalverteilung des Häufigkeitshistogramms die
Existenz einer – hinter der Vielfalt der Einzelfälle – unsichtbar vorhandenen
Vollkommenheit und rechtfertigte die Berechnung eines wahren“ Mittels.

Nach der Untersuchung der Körpergrößen setzte Quetelet seine Messun-
gen mit anderen körperlichen Merkmalen fort: Arme und Beine, Schädel und
Gewichte, für die er ebenfalls Binomialverteilungen beobachtete. Er leitete
88 3 Mittelwerte und Aggregatrealismus

hieraus die Existenz eines idealen Durchschnittsmenschen ab, der in sich sämt-
liche Durchschnittsmerkmale vereinigt und das Ziel des Schöpfers verkörpert:
die Vollkommenheit. Diese Vollkommenheit resultierte demnach aus einem ur-
sprünglichen, entscheidenden Zusammenhang zwischen mehreren Messungen
eines einzigen Objekts und der Messung mehrerer Objekte.
Der zweite entscheidende Zusammenhang in dem von Quetelet geschaffe-
nen Konstrukt gestattete es ihm, die moralischen Verhaltensweisen mit den
zuvor untersuchten körperlichen Merkmalen zu vergleichen. Tatsächlich wei-
sen – wie wir gesehen hatten – sowohl die moralischen Verhaltensweisen als
auch die körperlichen Merkmale eine beträchtliche Regelmäßigkeit auf, sofern
man massenhafte Erscheinungen betrachtet. Die durchschnittlichen Größen
und die durchschnittlichen Formen des menschlichen Körpers variieren nur
geringfügig. Das erklärt sich durch das Gesetz der großen Zahlen, falls man die
Diversität der Einzelfälle – ausgedrückt durch Realisierungen, die in zufälli-
ger Weise von einem Modell abweichen – durch eine Gesamtheit von zahl-
reichen, kleinen und voneinander unabhängigen Ursachen interpretiert. Sind
also die Körpergrößen der einzelnen Menschen hinlänglich gestreut, dann sind
die Mittelwerte der Körpergrößen zweier oder mehrerer Gruppen von Men-
schen ziemlich benachbart, falls sich diese Gruppen nach dem Zufallsprinzip
zusammensetzen. Die Anzahlen der Heiraten, Verbrechen und Selbstmorde
weisen den gleichen Stabilitätstyp auf, obwohl jede der drei entsprechenden
Handlungen einen höchst individuellen und freien Charakter hat. Der Zusam-
menhang zwischen den beiden Typen von Regelmäßigkeiten, die sich nicht
auf Einzelfälle, sondern auf massenhafte Erscheinungen beziehen – die einen
auf körperliche und die anderen auf moralische Merkmale – ermöglicht es
uns, zum Ausgangspunkt der Überlegung zurückzukehren: Die Entscheidun-
gen moralischen Typs sind Manifestationen von Tendenzen, die zufällig um
Durchschnittstypen herum verteilt sind und deren Vereinigung die morali-
schen Merkmale des Durchschnittsmenschen ausmachen – eines vom Schöpfer
gewollten Ideals, das ein Symbol der Vollkommenheit ist.

Konstante Ursache und freier Wille

Quetelet hatte die Grenze zwischen den beiden formal identischen, aber ganz
unterschiedlich interpretierten Berechnungen verschoben, die Vauban als Mit-
telwert beziehungsweise gewöhnlichen Wert bezeichnete. Von nun an gab es
einerseits die wahren Ganzen“, für welche die Berechnung des Mittelwertes

vollauf gerechtfertigt war. Andererseits gab es Gesamtheiten von Objekten,
deren Verteilung nicht Gaußsch war und die keine Arten von Ganzen“ bilde-

ten, wie man vor einem Jahrhundert sagte. Die Gleichsetzung der beiden Mit-
telwerte, die als objektiv und als subjektiv bezeichnet wurden, war durch die
Vorstellung von der konstanten Ursache gewährleistet. Diese Idee ermöglichte
es, ständig von einem Mittelwert zum anderen überzugehen. Demnach stell-
ten die aufeinanderfolgenden Messungen eines reellen Objekts eine Folge von
Konstante Ursache und freier Wille 89

Operationen dar, die einen Teil des unvorhersehbaren Zufalls in sich trugen
(akzidentielle Ursachen), aber diese Folge war vom Bemühen einer Anpassung
an das Objekt getragen, das die konstante Ursache bildete. Durch ihr Abwei-
chen von diesem Modell – das ein reales Objekt“ einschließt – implizieren

die Einschläge einer Folge von Schüssen, die auf die Mitte einer Zielscheibe
gerichtet sind, einen Teil der akzidentiellen Ursachen, welche eine konstante
Ursache stören, die ihrerseits auf das Bestreben des Schützen zurückzuführen
ist, in die Mitte der Zielscheibe zu treffen.
Und schließlich könnte diese konstante Ursache bei der Verteilung der
Merkmale einer Population ihren Ursprung in der göttlichen Absicht ha-
ben, ein vollkommenes Modell zu reproduzieren (Quetelet) oder aber auf
die Auswirkungen der materiellen, klimatischen und geographischen Umge-
bung zurückzuführen sein (hippokratisches Modell des 18. Jahrhunderts). Der
Grund könnte aber auch in der natürlichen Auslese liegen (Darwin) oder vom
sozialen und kulturellen Milieu herrühren (Soziologie des 20. Jahrhunderts).
Eine Normalverteilung von Meßwerten um einen Modalwert ermöglichte es
also, auf die Existenz einer konstanten Ursache oder einer Gesamtheit von
Ursachen zu schließen, deren Kombination in der betreffenden Beobachtungs-
reihe konstante Wirkungen zeitigt. Diese Normalverteilung gestattete die Kon-
struktion einer Äquivalenzklasse von Ereignissen, die dadurch zueinander in
Relation stehen, daß sie zum Teil durch eine gemeinsame Ursache bestimmt
sind. Ein anderer Teil dieser bestimmenden Faktoren leitet sich jedoch aus ak-
zidentiellen Ursachen ab, die für jedes der betreffenden Ereignisse unterschied-
lich sind. Mit dieser Konstruktion verschwand der Unterschied zwischen dem
objektiven“ und dem subjektiven“ Mittelwert vollständig. Der Begriff der
” ”
gemeinsamen Ursache für verschiedene Ereignisse lieferte in beiden Fällen eine
Exteriorität in Bezug auf diese Ereignisse, nämlich ein reelles Objekt“, das

unabhängig von seinen kontingenten Manifestationen existiert. Wahrschein-
lichkeitstheoretisch ausgedrückt hat dieses Objekt die Form der Füllung einer
Urne, mit deren Hilfe zufällige Ziehungen durchgeführt werden.
Aber Quetelet und seine Nachfolger waren von der Neuheit des von diesem
Modell induzierten makrosozialen Konstruktes derart fasziniert, daß sie – im
Unterschied zu Bayes, Laplace oder Poisson – nicht daran gedacht hatten,
Überlegungen zu den Ursachenwahrscheinlichkeiten anzustellen, das heißt die
Wirkungen auf eine Abschätzung der Grade der Sicherheit der betreffenden
Ursachen zurückzuführen. Der frequentistische“ Standpunkt stützt sich auf

einen objektiven Begriff von Wahrscheinlichkeiten, die mit den Dingen ver-
knüpft sind – also auf variable Kombinationen von konstanten Ursachen und
akzidentiellen Ursachen. Demgegenüber beruhte der epistemische“ Stand-

punkt der Probabilisten des 18. Jahrhunderts auf subjektiven Wahrscheinlich-
keiten, die mit dem Verstand und mit dem Glaubensgrad zusammenhängen,
den der Verstand einer Ursache oder einem Ereignis zuordnen kann. Die Spe-
kulationen der Philosophen des Zeitalters der Aufklärung zielten darauf ab,
explizite Rationalitätskriterien für die von aufgeklärten Personen getroffenen
Entscheidungen zu formulieren. Diese Personen waren ihrerseits die Verkörpe-
90 3 Mittelwerte und Aggregatrealismus

rung einer universellen menschlichen Natur, die auf dem Verstand beruhte. Im
19. Jahrhundert dagegen hatten die Französische Revolution und deren un-
berechenbare Erschütterungen die Fragen zur Rationalität des Menschen und
zur Vernunft seiner Entscheidungen durch Fragen ersetzt, die sich auf die Ge-
sellschaft und deren Undurchsichtigkeit bezogen. Von nun an wurde die Ge-
sellschaft nicht nur als ein mysteriöses Ganzes aufgefaßt, sondern sozusagen
auch von außen betrachtet. Die von Quetelet vorgestellten Objektivierungen
und makrosozialen Regelmäßigkeiten entsprachen dieser Art von Sorge, die
für die im Entstehen begriffenen Sozialwissenschaften des 19. Jahrhunderts
charakteristisch war. Der rationalen und besonnenen menschlichen Natur des
aufgeklärten Gelehrten des 18. Jahrhunderts folgte der normale Mensch –
der Durchschnitt“ einer großen Anzahl verschiedener Menschen, die aber

alle an einer über die Individuen hinausgehenden Totalität teilhatten. Mit
diesen beiden Sichtweisen waren zwei unterschiedliche Wahrscheinlichkeitsbe-
griffe verknüpft. Eine deutliche Linie trennte Condorcet, Laplace und Poisson
von Quetelet, den Bertillons und den Moralstatistikern“ des 19. Jahrhun-

derts. Sie stellten sich nicht die gleichen Fragen und sie hatten einander auch
nicht viel zu sagen, wie aus dem geringfügigen Meinungsaustausch zwischen
Poisson, Cournot und Quetelet hervorgeht.
Das Auftreten dieser neuen Entität Gesellschaft – die objektiviert und von
außen betrachtet wird und mit Gesetzen ausgestattet ist, die unabhängig von
den Individuen sind – kennzeichnet die Denkweise aller Gründungsväter der
damals entstehenden Soziologie. Man denke etwa an Comte, Marx, Le Play,
Tocqueville oder Durkheim – bei allem, was sie sonst voneinander trennte
(Nisbet, 1984, [212]). Alle sahen sich mit Unruhen und dem Zerfall des alten
sozialen Gefüges konfrontiert – Prozesse, die von den politischen Umbrüchen
in Frankreich und durch die industrielle Revolution in England ausgelöst wor-
den waren. Wie sollte man die sozialen Bindungen neu konzipieren, die der
Individualismus der Marktwirtschaft und der Demokratie zerstört hatten?
Nisbet (1984, [212]) entwickelt in seinem Werk Die soziologische Tradi-
tion diese scheinbar paradoxe Idee, indem er all diese Autoren hinter einer
konstanten Ursache“ versammelte. Die konstante Ursache besteht hierbei in

der Sorge, auf die sozialen Unruhen und Krisen der Gesellschaft zu reagieren,
die im Ergebnis der beiden Revolutionen entstanden – der politischen Revo-
lution in Frankreich und der ökonomischen Revolution in England. (Die von
den betreffenden Autoren gegebenen Antworten unterschieden sich natürlich
wesentlich voneinander.) In der von Nisbet gezeichneten Gemäldegalerie“

wurde Quetelet gar nicht erwähnt. Dessen eigene und eigentlich soziologische
Denkweise schien im Vergleich zu den anderen eher einseitig zu sein. Den-
noch hatte auch Quetelets Denkweise in Bezug auf die politischen Unruhen
einen sehr vergleichbaren Horizont. Sein mit allen Tugenden ausgestatteter
Durchschnittsmensch“ wurde als eine Art vorsichtiger Anhänger der Mitte

vorgestellt, der Exzesse jeglicher Art meidet, denn Vollkommenheit liegt in der
Mäßigung. Aber jenseits dieser Naivität, die bereits einige der Zeitgenossen
Quetelets gespürt hatten, sollte seine Denkweise ein mindestens ebenso be-
Konstante Ursache und freier Wille 91

deutendes Nachleben haben, wie das der berühmteren Sozialwissenschaftler.


Diese Denkweise ermöglichte die Erzeugung und Instrumentierung7 neuer En-
titäten, die nach ihrer Entstehung autonom waren und unabhängig von ihren
Ursprüngen zirkulierten. Zwar genossen seine zahlreichen Aktivitäten seiner-
zeit großes Ansehen (man nannte ihn oft den illustren Quetelet“), aber sein

Name verliert sich zum Teil – ähnlich wie bei einem statistischen Prozeß, der
die einzelnen Individuen und ihre Entstehungsbedingungen ausradiert. Das
schlüsselfertige Werkzeug der Mittelwerte ist so trivial geworden, daß zwar
vielleicht nicht seine Erfindung, zumindest aber die praktische Umsetzung
heute kaum mehr als bedeutende Tat gilt. Insbesondere hat die intellektuelle
Schlagkraft, die zur Verschmelzung der objektiven und subjektiven Mittel-
werte im Kontext des Begriffes der konstanten Ursache“ führte, heute nichts

Überraschendes mehr an sich. Das Nachdenken über die Konsistenz“ der

Objekte der Statistik sollte jedoch auch im Rahmen anderer Formen von Be-
deutung bleiben, und zwar im Zusammenhang mit der Frage der Identifikation
und der Eignung dieser Objekte.
Die Bekanntheit, der sich Quetelet im 19. Jahrhundert erfreute, steht im
Gegensatz zu der Tatsache, daß er im 20. Jahrhundert in relative Verges-
senheit geriet. Dieser Umstand erklärt sich teilweise auch dadurch, daß sein
Beitrag – vom Standpunkt der Geschichte der mathematischen Techniken der
Statistik – sehr viel geringer zu sein scheint, als die Beiträge von Gauß und
Laplace vor ihm oder die Arbeiten von Pearson und Fisher nach ihm. Seine
damalige Berühmtheit war darauf zurückzuführen, daß er es fertiggebracht
hatte, ein riesiges internationales soziopolitisches Netzwerk zu schaffen, in-
dem er auf neue Weise Universen zueinander in Beziehung setzte, die zuvor
getrennt voneinander existierten. Er stützte sich zunächst auf die Arbeiten
der früheren französischen Wahrscheinlichkeitstheoretiker, behielt aber dabei
nur denjenigen Teil ihrer Arbeiten bei, der sich auf das Gesetz der großen
Zahlen und auf die Binomialverteilung bezog – Überlegungen zu den Ursa-
chenwahrscheinlichkeiten ließ er unberücksichtigt. Im Übrigen schuf er stati-
stische Dienste oder regte deren Gründung an. Durch den Anklang, den seine
zahlreichen Aktivitäten fanden, trug er zur Untermauerung der Legitimität
dieser Einrichtungen bei und sorgte dafür, daß sie beachtet wurden. Er or-
ganisierte Volkszählungen und versammelte die Statistiker der verschiedenen
Länder in Internationalen Statistischen Kongressen“, die in der Zeit von 1853

bis 1878 regelmäßig stattfanden und direkte Vorläufer des 1885 gegründeten
Internationalen Instituts für Statistik“ 8 (IIS) waren, das immer noch exi-

stiert (Brian, 1991, [35]). Und schließlich nahm er durch seine Schriften zum
Durchschnittsmenschen und über soziale Physik“ auf indirekte Weise an den

7
Genauere Ausführungen zum Begriff der Instrumentierung“ von mathematischen

und insbesondere wahrscheinlichkeitstheoretischen Leitmotiven findet man bei
Loève, 1985, [415].
8
International Statistical Institute (ISI); Institut international de statistique (IIS).
92 3 Mittelwerte und Aggregatrealismus

seinerzeit äußerst lebhaften Debatten der politischen Philosophie teil, führte


aber dabei eine gänzlich neue Rhetorik ein.
Diese Debatte bezog sich auf den scheinbaren Widerspruch zwischen Deter-
minismus und Fatalismus einerseits – die aus den makrosozialen Regelmäßig-
keiten, zum Beispiel aus den Anzahlen der Verbrechen und der Selbstmor-
de, zu folgen schienen – und der Freiheit des Willens sowie der moralischen
Idee andererseits, daß der für seine Handlungen verantwortliche Mensch nicht
von Kräften getrieben wird, die über ihn hinausgehen. Die zeitgenössischen
Kommentare zeigten sich beunruhigt über diese Frage, die zu lebhaften Kon-
troversen führte. In dieser Hinsicht fand die Arbeit von Quetelet ihren Platz
in der alten – zu Beginn dieses Kapitels erwähnten – Diskussion über den
Realismus und den Nominalismus, über den logischen Vorrang des Univer-
sellen oder des Individuellen. Im 19. Jahrhundert hatte das Universelle eine
neue Form angenommen: die Gesellschaft. Die seit Rousseau gestellte Frage
lautete: In welcher Weise schließen sich die Individuen (die Bürger) dieser Ge-
samtheit an? Im Jahre 1912 wurde die Frage erneut und ausführlich von dem
belgischen katholischen Philosophen Lottin diskutiert, der dazu ein zusam-
menfassendes Werk unter dem Titel Quetelet, Statistiker und Soziologe (1912,
[180]) verfaßte. Das Problem für Lottin war der Nachweis dessen, daß kein
Widerspruch zwischen der individuellen Verantwortung und der Unausweich-
lichkeit der gesellschaftlichen Gesetze besteht. Er stützte sich hierbei auf zwei
Zitate von Quetelet, die einen synthetischen Vorschlag darstellten, der von
Rousseau und dessen Gesellschaftsvertrag inspiriert worden war:

Als Mitglied der Gesellschaft erfährt er (der Mensch im Allgemeinen)


in jedem Augenblick die Notwendigkeit von Ursachen und entrichtet
ihnen regelmäßig Tribut; aber als Mensch (Individuum), der die ge-
samte Energie seiner intellektuellen Fähigkeiten aufwendet, beherrscht
er einige dieser Ursachen, modifiziert ihre Wirkungen und kann versu-
chen, sich einem besseren Zustand zu nähern. (Quetelet, 1832, [241].)
Ein Mensch kann unter verschiedenen Aspekten betrachtet werden;
vor allem besitzt er eine Individualität, aber er zeichnet sich auch
noch durch ein anderes Privileg aus. Er ist überaus gesellig; er verzich-
tet freiwillig auf ein Stück seiner Individualität, um Teil eines großen
Komplexes (des Staates) zu werden, der ebenfalls ein eigenes Leben
führt und verschiedene Phasen durchläuft ... Der auf diese Weise ver-
wendete Teil der Individualität wird zum Regulator der hauptsächli-
chen sozialen Ereignisse ... Dieser Teil ist es, der die Bräuche, Bedürf-
nisse und den nationalen Geist der Völker bestimmt und das Budget
ihrer Moralstatistik regelt. (Quetelet, 1846, [243].)

Diese Spannung zwischen kollektivem Fatalismus und individueller Frei-


heit findet sich in fast derselben Form bei Durkheim und den Soziologen des
20. Jahrhunderts wieder, die sich davon inspirieren ließen. Was sich hingegen
änderte, war der administrative Gebrauch der statistischen Totalisierungen,
Zwei kontroverse Fälle aus der medizinischen Statistik 93

die von nun an mit Diagnosen, standardisierten Verfahren und deren Auswer-
tungen verknüpft waren. Sämtliche Spielarten der Makrosozialpolitik, die seit
Beginn des 20. Jahrhunderts entwickelt worden waren, implizieren ein Wis-
sensmanagement und eine Erkenntnisweise, die voneinander abhängen. Eine
Illustration dieser wiederentdeckten Gleichsetzung ist das Kommen und Ge-
hen von Maßnahmen – im Sinne von Entscheidungen, die sich auf eine große
Anzahl von Fällen anwenden lassen – und die Messungen der Wirkungen
dieser Maßnahmen. Ein gutes Beispiel hierfür ist der Aufbau von sozialen Si-
cherungssystemen, die eine statistische Abdeckung der individuellen Risiken
gewährleisten (Ewald, 1986, [87]).

Zwei kontroverse Fälle aus der medizinischen Statistik


Die Schwierigkeit, gleichzeitig über Einzelfälle und statistische Regelmäßigkei-
ten nachzudenken, wurde in den philosophischen Debatten über den Durch-
schnittsmenschen durch den Begriff des Widerspruchs zwischen Schicksal und
Freiheit ausgedrückt. Aber ungefähr zur gleichen Zeit in den 1830er Jahren
war die Verwendung der Mittelwerte Gegenstand von Kontroversen, in denen
es um sehr konkrete Fragen ging und nicht nur um philosophische Diskus-
sionen. Das Gebiet der Medizin bietet hierfür zwei Beispiele, von denen sich
das eine auf Kliniken und therapeutische Verfahren bezieht, das andere hinge-
gen auf Präventivmaßnahmen im Kampf gegen Epidemien. In diesen beiden
Fällen lassen sich die unterschiedlichen einschlägigen Positionen als spezifische
Kombinationen analysieren: kognitive Schemata wurden mit Modalitäten des
Handelns und der Eingliederung in größere Netze kombiniert. Genauer gesagt
fiel die Identifizierung der Objekte, die den höchsten Realitätsgrad hatten (das
heißt die Gesellschaft, die Armen, der Typhus, die Stadtbezirke von Paris, der
Kranke, der Arzt, das Miasma, der Choleravibrio9 ...), nicht in den Bereich
des Gegensatzes zwischen Determinismus und Willensfreiheit. Vielmehr ging
es einerseits um eine möglichst umfassende explizite Formulierung der Lage, in
der sich die Protagonisten befanden. Andererseits strebte man eine möglichst
vollständige explizite Formulierung der relevanten Objekte an, auf die sich
die Akteure stützen konnten, um miteinander entsprechende Vereinbarungen
zu treffen. Reale Objekte spielten demnach die Rolle von zu rekonstruieren-
den allgemeinen Übergangs- und Bezugspunkten in sich ständig ändernden
Konstellationen.
Eine Krankheit und deren ärztliche Behandlung stellten ein Einzelereig-
nis dar und diese Singularität wurde lange Zeit hindurch von der Ärzteschaft
geltend gemacht, die sich gegenüber jeglicher Form der Kategorisierung und
Totalisierung reserviert verhielt. Derartige Kategorisierungen und Totalisie-
rungen wären nämlich mit der Gefahr einhergegangen, das singuläre Kollo-

quium“ zwischen Arzt und Patient zu zerstören. Aber der Widerstand legte
9
Der vibrio cholerae“, ein kommaförmiger, stark beweglicher Keim, ist der Erreger

der Cholera asiatica.
94 3 Mittelwerte und Aggregatrealismus

sich schnell, als Krankheiten zu einem kollektiven Problem wurden, das glo-
bale Lösungen erforderte – man denke nur an Epidemien und insbesondere an
deren Prävention. In diesem Falle bestand die mitunter dringende Notwen-
digkeit, im Rahmen der öffentliche Gesundheit Maßnahmen zu ergreifen, um
eine Epidemie vorherzusehen oder sie zu stoppen. Das wiederum bedeutete,
daß die Epidemie als ein Ganzes zu betrachten war, dessen konstante Ursa-
chen festgestellt werden mußten – das heißt man mußte nach den Faktoren
suchen, die eine Ausbreitung der Epidemie begünstigten. Zu diesem Zweck
lieferten die Berechnungen der durchschnittlichen Anzahlen der Todesfälle
der Bevölkerungsschichten – die nach unterschiedlichen Kriterien klassifiziert
wurden (Stadtteile von Paris, Wohnungstypen, Wohlstandsniveau, Alter) –
Hinweise auf mögliche Vorbeugungsmaßnahmen (die Risikogruppen“ in den

Debatten zur Aids-Epidemie unterliegen der gleichen Logik). Diese Form der
medizinischen Statistik“ wurde von der Ärzteschaft ohne weiteres akzep-

tiert, denn sie erlaubte es den Ärzten, sowohl in den öffentlichen Debatten als
auch bei der Organisation der Gesellschaft eine Rolle zu spielen. Eine 1829
gegründete Zeitschrift, die Annales d’hygiène publique et de médecine légale
fungierte als Träger von – statistischen oder nichtstatistischen – Erhebungen
in Bezug auf diejenigen sozialen Gruppen, die Elend, Krankheiten, Alkoholis-
mus, Prostitution oder Kriminalität am ehesten ausgesetzt waren (Lécuyer,
1977, [172]). Das Ziel dieser Untersuchungen bestand darin, den betreffenden
Gruppen Moral zu predigen und gleichzeitig ihre hygienischen Verhältnisse
und Lebensbedingungen – vor allem durch die Gesetzgebung – zu verbessern.
Die bekanntesten dieser gelehrten und politisch aktiven Reformer waren Vil-
lermé (1782–1863), ein guter Freund Quetelets, und Parent-Duchatelet. Die
Cholera-Epidemie von 1832 war eine Zeit intensiver Aktivität dieser im sozia-
len Bereich tätigen Demoskopen.
Die Akzeptanz quantitativer Methoden war hingegen im Falle von Klini-
ken zur damaligen Zeit viel weniger offensichtlich, als der Vorschlag gemacht
wurde, die statistische Wirksamkeit der verschiedenen Behandlungsweisen ei-
ner Krankheit zu prüfen. Die Anhänger der numerischen Methode“ 10 – zum

Beispiel Doktor Louis – stützten sich auf den prozentualen Anteil von Ge-
nesungsfällen, um bei der Behandlung des Typhusfiebers zu beweisen, daß
Abführmittel dem Verfahren des Aderlasses überlegen sind. Aber sie stießen
auf äußerst heftige (wenn auch ziemlich gegensätzliche) Kritik, in der man die
Aufstellung der betreffenden Äquivalenzen anprangerte. Die kritischen Be-
merkungen wurden von Ärzten geäußert, die ansonsten in Bezug auf andere
Dinge immer unterschiedlicher Meinung waren – von Risueño d’Amador, der
sich vom Vitalismus des 18. Jahrhunderts inspirieren ließ, bis hin zu Claude
Bernard (etwas später), dem Begründer der modernen experimentellen Medi-
zin (Murphy, 1981, [206]). Für die traditionell eingestellten Ärzte, wie etwa
10
Sheynin (1982, [439]) gibt eine ausführliche Darstellung der Geschiche der medi-
zinischen Statistik, einschließlich der von Louis und anderen verwendeten nume-
rischen Methode.
Zwei kontroverse Fälle aus der medizinischen Statistik 95

d’Amador, war die Medizin eine Kunst, die auf der Intuition und dem Instinkt
des Praktikers aufbaute: Intuition und Instinkt manifestierten sich im Verlauf
des singulären Kolloquiums zwischen Arzt und Patient und führten zu einer
Indikation, die aus der Individualität des betreffenden Falles resultierte. Je-
der Versuch, diesen Fall mit einer generischen Kategorie zu vergleichen, würde
die Spezifität dieser persönlichen Wechselwirkung und die auf Erfahrung be-
gründete Intuition des Falls zerstören. Nach Meinung von Louis mußte man
jedoch die Krankheiten klassifizieren, die Behandlungen mit Hilfe von Stan-
dards auswerten sowie nach konstanten Beziehungen zwischen Krankheiten
und Behandlungstechniken suchen. Zu diesem Zweck erhob man Anspruch
auf die bewährten Methoden der anderen Naturwissenschaften (Piquemal,
1974, [231]).
Jedes der von diesen beiden Lagern verwendeten Vokabulare war in sich
schlüssig und verwies auf die beiden gut typisierten Arten des Wissens und
des Handelns. Die Frage war: Wie sind Entscheidungen zu treffen? Soll man –
wie von Louis vorgeschlagen – in Abhängigkeit von dem Wissen handeln, das
auf der systematischen Aufzeichnung einer großen Anzahl ärztlicher Leistun-
gen aufbaut, und sollte man dabei auf die mit Hilfe von Theorien kodifizierten
Resultate zurückgreifen? Oder sollte man sich vielmehr – wie von d’Amador
empfohlen – an die fallbezogene Intuition halten, die sich auf altüberliefer-
te und häufig mündlich weitergegebene Traditionen stützte, an die sich der
Praktiker – ein Mann mit Erfahrung, der sich in derartigen Fällen auskannte
– getreulich hielt? Es handelte sich also weniger darum, die Allgemeinheit der
numerischen Methode mit der Singularität der Wechselwirkung der traditio-
nellen Medizin zu vergleichen. Vielmehr ging es darum, zwischen den beiden
Methoden zu unterscheiden, auf deren Grundlage frühere Fälle kumuliert und
zueinander in Beziehung gesetzt worden sind. In beiden Fällen berief man sich
auf eine Form von Allgemeinheit: auf die Statistik oder auf die Tradition.
Der Fall von Claude Bernard ist komplexer, denn Bernard akzeptierte die
wissenschaftliche Methode voll und ganz und popularisierte sie sogar, stand
aber dennoch der numerischen Methode“ feindselig gegenüber (Schiller, 1963,

[252]). Er machte dieser Methode den Vorwurf, daß sie die Aufmerksamkeit
von den präzisen Ursachen der betreffenden Krankheit ablenkte und unter
dem Deckmantel der Wahrscheinlichkeit“ einen Teil des Sachverhaltes der

Ungewißheit und der näherungsweisen Betrachtung überließ. Für ihn bestand
die Pflicht eines Wissenschaftlers darin, mit Hilfe der experimentellen Metho-
de eine vollständige Analyse der deterministischen Verkettung von Ursachen
und Wirkungen zu geben. Diese Kritik scheint Gemeinsamkeiten mit den von
d’Amador vorgebrachten Bedenken zu haben. Aber für Claude Bernard, der
nichts von einem Vitalisten alten Schlages an sich hatte, konnte ein Arzt sei-
ne Patienten zwar mit Mitteln“, aber nicht im Mittel“ behandeln. Vielmehr
” ”
mußte der Arzt die unmittelbaren Ursachen des Übels finden, um es völlig zu
beseitigen. Die Feindseligkeit gegenüber der Statistik und ihren Regelmäßig-
keiten hing mit einer deterministischen Auffassung von der Mikrokausalität
zusammen. Nach dieser Auffassung sind Wahrscheinlichkeit und numerische
96 3 Mittelwerte und Aggregatrealismus

Methode Begriffe, die gleichbedeutend mit Vagheit und mangelnder Strenge


sind. Und so hat es den Anschein, daß jeder der drei Protagonisten dieser
Debatten auf seine eigene Weise und in seinem eigenen logischen Universum
Recht hatte: die kognitiven Werkzeuge hingen mit den Handlungen zusam-
men, die mit Hilfe dieser Werkzeuge ausgeführt wurden. Bei diesen Universen
handelte es sich um Hygienik, präventive und kollektive Sozialmedizin für
Louis (Lécuyer, 1982, [173]), um patientennahe und tägliche Familienmedizin
für d’Amador und um experimentelle Medizin und Kliniktechnisierung für
Claude Bernard. Alle drei Positionen gibt es auch heute noch und jede hat
ihre eigene Kohärenz.
Die Verwendung statistischer Mittelwerte kam auf indirektere Weise auch
in einer anderen medizinischen Kontroverse zur Sprache, die zur Zeit der
Cholera-Epidemie geführt wurde (Delaporte, 1990, [56]). Die Epidemie trat
in Asien in den 1820er Jahren auf, breitete sich dann in Westeuropa aus und
erreichte Frankreich im Jahre 1832. Moreau de Jonnès (1778–1870), ein Mari-
neoffizier und früherer Kolonialbeamter verfolgte das schrittweise Vorrücken
der Krankheit und verfaßte 1831 einen Bericht darüber. Dabei forderte er
Maßnahmen wie zum Beispiel die Schließung von Häfen, die Quarantäne für
Schiffe und die Errichtung von Lazaretten (Bourdelais und Raulot, 1987, [24]).
Vergebliche Mühe! Das Schließen der Grenzen hätte wichtige Wirtschaftsin-
teressen beschädigt. Die Cholera griff im Frühjahr 1832 in Frankreich um sich.
Die Ärzte waren geteilter Ansicht darüber, wie die Krankheit zu erklären
sei. Die Kontagionisten behaupteten, daß sie durch Kontakt mit den Kranken
übertragen wird. Moreau de Jonnès war Kontagionist. Hingegen meinten die
Infektionisten, die in der Mehrheit waren, daß die Ausbreitung der Krank-
heit durch die Elendsviertel begünstigt wurde, die in manchen Stadtteilen
häufig anzutreffen waren. Die Infektionisten stützten ihre Überzeugung auf
Sterbestatistiken, die für die Straßen von Paris erstellt und entsprechend dem
wirtschaftlichen Niveau der Bewohner aufgeschlüsselt worden waren. Diese
Anhänger der Theorie der Miasmen“, die unter den Hygienikern“ besonders
” ”
zahlreich waren, gruppierten sich im Umfeld der Zeitschrift Annales d’hygiène.
Sie fanden in den statistischen Mittelwerten, die für eine Umgebung“ oder für

ein Milieu“ charakteristisch waren, ein adäquates Werkzeug für Eingriffe auf

dem politischen Terrain – sie forderten Sanierungsmaßnahmen, den Bau von
Abwasserkanälen und Regelungen in Bezug auf den Wohnungsstandard. Zwar
hingen diese Mittelwerte mit der makrosozialen Vorgehensweise zusammen.
Aber eigneten sie sich auch dazu, die unmittelbaren und präzisen Ursachen
einer Krankheit aufzudecken? Diese Debatte war interessant, denn sie entzog
sich einer teleologischen Deutung des Fortschritts der Wissenschaft als Kampf
des Lichts gegen die Nacht der Vorurteile. An diesem Punkt gab die Geschich-
te in gewisser Weise beiden Lagern Recht: dem Lager der Kontagionisten, wie
die Entdeckung des Choleravibrio im Jahre 1833 zeigte, und dem Lager der
Infektionisten, die als Verfechter der Mittelwerte und der öffentlichen Gesund-
heit auftraten, denn die Ausbreitung des Vibrio wurde durch das Fehlen der
Kanalisation begünstigt.
Zwei kontroverse Fälle aus der medizinischen Statistik 97

Wie sich herausstellte, waren die Mittelwerte zum Gegenstand der De-
batten zwischen den gleichen Protagonisten geworden, nämlich zwischen dem
Hygieniker Villermé und dem Kontagionisten Moreau de Jonnès. Letzterer
war zwar auch an Statistik interessiert, aber das war eine andere Sache. Und
so wurde er 1833 (ein Jahr nach der Cholera) damit beauftragt, das im Jah-
re 1812 abgeschaffte Bureau für Verwaltungsstatistik wieder aufzubauen: das
war die neue Statistique générale de la France (SGF), die er bis 1851 leitete.
Aber seine Auffassung von Statistik unterschied sich von der Auffassung der
Hygieniker, gegen die er polemisierte. In seinem Werk Éléments de Statistique
stellte er 1847 die Statistik in einer mehr administrativ und weniger wahr-
scheinlichkeitstheoretisch ausgelegten Weise vor, als es die Moralstatistiker“

– die Schüler von Quetelet und Villermé – taten. Für Moreau de Jonnès hing
die Statistik mit der Verwaltung des Staatsapparates zusammen – sowohl hin-
sichtlich der Datenerfassung als auch in Bezug auf die Verwendung der Daten
beim eigentlichen Verwaltungsablauf. Er bestand mit Nachdruck auf den Ei-
genschaften der Kohärenz, der Logik und der minutiösen Sorgfalt, die ein
Statistiker benötigt, um wahre Zahlen“ zu erhalten. Mittelwerte erschienen

ihm als Fiktionen, mit denen sich wohl einige Leute begnügten – aber diese
Mittelwerte konnten seiner Meinung nach die wahren Zahlen“ nicht erset-

zen. Er kritisierte die Berechnungen der Lebenserwartung und die von den
Versicherungsmathematikern verwendeten Sterbetafeln.
Anhand dieses Falles erkennen wir, daß der von Quetelet hergestellte Zu-
sammenhang zwischen den beiden Typen von Mittelwerten (das heißt – in
der Terminologie von Bertillon – zwischen dem objektiven und dem subjekti-
ven Mittelwert) ganz und gar nicht selbstverständlich war: der Realismus der
Aggregate wurde in dieser buchhalterischen und verwaltungsbezogenen Auf-
fassung der Statistik geleugnet. Die Statistiker sahen sich häufig Vorwürfen
ausgesetzt wie: Wirf doch bitte nicht Dinge in einen Topf, die in Wirklichkeit

voneinander verschieden sind!“ Die hier zitierte Realität ist nicht die gleiche
Realität, wie die des statistischen Mittelwertes – jede dieser Realitäten hat ih-
ren eigenen Anwendungsbereich. Die Kritik in Bezug auf die Kodierung ist die
Grundlage zahlreicher Anschuldigungen, die gegen die quantitativen Sozial-
wissenschaften (Cicourel, 1964, [47]) und gegen die bürokratische und anony-
me Verwaltung von Massengesellschaften erhoben werden. Die Ironie besteht
hier darin, daß die Attacke vom Leiter des Bureaus für Verwaltungsstatistik
geritten wurde. Zu diesem Zeitpunkt gab es jedoch noch keine hinreichen-
de Kohärenz zwischen den administrativen und den kognitiven Werkzeugen,
weswegen ein derartiger Widerspruch noch möglich war.
Die Hygieniker, Moralstatistiker und Liebhaber von Mittelwerten waren
Ärzte und angesehene Persönlichkeiten, die versuchten, neue Positionen auf-
zubauen, indem sie für soziale Antworten kämpften. Ihre in Form von Mittel-
werten ausgedrückte makrosoziale Argumentation eignete sich zur Förderung
der Massenhygiene und der Präventivmedizin. Diese einflußreiche Lobby war
außerdem mit den Vertretern des Freihandels liiert – vor allem mit Kaufleu-
ten und Importeuren –, die den staatlichen Reglementierungen hinsichtlich
98 3 Mittelwerte und Aggregatrealismus

des Warenverkehrs und der Schließung der Grenzen feindselig gegenüberstan-


den. Im Gegensatz hierzu hatten Moreau de Jonnès und die Kontagionisten
eine mehr administrativ orientierte Vision. Die Statistik durfte sich (ihrer Mei-
nung nach) nicht mit wahrscheinlichen Fakten zufriedengeben, sondern mußte
sichere Fakten sammeln, die in strenger Weise aufgezeichnet waren. Im Übri-
gen durfte man sich bei der Behandlung der Cholera nicht mit Maßnahmen
begnügen, die im doppelten Sinne (das heißt im Sinne der verordnenden Ge-
walt und im wissenschaftlichen Sinne) unsicher waren und nur probabilistisch,
das heißt in der Masse wirkten: man mußte den Keim“ isolieren (der später

als Vibrio bezeichnet wurde) und nicht irgendwelche vagen Umwelt-Miasmen.
Diese Position stand der oben beschriebenen Position von Claude Bernard
nahe.
Falls sich die Statistik auf individuelle Aufzeichnungen stützt, dann hatten
die damit verbundenen Interpretationen – wie sie damals von Quetelet, Vil-
lermé oder Louis gegeben wurden – eine größere Wesensverwandtschaft mit
der philosophischen Position, die als realistisch (im mittelalterlichen Sinne)
bezeichnet wurde und später unter dem Namen universalistisch oder holi-
stisch bekannt wurde. Diese Position ordnete Kategorien oder Gesamtheiten
von Individuen eine intrinsische Realität zu. Im Gegensatz hierzu bestritten
die Gegner dieser Position – d’Amador, Claude Bernard, Moreau de Jonnès
und andere – die Existenz von Äquivalenzklassen und standen der von Ockham
vertretenen nominalistischen oder individualistischen Position näher, deren
einzige Realität die Realität des Individuums war. Die Auswahl der relevan-
ten Objekte, auf die sich die verschiedenen Akteure stützten und in Bezug auf
die sie sich verständigen konnten, stand in Beziehung zur Gesamtsituation und
hing vor allem von der Bedeutung der betreffenden Akteure ab (bei den Hy-
gienikern waren es die Armen und die Armut; bei Keynes die Arbeitslosen und
die Arbeitslosigkeit). Aber zwischen diesen beiden extremen Positionen – das
heißt zwischen dem Realismus des durch seine konstante Ursache vereinheit-
lichten Aggregats und dem individualistischen Nominalismus, der diese Totali-
sierungen ablehnte – sollte sich ein neuer Raum auftun. Zunächst unternahm
man Versuche, die Homogenität der durch ihren Mittelwert repräsentierten
Gesamtheit zu testen. Danach wurden komplexere statistische Formalismen
vorgeschlagen, mit deren Hilfe beide Standpunkte – das heißt der realistische
und der nominalistische Standpunkt – zusammen erfaßt werden konnten. Aus
dieser Sicht sollten sich die von Karl Pearson vorgenommenen Formulierungen
der Regression und der Korrelation als entscheidender Wendepunkt erweisen
– als Wendepunkt zwischen den Fragen des 19. Jahrhunderts, die noch mit
der Rhetorik Quetelets zusammenhingen, und den gänzlich anderen Formali-
sierungen der mathematischen Statistik der 20. Jahrhunderts.
Eine Urne oder mehrere Urnen? 99

Eine Urne oder mehrere Urnen?

Das intellektuelle Konstrukt Quetelets stützte sich auf das Wahrscheinlich-


keitsmodell einer Urne konstanter Füllung mit weißen und schwarzen Kugeln:
aus der Urne wird eine Kugel gezogen und dann viele Male wieder zurück-
gelegt. Die Wahrscheinlichkeit des Auftretens eines gegebenen Verhältnisses
zwischen den weißen und schwarzen Kugeln folgt einer Binomialverteilung.
Diese konvergiert gegen eine Normalverteilung, falls die Anzahl der Ziehun-
gen unbegrenzt wächst: das ist das Bernoullische Gesetz der großen Zahlen“.

Was passiert, wenn die Vorgabe oder die Eindeutigkeit der Urnenfüllung nicht
gewährleistet sind? Quetelet argumentierte in umgekehrter Richtung: aus der
Normalverteilung schloß er auf die Existenz eines Systems von konstanten
Ursachen.
Diese Frage war bereits zu Beginn des 19. Jahrhunderts gestellt worden,
als einige Forscher die Schätzmethoden der politischen Arithmetik des 18.
Jahrhunderts wiederverwenden wollten, um beispielsweise ohne Durchführung
einer Vollerhebung die Bevölkerungszahl eines Landes zu schätzen: man ging
von dem – im gesamten Territorium als gleichmäßig vorausgesetzten – Verhält-
nis zwischen der betreffenden Bevölkerungszahl und der Anzahl der jährlichen
Geburten aus, wobei dieses Verhältnis in einigen Kirchengemeinden ermittelt
worden war (Kalkül von Laplace, vgl. Kapitel 1). Quetelet fand diese Metho-
de verlockend, als er 1825 die Bevölkerung der Niederlande schätzen wollte –
von diesem Vorhaben wurde er jedoch durch die Kritik eines hohen Beamten,
des Barons von Keverberg, abgehalten. Deswegen konzentrierte Quetelet seine
Energie auf die Organisierung von Vollerhebungen. Keverberg zog in Zweifel,
daß es für das gesamte Territorium ein einziges Gesetz geben könne, mit dem
sich das Verhältnis zwischen Bevölkerungszahl und Anzahl der Geburten be-
schreiben ließe, und daß man diesen – für einige Orte berechneten – Wert
extrapolieren könne:

Das Gesetz, welches die Geburtenziffern oder die Sterblichkeit regelt,


setzt sich aus einer großen Anzahl von Bestandteilen zusammen: es ist
verschieden für Städte und für das flache Land, für reiche Großstädte
und für kleine und weniger reiche Dörfer und es hängt davon ab,
ob die Bevölkerungsdichte hoch oder niedrig ist. Dieses Gesetz hängt
vom Gelände ab (Höhenlage oder nicht), von der Bodenbeschaffenheit
(trocken oder sumpfig), von der Entfernung zum Meer, vom Wohl-
stand oder vom Elend der Bevölkerung, von ihrer Ernährung, ihrer
Kleidung, von der allgemeinen Lebensweise und von einer Vielzahl
von lokalen Umständen, die bei jeder A-priori -Aufzählung übergan-
gen würden. Die tatsächlich wirkende Kombination dieser Elemente
kann schwerlich im Voraus präzise bestimmt werden, zumal sie sich
auf ein unvollständiges und spekulatives Wissen stützt. In Bezug auf
die Natur, die Anzahl und die Intensität dieser Bestandteile sowie hin-
sichtlich ihrer relativen Anteile scheint es eine unendliche Vielfalt zu
100 3 Mittelwerte und Aggregatrealismus

geben ... Ich meine, daß es nur ein einziges Mittel gibt, eine korrek-
te Kenntnis der Bevölkerungszahl und ihrer Bestandteile zu erlangen:
nämlich eine wirkliche und vollständige Volkszählung durchzuführen
und ein Register der Namen sämtlicher Einwohner, einschließlich ih-
res Alters und ihrer Berufe, zu erstellen. (Keverberg, 1827, zitiert von
Stigler, 1986, [267].)

Diese Argumentation unterschied sich nicht wesentlich von der Argumen-


tation, die später von Moreau de Jonnès – einem ebenfalls hohen Beamten
– formuliert und gegen Quetelet und andere ins Feld geführt wurde, die bei
ihrer Arbeit Mittelwerte verwendeten. Dennoch bezog sich die Argumentati-
on auf eine Methode der Verallgemeinerung von wenigen Einzelfällen auf eine
Gesamtheit. Bereits als junger Mann war Quetelet darauf bedacht, eine Stelle
im Verwaltungsapparat zu finden. Er reagierte auf die besagte Argumentation
so sensibel, daß er und seine Nachfolger bis zum Ende des Jahrhunderts un-
aufhörlich die Vollerhebungen rühmten und den Umfragen mißtrauten, die von
den politischen Arithmetikern des 17. und 18. Jahrhunderts auf der Grundlage
von unvollständigen Aufzeichnungen zu riskanten Extrapolationen verarbeitet
wurden. Die von Keverberg vorgebrachte Kritik bezog sich auf die fundamen-
tale Heterogenität der Bevölkerung sowie auf die Diversität und Komplexität
der Faktoren, welche die untersuchten Variablen bestimmen. Diese Diversität
und Komplexität waren so groß, daß eine auf Verallgemeinerung basierende
Kenntnis der Sachlage undenkbar erschien.
Die Zweifel an der Homogenität und der eindeutigen Vorgabe der Urne
wurden in präziserer Weise von Poisson (1837) formuliert und formalisiert.
Poisson behandelte dabei ein ganz anderes Problem: es ging um die Mehr-
heit, die bei den Abstimmungen von Schwurgerichten erforderlich war (Stig-
ler, 1986, [267]; Hacking, 1990, [119]). Seit der Gründung der Institution der
Volksgeschworenen im Jahre 1789 waren die Gesetzgeber verunsichert, da die
Möglichkeit eines Justizirrtums nicht ausgeschlossen war. Wie konnte man die
Wahrscheinlichkeit minimieren, einen Unschuldigen aufs Schafott zu schicken
und gleichzeitig gewährleisten, daß kein Schuldiger seiner Strafe entkommt?
Dabei wußte man natürlich einerseits, daß die Schuldfrage häufig eine unsiche-
re Sache war und daß sich andererseits die Geschworenen auch irren konnten.
Es bestand demnach eine doppelte Ungewißheit: zum einen die Unsicherheit in
Bezug auf die Wirklichkeit der dem Angeschuldigten zur Last gelegten Taten
und zum anderen die Unsicherheit hinsichtlich der Unfehlbarkeit des Urteils
der Geschworenen. Im Anschluß an Condorcet und Laplace hatte Poisson ver-
sucht, die Wahrscheinlichkeit eines Justizirrtums abzuschätzen, wobei er von
unterschiedlichen Voraussetzungen bezüglich einer qualifizierten Mehrheit in
einem aus zwölf Mitgliedern bestehenden Schwurgericht ausging (sieben ge-
gen fünf; acht gegen vier ...). Diese Frage hielt die öffentliche Meinung in
Atem und spaltete das Parlament: Diejenigen Parlamentsmitglieder, denen
die Unumkehrbarkeit eines Justizirrtums Angst einjagte, standen denjenigen
gegenüber, die eine allzu große Nachgiebigkeit der Justiz befürchteten. Jedes
Eine Urne oder mehrere Urnen? 101

Lager wollte seine Position mit einem Maximum an Argumenten und objek-
tiven Tatsachen untermauern.
Im Unterschied zu seinen beiden Vorgängern konnte sich Poisson auf die
statistischen Verzeichnisse stützen, die seit 1825 im neuen Compte général de
l’administration de la justice criminelle bereitgestellt wurden. Diese Verzeich-
nisse enthielten die jährlichen Zahlen der Anschuldigungen und Verurteilun-
gen. Außerdem wurde das Gesetz im Jahre 1831 geändert. Vor dieser Zeit
war für eine Verurteilung lediglich eine Stimmenmehrheit von sieben gegen
fünf erforderlich. Nun waren es acht gegen vier Stimmen und diese Ände-
rung in der Gesetzgebung konnte bei der Berechnung berücksichtigt werden.
Diese – durch die Überlegungen von Bayes inspirierte – Berechnung impli-
zierte die Ermittlung der beiden Ursachenwahrscheinlichkeiten“, die a priori

unbekannt waren: die Wahrscheinlichkeit der Schuld des Angeklagten und
die Wahrscheinlichkeit der Fehlbarkeit der Geschworenen. Poisson nahm nun
zunächst an, daß die Angeklagten aus unterschiedlichen Gruppen kommen,
bei denen die Wahrscheinlichkeiten für eine Schuld nicht gleich groß waren
(man denke etwa an die heutigen Risikogruppen“). Zweitens nahm er an,

daß die Geschworenen in unterschiedlicher Weise geeignet sind, die Tatsachen
so einzuschätzen, daß kein Irrtum auftritt. Ausgehend von diesen Annahmen
sah sich Poisson veranlaßt, bei seinen Überlegungen Urnen von ungewisser
Füllung einzuführen. Das wiederum brachte ihn auf die Formulierung seines
starken Gesetzes der großen Zahlen“, das eine Verallgemeinerung des Geset-

zes von Bernoulli ist. Beim Gesetz von Bernoulli hat die Urne, aus der die Zie-
hungen erfolgen, eine vorgegebene Füllung. In dem von Poisson untersuchten
Fall ergeben sich jedoch die Urnen ihrerseits aus einer ersten Serie von Ziehun-
gen. Dieses neue starke Gesetz“ besagte, daß unter gewissen Voraussetzun-

gen (bezüglich der Anfangsverteilung der Urnen unterschiedlicher Füllung) die
Ziehungswahrscheinlichkeiten11 gegen eine Normalverteilung konvergieren.
Nach Auffassung von Poisson war dieses Ergebnis wichtig, denn es erlaubte
die Beibehaltung der Konvergenzformeln – welche die Stärke des Gesetzes
von Bernoulli ausmachten – und zwar auch in ungewissen Fällen, ja sogar
im Fall der Heterogenität der ursprünglichen Urnen. Er meinte, daß dieser
Umstand den realen Situationen der Anwendung dieses Gesetzes sehr viel
näher käme. Bienaymé gab sich zwar als Bewunderer von Poisson aus, wertete
aber rasch die Originalität dieses neuen starken Gesetzes der großen Zahlen“

in einem 1855 veröffentlichten Artikel ab, der den folgenden leicht boshaften
Titel trägt: Zu einem Prinzip, das Monsieur Poisson zu entdecken geglaubt

hatte und als Gesetz der großen Zahlen bezeichnete“. Bienaymé bemerkte,
daß – wenn man die Gesamtheit der beiden aufeinanderfolgenden Ziehungen
global als einen einzigen probabilistischen Prozeß betrachtet – dieses starke

Gesetz“ von Poisson nicht sehr weit über das Gesetz von Bernoulli hinausgeht.
11
Gemeint sind hier die Ziehungswahrscheinlichkeiten der unterschiedlich gefärbten
Kugeln. Diese lassen sich auch in dieser allgemeinen Situation in ihrer Gesamtheit
durch eine Normalverteilung approximieren.
102 3 Mittelwerte und Aggregatrealismus

Die Überlegungen von Bienaymé drehten sich um den Begriff der konstanten
Ursache und um die Einschränkung, mit der die Probabilisten nach seiner
Auffassung die Bedeutung des Wortes Ursache“ besetzt hatten:

... sie sprechen nicht davon, was eine Wirkung oder ein Ereignis her-
vorruft oder was dessen Eintreten gewährleistet; sie wollen nur über
den Zustand der Dinge reden, über die Gesamtheit der Umstände,
unter denen dieses Ereignis eine bestimmte Wahrscheinlichkeit hat.
(Bienaymé, 1855, [16].)

Aus diesem Grund machte er keinen Unterschied zwischen einer konstanten


Ursache und einer Ursache, die sich gemäß einem konstanten Gesetz ändert.

Die Geringfügigkeit des Umfangs der Abweichungen bleibt dieselbe,


wenn man sich die konstante Wahrscheinlichkeit nicht mehr als abso-
lut fest vorstellt, sondern als konstanten Mittelwert einer gewissen An-
zahl von Wahrscheinlichkeiten, die von variablen Ursachen herrühren,
von denen jede – entsprechend einer im Voraus festgelegten Möglich-
keitsverteilung – gleichermaßen jedem Test unterzogen werden kann.
(Bienaymé, 1855, [16].)
Diese Schrift wurde 1855 veröffentlicht, aber bereits 1842 geschrieben, das
heißt zu einer Zeit, in der Quetelet das Konstrukt seines Durchschnittsmen-
schen mit der erstaunlichen Regelmäßigkeit der Moralstatistik, der Heiraten,

Selbstmorde und Verbrechen“ untermauerte. In dieser Schrift schlug Bienaymé
eine skeptizistische Tonart an, die man später (in vermutlich unabhängiger
Form) auch bei dem deutschen Statistiker Lexis findet:

Führt man wirklich ernsthafte wissenschaftliche Forschungen durch


und hat man die Fakten mehrerer Jahre zu vergleichen, dann kommt
man kaum um die Feststellung herum, daß die vom Bernoullischen
Satz festgelegten Abweichungen weit von den beträchtlichen Un-
terschieden entfernt sind, die man bei den mit größter Genauig-
keit erfaßten Zahlenverhältnissen der natürlichen Phänomene antrifft.
(Bienaymé, 1855, [16].)

Welches auch immer die Kritikpunkte gewesen sein mögen, die Bienaymé
an die Adresse von Poisson gerichtet hat – beide stellten den Begriff der
konstanten Ursache als Prinzip der Äquivalenzklassenbildung infrage, die es
ermöglicht, Ereignisse zusammenzufassen, indem man sie als kontingente Ma-
nifestationen einer Ursache auftreten läßt, die allgemeiner ist und auf einer
höheren Ebene steht. Die Position von Bienaymé und Poisson ist nominalisti-

scher“ als die Auffassung Quetelets: Poisson versuchte jedoch, die Errungen-
schaften der konstanten Ursache durch seine – gemäß einem konstanten Ge-
setz – variierende Ursache wenigstens teilweise zu retten, während Bienaymé
den Konventionscharakter der Kausalitätsdefinition besser erfaßte. Seine For-
mulierung steht dem modernen Begriff des Modells näher, denn sie erfaßt
Der angefochtene Realismus: Cournot und Lexis 103

Konventionen und Abstraktionen als getrennt von der wahrnehmbaren In-


tuition. Im Gegensatz hierzu bewahrte die Unterscheidung, welche Poisson
zwischen den unterschiedlichen Zeitpunkten des Auftretens einer Ungewißheit
vornahm, den subjektiven Aspekt der Wahrscheinlichkeiten im Sinne der vom
18. Jahrhundert überkommenen Terminologie der Glaubensgründe (im vorlie-
genden Fall der Glaube an die Schuld des zum Tode Verurteilten). An dieser
Stelle findet man übrigens auch den Hauptunterschied zwischen Poisson und
Quetelet: Poisson befand sich noch im mentalen Universum von Condorcet
und Laplace (obwohl er sich auf Verwaltungsstatistiken stützen konnte). Für
Poisson waren die Wahrscheinlichkeiten nichts anderes als die von rationa-
len Individuen geäußerten Glaubensgrade, welche die betreffenden Individuen
ihren eigenen Urteilen zuordneten. Für Quetelet hingegen, der sich für die
Gesellschaft in ihrer Gesamtheit und für deren Beständigkeiten interessierte,
hatten die Wahrscheinlichkeiten fortan mit der Variabilität der Dinge und mit
den Abweichungen von den Mittelwerten zu tun.
In allen oben angeführten Formalisierungen und Kontroversen – das heißt
bei Quetelet und der von ihm festgestellten erschreckenden Regelmäßigkeit
von Verbrechen, bei den Ärzten und der von ihnen behandelten Cholera so-
wie bei Poisson und dessen Überlegungen zu Schwurgerichten – hingen die
theoretischen Formulierungen eng mit den debattierten Themen zusammen
und hatten deutliche Auswirkungen auf die brennende Aktualität dieser The-
men. Umgekehrt war das Auftreten der kognitiven Schemata mit der Art
und Weise verknüpft, in der die genannten Autoren auf der Grundlage ihrer
Tätigkeit unterschiedliche Realitäten konstruierten. An späterer Stelle in die-
sem Buch findet man – in Bezug auf Eugenik und mathematische Statistik –
eine analoge Übereinstimmung in den Aktivitäten von Galton und Pearson.
Gleichwohl stimmt es, daß eine derartige Übereinstimmung für einige Autoren
– wie zum Beispiel Bienaymé oder Cournot – weniger offensichtlich ist und
daß ihre Tätigkeit interner Bestandteil einer eigenständigen epistemologischen
Überlegung zu sein scheint. Aus diesem Grunde haben sich nur wenige Au-
toren auf Bienaymé und Cournot bezogen und beide sind zum Teil verkannt
worden.

Der angefochtene Realismus: Cournot und Lexis


Antoine Augustin Cournot (1801–1877), Philosoph, Mathematiker und Ge-
neralinspektor des öffentlichen Schulwesens war im Unterschied zu Quetelet
vor allem auf theoretische Überlegungen orientiert. Die von ihm behandel-
te Hauptfrage bezog sich auf die Mittel, über die der Verstand verfügt, um
objektives Wissen zu erlangen. Bei diesem Bestreben nahm die Wahrschein-
lichkeitsrechnung einen wesentlichen Platz ein. Unter dem Titel Exposition de
la théorie des chances et des probabilités 12 veröffentlichte er 1843 ein Werk, in
12
In deutscher Sprache unter dem Titel Die Grundlehren der Wahrscheinlichkeits-

rechnung, leichtfaßlich dargestellt für Philosophen, Staatsmänner, Juristen, Ka-
104 3 Mittelwerte und Aggregatrealismus

dem er den philosophischen Status der wahrscheinlichkeitstheoretischen Über-


legungen auf nuancierte Weise analysierte. Cournot versuchte, das Chaos der
individuellen Wahrnehmungen zu ordnen, besser gesagt: er wollte diese Wahr-
nehmungen von der Existenz einer rationalen Ordnung der Dinge abhängig
zu machen, die über den Subjektivitäten steht. Das war eine eher realisti-

sche“ Position (im mittelalterlichen Sinne), aber seine Feinanalyse der Art und
Weise, wie Beweise konstruiert und vor allem durch die Statistik untermauert
werden, führten ihn zu einer Position, die man de facto eher als nominali-
stisch bezeichnen kann. Als er versuchte, seine Gedanken auf der Grundlage
allgemeiner Prinzipien zusammenzutragen, berief er sich auf eine rationale
Ordnung, die im Gegensatz zu subjektiven Fehlern steht:

Unser Glaube an gewisse Wahrheiten fußt also weder auf der Wie-
derholung ein und derselben Urteile noch auf einer einstimmigen oder
fast einstimmigen Billigung: er beruht hauptsächlich auf der Wahrneh-
mung einer rationalen Ordnung – auf deren Grundlage diese Wahrhei-
ten miteinander verkettet sind – und auf der Überzeugung, daß es sich
bei den Fehlerursachen um anormale, irreguläre und subjektive Ursa-
chen handelt, die keine so regelmäßige und objektive Koordinierung
erzeugen können. (Cournot, 1843, [51].)
Dieses Gespür für die Spannung zwischen der gesuchten Objektivität der
rationalen Ordnung und den Unvollkommenheiten des subjektiven mensch-
lichen Urteils brachte Cournot darauf, klar zwischen den beiden möglichen
Bedeutungen des Begriffes Wahrscheinlichkeit“ zu unterscheiden (er war ei-

ner der Ersten, die dies taten) und die entsprechenden Zusammenhänge zu
untersuchen, wobei er den Bayesschen Standpunkt vehement kritisierte:

Eine Regel, die zuerst von dem Engländer Bayes ausgesprochen wur-
de, und auf der Condorcet und Laplace die Doktrin der A-posteriori-
Wahrscheinlichkeiten aufbauen wollten, wurde zur Quelle zahlreicher
Zweideutigkeiten, die zunächst geklärt werden müssen. Diese Regel
führte auch zu schweren Fehlern, die man beheben muß. Und die Feh-
ler werden behoben, sobald wir an den fundamentalen Unterschied
denken, der zwischen den beiden Arten von Wahrscheinlichkeiten be-
steht: nämlich zwischen den Wahrscheinlichkeiten, die eine objektive
Existenz besitzen und ein Maß für die Möglichkeit der Dinge liefern,
und den subjektiven Wahrscheinlichkeiten, die teils auf unser Wissen
und teils auf unsere Unwissenheit zurückzuführen sind und von der In-
telligenz, den entsprechenden Fähigkeiten und den gelieferten Daten
abhängen. (Cournot, 1843, [51].)

Cournot war davon überzeugt, daß eine Akkumulation von Statistiken über
die verschiedensten Themen dazu führen würde, das Wesen und die Tragweite
meralisten und Gebildete überhaupt“ erschienen (herausgegegen von Dr. C.H.
Schnuse, Braunschweig 1849).
Der angefochtene Realismus: Cournot und Lexis 105

des Wissens über die Gesellschaft tiefgründig zu transformieren. Aber im Un-


terschied zu den vorhergehenden Autoren blieb er bei dieser philosophischen
Reflexion und griff nicht in die Themen ein, die man damals diskutierte. Auch
war Cournot – im Gegensatz zu Quetelet und Moreau de Jonnès – nicht in
die administrativen und politischen Probleme einbezogen, die mit der Kompi-
lierung und Aufbereitung statistischer Ergebnisse zu tun hatten. Ihm reichte
die subtile Handhabung komplizierter kognitiver Schemata.
Er stellte beispielsweise die Frage nach der Bedeutung der Abweichungen
zwischen den Messungen ein und derselben Größe, die bei mehreren Teilen der
Bevölkerung durchgeführt wurden, wobei diese Teile aus einer Aufteilung der
Gesamtbevölkerung hervorgingen. Damit führte er eine Art Homogenitätstest
der betreffenden Bevölkerung ein und gab eine Antwort auf die Einwände, die
Keverberg gegen die Extrapolationen von Laplace erhoben hatte. Als er aber
mit Hilfe von Begriffen der Wahrscheinlichkeitsrechnung argumentierte, daß
diese Abweichungen von Null verschieden seien, stolperte er über die Tatsa-
che, daß derartige Tests lediglich Antworten liefern, die innerhalb einer gewis-
sen Signifikanzschwelle liegen, für die man beispielsweise 5% oder 1% wählen
kann. Nun ist aber die Anzahl der möglichen Aufteilungen einer Bevölkerung
a priori unendlich – mit etwas Geduld und viel Mühe lassen sich immer ir-
gendwelche Aufteilungen finden, bei denen die Abweichungen signifikant sind
(natürlich ist das bei einer Schwelle von 1% schwieriger, als bei einer Schwelle
von 5%). Das von Cournot gegebene Beispiel bezog sich auf das Verhältnis
von männlichen zu weiblichen Geburten, das für ganz Frankreich und für jedes
der 86 Departements berechnet worden war. Stellen wir uns nun vor, daß man
dasjenige Departement isoliert, bei dem die Abweichung zwischen dem besag-
ten Verhältnis und dem auf ganz Frankreich bezogenen Verhältnis am größten
ist. Kann man dann für das so ausgewählte Departement die Signifikanz einer
Schwellenabweichung von 5% oder sogar von 1% auf legitime Weise testen?
Hätte sich dieses Departement früher durch nichts ausgezeichnet, dann lau-
tete die Antwort gewiß nein. Wenn es sich aber um das Departement Seine
oder Korsika gehandelt hätte, dann waren Zweifel angebracht. Warum? Weil
die Menschen a priori wußten (oder zu wissen glaubten), daß diese Standorte
einige Besonderheiten aufweisen.
Bei dieser Argumentation warf Cournot die Frage des Zusammenhangs
zwischen Wissensformen auf, deren Verarbeitungsweisen heterogen sind. Wel-
che spezifischen Probleme entstanden durch die Konstruktion von zusammen-
gesetzten Argumentationsrhetoriken, deren Bestandteile sich auf unterschied-
liche Beweistechniken bezogen? Wie konnte man überzeugende statistische
Argumente anführen? Wie soll man Normen aufstellen, auf deren Grundlage
sich Konventionen hinsichtlich des Überzeugungscharakters eines statistischen
Arguments erzielen lassen? Die besondere Schwierigkeit dieser Frage besteht
im Falle der Statistik darin, daß ein extrem formalisierbares Universum –
das sich auf sich selbst zurückziehen kann – mit dem Erfahrungsuniversum in
Kontakt tritt, das eine wesentlich andere Beschaffenheit hat. Die Konstruktion
von Taxonomien und Äquivalenzklassen erfolgt exakt in dieser Kontaktzone –
106 3 Mittelwerte und Aggregatrealismus

das ist es, was Cournot mit seinem Begriff des Voraburteils“ bemerkt hatte,

das den Schnitt“ (das heißt die Nomenklatur) bestimmte. Er erklärte, daß

ein sich auf eine Abweichung beziehendes Urteil von zwei Elementen abhängt.
Das erste Element ergibt sich im Ergebnis einer klar formalisierten Wahr-
scheinlichkeitsrechnung, aber:
Das andere Element besteht aus einem Voraburteil, kraft dessen wir
den Schnitt – der zur beobachteten Abweichung geführt hat – als einen
solchen betrachten, den man in der unendlichen Vielfalt der möglichen
Aufteilungen natürlicherweise durchzuführen versucht, und nicht als
einen, der unsere Aufmerksamkeit ausschließlich in Anbetracht der
beobachteten Abweichung in Bann zieht. Nun leitet sich aber dieses
Voraburteil – durch das es für uns den Anschein hat, daß die sta-
tistische Erfahrung eher auf einen bestimmten Schnitt als auf einen
anderen gelenkt sein mußte – aus Gründen ab, deren Wert sich nicht
streng beurteilen läßt und von anderen Geistern auf andere Weise be-
urteilt werden kann. Es handelt sich um ein Urteil mit Vermutungs-
charakter, das seinerseits auf Wahrscheinlichkeiten beruht – aber auf
Wahrscheinlichkeiten, die sich nicht auf eine Aufzählung der Chancen
zurückführen lassen und deren Diskussion nicht zur eigentlichen Dok-
trin der mathematischen Wahrscheinlichkeitsrechnung gehört. (Cour-
not, 1843, [51].)
Durch die Einführung dieser Art von Fragestellung modifizierte Cournot
das obengestellte Problem des Aggregatrealismus“ auf tiefgründige Weise.

Er machte den Weg für die Möglichkeit von zusammengesetzten Urteilen frei,
von denen sich einige Bestandteile objektivieren lassen, während andere von

verschiedenen Geistern unterschiedlich beurteilt werden können“. Die durch-
geführten Schnitte“ können sich also nur aus einer Konvention ableiten, die

auf die Installierung des gesunden Menschenverstandes abzielt. Diese Auffas-
sung ist teilweise nominalistisch – trotz einer an anderer Stelle erkennbaren
Nostalgie nach einer rationalen Ordnung, auf deren Grundlage die Wahrhei-

ten miteinander verkettet sind, einer Ordnung, für welche die Fehlerursachen
anormal, irregulär und subjektiv sind“. Diese Spannung und das Bestreben,
sie zu durchdenken, machen das Werk Cournots zu einem der reichhaltigsten
Werke der hier zitierten Autoren, denn es stellt explizit die Frage nach der
relativen Position der auf Wahrscheinlichkeitsrechnung und Statistik aufge-
bauten Wissensformen im Vergleich zu anderen Wissensformen, die vor allem
bei der Begründung des Realismus der Aggregate verwendet werden. Dieser
Realismus sollte von Lexis auch noch auf andere Weise bestritten werden.
Quetelets Begriff der konstanten Ursache“, welche die Realität eines Ob-

jekts auf der Grundlage der Regelmäßigkeit einer statistischen Reihe unter-
mauerte, wurde durch eine Argumentation kritisiert und zerstört, die zwar
dieselben Werkzeuge benutzte, aber mit deren Hilfe die inneren Widersprüche
aufzeigte. Diese Kritik wurde in den 1870er Jahren durch den deutschen Sta-
tistiker Lexis (1837–1914) und den französischen Versicherungsmathematiker
Der angefochtene Realismus: Cournot und Lexis 107

Dormoy in ähnlicher Weise formuliert, wobei jedoch beide unabhängig vonein-


ander arbeiteten (Porter, 1986, [240]). Lexis wollte die Signifikanz der schein-
baren Regelmäßigkeit einer Reihe testen und hatte die Idee, jedes der jährli-
chen Ergebnisse als Ziehung einer Gesamtheit von Kugeln aus einer Urne zu
betrachten, die mit schwarzen und weißen Kugeln gefüllt ist. Ist diese Füllung
konstant, dann läßt sich die Verteilung der Anteile an weißen Kugeln bei den
jährlichen Ziehungen durch eine Binomialverteilung beschreiben. Handelt es
sich dabei um eine große Urne und eine große Anzahl von Ziehungen, dann
nähert sich die Binomialverteilung einer Normalverteilung, deren theoretische
Streuung sich berechnen läßt, die wir mit r bezeichnen wollen. Danach mißt
man R, also die in der untersuchten Reihe tatsächlich beobachtete Streuung.
Schließlich berechnete Lexis das Verhältnis Q = R/r und verglich es mit 1.
Ist Q kleiner als 1 (R < r), dann konnte man von einer subnormalen Vari-
anz sprechen und hieraus die Existenz einer makrosozialen Ursache ableiten:
die göttliche Vorsehung, eine Neigung zu ...“ oder einen Gruppeneffekt. Ist

Q = 1, dann verifiziert man, daß die Urne konstant ist und das Binomialmo-
dell angewendet werden kann. Ist schließlich Q > 1 (R > r), dann konnte man
nicht mehr behaupten, daß die analysierte Variable konstant ist: alles lief so
ab, als ob sich die Füllung der Urnen ändern würde.13
Lexis wendete diese Methode auf eine große Anzahl von Reihen an, die
in den vorausgegangenen Jahrzehnten von Quetelet und seinen Schülern mit
enthusiastischen Kommentaren bedacht worden waren. Das Ergebnis war ver-
nichtend. Der Fall Q < 1 kam nie vor. Der Fall Q = 1 trat nur beim Verhältnis
der männlichen und weiblichen Geburten auf (das heißt bei der Sexualpropor-
tion). In allen anderen Fällen liegt die beobachtete Streuung über der theore-
tischen Streuung und deswegen kann man nicht auf die Konstanz des beschrie-
benen Phänomens schließen. Lexis leitete hieraus ab, daß Quetelets konstante
Ursachen gegebenenfalls für gewisse physikalische Beobachtungen geltend ge-
macht werden können (Sexualproportion), nicht aber für die Moral statistik
und nicht einmal für die Körpergrößen. Deswegen änderte Lexis den Beweis-
apparat, das heißt das erforderliche Werkzeug, wobei er das Ziel verfolgte,
die Dinge solide und stabil zu machen. Quetelet hatte die Regelmäßigkeit der
Mittelwerte mit der Normalverteilung kombiniert und schloß daraus auf eine
konstante Ursache. Für Lexis reichte das nicht aus, denn er zeigte, daß die
scheinbaren Normalverteilungen eine größere Streuung aufweisen konnten, als
es beim Binomialmodell der Fall war – daher ließ sich das Ergebnis auf ei-
ne Vielzahl von Urnen zurückführen. Nun war es erforderlich, die Bedingung
R = r zu erfüllen, wenn man von einer konstanten Ursache sprechen wollte.
Einzig und allein die Sexualproportion überlebte dieses Massaker.
Der Durchschnittsmensch von Quetelet war also zur Zielscheibe hitzi-
ger Attacken geworden. Cournot verspottete den Durchschnittsmenschen: ein
13
Man kann einen Indikator p dieser Variation der Urnenfüllung abschätzen, indem
man feststellt, daß R2 = r2 +p2 gilt. Das erklärt die Zerlegung der Gesamtvarianz
in Intraklassen-Varianzen“ und Interklassen-Varianzen“.
” ”
108 3 Mittelwerte und Aggregatrealismus

Mensch, dessen körperliche Merkmale die Mittelwerte der bei vielen Individu-
en gemessenen entsprechenden Merkmale sind, wäre weit davon entfernt, ein

Modell für die menschliche Spezies zu sein – vielmehr wäre es ein unmöglicher
Mensch oder zumindest haben wir bislang keinerlei Anlaß, ihn als möglich an-
zusehen. (Cournot, 1843, [51].) Darüber hinaus hob Cournot den Konventions-
charakter der statistischen Nomenklatur hervor und versetzte dadurch dem
Begriff der konstanten Ursache“ einen Schlag. Lexis hatte seinerseits diesen

Begriff bereits einer rein internen Kritik unterzogen. Jedoch waren die Effizi-
enz der Argumentation von Quetelet und seine Fähigkeit, von unbeständigen
Individuen auf eine soziale Beständigkeit zu schließen, so stark, daß die Sozi-
alwissenschaften häufig der Versuchung nicht widerstehen konnten, auf diese
Argumentation mit folgendem Ziel zurückzugreifen: man wollte eine auto-
nome Existenz des Ganzen begründen, auch wenn der Durchschnittsmensch
gleichzeitig als Trugbild des Menschen im Allgemeinen – und des moralischen
Menschen im Besonderen – in Erscheinung trat. Dieser für die statistische
Rhetorik ganz besondere Widerspruch läßt sich zum Beispiel bei Durkheim
und in der von ihm inspirierten Soziologie erkennen, wenn auf die schweren
Geschütze umfangreicher Erhebungen zurückgegriffen wird, deren Überzeu-
gungskraft man oft gleichzeitig zur Schau stellt und leugnet. Eines der Zie-
le des vorliegenden Buches besteht darin, diese zumeist implizit auftretende
Spannung explizit zu machen.

Durchschnittstyp und Kollektivtyp bei Durkheim

Ab etwa 1830 wurde die Statistik von den Sozialwissenschaften in umfassen-


der Weise bei Argumentationen und Beweisen eingesetzt. Dieser massive Ein-
satz warf unterschiedliche Fragen auf: Zu welchem Zweck? (Was soll bewiesen
werden?); Auf welche Art und Weise? (Welche Werkzeuge und welche Rheto-
rik sollen verwendet werden?). Die Antworten auf diese Fragen änderten sich
deutlich um das Jahr 1900, als die mathematische Statistik englischen Stils die
Bühne betrat. Im 19. Jahrhundert wurden statistische Argumente vor allem
dazu benutzt, makrosoziale Totalitäten festzumachen, indem man – durch die
von Quetelet eröffnete Sichtweise – auf Mittelwerte zurückgriff (obschon Ana-
lysen in Form von Abweichungen oder Mittelwertdifferenzen“ bereits früher

verwendet worden waren, wie wir am Beispiel der numerischen Methode“ der

Ärzte oder bei Cournot gesehen hatten). Im 20. Jahrhundert dagegen diente
die Statistik dazu, den gefundenen Beziehungen einen festen Zusammenhalt
zu verleihen, was Karl Pearson und Ronald Fisher sowie den von ihnen ge-
prägten Begriffen der Regressionsgeraden, des Korrelationskoeffizienten und
der Varianzanalyse zu verdanken war (auch wenn die Identifikation der Ob-
jekte dabei immer weiter instrumentiert worden ist – insbesondere durch die
Testtheorie und die inferentielle Statistik, die von Jerzy Neyman, Egon Pear-
son und Ronald Fisher geschaffen wurden).
Durchschnittstyp und Kollektivtyp bei Durkheim 109

Der Durchschnittsmensch von Quetelet beruhte auf der Kombination zwei-


er Elemente: zeitliche Regelmäßigkeiten wurden mit Gaußschen Verteilun-
gen14 zusammengebracht. Das erste Element hielt den Anwendungen besser
stand als das zweite und wurde – zum Beispiel in der Durkheimschen Sozio-
logie – häufig als ausreichend beurteilt. Aber das zweite Element war noch
im 19. Jahrhundert ein gewichtiges Argument, mit dem man die Existenz
der Tierarten und der menschlichen Spezies begründete. Man denke hier bei-
spielsweise an Adolphe Bertillon und seine berühmten Rekruten von Doubs
(1876, [13]). Die Verteilung der Körpergrößen der Soldaten aus diesem Depar-
tement war weder Gaußsch noch eingipflig wie anderswo, sondern wies zwei
merkwürdige Buckel auf (zweigipflige Verteilung). Bertillon leitete hieraus ab,
daß diese bizarre Form das Ergebnis der Superposition zweier Normalvertei-
lungen war und daß es sich bei der Bevölkerung von Doubs um eine Mischung
zweier verschiedener ethnischer Gruppen handelte: Burgunder und Kelten.15
Der statistische Durchschnittstyp und seine zeitliche Regelmäßigkeit wur-
den von Durkheim in massiver Weise dazu verwendet, die Existenz eines aus-
serhalb der Individuen stehenden Kollektivtyps zu untermauern – zumindest
tat Durkheim dies in seinen ersten beiden Büchern: Über soziale Arbeitsteilung
(La Division du travail social, 1893, [76]) und Die Regeln der soziologischen
Methode (Les Règles de la méthode sociologique, 1894, [77]). Im Gegensatz
hierzu distanzierte er sich in Der Selbstmord (Le Suicide, 1897, [78]) vom Que-
teletschen Durchschnittstyp, den er sorgfältig vom Kollektivtyp unterschied.
Dieser Sprachwechsel kann mit verschiedenen Konstrukten zusammenhängen,
in denen er den Durchschnittsmenschen in jedem der drei Fälle auftreten läßt:
es handelt sich um die Effekte der Vererbung in Über soziale Arbeitsteilung,
um die Definition der Begriffe normal“ und pathologisch“ in Die Regeln der
” ”
soziologischen Methode und um die Interpretation einer seltenen statistischen
Tatsache in Der Selbstmord.
Im Jahre 1893 bestand Durkheim (ausgehend von den Ergebnissen Gal-
tons) in der Diskussion, die über das relative Gewicht der Vererbung und des
sozialen Milieus geführt wurde, auf der Konstanz des Durchschnittstyps, des-
sen Merkmale durch Vererbung übertragen werden, während die individuellen
Züge volatil und transitorisch sind:

Nun ist aber der Durchschnittstyp einer natürlichen Gruppe derje-


nige, der den Bedingungen des durchschnittlichen Lebens, das heißt
14
Außer der Bezeichnung Gaußsche Verteilung verwendet man für die Normalver-
teilung auch den Begriff Gauß-Verteilung.
15
Der Italiener Livi (zitiert von Stigler [267]) behauptete 1896, daß es sich bei die-
sem Ergebnis um ein Artefakt handelte, das auf einen Umrechnungsfehler von
Zoll in Zentimeter zurückzuführen sei. Der Text von Bertillon (1876, [13], S. 287–
291) scheint diese Kritik nicht zu bestätigen. Ohne sich weiter damit aufzuhalten,
machte Bertillon einen anderen Vorschlag: Der dem zweiten Maximum entspre-
chende Schnitt“ der Körpergrößen ermöglicht den Rekruten die Aufnahme in die

Kavallerie und in die Pioniertruppe, wodurch sie der Infanterie entgingen.
110 3 Mittelwerte und Aggregatrealismus

den gewöhnlichsten Bedingungen entspricht. Er drückt die Art aus,


wie sich die Individuen dem angepaßt haben, was man das durch-
schnittliche Milieu nennen kann, sei es das physische oder das soziale
Milieu; das heißt jenes, in dem die Mehrzahl lebt. Diese mittleren
Bedingungen waren in der Vergangenheit aus demselben Grund die
häufigsten, aus dem sie in der Gegenwart ganz allgemein verbreitet
sind; es handelt sich also um diejenigen Bedingungen, unter denen
der größte Teil unserer Vorfahren gelebt hat. Zwar haben sich diese
Bedingungen mit der Zeit geändert, aber im allgemeinen tun sie dies
nur sehr langsam. Der Durchschnittstyp bleibt also während langer
Zeit im wesentlichen derselbe. Demnach wiederholt er sich auch am
häufigsten und gleichmäßigsten in der Folge vergangener Generationen
– zumindest innerhalb derjenigen Generationen, die uns nahe genug
stehen, um uns ihren Einfluß spüren zu lassen. Dieser Konstanz ist es
zu verdanken, daß der Durchschnittstyp eine Beständigkeit erwirbt,
die ihn zum Schwerpunkt des Erbeinflusses macht. (Durkheim, Über
soziale Arbeitsteilung, 1893, [76].)

Auf diese Weise gab Durkheim dem Durchschnittstyp und den Merkmalen,
die eine Gruppe als Kollektiv charakterisieren, das von seinen Mitgliedern
verschieden ist, eine Darwinsche Interpretation, die in seinen späteren Werken
weniger offensichtlich war (bei Halbwachs dann aber häufig auftrat).
In seinem Werk Die Regeln der soziologischen Methode versuchte Durk-
heim (1894, [77]), die Normalität (den Gesundheitheitsstandard“) als Gegen-

satz zum Pathologischen zu definieren. Anhand des folgenden Auszugs erken-
nen wir, in welchem Maße die Rhetorik Quetelets die Sozialwissenschaften des
19. Jahrhunderts durchdrungen hatte:

Wir werden diejenigen Tatbestände normal“ nennen, welche die all-



gemeinsten Erscheinungsweisen zeigen, und werden den anderen die
Bezeichnung krankhaft“ oder pathologisch“ beilegen. Kommt man
” ”
überein, als Durchschnittstypus jenes schematische Gebilde zu be-
zeichnen, das man erhält, indem man die in der Art häufigsten Merk-
male mit ihren häufigsten Erscheinungsformen zu einem Ganzen, zu
einer Art abstrakter Individualität zusammenfaßt, so wird man sa-
gen können, daß der normale Typ mit dem Durchschnittstypus ver-
schmilzt und daß jede Abweichung von diesem Gesundheitsstandard“

eine krankhafte Erscheinung ist. Es ist richtig, daß der Durchschnitts-
typus nicht in derselben Reinheit festgestellt werden kann wie der
individuelle Typus, denn seine konstitutiven Attribute stehen nicht
absolut fest, sondern besitzen die Fähigkeit, sich zu ändern. Es steht
jedoch außer Zweifel, daß der Durchschnittstyp konstituiert werden
kann, denn er verschmilzt mit dem Typus der Gattung und der be-
sagte Konstitutionsvorgang ist eine unmittelbare Angelegenheit der
Wissenschaft. Das, was der Physiologe untersucht, sind die Funktio-
Durchschnittstyp und Kollektivtyp bei Durkheim 111

nen des Durchschnittsorganismus, und beim Soziologen ist es nicht


anders (Durkheim, Die Regeln der soziologischen Methode, 1894, [77].)
Drei Jahre später, in Der Selbstmord, hatte sich Durkheims Position in Be-
zug auf den Durchschnittsmenschen und dessen Regelmäßigkeiten vollständig
geändert. In seinen beiden vorhergehenden Werken hatte er sich auf die Sta-
bilität des Durchschnittstyps berufen, der im Gegensatz zur Variabilität der
individuellen Fälle stand. Damit wollte Durkheim die (nach der Terminologie
von Dumont, 1983, [73]) holistische Position begründen, gemäß der das Ganze
außerhalb der Individuen steht und ihnen vorangeht. Dagegen repatriierte er
in Der Selbstmord den statistischen Mittelwert in das Universum des metho-
dologischen Individualismus und verglich den Kollektivtyp“ nun nicht mehr

mit dem Durchschnittstyp“. Die Rhetorik von Quetelet produziert nicht mehr

als einen wertlosen Holismus: der statistische Durchschnittsmensch ist häufig
nur ein elendes und verkommenes Subjekt, das weder seine Steuern bezah-
len will noch in den Krieg ziehen möchte. Der Durchschnittsmensch ist kein
guter Bürger. Es hat den Anschein, daß hier erstmalig eine klare Trennung
zwischen zwei heterogenen Diskursen in Bezug auf das Thema stattgefunden
hat, welche Art von Unterstützung die Sozialwissenschaften in der Statistik
finden können. Für die einen liefert die Statistik Beweise, die nicht ignoriert
werden dürfen. Für die anderen geht die Statistik am Wesentlichen vorbei.
Das Paradoxe hierbei ist, daß Der Selbstmord – also ein Werk, das weithin
als Ausgangspunkt der quantitativen Soziologie betrachtet wird (vor allem
wegen der massiven Verwendung von Sterbestatistiken) – auch die holistische
Interpretation des Queteletschen Durchschnittsmenschen (und somit die glei-
che Statistik) radikal verurteilt. Wir können die Spur der Entfaltung dieser
Kritik nachverfolgen, die zur Begründung eines Ganzen führte, das sich ra-
dikal vom Durchschnittsmenschen unterschied und eine Totalisierung anderer
Natur entwarf:
Als Quetelet die Aufmerksamkeit auf die überraschende Regelmäßig-
keit lenkte, mit der sich bestimmte soziale Phänomene während glei-
cher Zeitspannen wiederholen, glaubte er, diese Regelmäßigkeit durch
seine Theorie des Durchschnittsmenschen erklären zu können, das
heißt durch eine Theorie, welche die einzige systematische Erklärung
für diese bemerkenswerte Eigenschaft geliefert hat. Nach Quetelet gibt
es in jeder Gesellschaft einen bestimmten Typus, der mehr oder we-
niger genau von der Mehrzahl der einzelnen Individuen reproduziert
wird, wobei nur eine Minderheit – unter dem Einfluß von störenden
Ursachen – die Tendenz zur Abweichung aufweist ... Quetelet hat die-
sem vorherrschenden Typus die Bezeichnung Durchschnittsmensch“

gegeben, denn man erhält diesen fast genau, wenn man das arithme-
tische Mittel der individuellen Typen nimmt ... Die Theorie erscheint
sehr einfach. Aber zunächst kann sie erst dann als Erklärung aner-
kannt werden, wenn sie aufzeigen kann, wie es kommt, daß der Durch-
schnittsmensch in der Mehrzahl der Menschen in Erscheinung tritt.
112 3 Mittelwerte und Aggregatrealismus

Eine Voraussetzung dafür, daß er – der Durchschnittsmensch – sich


selbst gleich bleiben kann, während sich die Einzelmenschen ändern,
besteht darin, daß der Durchschnittsmensch in gewisser Weise von den
Einzelmenschen unabhängig ist; und doch muß es irgendeinen Weg ge-
ben, auf dem der Durchschnittsmensch unmerklich im Einzelnen wie-
derum in Erscheinung treten kann. (Durkheim, Der Selbstmord, 1897,
[78].)
Durkheim versuchte zu präzisieren, auf welche Weise sich die moralische

Konstitution von Gruppen“ radikal von der entsprechenden Konstitution der
Individuen unterscheidet. Er führt die Gemütsart“ einer Gesellschaft an, die

sie nicht von heute auf morgen“ ändern kann. Er spricht von sozialer Coe-
” ”
nesthesia“, wobei der coenesthesische Zustand das bezeichnet, was bei den

kollektiven Entitäten und bei den Individuen das Persönlichste und Unwan-
delbarste ist, da es nichts Fundamentaleres gibt“ (wir erinnern daran, daß die-
ses Konstrukt dazu verwendet wird, die einer sozialen Gruppe innewohnende
Tendenz zum Selbstmord zu bestätigen). Er stellt ausführlich dar, wieso das
kollektive Moralgefühl von den individuellen Verhaltensweisen der überwie-
genden Mehrheit stark abweichen kann und mitunter im Gegensatz zu diesen
steht – ein Umstand, der den unglücklichen Durchschnittstyp“ vollständig

vom Kollektivtyp“ einer Gesellschaft distanziert:

Nicht allzu viele Leute haben einen hinreichenden Respekt für die
Rechtssphäre des Nächsten und ersticken nicht jeden Wunsch im
Keim, sich unrechtmäßig zu bereichern. Damit soll nicht in Abrede
gestellt werden, daß sich durch die Erziehung eine gewisse Distanz
gegenüber Handlungen entwickelt, die dem Gerechtigkeitssinn zuwi-
derlaufen. Aber welch ein Abstand besteht zwischen diesem vagen,
zögerlichen und stets kompromißbereiten Gefühl und der kategori-
schen, vorbehaltlosen und nichts verschweigenden Ächtung, mit der
die Gesellschaft alle Formen von Diebstahl bestraft! Und was ist mit
den vielen anderen Pflichten, die im Durchschnittsmenschen noch we-
niger verwurzelt sind? Wie steht es mit der Pflicht, die uns gebie-
tet, unseren Anteil an den öffentlichen Ausgaben zu tragen, den Fis-
kus nicht zu betrügen, sich nicht geschickt vor dem Militärdienst zu
drücken und unsere Verträge getreu zu erfüllen? Müßte sich die Moral
auf die schwankenden Gefühle im Gewissen des Durchschnittsmen-
schen stützen, dann wäre es außerordentlich schlecht um diese Moral
bestellt. Es ist also ein grundlegender Irrtum, den Kollektivtyp einer
Gesellschaft mit dem Durchschnittstyp der Individuen zu verwechseln,
aus denen sie sich zusammensetzt. Der Durchschnittsmensch hat eine
unzulängliche Moral. Nur die allerwichtigsten ethischen Grundsätze
haben sich ihm mit einiger Kraft eingeprägt, aber auch diese sind
weit von der Schärfe und Autorität entfernt, mit der sie im Kollek-
tivtyp, das heißt in der Gesamtheit der Gesellschaft auftreten. Diese
Verwechslung, die Quetelet unterlaufen ist, macht die Frage der Ent-
Durchschnittstyp und Kollektivtyp bei Durkheim 113

stehung von Moralgesetzen zu einem unbegreiflichen Problem. (Durk-


heim, Der Selbstmord, 1897, [78].)

Die Verwendung statistischer Daten schien also ambivalent zu sein. Durk-


heim benutzte sie, faßte sie aber nur mit den Fingerspitzen“ an. Die Daten

implizierten kollektive Tendenzen außerhalb der Individuen, aber diese Ten-
denzen ließen sich auf direkte Weise feststellen (das heißt ohne Statistik):
Einerseits impliziert die Regelmäßigkeit der statistischen Daten, daß
es Kollektivtendenzen gibt, die außerhalb der Individuen liegen; an-
dererseits können wir in einer beträchtlichen Anzahl wichtiger Fälle
diese Exteriorität direkt feststellen. Aber dieser Umstand ist durchaus
keine Überraschung für jemanden, der die Heterogenität individueller
und sozialer Zustände erkannt hat ... Daher besteht das Mittel zur
Berechnung eines beliebigen Elements eines Kollektivtyps nicht darin,
die Größe dieses Elements innerhalb (der einzelnen Realisierungen)
des individuellen Bewußtseins zu messen und dann den Durchschnitt
aller dieser Messungen zu bilden; vielmehr müßte man die Summe die-
ser Größen nehmen. Aber selbst dann läge dieses Bewertungsverfahren
ziemlich weit unter der Wirklichkeit, denn man bekäme damit ledig-
lich einen Wert für das soziale Empfinden, vermindert um all das, was
bei der Individualisierung verlorenging. (Durkheim, Der Selbstmord,
1897, [78].)
Die Zweideutigkeit in Bezug auf die Statistik und ihre Interpretation ist
also in diesem Werk klar erkennbar, das oft als Auftakt zum Königsweg der
Quantifizierung angesehen wird, den später die Sozialwissenschaften des 20.
Jahrhunderts beschritten haben. Diese Zweideutigkeit wirft ein fundamentales
und häufig unterschlagenes Problem auf, das vor allem auf die Arbeitsteilung
zurückzuführen ist, die in der Folgezeit zwischen den Begründern der Statistik
und Historikern, Ökonomen und Soziologen stattfand. Jeder dieser Fachleu-
te verwaltet sein eigenes Segment, das durch die Produktionstechnologie der
relevanten Objekte und durch eine Art Ad-hoc-Argumentation definiert ist.
Der genannte interne Widerspruch der Durkheimschen Rhetorik könnte dazu
verwendet werden, die eine oder andere dieser Positionen zu denunzieren oder
herabzusetzen. Der Statistiker würde über das lächeln, was ihm eine Form
des metaphysischen Holismus zu sein scheint, während sich der Soziologe –
in Verbundenheit mit der Idee, daß die sozialen Strukturen die individuel-
len Verhaltensweisen konditionieren – auf die Statistik stützen würde, um
Strukturen und Verhaltensweisen zu beschreiben; im selben Atemzug würde
er jedoch ausführen, daß Statistik nichts erklärt. Ein möglicher Ausweg aus
dieser Debatte besteht darin, einzeln die verschiedenen Möglichkeiten der To-
talisierungen und die allgemeineren – philosophischen und politischen – argu-
mentativen Grammatiken darzulegen, in deren Rahmen diese Totalisierungen
stattfinden.
114 3 Mittelwerte und Aggregatrealismus

Daher ist die Durkheimsche Unterscheidung zwischen dem Kollektivtyp,


der das Spiegelbild des Ideals eines guten Staatsbürgers darstellt, und dem
Durchschnittstyp – das heißt der arithmetischen Mittelwertbildung einer Ge-
samtheit von egoistischen Individuen – ein direkter Nachhall der von Rousseau
im Gesellschaftsvertrag vorgenommenen Unterscheidung zwischen dem allge-
meinen Willen und dem Willen aller (Dumont, 1983, [73]).16 Der letztere ist
lediglich eine Aggregation der individuellen Willensäußerungen, während der
erstere diesen individuellen Willensäußerungen vorangeht und qualitativ über
ihnen steht. Der allgemeine Wille existiert vor dem Mehrheitsbeschluß, der ihn
offenbart, aber nicht erzeugt. Nach Durkheim (der Rousseau kommentiert) ist
der allgemeine Wille eine feste und konstante Orientierung der Geisteshal-

tungen und der Aktivitäten in eine bestimmte Richtung, nämlich in Richtung
des allgemeinen Interesses. Es handelt sich um eine chronische Disposition
der individuellen Subjekte“ (in: Montesquieu und Rousseau, Wegbereiter der
Soziologie 17 ).

Der Realismus der Aggregate


Eine immer wiederkehrende Frage hat dieses Kapitel durchzogen: Wie kann
man kollektiven Objekten, das heißt Aggregaten von Individuen, einen festen
Zusammenhalt verleihen? Diese Frage geht weit über die Geschichte der Sta-
tistik hinaus und durchdringt die Geschichte der Philosophie und der Sozial-
wissenschaften – von der Gegenüberstellung von Realismus und Nominalismus
bei Ockham bis hin zur Gegenüberstellung von Holismus und Individualismus
bei Dumont. Wir haben hier die Wahl getroffen, diese Frage auf der Grundlage
der Debatten zu verfolgen, die über den statistische Mittelwert geführt wur-
den – vor allem ging es um die betreffende Formulierung von Quetelet, die auf
der Alles vereinheitlichenden Idee der konstanten Ursache aufbaut. Die Ver-
wendung dieses Werkzeugs durch die Ärzte und Hygieniker hat gezeigt, daß
– jenseits der ontologischen Kontroversen – die Konventionen bezüglich der
Aggregationen (deren Berechtigung und Untermauerung von den jeweiligen
Umständen abhängt) ihre Bedeutung im Rahmen der einschlägigen Prakti-
ken erlangen. Wenn sich die Akteure auf die derart konstruierten Objekte
16
Der Begriff Gesellschaftsvertrag (contrat social) ist untrennbar mit Jean-Jacques
Rousseau (1712–1778) verbunden. Die Menschen verpflichten sich zum Zweck der
Selbsterhaltung zur Einhaltung der gemeinsam festgelegten Werte und Normen.
Der volonté générale (allgemeiner Wille) stellt das allein verbindliche und inte-
grierende Element dar und überstimmt den volonté de tous (Wille aller), der nicht
notwendigerweise mit dem volonté générale übereinstimmen muß.
17
E. Durkheim (Paris, 1892), Montesquieu et Rousseau, précurseurs de la sociologie;
in deutscher Sprache (auszugsweise): Thèse von 1892. Montesquieus Beitrag zur
Gründung der Soziologie. In: Heisterberg, L. (Hrsg.), Émile Durkheim, Frühe
Schriften zur Begründung der Sozialwissenschaft. Darmstadt/Neuwied 1981, S.
85–128.
Der Realismus der Aggregate 115

stützen können und diese Objekte den entsprechenden Zerstörungsprüfungen


standhalten, dann existieren die Aggregate – zumindest in dem Zeitabschnitt
und in dem Bereich, in denen sich die betreffenden Praktiken und Tests als
erfolgreich erwiesen haben.
Die Technologien, die dazu fähig sind, diesen Objekten Zusammenhalt zu
verleihen – oder aber sie zu zerstören – haben sich entwickelt und verfestigt.
Ein schönes Beispiel hierfür ist das Modell von Quetelet, das für eine gewisse
Zeitdauer und auf der Grundlage von ausgesprochen individuellen Aufzeich-
nungen ein holistisches Bild geliefert hat. Dieses Modell wurde in der Folge-
zeit von zwei Seiten angegriffen – im Namen eines strikteren Nominalismus
(Moreau de Jonnès, d’Amador, Lexis) oder, ganz im Gegensatz hierzu, im
Namen eines radikal anderen Holismus (z.B. durch Durkheim, der den Rous-
seauschen Begriff des allgemeinen Willens“ aufgegriffen hat). Poisson hat ver-

sucht, mit dem starken Gesetz der großen Zahlen“ den Gültigkeitsbereich des

Modells zu erweitern, aber sein Standpunkt war ursprünglich nicht makroso-
zial. Bienaymé und Cournot haben – jeder auf seine Weise – die Anwendungs-
regeln des Modells diversifiziert und damit den Weg für einen moderneren
Modellbegriff vorbereitet, der weniger ontologisch, dafür aber konventiona-

listischer“ angelegt ist. Die unterschiedlichen Tendenzen sollten bald von der
englischen mathematischen Statistik verfeinert werden – gleichwohl bleibt die
Frage nach dem Realismus und der Natur der von den neuen Werkzeugen de-
monstrierten Kausalität von dem Zeitpunkt an wesentlich, an dem man sich
für die Rhetoriken interessiert, die diese Werkzeuge mit allen anderen Dingen
des Lebens verbinden.
4
Korrelation und Ursachenrealismus

Die Statistik nach Art von Quetelet zielte darauf ab, kollektiven Dingen durch
die Aggregation von Individuen einen Zusammenhalt zu geben. Der Begriff der
Ursache erschien nur als externe Hypothese ( konstante Ursache“), welche die

Konsistenz dieser Dinge gewährleistet. Die Stärke des Zusammenhangs zwi-
schen Ursache und Wirkung wurde jedoch nicht gemessen, das heißt es fand
keine entsprechende statistische Instrumentierung statt. Das Konstrukt Que-
telets stützte sich auf Verwaltungsaufzeichnungen, die ihrerseits seinem eige-
nen Vorhaben vorangingen und nicht dazugehörten. Die statistische Rhetorik
war noch stark von kognitiven und sozialen Quellen abhängig, die außerhalb
der neuen Logik standen, um deren Förderung diese Rhetorik bemüht war.
Diese doppelte Abhängigkeit machte die statistische Rhetorik gegenüber al-
ler Art von Kritik verwundbar, wie wir es anhand der Beispiele von Cournot
und Lexis gesehen hatten. Das Gefühl der Fremdartigkeit, das manche der
früheren Kontroversen heute hervorrufen, rührt von der Tatsache her, daß
die Statistiker jener Zeit plausible Zusammenhänge und Übersetzungen erfin-
den mußten, mit deren Hilfe sie ihre noch dürftigen Werkzeuge mit anderen
Rhetoriken verknüpften – mit Rhetoriken philosophischer, politischer und ad-
ministrativer Natur. Zu diesem Zweck schufen sie neue Objekte und setzten
diese in Szene. Um aber andere Akteure zu befähigen, sich dieser Objekte zu
bemächtigen und sie in die eigenen Konstruktionen einzubeziehen, mußten die
Objekte nicht nur eine innere Konsistenz aufweisen, sondern auch dazu fähig
sein, untereinander in stabile Beziehungen zu treten. Die Statistiker mußten
nicht nur solide Dinge, sondern auch den Mechaniker“ liefern, der diese Dinge

wie in einem Stabilbaukasten miteinander verschraubt“ und ihnen dadurch

Zusammenhalt verleiht. Dieses Werk sollte von Galton, Pearson und den eng-
lischen mathematischen Statistikern vollbracht werden.
Man kann das Unternehmen Statistik“ a posteriori auch als das uner-

wartete Produkt zweier verschiedener Projekte auffassen, von denen keines
a priori in diese Richtung ging – denn das eine Projekt war deutlich poli-
tisch ausgerichtet, das andere hingegen eher philosophisch (Mac Kenzie, 1981,
[183]). Beide Projekte sind heute im Großen und Ganzen vergessen, aber die
118 4 Korrelation und Ursachenrealismus

Begriffe der Korrelation, der Regression, des Chi-Quadrat-Tests1 und der mul-
tivariaten Analyse, die aus diesen Projekten hervorgingen, sind die Eckpfeiler
der modernen Statistik geworden. Was haben eine heute fast einstimmig ab-
gelehnte politische Linie (Eugenik), eine für ihre Zeit erstklassige und scharf-
sinnige Erkenntnistheorie und ein mathematisches Werkzeug gemeinsam, dem
eine glänzende Zukunft bestimmt war? Keines der drei Elemente implizierte
logisch die beiden anderen – in der Tat wurde jedes dieser Elemente später
von Akteuren aufgegriffen, die nichts von den jeweils anderen beiden Elemen-
ten wußten. Dennoch waren die drei Projekte im Verstand von Karl Pearson
miteinander verknüpft und es ist keineswegs sicher, daß er seine eigenen stati-
stischen Innovationen für wichtiger hielt als sein epistemologisches Credo oder
seine politischen Aktivitäten.
Wir stellen hier zunächst die Philosophie Karl Pearsons vor, die er in sei-
nem Buch Die Grammatik der Wissenschaft 2 zum Ausdruck brachte. Wir ha-
ben dieses Werk einerseits deswegen ausgewählt, weil es entschieden Position
gegen den Begriff der Kausalität bezog. Zum anderen erkennt man anhand der
nachfolgenden Neuausgaben, wie Pearson seinerseits den Galtonschen Begriff
der Korrelation übernahm, der ursprünglich in seinem Buch nicht vorhan-
den war. Pearsons Erkenntnistheorie gehört zu einer antirealistischen empiri-
stischen Strömung, die mit Ernst Mach begann und mit dem Wiener Kreis
endete. Das von Pearson in der Folgezeit entwickelte politische und wissen-
schaftliche Projekt liegt auf einer Linie, die sich von Darwin und Galton bis
hin zu den Vorhaben erstreckt, die menschliche Spezies auf der Grundlage der
Vererbung zu verbessern – das vielfache Echo, das dieses Vorhaben auslöste,
war mindestens noch bis in die 1950er Jahre zu vernehmen. Das Projekt zerfiel
in zwei miteinander zusammenhängende Aspekte. Der eine (politische) Aspekt
war die Eugenik , der andere (wissenschaftliche) Aspekt die Biometrie. Und in
dem bedeutenden Labor für biometrische Forschungen3 entstand die mathe-
matische Statistik. Die Werkzeuge der mathematischen Statistik wurden in
der ersten Hälfte des 20. Jahrhunderts auf unzähligen Gebieten aufgegriffen,
insbesondere in den Humanwissenschaften. Hingegen ließ man die antireali-
stische Erkenntnistheorie ebenso fallen wie das Vorhaben der Menschheitsver-
besserung durch die biologische Auslese der Besten.
Wir können die Abstammung der beiden Hauptwerkzeuge verfolgen: die
Herkunft der Regression zum Beispiel anhand ihrer Weiterführung in den
ökonometrischen Modellen, die in den 1920er und 1930er Jahren entwickelt
wurden, und die Herkunft der Korrelation anhand ihrer Anwendungen in
der Psychometrie4 (zur Messung von Fähigkeiten und insbesondere der In-
1
Auch als χ2 -Test oder Chiquadrat-Test bezeichnet.
2
Karl Pearson, The Grammar of Science, London 1892. Dieses Buch ist offenbar
nicht ins Deutsche übersetzt worden.
3
Francis Galton Eugenics Laboratories.
4
Messung psychischer Vorgänge“, besonders des Zeitfaktors bei psychischen Pro-

zessen. Der Begriff bezieht sich überwiegend auf psycho-physische und psycho-
technische Messungen.
4 Korrelation und Ursachenrealismus 119

telligenz), die zur mehrdimensionalen Faktorenanalyse führte. Eine wichtige


Trennlinie in diesem Universum der statistischen Formalismen – die seit Karl
Pearson so reichlich vorhanden waren – wurde durch den Rückgriff auf Wahr-
scheinlichkeitsmodelle in einem Prozeß errichtet, für den man mitunter auch
die Bezeichnung inferentielle Revolution“ verwendet (Gigerenzer und Mur-

ray, 1987, [106]). Diese Linie dominierte ab 1960, aber einige Akteure zogen
es vor, Abstand zu halten: sie versuchten, mit Hilfe rein deskriptiver Analysen
und ohne Wahrscheinlichkeitsmodelle, eine dem Universum zugrunde liegende
Ordnung nachzuweisen – eine Sichtweise, die vielleicht an Quetelet erinnert
(Benzécri, 1982, [12]).
Im Zusammenhang mit der Erweiterung der Techniken zur Zusammenfas-
sung und Formulierung einer großen Anzahl von Beobachtungen ist die Ent-
wicklung von Aufzeichnungs- und Kodierungsverfahren durch die Konstrukti-
on gemeinsamer Meßräume zu sehen: Nomenklaturen, Skalen, standardisierte
Fragebögen, Zufallsstichprobenerhebungen, Methoden zur Identifizierung und
Korrektur von abweichenden Fällen, Prüfung und Zusammenlegung von Kar-
teien. Diese gleichzeitige Entwicklung der Techniken zur Aufzeichnung und
Aufbereitung einer Menge – oder besser gesagt: einer Unmenge – neuer Ob-
jekte bewirkte eine beträchtliche Erweiterung des Realitätsraumes des stati-
stischen Universums und ließ den Grenzbereich ziemlich weit zurücktreten, an
dem sich die statistische Rhetorik mit anderen Rhetoriken konfrontiert sah.
Im 19. Jahrhundert war dieser Raum noch eng und man stieß schnell an sei-
ne Grenzen. Heute ist er so riesengroß geworden, daß manche Statistiker nur
selten Gelegenheit haben, mit den Grenzbereichen in Berührung zu kommen.
Tagtäglich kann es dazu kommen, daß eine für dieses Universum spezifische
Sprache verwendet wird. Dabei stellt man aber keine Fragen der Art mehr,
wie sie noch von den Exegeten und von den Kritikern Quetelets oder sogar
noch von Karl Pearson in seiner Grammatik der Wissenschaft aufgeworfen
worden waren.
Um es noch einmal zu sagen: es geht hier nicht darum, die Unrichtigkeit
oder die Künstlichkeit dieser Realität im Namen von anderen, mutmaßlich
realeren Konstrukten zu denunzieren. Vielmehr wollen wir diejenigen Kon-
taktzonen untersuchen, die in den meisten Wissenschaften – und ganz beson-
ders in den Sozialwissenschaften – im Allgemeinen zu den blindesten“ und

werkzeugmäßig am schlechtesten ausgestatteten Bereichen gehören. Der Um-
weg über die Geschichte ist deswegen interessant, weil er das Scheinwerferlicht
auf diese Bereiche richtet und die Möglichkeit bietet, die heutigen Routinen
von einer neuen Warte aus zu prüfen. In dieser Hinsicht ist Karl Pearson ex-
emplarisch – aufgrund des Umfangs der von ihm aufgeworfenen Fragen und
auch wegen des heutzutage absurden Aspekts seines politischen Konstruktes.
Viele Autoren haben sich mit Karl Pearson befaßt und ihn aus historischer
Sicht untersucht und beschrieben. Diese Untersuchungen begannen mit Pear-
son selbst (Karl Pearson, 1920, [224]) und mit seinem Sohn (Egon Pearson,
1938, [220]).
120 4 Korrelation und Ursachenrealismus

Karl Pearson: Kausalität, Kontingenz und Korrelation

Im Jahre 1912 gab der Verlag Alcan eine französische Übersetzung der dritten
Auflage (1911) der Grammatik der Wissenschaft heraus. Die erste Auflage war
1892 erschienen. Die neue Auflage hatte neun Kapitel: Kapitel 1 bis 4 und 6 bis
9 waren genau dieselben wie in der Ausgabe von 1892. In diesen Kapiteln ging
es ausschließlich um Wissenschaftsphilosophie und es fiel kein einziges Wort
über Statistik. Die Statistik wurde, wenn auch nur kurz, im fünften Kapitel
angeschnitten: dieses 1911 hinzugefügte Kapitel trägt den Titel Kontingenz

und Korrelation. Unzulänglichkeit des Begriffs der Verursachung“. Pearson
und Yule hatten inzwischen die Begriffe der Korrelation und der Regression
in Publikationen formalisiert, die nie ins Französische übersetzt worden sind.
Der französische Übersetzer des obengenannten Werkes war kein anderer
als Lucien March (1859-1933), seinerzeit Direktor der Statistique générale de
la France (SGF), der Vorläuferin des gegenwärtigen Institut national de la sta-
tistique et des études économiques (INSEE).5 Bei der Übersetzung ließ sich
March von drei Mitarbeitern, den Statistikern Bunle, Dugé de Bernonville
und Lenoir unterstützen. In einer einführenden Bemerkung erläuterte er die
nach seiner Auffassung große Bedeutung des Buches und der Übersetzung.
Dabei nahm er kaum Bezug auf die von Pearson eingeführten statistischen
Innovationen, faßte aber auf sieben Seiten die in dem Buch entwickelte Er-
kenntnistheorie zusammen, die er sich zu eigenen machte. Diese Theorie war
entschieden antirealistisch. Sie behauptete, daß der Mensch nur Gefühle und
Wahrnehmungen kennt, die er auf der Grundlage der von ihm beobachteten
Analogien und Beständigkeiten kombiniert und klassifiziert, die Pearson als
Wahrnehmungsroutinen charakterisierte; die Realität selbst sei nicht erkenn-
bar.
Man ist überrascht, wenn man – aus der Feder des Leiters des Statistischen
Bureaus, der für die ziffernmäßige Beschreibung der französischen Bevölke-
rung verantwortlich zeichnete – Formulierungen liest, die in einem deutlichen
Gegensatz zu dem stehen, was notwendigerweise die praktische Erkenntnisphi-
losophie ausmacht, die er in seiner Position entwickeln mußte, um mit seinem
Umfeld und den Personen zu kommunizieren, die seine Publikationen verwen-
deten. So schrieb er etwa: Ein Wissenschaftler bestätigt weder die Realität

der Außenwelt, noch leugnet er sie“. Konnte er diese Position wirklich auf-
rechterhalten, wenn er mit seinem Minister über Kredite verhandelte, die der
SGF gewährt werden sollten? Der Hinweis auf diesen Widerspruch soll keines-
falls die Vermutung nahelegen, daß March ein konfuser Wissenschaftler oder
gar ein durchtriebener Beamter war. Vielmehr wollten wir andeuten, daß es
sich hier um zwei unterschiedliche Realitätsregister handelte, die präzise iden-
tifiziert und analysiert werden müssen.
5
Dieses 1946 gegründete staatliche Institut für Statistik und Wirtschaftsforschung
erfüllt neben den Aufgaben einer statistischen Bundesanstalt“ auch die eines

Konjunkturinstituts.
Karl Pearson: Kausalität, Kontingenz und Korrelation 121

Die Erkenntnistheorie Pearsons war von der Denkweise des österreichi-


schen Physikers und Philosophen Ernst Mach (1838–1916), eines Spezialisten
für Psychophysiologie der Empfindungen, geprägt worden. Mach hatte auf
der Grundlage seiner eigenen Forschungen zu diesem Gegenstand eine Episte-
mologie entwickelt, die im wissenschaftlichen Erkenntnisprozeß die Rolle der
Beobachtungen und der Sinneswahrnehmungen bevorzugte und die Dinge an

sich“ zugunsten der Farben, der Töne, der Drücke und der Zeitdauer“ ablehn-

te – also zugunsten dessen, was wir üblicherweise als Sinneswahrnehmungen
bezeichnen, die ihrerseits die wahren Elemente der Welt sind“ (Mach, 1904,
[182]). Für Mach löste sich die Vorstellung von der Realität der Außenwelt
auf, da man nicht mehr zwischen dem Inneren und dem Äußeren unterschei-
den konnte. Er lehnte den Begriff der Kausalität als subjektiv ab und ersetzte
ihn durch die Begriffe der Funktion und der Organizität der Erscheinungen
(Paty, 1991, [219]). Begriffe waren für ihn mentale Entitäten, die außerhalb
des Verstandes nicht existieren. Diese Position stand dem Ockhamschen No-
minalismus nahe, unterschied sich aber dennoch teilweise dadurch von ihm,
daß für Mach die Begriffe etwas anderes als Worte sind: sie sind stabil und

inhaltsreich, denn sie sind mit Geschichte und Erfahrung beladen“. Das lenk-
te die Aufmerksamkeit auf die gesellschaftliche Objektivität, die durch lange
Erfahrung und langen Gebrauch erzeugt wird. Die Frage der Akkumulation
von Sinneswahrnehmungen in stabilen und übertragbaren Begriffen legte die
Untersuchung von Prozessen nahe, in deren Verlauf sich eine im Entstehen
begriffene Realität verfestigt. Wir begegnen hier erneut dem Unterschied zwi-
schen einem radikalen Relativismus und einer konstruktivistischen Position,
für welche die Realität existiert, falls sie über einen gewissen Zeitraum in ei-
nem gewissen Humanbereich konstruiert und untermauert worden ist. Aber
weder Mach noch Pearson (der diese Denkweise im Wesentlichen übernahm)
entwickelten diesen Standpunkt weiter, der zugegebenermaßen mehr mit den
Sozialwissenschaften als mit den Naturwissenschaften zusammenhing, auf die
sich Mach und Pearson bezogen hatten.
Eine weitere zentrale Idee von Mach bestand darin, daß die Wissenschaft
(die Trennung von Wissen und Irrtum“) durch einen Ausleseprozeß auf der

Grundlage von Versuch und Irrtum ( trial and error“) gemäß einem adapti-

ven Modell konstruiert wird – in Analogie zu dem Modell, das Darwin für die
Evolution der Lebewesen6 konstruiert hatte: Wissen ist in jedem Fall eine

Erfahrung des Verstandes, die sich für uns direkt oder indirekt als günstig
erweist“. (Mach, 1904, [182].) Die wechselseitige Anpassung der Denkweisen
und der Tatsachen, in denen sich sowohl die Beobachtungen als auch die Theo-
rie ausdrücken, vollzieht sich in einem Prozeß der Ökonomie des Denkens, der
einer biologischen Notwendigkeit entspricht. Der Begriff der Ökonomie des
Denkens war für Mach eine wesentliche Idee, wie im folgenden Satz zum Aus-
6
Ein Nachhall dieses Modells findet sich im Popperschen Begriff der Falsifikation
wieder: Popper gehörte zumindest von diesem Standpunkt zur gleichen intellek-
tuellen Tradition wie Mach und Pearson.
122 4 Korrelation und Ursachenrealismus

druck kommt, der als Definition des Programms der mathematischen Statistik
dienen könnte: Die Wissenschaft läßt sich als Minimierungsproblem auffas-

sen, das darin besteht, die Fakten mit dem geringsten intellektuellen Aufwand
so vollkommen wie nur möglich darzulegen“.
Pearson übernahm diese Sichtweise. Für ihn waren die wissenschaftlichen
Gesetze nichts anderes als Zusammenfassungen, kurze Beschreibungen in einer
mentalen Stenographie und abgekürzte Formeln zur Synthese von Wahrneh-
mungsroutinen mit Blick auf nachfolgende und prognostische Anwendungen.
Diese Formeln erschienen als Beobachtungsgrenzen und erfüllten die strengen
funktionalen Gesetze niemals in vollkommener Weise: Der Korrelationskoef-
fizient ermöglichte eine präzise Messung der Stärke des Zusammenhangs, die
zwischen Null (Unabhängigkeit) und Eins (strikte Abhängigkeit) lag. Ebenso
wie die Realität der Dinge einzig und allein zu pragmatischen Zwecken und
unter dem Vorbehalt benutzt werden konnte, daß es sich um Wahrnehmungs-
routinen handelte, so konnte man auch die Kausalität“ nur als eine erwiesene

Korrelation gelten lassen, die mit einer hohen Wahrscheinlichkeit eintritt. Das
1911 zum Werk Die Grammatik der Wissenschaft hinzugefügte Kapitel 5 über
die Kausalität zeigt den Zusammenhang zwischen statistischen Zusammenfas-
sungen und den Erfordernissen des praktischen Lebens. Diese Formulierung
öffnete das Tor für eine Analyse der Diversität der realen Welten unter Bezug-
nahme auf eine Handlungstheorie, die scheinbar der einzig mögliche Ausweg
aus den Realitätsparadoxien war, welche die statistische Arbeit aufgeworfen
hatte:

Die Begründung für den Begriff der Ursache liegt in der Wahrneh-
mungsroutine. Es besteht keine interne Notwendigkeit für die Natur
dieser Routine, aber ohne sie wäre die Existenz von vernunftbegabten
Wesen mit der Fähigkeit, sich entsprechend zu verhalten, praktisch
unmöglich. Denken ist ein Beweis für die Existenz, aber das Han-
deln und Führen des eigenen Lebens und der eigenen Angelegenhei-
ten zeugen von der Notwendigkeit einer Wahrnehmungsroutine. Die-
se praktische Notwendigkeit ist es, die wir als eine in den Dingen

an sich“ existierende Notwendigkeit herauskristallisiert und unserer
Vorstellung von Ursache und Wirkung zugrundegelegt haben. Diese
Routine ist derart wichtig für das Verhalten vernunftbegabter Wesen,
daß wir Mühe hätten, eine Welt zu verstehen, in der die Begriffe von
Ursache und Wirkung keine Gültigkeit haben. Wir sind nicht nur von
deren absoluter Wahrheit überzeugt, sondern auch davon, daß hinter
diesen Phänomenen eine Realität existiert, die auch die Grundlage
allen Seins ist. Jedoch verhält es sich sogar in der Mehrzahl der rein
physikalischen Phänomene so, daß die Routine eine Sache der Erfah-
rung ist. Unser Glaube an die Erfahrung ist eine Überzeugung, die
sich auf eine Wahrscheinlichkeit stützt; aber wenn wir die Erfahrung
beschreiben sollen, dann würden wir niemals eine Erklärung“ finden,

die eine Notwendigkeit impliziert. (Pearson, 1912, [223], Kap. 5.)
Karl Pearson: Kausalität, Kontingenz und Korrelation 123

Die Idee, daß die aus der Formulierung einfacher Gesetze resultierende
Ökonomie des Denkens nichts anderes ist als eine Ökonomie der Prinzipien

und Ursachen, die den Kanon des wissenschaftlichen Denkens bilden“, wird
von Pearson mit dem Sparsamkeitsgesetz“ verglichen, das man Ockham und

seinem Rasiermesser zuschreibt:

Ockham hat als Erster erkannt, daß das Wissen um das, was jenseits
der Sphäre der Wahrnehmungen liegt, nur ein anderer Name für irra-
tionalen Glauben ist. Hamilton7 formulierte den Kanon von Ockham
in einer vollständigeren und angemesseneren Form: Man darf ohne
Not weder mehr Ursachen noch aufwendigere Ursachen zulassen, um
Erscheinungen zu erklären. (Pearson, 1912, [223].)
Pearsons Entscheidung für die wissenschaftliche Methode, die der Realität

der Dinge“ und der Kausalität“ jegliche vor den Wahrnehmungsroutinen lie-

gende Existenz abspricht, führte ihn zu einer radikalen Lösung des alten Pro-
blems der Willensfreiheit und des Determinismus. Aus dieser Sicht kann der
Wille in keinem Fall eine Primärursache sein, sondern nur ein Zwischenglied
in der Kette, die zur Formierung und Stabilisierung dieser Routinen führt. In
dieser Kette können die determinierenden Elemente sozialer, kultureller oder
erblicher Natur sein. Als Pearson (gegen 1890) die folgende Passage schrieb,
hatte er sich noch nicht auf einen fast vollständigen Hereditarismus festge-
legt, wie er es später tat. Die Forschungsrichtung, die er damals verfolgte,
hätte ihn zu einer kulturalistischen Soziologie, ja sogar zur Definition eines
Habitus führen können, denn die aus den Wahrnehmungs- und Handlungsrou-
tinen gebildete Gesamtheit funktioniert als Programm, das gemäß der Formel
von Bourdieu (1980, [26]) die strukturierte Struktur und die strukturierende

Struktur“ kombiniert – bis auf den wesentlichen Unterschied der Bezugnahme
auf die biologische Vererbung. Die nach außerhalb von uns selbst projizierte

Konstruktion“, mit der die Sinneseindrücke assoziiert werden, bilden eine auf
unterschiedlichen Wegen akkumulierte Erfahrungsreserve, die das konditio-
niert, was man üblicherweise als Willen bezeichnet:

Wird die Handlung durch die unmittelbaren Sinneseindrücke deter-


miniert (die wir mit einer nach außerhalb von uns selbst projizierten
Konstruktion assoziieren), dann kann nicht von einem Willen die Rede
sein, sondern es geht vielmehr um eine Reflex-, Gewohnheits- oder In-
stinkthandlung. Sinneseindrücke und Handlungen erscheinen als Pha-
sen in einer Wahrnehmungsroutine, und wir betrachten die Hand-
lung nicht als Primärursache, sondern als direkte Wirkung einer Sin-
neswahrnehmung. Nichtsdestoweniger sind die ererbten Eigenschaften
unseres Gehirns und sein gegenwärtiger physischer Zustand – unter
7
William Hamilton (1788–1836), Logiker und Philosoph; wichtiger Vorläufer von
Boole, de Morgan und Venn. Nicht zu verwechseln mit dem Mathematiker, Phy-
siker und Astronomen William Rowan Hamilton (1805–1865).
124 4 Korrelation und Ursachenrealismus

Berücksichtigung unserer früheren Lebensweise, Tätigkeit und des all-


gemeinen Gesundheitszustandes, unserer Ausbildung und Erfahrung
– entscheidende Faktoren dafür, welche Sinneseindrücke akkumuliert
werden, wie sie miteinander assoziiert werden und welche Auffassun-
gen sie entstehen lassen. Die Wissenschaft versucht zu beschreiben, auf
welche Weise der Wille durch Wünsche und Leidenschaften beeinflußt
wird, die sich ihrerseits aus der Ausbildung, Erfahrung, Vererbung,
aus dem physischen Temperament und den Krankheiten ableiten – aus
Bestandteilen also, die mit dem Klima, der sozialen Klasse, der Ras-
se oder mit anderen wichtigen Evolutionsfaktoren zusammenhängen.
(Pearson, 1912, [223], Kapitel 4; vor 1892 geschrieben.)

Anhand dieses Textes – der aufgrund des gängigen Bildes von Pearson als
Eugeniker und Hereditarist (zu dem er später wirklich geworden ist) überra-
schend wirkt – erkennt man, bis zu welchem Punkt der Bestand an Theorien
und Interpretationen, aus denen ein Wissenschaftler schöpfen kann, formbar
ist und von einem Netz umfassender Zusammenhänge abhängt, bei denen sich
das vermischt, was man üblicherweise als wohlunterschiedene wissenschaft-
liche, philosophische, soziale oder politische Bestandteile auffaßt. Als Pear-
son dieses schrieb, wußte er noch nicht, welchen Weg er dereinst einschlagen
würde. Die einzige Sache, der er sich sicher war, bestand darin, daß er den Idea-
lismus und das metaphysische Denken der alten englischen Universitäten zu-
gunsten eines wissenschaftlichen Positivismus bekämpfen wollte, dessen Sym-
bol der Physiker und Philosoph Mach war.
Pearson meinte, für diesen Kampf eine entscheidende Waffe geschmiedet
zu haben, indem er den Begriff der Kausalität durch den Begriff der kontingen-
ten Assoziation ersetzte. Unerkennbare Primärursachen und streng punktuelle
Zusammenhänge fegte er zugunsten von Kontingenz tafeln hinweg, indem er
eine Population auf der Grundlage zweier unterschiedlicher Auswahlkriterien
verteilte. Er griff ein bereits von Galton konzipiertes Objekt auf und for-
mulierte es präzise: die zwischen zwei Phänomenen bestehende wechselseitige
Relation, welche zwischen zwei Extrema liegt – zwischen der absoluten Un-
abhängigkeit und der strikten Abhängigkeit. Diese wechselseitige Relation,
die Korrelation, stand als Synonym für die Assoziation. Die Kreuztabellen
wurden als Kontingenz tafeln“ bezeichnet, denn alle Dinge im Universum
” ”
treten nur einmal auf und es gibt weder eine absolute Identität noch eine
Wiederholung“. Diese erstaunliche und des mittelalterlichen Nominalismus
würdige Verkündung erfolgte zu einem Zeitpunkt, an dem der Grundstein
für eine mathematische Statistik gelegt wurde, deren späterer Gebrauch auf
Äquivalenzkonventionen beruhte und das ursprüngliche Glaubensbekenntnis
tatsächlich nur unterpflügen konnte:
Die vollständige Abhängigkeit von einer einzigen meßbaren Ursa-
che ist gewiß eine Ausnahme – wenn sie überhaupt jemals auftritt,
falls nur die Beobachtung hinreichend präzise ist. Diese vollständige
Karl Pearson: Kausalität, Kontingenz und Korrelation 125

Abhängigkeit entspricht einem begrifflichen Grenzwert, dessen rea-


le Existenz zweifelhaft ist. Aber zwischen den beiden Extrema der
absoluten Unabhängigkeit und der absoluten Abhängigkeit können
alle Verknüpfungsstufen auftreten. Verändern wir die Ursache, dann
ändert sich das Phänomen, aber nicht immer im gleichen Maße: seine
Änderung unterliegt einer Schwankung. Je geringer diese Schwankung
ist, desto enger definiert die Ursache das Phänomen und desto ex-
akter können wir behaupten, daß eine Assoziation oder Korrelation
vorhanden ist. Dieser Begriff der Korrelation zwischen zwei Ereignis-
sen umfaßt alle Relationen – von der strikten Unabhängigkeit bis hin
zur vollständigen Abhängigkeit. Der Begriff der Korrelation ist die
umfassendste Kategorie, durch die wir den alten Begriff der Verursa-
chung zu ersetzen haben. Jedes Ding im Universum tritt nur einmal
auf und es gibt weder eine absolute Identität noch eine Wiederholung.
Die individuellen Phänomene können nur geordnet werden. (Pearson,
1912, [223].)

Pearson war davon überzeugt, daß diese beiden Ideen – der Begriff der
Kontingenz und der Begriff der Korrelation – zu einer grundlegenden episte-
mologischen Revolution führen würden: Die Subsumierung aller Phänomene

des Universums unter der Kategorie der Kontingenz – und nicht unter der
Kategorie der Kausalität – ist ein epochaler Vorgang in der Ideengeschichte“.
Aber er wußte auch, daß es sich bei den Begriffen der Realität, der Ursa-
che und der Funktion – die für das praktische Leben und für das Handeln
unerläßlich sind – um begriffliche Grenzwerte“ handelte, die der Mensch in

außerhalb von ihm liegende Realitäten transformiert. Dadurch schuf sich der
Mensch die Möglichkeit eines Registers von Realitäten, die sich von den Rea-
litäten der kontingenten und a priori heterogenen Individuen unterscheiden.
Er stellte Werkzeuge zur Erfassung der Kommensurabilität von Individuen
bereit und öffnete einen neuen Raum für Wissen und Handeln. Bei den Re-
lationen, die üblicherweise als Kausalitäten interpretiert werden, handelt es
sich in Wirklichkeit um

... begriffliche Grenzwerte, die der Mensch durch seine Intelligenz ge-
wonnen hat. Danach hat er seine eigene schöpferische Fähigkeit ver-
gessen und diese Begriffe in eine Realität umgewandelt, die jenseits der
menschlichen Wahrnehmungen herrscht und außerhalb des Menschen
existiert. Das ganze Universum, mit dem der Mensch ausgestattet ist,
besteht aus Ähnlichkeit und Variabilität; der Mensch hat darin den
Begriff der Funktion eingeführt, denn er hatte den Wunsch, mit sei-
ner begrenzten intellektuellen Energie sparsam umzugehen. (Pearson,
1912, [223].)
Die Rechtfertigung für diese Grenzübergänge und für die nur allzu leicht
vergessenen Schöpfungen ist ein Sparsamkeitsprinzip – das Prinzip der be-
grenzten intellektuellen Energie. Pearson beschrieb in dieser Passage zwei
126 4 Korrelation und Ursachenrealismus

wesentliche Aspekte der Konstruktion eines Objekts. Einerseits handelt es


sich um eine Exteriorisierung und den Übergang zu etwas, das jenseits der

Wahrnehmungen“ liegt und sich als notwendig für die Erzeugung des gesun-
den Menschenverstandes und der Intersubjektivität erweist (die er an ande-
rer Stelle ausführlich analysiert); andererseits geht es um das Prinzip der
Ökonomie des Denkens, das zu Zusammenfassungen und zu einer mentalen
Stenographie führt. Zwischen diesen beiden Aspekten besteht ein offensicht-
licher Zusammenhang in Bezug auf das, was den Kern des modernen Defini-
tionsprozesses der Statistik“ im Sinne vernünftiger Kombinationen der ele-

mentaren Daten ausmacht, die gewissen Optimierungsanforderungen genügen.
Diese Kriterien dienen zur Schaffung des gesunden Menschenverstandes, des
Sammelpunktes der heterogenen Subjektivitäten: die Methode der kleinsten
Quadrate und die Abschätzung eines Wahrscheinlichkeitsmodells durch die
Maximum-Likelihood-Methode.
Dieser ökonomische Prozeß läßt sich auch mit Hilfe des Begriffs der Inve-
stition analysieren. Eine Sache wird geopfert (Kontingenz, Multiplizität der
Einzelfälle), um einen nachträglichen Gewinn zu erzielen, nämlich eine Sta-
bilisierung der Standardformen, die gespeichert, übertragen und wiederver-
wendet werden können und sich in komplexere Mechanismen einbinden lassen
(Thévenot, 1986, [273]). Das Problem des Realismus und des Nominalismus
bekommt einen anderen Inhalt, wenn man es mit Hilfe des Begriffs der arbeits-
teiligen Objektkonstruktion durchdenkt: Ein Objekt – das ursprünglich das
Produkt einer Konvention ist – wird real, nachdem es schlüsselfertig übermit-
telt und von anderen verwendet worden ist. Diese Alchimie“ ist das tägliche

Brot eines jeden statistischen Instituts, wenn es die Arbeitslosenquote oder
einen Preisindex veröffentlicht. Der Begriff der Investition erweist sich als
vorteilhaft, denn er lenkt die Aufmerksamkeit auf die Kosten, die zur Über-
schreitung des Spiegels“ erforderlich sind, das heißt für den Übergang von

einer Welt der Realitäten in eine andere Welt, wobei das Budget der jeweiligen
statistischen Institute immer nur einen Teil dieser Kosten ausmacht.
Die Epistemologie Pearsons war zur Epistemologie Quetelets in der Hin-
sicht entgegengesetzt, daß sie – gemäß Galton – die Individuen und deren
Variabilität hervorhob und den Aggregaten sowie den Primärursachen (den
berühmten konstanten Ursachen“) jegliche Existenz absprach. Von einer an-

deren Warte aus gesehen hat die Epistemologie Pearsons jedoch etwas von
Quetelet geerbt: sie bestand nämlich nicht darauf, daß zwischen Meßfehlern
und realen“ Schwankungen ein wesentlicher Unterschied besteht. Der Zusam-

menhang zwischen objektiven und subjektiven Mittelwerten wurde so sehr
akzeptiert, daß man – wie aus den obigen Zitaten ersichtlich ist – lediglich
Schwankungen konstatierte, Beziehungen durch Korrelationen maß und stati-
stische Regelmäßigkeiten extrahierte, um Wetten auf die Zukunft abzuschlie-
ßen. Die Frage der Realität und das Problem der Kausalität betrachtete man
dabei als metaphysisch. Dieser methodologische Agnostizismus sollte zu einem
der hervorstechendsten Züge der statistischen Praxis werden – zumindest auf
einigen ihrer Anwendungsgebiete.
Francis Galton: Vererbung und Statistik 127

Francis Galton: Vererbung und Statistik

Die Tiefenwirkung der Wissenschaftsgeschichte und das Interesse an ihr sind


auf ihre Kontingenz zurückzuführen, auf die Tatsache also, daß sie in ihrem
Verlauf keiner rein internen und kognitiven Logik folgt. In der ersten Aus-
gabe (1892) der Grammatik der Wissenschaft finden wir keine Anspielung
auf die Statistik. In der 1911 veröffentlichten dritten Auflage stellte Pearson
die Korrelation hingegen stolz als eine epochale Operation in der Ideenge-

schichte“ vor. Aber ging es hier wirklich nur um die Ideengeschichte? Stand
da nicht auch die Geschichte des viktorianischen Englands dahinter, die Sor-
ge um die von der Armut verursachten Probleme und die Unruhe, die bei
den Debatten um die Erklärungen dieser Probleme und ihrer Lösungen auf-
kam? In der Zeit zwischen den beiden Buchausgaben hatten sich die Wege
von Karl Pearson und Francis Galton (1822–1911) gekreuzt und Pearson war
mit Galtons Fragen zur biologischen Vererbung bekannt geworden. Vor 1892
hatte Pearson der Vererbung noch einen Platz hinter der Bildung und der
Erfahrung zugewiesen und auch das nur en passant“ und ohne besonderen

Nachdruck: Das war damals noch nicht sein Kampf. Zwanzig Jahre später
hatte er – zur Untermauerung des eugenischen Konstrukts von Galton – der
Regression und der Korrelation eine mathematische Form gegeben und seinem
Buch, das ursprünglich nur als allgemeinverständliche Darstellung der Ideen
von Ernst Mach gedacht war, ein originelles Kapitel hinzugefügt. Pearson hat-
te auch ein sehr aktives Labor für Biometrie und Eugenik gegründet, in dem
die mathematischen Werkzeuge der modernen Statistik geschmiedet wurden.
Darüber hinaus schuf er ein einflußreiches politisches und wissenschaftliches
Netzwerk, das mindestens bis 1914 erfolgreich tätig war. Er sorgte dafür, daß
die ursprünglich von Francis Galton verbreiteten Ideen einen großen Anklang
fanden.
Galton war ein Cousin ersten Grades von Darwin. Die von Darwin auf-
gestellte Evolutionstheorie beschreibt die Auslese und Anpassung der Arten
durch einen Kampf, in dem nur die am besten geeigneten Individuen und
Gruppen überleben und sich fortpflanzen. Diese Theorie bezog sich im We-
sentlichen auf Tiere und Pflanzen. Galton war von der Theorie fasziniert und
wollte sie auf die menschliche Spezies übertragen, um eine biologische Verbes-
serung zu erzielen. Hier liegt der Ursprung für den wesentlichen Unterschied
der Konstrukte von Galton und Quetelet. Galton richtete seine Aufmerksam-
keit auf die Unterschiede zwischen den Individuen, auf die Variabilität ihrer
Merkmale und auf das, was er später als natürliche Eignungen definierte. Das
Interesse Quetelets konzentrierte sich dagegen auf den Durchschnittsmenschen
und nicht auf die relative Verteilung derjenigen, die keine Durchschnittsmen-
schen waren. Jedoch übernahm Galton von Quetelet, den er sehr bewunderte,
den Begriff der Normalverteilung für Merkmale des Menschen. Aber er ver-
wendete die Normalverteilung nicht mehr als Fehlergesetz, sondern vielmehr
als Abweichungsgesetz, das eine Klassifizierung der Individuen ermöglichte.
Bei den relevanten Tatsachen handelte es sich von nun an um die Abweichun-
128 4 Korrelation und Ursachenrealismus

gen von einem Mittelwert. Diese Abweichungen waren also keine Störungen
mehr, die – wie bei den Astronomen – eliminiert werden mußten. Es wurde
wichtig, die Individuen auf der Grundlage von Ordnungskriterien einzutei-
len. Zur Beschreibung der Verteilungen konstruierte Galton neue Objekte, die
aus diesem Ordnungsprozeß hervorgingen. Der Median zerlegt eine geordnete
Stichprobe in zwei bezüglich der Verteilung gleichgewichtige Teile. Die Quar-
tile 8 ermöglichen die Konstruktion der sogenannten halben zwischenquartilen
Breite, eines neuen Streuungsmaßes. Die Terminologie und die alten Begriffe
durchliefen einen Änderungsprozeß: Der zufällige Fehler von Quetelet wurde
zur Standardabweichung und danach zum Abweichungstyp, zur Dispersion.
Diese neuen Objektformen entstanden allmählich auf der Grundlage der
Bemühungen Galtons, einen gemeinsamen Meßraum für etwas zu schaffen, das
zuvor für inkommensurabel9 gehalten wurde: die menschlichen Fähigkeiten.
Das war eine schwierige Aufgabe: Wie soll man Äquivalenzklassen und Ver-
gleichbarkeitsskalen für Merkmale aufstellen, die sich – im Unterschied zur
Körpergröße – nicht so leicht durch eine Meßlatte ermitteln ließen? Zuerst
(1869) untersuchte Galton Genies – wie sie in der Literatur über bedeuten-
de Persönlichkeiten beschrieben wurden – und deren Erbgut in ausgewähl-
ten Nachkommenschaften, zum Beispiel in den Familienlinien der Bachs, der
Bernoullis und der Darwins. Galton bezog sich bei seiner Interpretation der
in diesen Familien auffälligen Erscheinungen systematisch auf die biologische
Vererbung und nicht – wie wir es heute eher tun würden – auf die Wirkungen
von Erziehung und Umgebung während der Kindheit.
Aber diese Untersuchungen am einen Ende der Eignungsskala reichten
nicht aus, um die gesamte Bevölkerung auf der Grundlage eines ebenso natürli-
chen Kriteriums zu ordnen wie Körpergröße oder Gewicht. Es brauchte noch
etwas Zeit (bis nach 1900), um – mit Hilfe von Techniken wie sie der In-
telligenzquotient (Binet-Simon) oder die allgemeine Intelligenz (Spearman)
darstellte – Messungen durchzuführen, die als Indikatoren für individuelle
Fähigkeiten gelten konnten. In den Jahren 1870–1880 verwendete Galton ei-
ne soziale Klassifikation, die von Charles Booth in dessen Untersuchungen
8
Ein p-tes (p = 1, . . . , q − 1) Quantil xp/q von der Ordnung q = 2, 3, . . . einer eindi-
mensionalen Wahrscheinlichkeitsverteilung F (x) wird (möglicherweise mehrdeu-
tig) durch F (xp/q − 0) ≤ p/q ≤ F (xp/q + 0) definiert. In der statistischen Praxis
beschränkt man sich neben den Zentralwerten (Medianen) vorrangig auf die den
Fällen q = 4 bzw. q = 10 bzw. q = 100 entsprechenden Quartile, Dezile und Per-
zentile. Insbesondere werden im Falle der Eindeutigkeit die Werte x1/4 bzw. x3/4
als unteres bzw. oberes Quartil und 12 (x3/4 − x1/4 ) als die halbe zwischenquartile
Breite der Verteilung bezeichnet. Letztere dient oft als empirisches Streuungsmaß.
9
Der Begriff inkommensurabel“ hat hier die Bedeutung nicht meßbar“. In der
” ”
Mathematik wird inkommensurabel“ auch in einem anderen Sinne verwendet:

Zwei Strecken (allgemeiner zwei gleichartige Größen) heißen inkommensurabel“,

wenn sie kein gemeinsames Maß“ besitzen. Bereits den Pythagoreern war be-

kannt, daß die Seite und die Diagonale eines Quadrates inkommensurable Größen
sind.
Francis Galton: Vererbung und Statistik 129

über die Armut in London (vgl. eingerahmter Text auf Seite 130) ausgear-
beitet worden war. Bei diesen Untersuchungen mußten die Demoskopen (in
diesem Fall die für die Umsetzung des Armengesetzes“ verantwortlichen Per-

sonen) die Position der besuchten Haushalte auf einer Skala bewerten, die
insgesamt acht Kategorien zur sozialen und wirtschaftlichen Stellung umfaßte
(Hennock, 1987, [128]). Dabei spiegelte eine Reihe von Indexziffern die Le-
bensweise und den Lebensstandard wider und die Skala erstreckte sich von
Bettlern, Kriminellen und Nichtstuern über Facharbeiter bis hin zu geisti-
gen Berufen. Die Skala, die Booth zur Berechnung und zum Vergleich der
verschiedenenen Armutskategorien in den einzelnen Stadtteilen von London
verwendet hatte, wurde von Galton als Indikator einer individuellen natürli-
chen Fähigkeit übernommen, wobei er den civic worth“ – also den Wert, mit

dem der Bürgersinn oder Gemeinsinn gemessen wurde – einem genetischen

Wert“ gleichsetzte.
So wie die Körpergröße ist auch diese Fähigkeit angeboren, dem Körper
einbeschrieben und normalverteilt. Diese Gaußsche Form der Häufigkeiten der
von den Boothschen Demoskopen festgehaltenen Eignungsgrade – die mit den
Stichprobenumfängen der linear angeordneten Kategorien zusammenhängt –
ermöglichte eine Eichung der Skala der genetischen Werte“ auf der Grund-

lage dieser Kategorien. Auf diese Weise führte die mit bloßem Auge“ vorge-

nommene Kodierungsarbeit der Londoner Sozialfürsorgekontrolleure auf dem
Umweg über die soziale und wirtschaftliche Stellung zur Einbürgerung einer
individuellen Eignungsskala. Die Anwendung der Normalverteilung mit dem
Ziel, einem Ding Konsistenz zu verleihen, hatte nicht mehr denselben Bedeu-
tungsinhalt wie bei Quetelet. Stellte Quetelet eine derartige Verteilung fest,
dann ermöglichte sie es ihm, auf die Existenz eines Objekts zu schließen, das
allgemeiner als die Individuen war. Bei Galton hingegen wurde die Normalver-
teilung dadurch vorausgesetzt, daß er das, was in einer Untersuchung kodiert
wurde, mit einem der Körpergröße vergleichbaren Merkmal gleichsetzte. Da-
durch war es möglich geworden, für ein dem Individuum zugeordnetes Objekt,
das heißt für die natürliche Eignung dieses Individuums, auf eine Meßwerts-
kala zu schließen.
Jedoch bestand die wesentliche Neuerung Galtons im Vergleich zu Quete-
let darin, daß er die Normalverteilung der Merkmale von Menschen nicht mehr
nur als Ergebnis einer großen Anzahl von zufälligen variablen Ursachen auf-
faßte, die geringfügig und unabhängig (und deswegen unbeschreibbar) waren.
Vielmehr versuchte er, diejenige dieser Ursachen zu isolieren, deren Wirkung
als massiv vorausgesetzt wurde: die Vererbung (Quetelet hatte diese Frage
nie gestellt). Das scheinbare Paradoxon dieses Problems führte zu einer neuen
Konstruktion: zur Regression“ im Sinne der modernen Statistik. Das Para-

doxon war: Die (meßbaren) Merkmale schienen teilweise erblich zu sein, aber
eben auch nur teilweise. Die Kenntnis der Körpergröße des Vaters bewirkte
nicht automatisch auch die Kenntnis des Körpergröße des Sohnes. Zusätzlich
zu der massiven Ursache (das heißt zur Vererbung) kamen zahlreiche andere,
geringfügige und unabhängige Ursachen ins Spiel.
130 4 Korrelation und Ursachenrealismus

Ein sozio-technisches Konstrukt: Galton verbindet die


Normalverteilung von Quetelet und die sozialen Schichten von
Booth mit einem Darwinschen Argument
Soziale Schichten und genetischer Wert (nach Galton (1909))

Das Bemühen, einer erblichen menschlichen Eignung dadurch Konsistenz


zu verleihen, daß man sie auf einer stetigen Skala eicht, brachte Galton auf ein
Konstrukt, das drei bereits konsolidierte Formen miteinander verknüpfte, die
zuvor zusammenhanglos nebeneinander existierten: die von Quetelet populari-
sierte normale Verteilung“ der Körpergrößen; die von Booth bei seiner Studie

zur Armut in London verwendete Aufteilung der Bevölkerung in soziale Ka-
tegorien und die von Darwin (dessen Cousin Galton war) inspirierte Idee der
Vererbung der individuellen physischen und psychischen Merkmale vom Stand-
punkt einer Politik, die auf Eugenik ausgerichtet war (Mac Kenzie, 1981, [183]).
Galton transformierte die bei den Körpergrößen beobachtete Normalverteilung
(das sogenannte Normalverhalten“) in eine vermutete Normalverteilung von

hypothetischer Größe, eine Eignung biologischen Ursprungs, die er als genetic

worth“ oder civic worth“ bezeichnete. Danach verknüpfte er die Hypothese

der Normalverteilung dieses individuellen (mit der Körpergröße vergleichba-
ren) Merkmals mit der prozentualen Aufteilung der Stichprobenumfänge der
Francis Galton: Vererbung und Statistik 131

acht Bevölkerungskategorien, die auf der Grundlage von wirtschaftlichen, so-


zialen und kulturellen Indexziffern definiert worden waren. Diese Indexziffern
waren anläßlich einer von Booth im Jahre 1889 organisierten Studie zu den
Armutsursachen festgestellt und aufgezeichnet worden, als die Demoskopen die
entsprechenden Haushalte besucht hatten.
Unter der Annahme, daß die mit bloßem Auge kodierte soziale Stellung den
zu eichenden civic worth“ widerspiegelte, verwendete Galton die Tabellierung

für eine nach der Gauß-Verteilung begrenzte Fläche dazu, den Grenzen zwischen
den Schichten (die auf der Abszissenachse der grafischen Darstellung dieses
Gesetzes abgetragen waren) numerische Werte zuzuordnen. Diese Konstruktion
ermöglichte keine direkte Zuordnung eines numerischen Wertes zur Eignung
eines Individuums (oder eines Haushalts), aber es wurde die Idee vermittelt,
daß ein solches Merkmal (in einer biologisch ebenso natürlichen Weise wie die
Körpergröße) existierte und nur gemessen werden mußte. Das erfolgte durch
Spearman (1904) und seine Messung der allgemeinen Intelligenz“ und später

durch die Messungen des Intelligenzquotienten (IQ) (Gould, 1983, [112]).

Aber dennoch war von einer Generation zur nächsten nicht nur die durch-
schnittliche Körpergröße nahezu konstant, sondern auch deren Streuung“ 10 .

Das war das Rätsel: Auf welche Weise konnte man die Vererbung, die Zufällig-
keit der Körpergröße des Sohnes eines Vaters von gegebener Körpergröße und
die Tatsache in Einklang bringen, daß sich die Streuung innerhalb von zwei
Generationen nicht änderte?
Galton hatte keine mathematische Ausbildung genossen und war nicht
dazu in der Lage, das Problem zu formalisieren. Aber dafür besaß er eine
große experimentelle Vorstellungskraft und eine gute geometrische Intuition.
Er war auch vom Queteletschen Modell der Fehlerverteilung durchdrungen,
die er in ein Abweichungsgesetz“ transformiert hatte. Galton löste das Rätsel

mit Hilfe zweier Ideen: zum einen durch den Mechanismus des sogenannten
11
Quincunx“ und zum anderen durch sein Erbsen-Experiment“. Die Kom-
” ”
bination dieser beiden Techniken brachte ihn auf eine neue Formulierung des
Problems, das von Poisson, Bienaymé und Lexis diskutiert worden war: Kann
ein Zufallsprozeß, der im Ergebnis von Ziehungen aus Urnen zufälliger Füllung
realisiert wird, zu regelmäßigen und wahrscheinlichkeitstheoretisch beschreib-
baren Resultaten führen?
10
Zu beachten ist hier, daß der Begriff Streuung“ in der Wahrscheinlichkeitsrech-

nung und in der mathematischen Statistik in verschiedenen Bedeutungen verwen-
det wird. Die häufigsten Bedeutungen sind Standardabweichung“ und Varianz“
” ”
( = Quadrat der Standardabweichung = Dispersion). Für die heute unter Ma-
thematikern allgemein akzeptierte Nutzung des Wortes Streuung“ sei auf Bauer,

1991, [347] verwiesen.
11
Mit quincunx“ bezeichneten die Römer u.a. die fünf Augen auf einem Spielwürfel

und die entsprechende Kreuzstellung, in der beispielsweise Bäume angepflanzt
oder Schlachtordnungen aufgestellt wurden. Das Wort ist eine Zusammensetzung
aus quinque“ (fünf) und uncia“ (Unze).
” ”
132 4 Korrelation und Ursachenrealismus

Der Quincunx“ ist ein geneigt aufgestelltes Brett, in das eine große An-

zahl von Stiften in Quincunx-Anordnung eingeschlagen wurde ( Galtonsches

Brett“ oder Galton-Brett“), das heißt in regelmäßigen und alternierenden

Horizontalreihen, so daß die Stifte jeder Reihe den Öffnungen der beiden be-
nachbarten Reihen entsprechen. Von einem gegebenen Punkt aus ließ Galton
nun Kugeln von passender Größe (so daß ihr Durchmesser kleiner als der freie
Abstand zwischen zwei benachbarten Stiften ist) über das Brett rollen. Beim
Herabrollen auf dem Galtonschen Brett wurden die Kugeln infolge der Zusam-
menstöße mit den Stiften aus ihrer Bahn in unregelmäßiger Weise abgelenkt
und sammelten sich schließlich nach Durchlaufen sämtlicher Stiftreihen in den
am unteren Brettrand angebrachten durchsichtigen vertikalen Rohren.12 Die
Kugeln stapelten sich in den Rohren derart, daß eine Normalkurve erkenn-
bar war. In einem weiteren Experiment gestaltete Galton seinen Mechanismus
komplizierter, indem er das Fallen der Kugeln auf einer Zwischenstufe unter-
brach. Dort ließ er die Kugeln in einer ersten Reihe von Rohren auffangen,
wo sie eine erste Normalkurve mit der Dispersion D1 beschrieben. Danach
öffnete er die Rohre wieder, und zwar getrennt voneinander. Dabei stellte
er zwei Dinge fest: einerseits erzeugte jedes der Rohre eine Normalverteilung
mit der gleichen Dispersion D2 und andererseits führte die Vereinigung aller
dieser kleinen Verteilungen zu einer großen Normalverteilung (mit der Dis-
persion D > D1 ).13 Natürlich waren die kleinen, durch die verschiedenen
Rohre entstandenen Verteilungen von unterschiedlicher Höhe, denn sie ent-
hielten unterschiedliche Anzahlen von Kugeln; das wichtige Ergebnis bestand
jedoch darin, daß ihre Dispersionen gleich waren. Galton hatte also einen Spe-
zialfall des Problems von Poisson und Bienaymé behandelt, nämlich den Fall,
bei dem die ursprüngliche Ziehung aus verschiedenen Urnen ihrerseits einer
Normalverteilung folgt. Bienaymé, der gewiß ein besserer Mathematiker als
Galton war, ging bei seiner Kritik Poissons in die Richtung, die wir im vorher-
gehenden Kapitel beschrieben hatten. Im Gegensatz zu dem Engländer war
Bienaymé jedoch nicht durch ein so klar formuliertes Rätsel angespornt (vgl.
eingerahmter Text auf Seite 133).
Galton machte also einen großen Schritt vorwärts in Richtung der Lösung
des Geheimnisses. Zerlegt man die Population der Väter entsprechend den
Körpergrößen in Abschnitte, dann erzeugt jeder Abschnitt eine Subpopulati-
on von Söhnen, die ihrerseits eine gewisse Dispersion aufweist. Man stellt nun
fest, daß die Körpergrößen der beiden Gesamtpopulationen – das heißt die
Population der Väter und die der Söhne – die gleiche Dispersion haben. Die
Dispersion der Körpergrößen der Söhne (heute würde man von der Gesamtva-
rianz sprechen) läßt sich nun in zwei Anteile zerlegen: der eine Anteil, der von
den Körpergrößen der Väter herrührt, ist auf die Vererbung zurückzuführen;
der andere Teil ist innerhalb der Subpopulationen zu suchen. Da aber die
12
Vgl. Darstellung des Galtonschen Bretts im Vorwort des Übersetzers (Seite VIII).
13
Die Symbole D, D1 und D2 stehen hier für Dispersion“, das heißt für Varianz“
” ”
im modernen mathematischen Sprachgebrauch.
Francis Galton: Vererbung und Statistik 133

Gesamtvarianz konstant bleibt, ist die auf die Vererbung zurückzuführende


Dispersion notwendigerweise kleiner. Das war wohl der Gedankengang Gal-
tons in Anbetracht der Ergebnisse seines zweiten Experiments, das sich auf
eine Kultur von Vergleichserbsen bezog.

Der Quincunx: eine Inszenierung der statistischen Streuung

Zwischen 1830 und 1879 betonten die Statistiker die Stabilität der stati-
stischen Mittelwerte: von einem Jahr zum nächsten änderte sich die Durch-
schnittsgröße der Rekruten nur wenig; die Heiratsraten, Kriminalitätsraten und
Selbstmordraten waren nahezu konstant. Dieser Standpunkt, der gerade derje-
nige von Quetelet war, ließ es nicht zu, daß sich die Begriffe der statistischen
Streuung und der Variation des Mittelwertes entwickelten. Eben diese beiden
Fragen schienen mit Hilfe der Theorie des Durchschnittsmenschen“ dadurch

gelöst zu sein, daß man sie als Kontingenzen behandelte, sozusagen als Störun-
gen, vergleichbar etwa mit den Meßfehlern, deren Elimination die Astronomen
und die Physiker anstrebten.
Im Gegensatz zu Quetelet interessierte sich Galton für die Unterschiede zwi-
schen den Menschen und nicht dafür, was ihnen gemeinsam war. Nicht mehr der
Durchschnittsmensch war das Ideal, sondern das Genie. Die Frage der Eugeniker
war: Wie läßt sich die Rasse verbessern, indem man mehr Genies und weniger
untaugliche Menschen produziert? Ist Genie erblich? Die Frage der Vererbung
von Fähigkeiten richtete das Scheinwerferlicht auf diejenigen beiden Aspekte,
die von der Theorie des Durchschnittsmenschen umgangen worden waren: die
Streuung und die Variation der Mittelwerte. Kinder ähneln ihren Eltern, sind
aber nicht mit ihnen identisch. Ist der Vater hochgewachsen, dann wird wahr-
scheinlich auch sein Sohn von großem Wuchs sein, aber das ist nicht sicher. Mit
anderen Worten: zur Anfangsstreuung der Körpergrößen der Väter kommt für
eine feste Körpergröße eines Vaters eine weitere Streuung hinzu, nämlich die
Streuung der Körpergrößen der Söhne. Und dennoch ist schließlich die Gesamt-
streuung der Körpergrößen aller Söhne nicht größer als die Gesamtstreuung
der Körpergrößen der Väter. Das war das seinem Wesen nach kontraintuitive
Puzzle, das Galton zu entwirren suchte. Zu diesem Zweck muß man sich ei-
ne Formalisierung ausdenken, mit deren Hilfe die beiden aufeinanderfolgenden
Streuungen analytisch getrennt werden:
A posteriori liefert die Formel der linearen Regression die Lösung: Yi =
aXi + b + εi .
Hierbei bezeichnet Xi die Körpergröße des Vaters, Yi die Körpergröße des
Sohnes und εi die Zufälligkeit der Körpergröße des Sohnes für eine feste Körper-
größe des Vaters.
Das ist nur unter der Voraussetzung möglich, daß man eine Ellipse in ein
Quadrat einbeschreibt, wobei die Ellipse die zweidimensionale Normalverteilung
der Paare Körpergröße des Vaters – Körpergröße des Sohnes“ symbolisiert.

Hierzu muß der Anstieg a der Regressionsgeraden“ ∆ mit der Gleichung Y =

aX + b notwendigerweise kleiner als 1 sein.
134 4 Korrelation und Ursachenrealismus

Abbildung 1 - Beziehungen zwischen den Körpergrößen der Väter


und der Söhne

Mit anderen Worten: Ist der Vater überdurchschnittlich groß, dann ist es
der Sohn wahrscheinlich auch, aber im Mittel (Punkt N ) weicht er weniger von
der Durchschnittsgröße ab, als sein Vater. Genau das war der Grund dafür,
warum Galton die Formulierung Regression zur Mitte verwendete, eine Idee,
die im modernen Gebrauch des Begriffes lineare Regression“ verlorengegangen

ist (hier kann der Anstieg sehr wohl größer als 1 sein).
Aber Galton war kein Mathematiker. Um die neue Idee der teilweisen Über-
tragung von erblichen Eigenschaften zu verstehen (und anderen verständlich zu
machen), benötigte er ein zwischengeschaltetes“ Gerät zur Anzeige dessen, wie

sich zwei aufeinanderfolgende Streuungen kombinieren lassen (im vorliegenden
Fall: die Streuung der Körpergrößen der Väter und, für eine gegebene Körper-
größe eines Vaters, die Streuung der Körpergrößen seiner Söhne). Ein solches
Gerät war der Zwei-Stufen-Quincunx“ (double quincunx ), den Galton entwor-

fen und beschrieben hatte. Es ist nicht bekannt, ob es ihm gelungen ist, dieses
Gerät herzustellen und funktionstüchtig zu machen. Dabei handelte es sich
Francis Galton: Vererbung und Statistik 135

vermutlich um ein Gedankenexperiment, das Galton und seinen mathematisch


unbewanderten Lesern helfen sollte, den Sachverhalt zu verstehen.
Der einfache Quincunx ist ein vertikales Brett, auf dem Stifte in einer
Quincunx-Anordnung“ eingeschlagen sind, das heißt in einer Fünferanordnung

wie auf dem Spielwürfel. Von der Mitte der oberen Kante dieses Galtonschen
Brettes läßt man Kugeln hinunterrollen, die unten in Rohren aufgefangen wer-
den. Beim Fallen findet eine zufällige Streuung der Kugeln statt. Ist die Anzahl
der Kugeln groß, dann nähert sich ihre Verteilung in den Rohren einer Nor-

malverteilung“ – der Grenze“ einer Binomialverteilung, die im Ergebnis des

Aufprallens der Kugeln auf die Stifte entsteht.

Beim Erbsen-Experiment teilte Galton die Vater“-Erbsen14 nach zuneh-



mendem Gewicht in sieben Gruppen ein und beobachtete – auf der Grundlage
der gleichen Zerlegung – die Aufteilung der Erbsen- Söhne“. Auf diese Weise

konstruierte er eine aus sieben Zeilen und sieben Spalten bestehende Kontin-
genztafel und verteilte jedes Paar Vater-Sohn gemäß dieser doppelten Merk-
malsklassifizierung. Diese Tabelle erinnert an die modernen Tabellen zur so-

zialen Mobilität“: ihre Hauptdiagonale ist extrem dicht besetzt, während die
außerhalb dieser Diagonale stehenden Felder weniger besetzt sind. Darüber
hinaus variiert das Durchschnittsgewicht der Söhne, deren Väter ein gegebe-
nes Gewicht haben, proportional zum Gewicht der Väter, aber die Amplitude
dieser Schwankung ist geringer als bei den Vätern: es findet eine Regressi-

on zur Mitte“ statt. Die mittlere Abweichung vom Durchschnittsgewicht der
Söhne, deren Väter ein gegebenes Gewicht haben, beträgt lediglich ein Drittel
der mittleren Abweichung der Vätergewichte. In dieser 1877 durchgeführten
Untersuchung hatte Galton also eine Varianzzerlegung beobachtet, die der
Zerlegung ähnelte, welche durch seinen im gleichen Jahr konstruierten zwei-
ten Quincunx beschrieben wurde.
Der nächste Schritt erfolgte 1985, als Galton Messungen der Körpergrößen
verschiedener Personen und gleichzeitig auch Messungen der Körpergrößen
beider Eltern der betreffenden Personen durchführen konnte. Zu diesem Zweck
hatte er auf einer 1884 in London veranstalteten Internationalen Gesundheits-
ausstellung einen speziellen Stand eingerichtet, an dem die vorbeigehenden
Familien in Bezug auf eine Reihe körperlicher Merkmale vermessen und re-
gistriert wurden (die Familien zahlten dafür sogar einen kleinen Betrag, was
eine Finanzierung der Forschung ermöglichte). Im Vergleich zu den Erbsen
kam es hier zu einer kleinen Komplikation, denn bei Menschen gibt es immer
zwei Elternteile. Daher begann Galton, ein Zwischenelternteil“ (mid-parent)

zu berechnen, das den Durchschnitt von Vater und Mutter repräsentierte.
14
Galton wählte Platterbsen (sweet peas) aus, die folgende Vorzüge haben: sie sind
selbstbefruchtend, so daß nur ein Elternteil berücksichtigt werden muß; alle Sa-
men in der Schote haben fast die gleiche Größe; sie sind winterhart und sehr
fruchtbar.
136 4 Korrelation und Ursachenrealismus

Abbildung 2 - Der Zwei-Stufen-Quincunx

Dieses einfache Experiment hätte sich auch Quetelet ausgedacht haben


können. Galton führte es durch, indem er auf mittlerer Höhe eine Reihe von
Zwischenrohren anordnete, die eine erste Streuung D1 erkennen lassen. Danach
wurden diese Rohre, deren Kugeln in der Zwischenzeit mit einer anderen Far-
be angemalt worden waren, geöffnet und erzeugten ihrerseits auf dem unteren
Teil des Brettes eine Folge von Elementarverteilungen der Streuung D2 . De-
ren Mischung erzeugte eine Gesamtstreuung D, die größer als D1 war. Galton
konstruierte also einen Mechanismus zur Zerlegung der Gesamtvarianz (D2 ) in
eine Interklassen-Varianz“ (D12 ) und eine Intraklassen-Varianz“ (D22 ), denn
” ”
D2 = D12 + D22 . (Hier stehen die Symbole D, D1 und D2 für diejenige Inter-
pretation des Begriffs Streuung“, die man im modernen Sprachgebrauch als

Standardabweichung“ bezeichnet.)

Darüber hinaus waren die kleinen Streuungen D2 , die an den Zwischenroh-
ren entstanden, alle gleich. Oder besser gesagt: Die Streuungen der Körper-
größen der Subpopulationen von Söhnen, die von Vätern abstammen, deren
Francis Galton: Vererbung und Statistik 137

Körpergrößen vorher gesichtet wurden, waren gleich. Der Zwei-Stufen-Quincunx


veranschaulichte diese Eigenschaft.
Der Quincunx war ein zwischengeschaltetes“ Gerät. Dieses Gerät

ermöglichte die Überwindung der Schwierigkeiten, die bei der Addition und
Kombination von Streuungen auftraten. Der Quincunx zeigte auch Folgendes:
Je weiter eine Kugel auf der ersten Stufe ∆ nach rechts fällt, desto größer
sind die Chancen, daß sie sich auch am Schluß rechts befindet. Aber das war
nicht ganz sicher, denn manchmal konnte die Kugel auch links landen. Anders
gesagt: Ein hochgewachsener Vater kann einen kleinen Sohn haben, aber das
ist nicht sehr wahrscheinlich. Natürlich muß bei der Analyse auch das Erbgut
der Mutter berücksichtigt werden: Galton dachte sich ein Zwischenelternteil“

(mid-parent) aus, das sich in der Mitte“ zwischen beiden Elternteilen befindet.

Aber der Quincunx ermöglichte keine direkte Veranschaulichung des zwischen
den Variablen bestehenden linearen Zusammenhangs vom Typ Y = aX + b.
Aus diesem Grund hat sich die synthetischere Abbildung 1 (vgl. Seite 134)
über Abbildung 2 hinweggesetzt, die dennoch ziemlich gut die Schwierigkeiten
illustriert, mit denen die Erfinder der linearen Regression zu kämpfen hatten.

Danach konstruierte Galton eine Kreuztabelle in Analogie zum vorher-


gehenden Fall. Dieses Mal waren die beiden Randverteilungen (Eltern und
Kinder) normal. Er stellte den gleichen Effekt fest, das heißt eine Regression

zum Mittelwert“ der Körpergrößen der Kinder proportional zu den Körper-
größen der Zwischenelternteile“ – mit einem Koeffizienten von 2/3 (Anstieg

der Regressionsgeraden“). In den Kreuztabellen verband er die Felder glei-

chen Wertes durch eine Linie und zeichnete auf diese Weise eine Reihe von
konzentrischen und ähnlichen Ellipsen, deren Mittelpunkt derjenige Punkt
war, welcher der Durchschnittsgröße der beiden Generationen entsprach. Gal-
ton wußte nicht, wie er die Ellipsen interpretieren sollte und legte sie deswe-
gen einem Kollegen, dem Mathematiker Hamilton-Dickson, vor. Der erkannte
sofort, daß hier eine zweidimensionale Normalverteilung im Spiel war. Die-
se Wahrscheinlichkeitsverteilung für zwei miteinander verbundene Variable
war bereits im Rahmen der Meßfehler-Theorie von Bravais15 (1846) gefunden
worden, der bei dieser Gelegenheit auch schon das Wort Korrelation“ ver-

wendet hatte. Aber Bravais hatte daraus noch keinerlei Schlußfolgerungen in
Bezug auf durch zwei Variable miteinander verknüpften Variationen gezogen,
die Lucien March auch als Co-Variationen“ bezeichnete. Für die Korrelation

verwendete March jedoch den Namen Bravais-Pearson-Koeffizient“.

15
Auguste Bravais (1811–1863), französischer Physiker und Mineraloge. Er unter-
suchte die Optik atmosphärischer Erscheinungen und die Struktur von Kristallen;
1850 fand er die 14 Typen dreidimensionaler Gitter.
138 4 Korrelation und Ursachenrealismus

Schwer zu widerlegende Berechnungen

Galton stellte diese Ergebnisse im September 1885 in seiner Ansprache als


Präsident vor, die er anläßlich der Eröffnung einer Versammlung der Sektion
Anthropologie der British Association for the Advancement of Sciences hielt.
Demnach ist Galton im Kontext der physikalischen Anthropologie der Dar-
winschen Tradition einzuordnen und nicht im Kontext der statistischen Me-
thoden. Galton war nicht Mitglied der Royal Statistical Society und veröffent-
lichte so gut wie nichts in der Zeitschrift dieser Gesellschaft. Für ihn und für
sein Publikum bezog sich seine Mitteilung auf die Vererbung und nicht auf
die Technik der Datenanalyse. Die Mitteilung wurde später unter dem Ti-
tel Regression towards Mediocrity in Hereditary Stature (Galton, 1886, [103])
veröffentlicht. In dieser Arbeit lenkte er die Aufmerksamkeit auf das, was
er für seine wichtigste Entdeckung hielt: die Idee der Rückkehr zum Mittel-
wert (daher das Wort Regression“, das erhalten geblieben ist, aber seinen

ursprünglichen Sinn vollständig verloren hat). Der paradoxe Aspekt der For-
mulierung dieser Idee liegt darin, daß sie in zwei zueinander entgegengesetzten
Richtungen gelesen werden kann, je nachdem, ob man den Koeffizienten 2/3
mit 1 vergleicht (was durch den Ausdruck Regression“, das heißt Rückkehr
” ”
zum Mittel“, suggeriert wird) oder ob man ihn mit 0 vergleicht (was Galton
im Sinn hatte, denn er wollte die Auswirkungen der Vererbung quantifizieren).
An diesem Beispiel sehen wir, wie sich unterschiedliche, ja sogar konträre
Deutungen an formal identischen statistischen Konstruktionen artikulieren
können. Die Interpretationen dieser Konstruktionen waren selten eindeutig –
trotz der zunehmend strengeren Bereinigungsarbeiten und stilistischen Verfei-
nerungen, die später von den Statistikern vorgenommen wurden. Denn diese
Tätigkeit ging oft – aber nicht immer – mit dem Effekt einher, die Aufmerk-
samkeit hinsichtlich der interpretativen Rhetoriken an den Rand zu drängen.
Die Galtonsche Rhetorik war noch ziemlich einfach und zog seinerzeit kei-
ne Aufmerksamkeit auf sich. Aber die Zweideutigkeit der möglichen Lesarten
seiner Ergebnisse sollte später erneut zum Vorschein kommen, zum Beispiel
bei der Interpretation der sozialen Mobilitätstabellen, in denen die Berufe
der Väter und der Söhne in Verbindung gebracht werden. Diese Berufe las-
sen sich entsprechend einer rein diagonalen Tabelle lesen (vollständige soziale
Vererbung) und können durch die Begriffe der Mobilität und der Mischung
der sozialen Gruppen kommentiert werden. Umgekehrt können sie mit der
Produkttafel der Randverteilungen“ verglichen werden (vollständige Gleich-
” ”
wahrscheinlichkeit“ und keine soziale Vererbung) und dann eine Interpretation
stützen, die sich durch die Begriffe der Reproduktion und der Übertragung
des sozialen Status ausdrückt. Was es auch immer mit den verschiedenen
möglichen Interpretationen der Ergebnisse von Galton oder mit den Interpre-
tationen der Mobilitätstabellen auf sich hat: in jedem der vier Fälle ist es
notwendig, die sozialen, philosophischen und politischen Konstellationen zu
rekonstruieren und dadurch diese oder jene Art und Weise wahrscheinlich zu
Schwer zu widerlegende Berechnungen 139

machen, in der man sich auf die – mit Hilfe von statistischen Methoden –
objektivierten Dinge stützt.
Wir kommen nun auf Galton zurück und betrachten zwei Beispiele von In-
terpretationen seiner Ergebnisse, die ziemlich weit von dem entfernt sind, was
er selbst angestrebt hatte. Es handelt sich um Beispiele aus Frankreich, die
sich aus der Arbeit zweier intellektuell vollkommen unterschiedlich positionier-
ter Autoren ableiten: Cheysson und Durkheim. Émile Cheysson (1836–1910),
Brückenbauingenieur und Schüler von Frederic Le Play, war Mitglied der So-
ciété de statistique de Paris und erlangte sehr schnell Kenntnis von der Mit-
teilung Galtons vom 10. September 1885. Kurze Zeit später, am 23. Oktober
1885, veröffentlichte Cheysson eine Besprechung der Galtonschen Mitteilung
in der Zeitung Le Temps (der Le Monde von damals). Er gab eine erstaun-
liche Interpretation der Galtonschen Mitteilung, indem er die Körpergröße
eines Sohnes als Durchschnitt der Körpergrößen des Vaters, der Mutter und

der Rasse“ interpretierte. Zu dieser Formulierung gelangte er folgendermaßen:
Das Gesetz von Mr. Galton besteht aus einer Art fataler und unwider-
stehlicher Regression des individuellen Typs in Richtung des Rassen-
durchschnitts ... Bezeichnet man die Abweichung zwischen der Körper-
größe eines Individuums und der durchschnittlichen Körpergröße der
Rasse als Deviat“ ..., dann besagt dieses Gesetz, daß das Deviat der

Körpergröße des Produktes im Mittel gleich zwei Dritteln des Deviates
der Körpergröße des Zwischenelternteils ist. Oder in einer äquivalenten
aber vielleicht leichter faßlichen Form: Die Körpergröße des Produktes
ist im Mittel gleich einem Drittel der Summe der Körpergrößen des
Vaters, der Mutter und der durchschnittlichen Körpergröße der Ras-
se. In der Tat: Es seien T , T  , M und t die Körpergröße des Vaters,
die Körpergröße der Mutter, die durchschnittlichen Körpergröße der
Rasse bzw. die Körpergröße des Produktes. Das Gesetz von Galton
wird dann durch folgenden Ausdruck wiedergegeben:
 
2 T + T
t−M = −M .
3 2
Hieraus folgern wir:
1
t = (T + T  + M ) (Cheysson, 1885).
3
Elementar, mein lieber Galton ... Die Formulierung von Cheysson über-
trägt in recht getreuer Weise die Vererbungsbotschaft, die Galton vorschwebte,
gibt aber gleichzeitig dem Einfluß der Rasse“ ein höheres Gewicht – unter

Verwendung eines Vokabulars, das sich noch in der Nähe der von Quetelet
benutzten Terminologie befindet:
In dieser Form hebt das Gesetz deutlich den Einfluß der Rasse hervor,
die unaufhörlich dahin tendiert, den Durchschnittstyp zu reproduzie-
ren und einem Volk trotz der mehr oder weniger exzeptionellen De-
viate einen besonderen Stempel aufdrückt. Unter den oberflächlichen
140 4 Korrelation und Ursachenrealismus

Zufällen, die einander in verschiedenen Richtungen kreuzen und sich


neutralisieren, liegt eine tiefe und permanente Ursache, die immer in
der gleichen Richtung wirkt, um die individuellen Abweichungen zu
unterdrücken und das Wesen der Rasse aufrecht zu halten. (Cheysson,
1885.)

Diese Lesart unterscheidet sich nicht allzu sehr von dem, was Durkheim
sagte, der in seinem Werk Über soziale Arbeitsteilung (La Division du travail
social, 1893, [76]) die Frage der Vererbung anschneidet, sich aber auf Galton
stützt um zu zeigen, daß die soziale Gruppe“ (und nicht mehr die Rasse“)
” ”
das Individuum an dessen Durchschnittstyp“ erinnert:

Die unlängst von Mr. Galton durchgeführten Untersuchungen bestäti-
gen die Abschwächung des erblichen Einflusses und ermöglichen uns
gleichzeitig eine Erklärung dieser Erscheinung ... Laut diesem Autor,
dessen Beobachtungen und Berechnungen nur schwer widerlegbar zu
sein scheinen, werden in einer gegebenen sozialen Gruppe durch Verer-
bung nur diejenigen Merkmale regelmäßig und vollständig übertragen,
deren Vereinigunsgmenge den Durchschnittstyp bildet. Demnach wird
ein Sohn von körperlich außerordentlich großen Eltern nicht deren
Körpergröße haben, sondern mehr in der Nähe eines mittleren Wer-
tes liegen. Sind umgekehrt die Eltern sehr klein, dann wird der Sohn
größer werden als sie es sind. Mr. Galton war sogar dazu in der La-
ge – zumindest in angenäherter Weise – dieses Abweichungsverhältnis
zu messen. Bezeichnet man vereinbarungsgemäß als Zwischeneltern-

teil“ ein zusammengesetztes Wesen, das den Durchschnitt der beiden
tatsächlichen Eltern repräsentiert, dann beträgt die Abweichung des
Sohnes zwei Drittel der Abweichung von diesem Zwischenelternteil.
Mr. Galton hat dieses Gesetz nicht nur für die Körpergröße aufge-
stellt, sondern auch für die Augenfarbe und für die künstlerischen
Fähigkeiten. Allerdings bezog er seine Beobachtungen nur auf quan-
titative und nicht auf die qualitativen Abweichungen, welche die In-
dividuen im Vergleich zum Durchschnittstyp aufweisen. Man erkennt
jedoch nicht, warum das Gesetz für das eine gelten solle, für das andere
jedoch nicht. (Durkheim, 1893, [76].)

Demnach stützte sich Durkheim auf einen Autor, dessen Beobachtungen



und Berechnungen nur schwer widerlegbar zu sein scheinen“, um eine These
zu untermauern, die ziemlich weit von der These Galtons entfernt war: Die

einzigen Merkmale, die sich in einer sozialen Gruppe regelmäßig durch Ver-
erbung übertragen, sind diejenigen Merkmale, deren Vereinigungsmenge den
Durchschnittstyp bildet“. Das ist nicht genau dasselbe, was Galton sagen woll-
te, denn bei ihm lag die Betonung auf der Vererbung der individuellen und
nicht der durchschnittlichen Merkmale. Es ist auch überraschend, daß Durk-
heim bei den durch Vererbung übertragenen Merkmalen die Körpergröße, die

Augenfarbe und die künstlerischen Fähigkeiten“ miteinander verquickt, was
Schwer zu widerlegende Berechnungen 141

eigentlich nicht mit seinem Prinzip im Einklang stand, demgemäß sich das

Soziale durch das Soziale erklärt“: Der intellektuelle Kontext des ausgehen-
den 19. Jahrhunderts war vom Darwinismus geprägt, der die wissenschaftliche
Modernität repräsentierte.
Diese Zitate von Cheysson und Durkheim zeigen, daß es zunächst nicht die
statistischen Innovationen waren, welche die Aufmerksamkeit der Zeitgenos-
sen auf die Arbeit Galtons lenkte. Dessen Ergebnisse von 1885 führten 1889
zur Veröffentlichung seines am besten bekannten Buches: Natural Inheritance
([104]); sein früheres Buch Hereditary Genius 16 war 1869 erschienen. Von den
Galtonschen Neuerungen wurden an erster Stelle – auf der Grundlage der Nor-
malverteilung von Quetelet – die Idee der Konstruktion von Ordinalskalen und
die sich hieraus direkt ableitenden Werkzeuge aufgegriffen: der Median, die
Dezile, die zwischenquartile Breite und allgemeiner die Techniken zur Trans-
formation nichtmetrischer Daten in metrische Daten, die sich in diese Skalen
eintragen ließen. Somit machte Galton den Weg zu gemeinsamen Meßräumen
frei. Im Gegensatz hierzu brauchte es mehr Zeit, die intellektuellen Durch-
brüche zu erkennen und weiter zu verwenden, die Galton 1877 durch sein
Erbsen-Experiment, durch den Zwei-Stufen-Quincunx und durch die Rück-

kehr zum Mittel“ erzielt hatte. Ähnlich verhielt es sich mit der 1885 festgestell-
ten zweidimensionalen Normalverteilung der Körpergrößenpaare Eltern-Kind
und mit der Zerlegung der dieser Verteilung zugrundeliegenden Varianz. Diese
Ergebnisse waren mathematisch kaum formalisiert, implizierten aber eine geo-
metrische und statistische Intuition, die für die damalige Zeit außergewöhnlich
war. Die grafische Darstellung der Regressionsgeraden zur Kinder-Körper-

größe“ (y) im Vergleich zur Regressionsgeraden zur Eltern-Körpergröße“ (x)

erfolgte, indem man von konzentrischen Ellipsen und von Ellipsenpunkten mit
vertikalen Tangenten ausging (eine inverse Regression von x auf y war hin-
gegen möglich, wenn man von Punkten mit horizontalen Tangenten ausging).
Der Anstieg der Regressionsgeraden wurde grafisch gemessen. Eine Optimie-
rung vom Typ der Methode der kleinsten Quadrate war noch nicht in Sicht.
Die Aufbereitung der Daten war von dem Bemühen angespornt, das
politisch-wissenschaftliche Konstrukt der Eugeniker durch Messungen von
Vererbungseffekten zu untermauern. Das erklärt die unsymmetrische Natur
dieser Aufbereitung: die Körpergrößen der Eltern beeinflußten die Körper-
größen der Kinder. Es gab erklärende“ (explikative) Variable und erklärte“
” ”
(explizierte) Variable. Aber Galton wendete diese Variablen schon bald auf
Paare von Brüdern an; wenig später untersuchte er die Vermessungen der
Arme und Beine von Menschen und der Gliedmaßen von Tieren. Diese Fälle
rechtfertigten keine unsymmetrische Behandlung mehr und das führte zu Mes-
16
Francis Galton, Hereditary Genius: An Inquiry into Its Laws and Consequences,
[102]. Deutsche Übersetzung: Genie und Vererbung, Leipzig, 1910.
142 4 Korrelation und Ursachenrealismus

sungen von Co-Relationen17 , das heißt Korrelationen. Die Untersuchung der


Relationen zwischen den Messungen verschiedener Teile ein und desselben
menschlichen Körpers war durch die anthropometrischen Arbeiten Alphonse
Bertillons (1853–1914) angeregt worden, der als Sachverständiger bei der Po-
lizeipräfektur von Paris tätig war. Bertillon suchte nach einer Meßbatterie,
die eine eindeutige Personenidentifikation ermöglichte, um Straffällige und
Verbrecher leichter ausfindig zu machen. Aber er hatte sich nicht die Fra-
ge nach den möglichen wechselseitigen Abhängigkeiten dieser Größen gestellt.
Der Korrelationskalkül eignete sich gut zur Behandlung dieser Frage. Darüber
hinaus trug Galton mit einer anderen Lösung zum Problem der Personen-
identifikation bei: diese Lösung – es handelte sich um die Fingerabdrücke –
konkurrierte mit der von Bertillon gegebenen Lösung. Daher schien es, daß
beide Probleme – das heißt das Problem der Konstruktion von gemeinsamen
Meßräumen und das Problem der eindeutigen Identifikation von Individuen
– logisch äquivalent zueinander waren. Der Polizist und der Statistiker neuen
Typs (das heißt eher Galton als Quetelet) hatten ein gemeinsames Interesse an
der Beziehung, die zwischen den einzelnen Individuen und deren relativer glo-
baler Verteilung besteht. Der Unterschied bestand darin, daß Bertillon seine
Augen auf die Individuen richtete, während Galton die Verteilung untersuchte.
Aber beide führten Umfragen durch, verwalteten Karteien und suchten nach
gut verwendbaren Anhaltspunkten. Damit wollten sie eine Realität konstru-
ieren, auf die sich ein Richter oder ein zuständiger Politiker stützen konnte,
um Entscheidungen zu treffen, die einer breiten Zustimmung bedurften. Diese
Entscheidungshilfe war insbesondere dank der Menge und der Qualität der
Beweisinstrumente möglich, die von den Polizisten und von den Statistikern
akkumuliert worden waren.
Es handelte sich um genau diejenigen Beweisinstrumente, die von der eng-
lischen mathematischen Statistik in die von Galton und Pearson begründete
Linie eingebracht worden sind. Ein Beweis ist eine komplizierte, mehr oder
weniger zerbrechliche Konstruktion, durch die man unterschiedliche Dinge
vereinigt und zum Zusammenhalt bringt, so daß sie ein Ganzes bilden – ein
Ganzes, das den Schlägen widersteht, denen es von verschiedenen Seiten aus-
gesetzt ist. Für Quetelet und für andere nach ihm war eine Normalverteilung
ein Beweis für einen Zusammenhang zwischen den einzelnen Individuen. Lexis
zerstörte diesen Beweis mit seinem Test. Für Galton hingegen war die Nor-
malverteilung eine Errungenschaft, die nicht mehr bewiesen werden mußte.
Deswegen ließ sich die Normalverteilung dazu verwenden, eine Referenzskala
zu eichen. Im Vergleich zu den Ergebnissen, die in der Folgezeit von Karl Pear-
son, von dessen Sohn Egon Pearson in Zusammenarbeit mit Jerzy Neyman
und schließlich von Ronald Fisher erzielt wurden, muten die Überlegungen von
Quetelet, Lexis und Galton doch recht einfach an. In den 1890er Jahren kam
17
F. Galton, Co-relations and their measurement, chiefly from anthropometric data.
Proc. R. Soc. London 45 (1889), 135–145. In seiner nächsten Veröffentlichung
verwendete Galton correlation“ anstelle von co-relation“.
” ”
Schwer zu widerlegende Berechnungen 143

es in England zu einer Diskontinuität, die in zahlreichen Wissenschaftsberei-


chen und nichtwissenschaftlichen Bereichen zu einer radikalen Transformation
des Beweisapparates führte.
Die Chronologie wie auch der soziale und intellektuelle Kontext die-
ser entscheidenden Episode ist von verschiedenen Autoren, auf die wir hier
hauptsächlich Bezug nehmen, eingehend beschrieben worden. Vor allem haben
diese Autoren versucht, den Zusammenhang aufzuhellen, der das, was später
lediglich als Technologie mit mathematischer Grundlage in Erscheinung trat,
mit dem Sozialdarwinismus und der Tätigkeit der Eugeniker verknüpfte. Von
dieser Richtung ließen sich – beginnend mit Galton, Pearson und Fisher – ei-
nige der Hauptdarsteller dieser Geschichte inspirieren. Wie sich herausstellte,
hatten die Mitglieder des von Pearson 1906 gegründeten Labors eine reich-
haltige Dokumentation (Archive, Briefwechsel, Memoiren) hinterlassen, die
umfassend untersucht worden ist. Dieses Material wurde von einigen Wissen-
schaftlern mit der Absicht untersucht, eine exakte internalistische Geschichte
der Instrumente zu rekonstruieren, wobei sie den evolutionistischen und euge-
nistischen Standpunkt – mit dem diese Techniken ursprünglich eng verknüpft
waren – nur an zweiter Stelle erwähnten. (E. Pearson und Kendall, 1970 [221];
Stigler, 1986, [267]). Andere wiederum sind später in entgegengesetzter Weise
vorgegangen und haben weitere Aspekte dieser Episode rekonstruiert (Norton,
1978, [214]; Mac Kenzie, 1981, [183]).
Diese beiden Untersuchungsformen – das heißt die internalistische und die
externalistische Form – werden in immer wiederkehrenden und ergebnislo-
sen Debatten einander gegenübergestellt: Entwickelt sich eine Wissenschaft
hauptsächlich durch eine interne und kognitive Dynamik oder ist es der histo-
rische und soziale Kontext, der im Wesentlichen den von dieser Wissenschaft
eingeschlagenen Weg determiniert? Im letzteren Fall könnte es sich heraus-
stellen, daß die betreffende Wissenschaft mehr oder weniger beschädigt wird
– und zwar über den impliziten Umweg der Denunzierung ihres sozialen Ur-

sprungs“. Eine derartige kritische Stimmung hat es – vor allem in den 1970er
Jahren – ohne Zweifel gegeben, aber es erwies sich als schwierig, diese Stim-
mung zu fördern. Es ist nämlich offensichtlich, daß sich die Werkzeuge von ih-
ren Ursprüngen abkoppeln und dann ein anderes Leben, ein Doppelleben oder
sogar mehrere unterschiedliche Leben führen. Aber die Antwort des gegneri-
schen Lagers, daß die Wissenschaft ihre eigene Logik und Notwendigkeit hat
und daß der Kontext der Wissenschaftsentstehung und -entwicklung kontin-
gent im Vergleich zu dieser internen Notwendigkeit ist, wirft mehr Fragen auf
als sie löst. Diese Antwort gestattet es uns nicht, im Detail über die Art und
Weise nachzudenken, in der eine Rhetorik und eine wissenschaftliche Praxis
tatsächlich miteinander verknüpft sind oder (um einen Ausdruck von Michel
Callon (1989, [42]) zu verwenden) in andere Rhetoriken und andere Praktiken
übersetzt werden. Das gilt insbesondere für die Statistik, die zur Verwendung
als Beweisinstrument in anderen Bereichen bestimmt ist – in Bereichen der
Wissenschaft, der Verwaltung und der Politik.
144 4 Korrelation und Ursachenrealismus

Von dieser Warte aus können sich historische Forschungen jeglicher Rich-
tung als aufschlußreich erweisen – zum Beispiel dadurch, daß sie eine detail-
lierte Analyse der Kontroversen liefern, die sich auf präzise technische Punkte
beziehen. So sah sich zum Beispiel Pearson sein ganzes Leben lang in der-
artigen Debatten gefangen. Stigler beschrieb die Diskussionen, die Pearson
mit Weldon und Edgeworth hatte, während Mac Kenzie die äußerst erbit-
terten Auseinandersetzungen untersuchte, zu denen es zwischen Pearson und
Yule und später zwischen Pearson und Fisher kam. Die typisch internalisti-
sche Interpretationsweise der Kontroversen besteht darin, herauszufinden, wer
– in der Retrospektive – recht hatte und demjenigen eine Medaille anzuhef-
ten, der von der Geschichte bereits gekrönt worden war. In der Statistik ist
das nicht ganz so einfach, da sich die Geschichte dazu im Allgemeinen nicht
wirklich entscheidend geäußert hat; aber auf anderen Gebieten ist das eine
gängige Praxis. Im Gegensatz hierzu zielt die externalistische Interpretation
darauf ab, den Inhalt und die Argumente der Diskussionen zugunsten von
Forschungsarbeiten zu ignorieren, deren Gegenstand die verborgenen Inter-
essen der Beteiligten sind – ausgedrückt durch soziale Gruppen oder durch
Positionen in umfassenderen Räumen, welche die möglichen Stellungnahmen
determinieren.18

Fünf Engländer und der neue Kontinent


Ein klassischer Fall von Kontroverse ist der Prioritätsstreit. Beispiele dafür
hatten wir bereits gesehen – etwa bei der Methode der kleinsten Quadrate
(Gauß und Legendre) und bei der Korrelation (Bravais, Pearson und Edge-
worth). In diesem Fall scheint die offensichtliche Deutung – ausgedrückt durch
individuelle Interessen – auszureichen. Dennoch ist es nützlich herauszufinden,
warum und wie ein Geistesblitz zu einem bestimmten Zeitpunkt – und keinem
anderen – sichtbar wird. Auf diese Weise kann man die Übersetzungen ana-
lysieren, die es einem der Akteure ermöglicht haben, sich die Urheberschaft
eines Objektes zuzuschreiben: das ist beispielsweise der Fall bei Legendre ge-
genüber Gauß und bei Pearson gegenüber Edgeworth. Innerhalb der kleinen
Gruppe der Begründer der mathematischen Statistik mangelte es an derar-
tigen Querelen nicht. Jeder hatte eine besondere Weise, die neue statistische
Sprache – die von der Gruppe kollektiv geformt wurde – durch jeweils an-
dere Sprachen zu artikulieren, die aus unterschiedlichen Quellen stammten.
Diese Besonderheiten hingen mit der Ausbildung der betreffenden Personen,
18
In einem Teil seiner Arbeit kam Mac Kenzie (1981, [183]) nicht vollständig um die
Gefahr dieser makrosozialen Interpretation herum, zum Beispiel als er versuch-
te, die konkurrierenden Ausdrücke für Korrelationskoeffizienten zu den sozialen
Ursprüngen derjenigen Personen in Beziehung zu setzen, welche diese Ausdrücke
verwendeten (der technische Teil seines Werkes ist jedoch ungemein reichhaltig
und liefert wesentliche Beiträge über die Zusammenhänge zwischen Argumenta-
tionen unterschiedlicher Art).
Fünf Engländer und der neue Kontinent 145

ihren Universitätspositionen und mit ihrem intellektuellen oder politischen


Engagement zusammen. Wir können uns hier an fünf Engländer mit ziemlich
typischen Profilen halten: Galton, Edgeworth, Weldon, Pearson und Yule. Sie
hatten den neuen Kontinent der Statistik erfunden und auch dazu beigetra-
gen, die Statistik vom alten Europa nach England zu bringen, bevor sie den
Atlantik überquerte.
Francis Galton (1822–1911) war laut Stigler die romantische Figur der

Geschichte der Statistik und vielleicht der letzte der Gentleman-Gelehrten“.
Er war der Sprößling eines typischen Geschlechts der kultivierten englischen
Großbourgeoisie (Darwin war sein Cousin). Er studierte Medizin in Cam-
bridge, praktizierte aber nicht. Galton bereiste die Welt, interessierte sich für
Geographie und Wettervorhersagen. Er veröffentlichte die ersten meteorolo-
gischen Karten mit einer Fülle von technischen Einzelheiten und originellen
Darstellungskonventionen. Aber sein hauptsächlicher Kampf drehte sich um
die Überzeugung, daß sich die menschliche Spezies auf der Grundlage der
Ergebnisse Darwins zur Vererbung und natürlichen Auslese verbessern läßt.
Zehn Jahre nach Darwins Werk Die Entstehung der Arten (1859) gab Galton
in seinem Hereditary Genius (1869, [102]) Beispiele für familiäre Vererbung bei
außergewöhnlichen Menschen. Zu ihrer Zeit empfand man diese Werke als Teil
der großen Herausforderung der Wissenschaft und der Vernunft gegenüber der
Kirche und der traditionellen Religion des Obskurantismus. Galton wünschte
die Schaffung eines wissenschaftlichen Priesterstandes“, der den alten Prie-

sterstand ersetzen sollte und er behauptete, nachgewiesen zu haben, daß es
keinen statistischen Beweis für die Existenz Gottes gibt.
Aus dieser Sicht stellt sich die Eugenik als rationale Methode dar, mit
deren Hilfe sich die Evolution der menschlichen Spezies steuern läßt – ge-
wissermaßen als wissenschaftliche Alternative zum Christentum und dessen
Fatalismus. Hinter den statistischen Werkzeugen stand die Absicht, die Wir-
kungen der Vererbung zu messen und in ihre Bestandteile zu zerlegen. Falls
sich die Menschen – von den Besten bis hin zu den weniger Guten – anordnen
lassen, dann zeigte die Technik der Regression den durch Vererbung erhalten
gebliebenen Anteil der spezifischen Qualitäten und Mängel der einen wie der
anderen Personen. Diese Ergebnisse wurden mit der Feststellung in Zusam-
menhang gebracht, daß die englischen Oberschichten – das heißt die gebilde-
teren und bessergestellten Schichten – weniger Kinder hatten, als die armen
Schichten, in denen es mehr untaugliche Personen gab. Das führte – unter
Bezugnahme auf die Wissenschaft – dazu, langfristig eine düstere Zukunft zu
prophezeien: wird nichts unternommen, dann kommt es unweigerlich zum Ver-
fall der englischen Nation. Das war der Kern der hereditaristischen Eugenik,
wie sie von Pearson aufgegriffen und vertieft wurde. Im Lichte der späteren
verbrecherischen Praktiken – die sich in der Zeit ab 1920 bis (mindestens) in
die 1940er Jahre auf dieses politische und wissenschaftliche Konstrukt stütz-
ten – fällt es gewiß schwer, sich vorzustellen, daß dieses Konstrukt vor 1914
von vielen als Bestandteil im Kampf des Fortschritts und der Wissenschaft
146 4 Korrelation und Ursachenrealismus

gegen Obskurität und Ignoranz wahrgenommen wurde. Aber leider verhielt


es sich so.
Francis Edgeworth (1845–1926) war eine unauffälligere Persönlichkeit als
Galton. Er war vor allem als Ökonom bekannt. Nach dem Studium der Lite-
ratur, der Rechtswissenschaften und der Mathematik befaßte er sich damit,
die Forschungsarbeiten der Psychophysiker über Sinneswahrnehmungen und
deren Messung auf die ökonomische Nutzentheorie anzuwenden. Er war der
Autor von Mathematical Psychics 19 (1881), einem der ersten Werke über ma-
thematische Ökonomie. Er dachte nach über die unterschiedlichen Fähigkei-

ten der Individuen, Glück zu empfinden“ und diese Frage führte dazu, daß er
sich für Quetelet, Galton und für die Normalverteilung interessierte. Er war
auf theoretischem Gebiet äußerst produktiv, vor allem in der mathematischen
Statistik, wo er sogar noch vor Pearson rangierte. Aber Edgeworth besaß nicht
dessen Talent, ein zusammenhängendes und solides Netzwerk aufzubauen. Sei-
ne Arbeit war nicht primär an einem politischen Projekt ausgerichtet und die
Eugenik interessierte ihn nicht. Galton, der sich seiner eigenen Unzuläng-
lichkeit in Mathematik bewußt war, strebte danach, sich mit einem Speziali-
sten dieses Gebietes zusammenzutun. Er bat Edgeworth um Mitarbeit. Aber
die beiden hatten kein gemeinsames wissenschaftliches Projekt und sie waren
auch durch keine politische Linie miteinander verbunden. Die von Edgeworth
in den Jahren 1880–1890 durchgeführten statistischen Arbeiten waren min-
destens ebenso bedeutend und wegweisend wie die Arbeiten Pearsons, aber
Edgeworth verfügte über keine Absatzmöglichkeiten und Forschungsinstitute,
wie sie Pearson hatte aufbauen können.
Edgeworth war einer der wenigen, die vor 1890 erkannt hatten, welche Be-
deutung die Arbeit Galtons für kognitive Schemata hatte – und zwar nicht
nur vom Standpunkt der Vererbung, für die sich Edgeworth nicht gerade be-
geisterte. In einer 1885 veröffentlichten Arbeit reproduzierte er das aus dem
Quincunx (das heißt aus dem Galtonschen Brett“) hervorgegangene Schema

und bewies die Zerlegung einer großen Normalverteilung in kleine beding-
te Verteilungen gleicher Varianz (die er als moduli“ bezeichnet). Das führte

ihn zur Formalisierung der Varianzanalyse (er sprach von entangled moduli“)

und der Vergleichstests der Mittelwerte (Edgeworth, 1885, [82]). Er untersuch-
te die allgemeinen Eigenschaften der n-dimensionalen Normalverteilung, die
er in Matrizenform schrieb (Edgeworth, 1892, [83]). Er erklärte 1893 die Kor-
relation als Momente-Produkt“ (das heißt als normierten Betrag der Erwar-

tung des Produktes der beiden korrelierten Variablen). Jedoch wurde damals
keine seiner Formulierungen von anderen Wissenschaftlern übernommen und
rückübersetzt – der Standardausdruck Korrelationskoeffizient“ wird Pearson

19
In Mathematical Psychics schildert Edgeworth die Verhandlungen zweier potenti-
eller Tauschpartner und bezeichnet die Menge der Tauschergebnisse, bei welcher
der eine Tauschpartner nicht mehr besser gestellt werden kann, ohne daß der
andere Nutzeinbußen erleidet, als Kontraktkurve. Diese Kurve ist ein Spezialfall
eines spieltheoretischen Konzepts.
Fünf Engländer und der neue Kontinent 147

zugeschrieben, der ihn seinerseits 1896, also drei Jahre später veröffentlicht
hatte. Der Unterschied zwischen beiden besteht darin, daß Edgeworth sei-
ner Arbeit den nüchternen Titel Exercises in the Calculation of Errors gab
– ein technischer Titel, der auf keinerlei Zusammenhang mit anderen Dingen
hinwies. Im Gegensatz hierzu nannte Pearson seine Arbeit Mathematical Con-
tributions to the Theory of Evolution: Regression, Heredity and Panmixia 20
und stellte damit eine Verbindung zwischen Mathematik, Darwin, Galton und
der Vererbung her (der neue Gegenstand der Panmixie“ sollte jedoch nicht

überleben). Evolution und Vererbung standen damals im Mittelpunkt des In-
teresses von Pearson. Diese Themen erweckten die Neugier eines viel größeren
Publikums, als es die mathematischen Formeln von Edgeworth taten.
Raphaël Weldon (1860–1906) war Biologe. Er war das go between der Ge-
schichte, das heißt derjenige, der Galton zu Edgeworth und Pearson in Bezie-
hung setzte. Darüber hinaus lenkte Weldon die Arbeit von Pearson in Rich-
tung einer Disziplin, die beide zusammen erschufen: die Biometrie. Weldon
war in der Tradition der evolutionistischen Biologie ausgebildet worden, deren
Ziel – ausgehend von der Beobachtung morphologischer Transformationen –
darin bestand, Stammbäume zu konstruieren, welche die Arten zueinander in
Beziehung setzten. Aber diese Tradition hatte weder die intellektuellen Mittel
noch kam sie überhaupt auf die Idee, diese morphologischen Transformationen
im großen Maßstab zu untersuchen. Weldon griff die statistischen Methoden
von Galton auf, um die Messungen zu beschreiben und zu analysieren, die
bei Krabben- und Garnelenzuchten durchgeführt worden waren. Anfänglich
unterstützte ihn Galton hierbei, aber das Material war derart komplex, daß
sich Weldon (wie schon zuvor Galton) nach einem Mathematiker umschau-
en mußte, um seine Analyse vertiefen zu können. Er zeigte seine Daten (im
Jahre 1892) Edgeworth und Pearson. Es hat den Anschein, daß beide Männer
die Idee hatten, multiple Korrelationen zu untersuchen und auf diese Weise
(im Hinblick auf die Weldonschen Vermessungen der Krabben und Garnelen)
die grafischen Intuitionen Galtons zu formalisieren und zu verallgemeinern.
Pearson ergriff die Gelegenheit und transformierte die Idee auf seine eigene
Weise, indem er sie in seine bereits vorhandenen philosophischen und politi-
schen Auffassungen integrierte. Aus der Zusammenarbeit der beiden entstand
allmählich ein Institutskern, der dann schließlich zu den Labors für Biometrie
und Eugenik führte. Die Verbindung zum Umfeld der Biologie brach jedoch
nach Weldons Tod im Jahre 1906 ab (was zweifellos zur Verbissenheit der
Debatten beigetragen hat, die später Pearson und die Mendelschen Biologen
zu Rivalen machte).
Karl Pearson (1857–1936) hat die statistische Testtheorie weiterentwickelt.
Er schuf ein wissenschaftliches Netzwerk, Institutionen und eine neue Sprache.
Er hatte einen guten Ruf erlangt und zog Studenten aus anderen Kontinen-
20
Unter Panmixie versteht man in der Biologie eine Mischung durch zufallsbedingte
Paarung.
148 4 Korrelation und Ursachenrealismus

ten an. Er war dazu in der Lage, ganz unterschiedliche Register zu ziehen
– Register mathematischer, philosophischer und politischer Art – und diese
Kombination war es, die seinem Vorhaben Durchschlagskraft gab. Diese Stärke
fehlte Edgeworth, dessen statistische Innovationen a priori genau so bedeut-
sam waren, wie die Pearsonschen, aber er hatte weder die Qualitäten noch
das Verlangen, als Manager“ tätig zu sein. Pearson studierte vor 1892 (also

vor dem Jahr, in dem er Die Grammatik der Wissenschaft veröffentlichte und
seine Arbeiten über die Weldonschen Daten begann) zunächst Mathematik in
Cambridge und anschließend Geschichte und Philosophie in Deutschland. Er
fühlte sich vom Sozialismus angezogen oder vielmehr von dem, was die Deut-
schen als Kathedersozialismus“ bezeichneten. Gemeint war damit eine Kritik

des traditionellen Bürgertums aus der Sicht der Professoren und Wissenschaft-
ler, nicht aber vom Standpunkt der Volksschichten. Diese Position war – im
Gegensatz zur Haltung der etablierten und konservativen Aristokratie – mit
der Auffassung der französischen Saint-Simonisten vergleichbar und führte zu
einem rationalistischen und militanten Szientismus. Das wiederum ermunterte
dazu, eine größere soziale Macht für die kompetentesten Individuen einzufor-
dern, die durch eine höhere Ausbildung ausgewählt wurden: Die englischen
Professionals mit Abschluß in Cambridge oder Oxford und die französischen
Ingenieure, die aus den Grandes Écoles hervorgegangen waren.
Die Kritik der traditionellen Sitten veranlaßte Pearson, sich aktiv in einem
Men’s and Women’s Club zu engagieren, der für eine Veränderung der sozialen
Rolle der Frauen kämpfte. In diesem Sinne präsentierte Pearson die Eugenik
der 1880er und 1890er Jahre mitunter im Lichte des Feminismus und der
arbeitenden Frauen. Die überdurchschnittliche Fruchtbarkeit der Frauen der
Arbeiterklasse führte zu katastrophalen Lebensbedingungen, verhinderte eine
ordentliche Erziehung der Kinder und lieferte der Bourgeoisie überschüssi-
ge Arbeitskräfte, wodurch die Löhne nach unten gedrückt werden konnten.
Wollten die Frauen dieses Milieus dem Teufelskreis entkommen, dann gab es
nur eine einzige Lösung, nämlich weniger Kinder zu bekommen. Diese Version
war offensichtlich akzeptabler als diejenige, die von Degeneration und vom
Ausschluß der mit Defekten behafteten Personen sprach, aber es ist über-
raschend, daß beide Versionen in Debatten koexistieren konnten, die auch
zur Vorgeschichte des Feminismus und der Bewegung für Geburtenkontrolle
gehörten (Zucker-Rouvillois, 1986, [296]).
Als Pearson mit Weldon zusammentraf und sich auf die Statistik stürz-
te, standen ihm drei Kategorien intellektueller und sozialer Ressourcen zur
Verfügung: die Mathematik, die Wissenschaftsphilosophie sowie ein ideologi-
sches und politisches Netzwerk. Er mobilisierte diese drei Ressourcen nach
und nach und verwendete sie für sein Vorhaben. Das führte ihn 1906 zu ei-
nem bizarren Objekt: zwei kaum voneinander verschiedene Laboratorien – das
eine für Biometrie, das andere für Eugenik (keines der beiden wurde als stati-

stisch“ bezeichnet). Im Jahre 1936 waren hieraus drei Labors hervorgegangen:
das Labor für Angewandte Statistik mit Egon Pearson, das Labor für Eugenik
mit Ronald Fisher und das Labor für Genetik mit Haldane. Karl Pearsons ma-
Fünf Engländer und der neue Kontinent 149

thematischen Fachkenntnisse waren bereits im Jahre 1892 unmittelbar zum


Tragen gekommen und ermöglichten es ihm, sich durchzusetzen. Zu diesem
Zeitpunkt kam tatsächlich nur Edgeworth als Konkurrent in Frage, aber der
war ein reiner Gelehrter und dachte, daß es nur um wissenschaftliche Fragen
ging. Pearson hingegen positionierte sich auf dem Gebiet der Evolutions- und
Vererbungstheorie (wie man aus den Überschriften der oben zitierten Arbeiten
erkennt).
Anfangs stürmte Pearson so ungestüm vorwärts, daß er sein epistemologi-
sches Credo der Grammatik der Wissenschaft fast vergaß und die statistischen
Verteilungen – Normalverteilungen oder sogar asymmetrische Verteilungen21
– auf eine eher realistische Weise à la Quetelet interpretierte. Man erkennt
das anhand der nachfolgend wiedergegebenen ersten Diskussionen, die Pear-
son zwischen 1892 und 1896 mit Weldon und Edgeworth hatte. Aber um diese
Zeit gelang es ihm, den neuen Begriff der Korrelation mit seiner früheren phi-
losophischen Kritik der Kausalität zu verbinden, die auf Mach zurückging.
Das gab der statistischen Rhetorik eine sehr große Autonomie, denn sie konn-
te sich dadurch vom Zwang der Einbeziehung externer Ursachen“ befreien,

das heißt von Fakten, die auf andere Weise konstruiert worden waren. Das für
die Folgezeit entscheidende Ereignis des Zeitraums 1892-1900 war zweifellos
diese Eroberung der Autonomie des statistischen Diskurses, der nicht nur auf
der Mathematik, sondern auch auf einer Erkenntnisphilosophie beruhte, die
in umfassender Weise die Zwänge aufgehoben hatte, mit anderen Diskursen
in Verbindung zu treten. Diese Haltung war natürlich keine direkte Folge der
Machschen Denkweise und deren Interpretation durch Pearson. Dennoch soll-
te diese Auffassung rasch zum üblichen professionellen Verhalten werden: sie
war der Verselbständigung des Statistikerberufes angemessen – mit Univer-
sitätsvorlesungen und Positionen in spezialisierten Ämtern und Institutionen.
Wir werden niemals wissen, was Lucien March, dem Direktor der SGF,
vorschwebte, als er The Grammar of Science, dieses schwere philosophische
Werk, das kaum mit Statistik zu tun hatte, zu einem Zeitpunkt übersetzte,
an dem seine Institution noch ziemlich unbedeutend war und nur über fünf
oder sechs professionelle Statistiker“ verfügte. Wie der Leser jedoch viel-

leicht bemerkt hat, kam die englische Verwaltungsstatistik in der Galton- und
Pearson-Saga so gut wie gar nicht vor. Erst sehr viel später, in den 1930er
Jahren, kam es in den Vereinigten Staaten zu einem Zusammenschluß der Ver-
waltungsstatistiker und der mathematischen Statistiker. Das macht die von
March angefertigte Übersetzung des Pearsonschen Buches nur noch bedeut-
samer, gleichzeitig aber auch rätselhafter. Es ist möglich, daß die Verbindung
zu Pearson durch zwei Faktoren begünstigt wurde: durch das demographi-
sche Interesse Marchs an der Eugenik und durch die Persönlichkeit von Yule,
der eine wesentliche Brücke zwischen der neuen englischen Statistik und den
Wirtschafts- und Sozialwissenschaften verkörperte.
21
Auch schiefe Verteilungen“ genannt.

150 4 Korrelation und Ursachenrealismus

Udny Yule (1871–1951) war der direkte Großvater“ aller Statistiker, die

auf diesem Gebiet arbeiten. Sein Handbuch An Introduction to the Theory of
Statistics (1911, [293]) hatte bis 1950 vierzehn Auflagen (ab 1937 war Kendall
Mitautor) und diente zur Ausbildung mehrerer Generationen von Studenten
der Wirtschaft und der Soziologie. Yule hatte in London Ingenieurwissenschaf-
ten und in Deutschland Physik studiert, bevor er einer der ersten Studenten
von Pearson und 1893 dessen Assistent wurde. Zwar erwies er sich anfangs in
Bezug auf die neuen Techniken der Regression und der Korrelation als treuer
Schüler seines Meisters, aber er wendete diese Techniken auf ganz andere Be-
reiche an und kam dadurch mit anderen Kreisen in Kontakt. Evolutionstheorie
und Eugenik interessierten ihn nicht, aber er wurde 1895 Mitglied der Royal
Statistical Society, der weder Galton noch Pearson angehörten. In dieser 1836
gegründeten Gesellschaft schlossen sich Fachleute zusammen, die Statistiker
im Sinne des 19. Jahrhunderts waren. Es handelte sich dabei um Personen,
die an der Lösung der sozialen und wirtschaftlichen Probleme der Armut und
des öffentlichen Gesundheitswesens beteiligt waren und versuchten, diese Fra-
gen außerhalb hitziger und polemischer Debatten zu behandeln, indem sie die
Probleme mit Hilfe von Statistiken administrativen oder privaten Ursprungs
objektivierten. Diese Amelioristen“ – wie man sie nannte – waren den Kir-

chen, der Philanthropie und den Hygieniker-Bewegungen verbunden und wur-
den oft von den radikalen Eugenikern kritisiert und dahingehend angeklagt,
daß sie den Gang der natürlichen Auslese durch Unterstützung der Mittellose-
sten, das heißt – nach Meinung der Eugeniker – der Untauglichsten behindern
würden. Die Debatte zwischen diesen beiden Strömungen – der hereditaristi-
schen und der environmentalistischen – dauerte von den 1870er Jahren bis in
die 1930er und 1940er Jahre. Pearson gehörte natürlich der hereditaristischen
Strömung an, während Yule dem Environmentalismus näher stand.
Das veranlaßte Yule dazu, die neuen Werkzeuge zu benutzen, um in
die entscheidende politischen Debatte der damaligen Zeit einzugreifen, das
heißt in die Frage nach der Form der Armenunterstützung. Sollte ein der-
artiger Beistand entsprechend den strengen Formen der anstaltsinternen Un-
terstützung (indoor relief ) auf der Grundlage der Fürsorgegesetzgebung (poor
laws) von 1834 gewährt werden – das heißt in geschlossenen Anstalten, den
Arbeitshäusern (workhouses), die Kolonien für sehr schlecht bezahlte Zwangs-
arbeit waren – oder aber im Rahmen einer Fürsorgeunterstützung (outdoor
relief ), das heißt durch eine Wohnbeihilfe, die eher für Familien, Alte und
Kranke bestimmt war. Diese beiden Formen der Beihilfe wurden auf lokaler
Ebene durch die Fürsorgeverbände (poor law unions) garantiert, die in jeder
Grafschaft (county) gegründet wurden. Das Verhältnis von indoor relief und
outdoor relief hat angeblich die Strenge oder die Laxheit widergespiegelt, mit
der die lokalen Fürsorgeverbände verwaltet worden sind. Die politische De-
batte bezog sich auf die Wohnbeihilfe: Trug der Umfang dieser Unterstützung
nicht dazu bei, die Armut auf dem gleichen Stand zu halten, wenn nicht gar zu
vergrößern? Yule verfügte in Bezug auf jeden der 580 Fürsorgeverbände über
mehrere Informationen: Die Gesamtzahl der unterstützten Armen [Fürsorge-
Fünf Engländer und der neue Kontinent 151

unterstützung (outdoor ) plus anstaltsinterne Unterstützung (indoor )] wurde


als Maß für den Pauperismus 22 angenommen, während der relative Anteil
der beiden Formen [Verhältnis anstaltsinterne Unterstützung/Fürsorgeun-

terstützung“] als Indikator für die Laxheit oder die Entschlossenheit der örtli-
chen Fürsorgeverbände galt. Yule berechnete zuerst die Korrelation zwischen
diesen beiden Variablen und danach die Regression der ersten Variablen in
Bezug auf die zweite. Die positive Korrelation (0,388 mit einem wahrscheinli-
chen Fehler von 0,022) führte ihn zur Schlußfolgerung, daß der Pauperismus
abnimmt, wenn die Wohnbeihilfe nicht so leicht gewährt wird. Danach mach-
te er sein Modell komplizierter, indem er (zwischen 1871 und 1891) variati-
onsbezogen argumentierte und weitere explikative“ Variable einbezog: den

Anteil der Alten und die Durchschnittslöhne – entsprechend den Angaben der
Fürsorgeverbände (Yule, 1899 [291] und 1909 [292]).
Zwischen 1895 und 1899 veröffentlichte er fünf Artikel zu dieser Thema-
tik. Beim Lesen dieser Arbeiten hat man den Eindruck, daß sein Anliegen
zunächst darin bestand, die Bedeutung der neuen Werkzeuge nachzuweisen
und ihnen gleichzeitig seinen eigenen Stempel aufzuprägen. Vor allem kommt
das in seinem 1897 erschienen Artikel zum Ausdruck, in dem er – erstmalig
außerhalb des Kontextes der Fehlerrechnung – die Approximation nach der
Methode der kleinsten Quadrate anwendete: er definierte die Regressionsgera-
de als diejenige Gerade, welche die Summe der Quadrate der Beobachtungs-
abweichungen von der approximierten Geraden minimierte, was zuvor weder
Galton noch Pearson getan hatten. Gleichzeitig stellte er auch die Regression
in Bezug auf mehrere Variable vor, denn zur Analyse der Schwankungen des
Pauperismus verwendete er als explikative Variable nicht nur die Schwankung
der Wohnbeihilfe, sondern auch die Schwankung in Bezug auf die Bevölkerung
und den relativen Anteil der Alten (Yule, 1897, [290]). Die Koeffizienten dieser
multiplen Regression wurden von Yule als partielle Regression“ bezeichnet

und er führte auch partielle“ und multiple“ Korrelationen ein. In der Re-
” ”
trospektive waren wohl die Anwendung der Methode der kleinsten Quadrate
und die Formulierung der multiplen Regression die bemerkenswertesten Bei-
träge dieses Artikels. Dennoch gibt der Titel der Arbeit (On the Theory of
Correlation) keinerlei Hinweis auf diese beiden Punkte (wir erinnern daran,
daß der Artikel von Pearson, in dem er 1896 den Begriff des Korrelations-
koeffizienten formulierte, den Titel Regression, Heredity and Panmixia trug.
Ein erstaunlicher Platzwechsel ...). Dagegen hatte Yule das Gefühl, daß sein
(im Vergleich zu Pearson impliziter) Originalbeitrag der Beweis dessen war,
daß es möglich ist, sich von den Normalverteilungshypothesen zu lösen und
eine Punktwolke mit Hilfe einer linearen Regression zu approximieren. Diese
Hypothesen hingen – von Quetelet über Galton bis hin zu Pearson – eng mit
den Vermessungen des menschlichen Körpers zusammen. Die Übersetzung der
dabei verwendeten Werkzeuge war die Voraussetzung dafür, daß sie sich auf
22
Der Pauperismus ist ein Begriff zur Bezeichnung der Massenarmut in der ersten
Hälfte des 19. Jahrhunderts.
152 4 Korrelation und Ursachenrealismus

ökonomische und soziale Daten anwenden ließen, die nur selten normalverteilt
sind. Hier lag der Keim des späteren Konflikts zwischen Yule und Pearson:
es ging genau um die zugrundeliegenden Normalverteilungshypothesen und
allgemeiner um die Beschaffenheit und die Tragweite der neuen, von Yule und
Pearson konstruierten Realitäten.

Kontroversen über den Realismus der Modelle


Im Dezember 1890 wurde Pearson damit beauftragt, an der Universität Lon-
don eine Geometrievorlesung zu halten. Er las über das, was später den Inhalt
seiner Grammatik der Wissenschaft bilden sollte. Die Statistik trat dort le-
diglich in einem Überblick über die verschiedenen Typen von grafischen und
geometrischen Darstellungen auf. Er erwähnte Galton nicht, dessen Werk Na-
tural Inheritance er aber 1889 gelesen hatte und zu dem er sich im Men’s and
Women’s Club skeptisch äußerte. In diesem Club hatte er (im Jahre 1889) die
Frage nach dem Realismus der Anwendung mathematischer Formulierungen
in den deskriptiven Wissenschaften“ aufgeworfen:

Ich denke, daß es sehr gefährlich ist, die Methoden der exakten Wis-
senschaften auf die Probleme der deskriptiven Wissenschaften anzu-
wenden – seien es Probleme der Vererbung oder der politischen Öko-
nomie. Der Zauber und die logische Präzision der Mathematik können
einen beschreibenden Wissenschaftler derart faszinieren, daß er nach
soziologischen Hypothesen sucht, die zu seinen mathematischen Über-
legungen passen – ohne sich vorher zu vergewissern, ob die Basis seiner
Hypothesen ebenso umfassend ist wie das menschliche Leben, auf das
die Theorie angewendet werden soll. (Pearson, 11. März 1889, Stel-
lungnahme im Men’s and Women’s Club, zitiert von Stigler.)
Beim Lesen dieses Textes versteht man besser, welche Arbeit Pearson
später noch bevorstand, um seine Wissenschaftsphilosophie mit seinen ma-
thematischen Konstruktionen zu verbinden – eine Arbeit, die ihn zum Begriff
der Kontingenz und zur Ablehnung der Kausalität führte. Er begann seine
Laufbahn 1892 mit einer Attacke auf die von Weldon durchgeführten Vermes-
sungen von Krabben und Garnelen. Ausgehend vom Standpunkt Quetelets
und Galtons untersuchte er die Verteilungen und insbesondere, ob es sich
um Normalverteilungen handelte. Er beobachtete dabei starke Asymmetrien
und stürzte sich auf die mathematische Zerlegung dieser schiefen“ Kurven in

zwei oder mehr Normalverteilungen. Pearsons Problem ähnelte dem Problem,
das Adolphe Bertillon mit der zweigipfligen Verteilung der Körpergrößen der
Rekruten von Doubs hatte. Jedoch suchte Pearson nach einer – notwendiger-
weise sehr komplizierten – mathematischen Darstellung, die eine bestmögliche
Anpassung an die Beobachtungen liefert (exakt in Bezug auf eine derartige
Möglichkeit hatte er sich drei Jahre zuvor mißtrauisch geäußert). Hierzu be-
rechnete er – zur Parameterschätzung dieser komplizierten Verteilungen, in
Kontroversen über den Realismus der Modelle 153

denen mehrere Normalverteilungen miteinander verschmolzen waren – die so-


genannten Momente aufeinanderfolgender Ordnungen (bis zur Ordnung vier
oder fünf) der beobachteten Verteilungen über den Mittelwert (Moment der
Ordnung eins) und über die Varianz (Moment der Ordnung zwei) hinaus.
Diese Momentmethode“ zum Auffinden von Anpassungen an schiefe Ver-

teilungen war seine erste große Arbeit auf dem Gebiet der mathematischen
Statistik. Die Methode wurde in seinem Labor über einen Zeitraum von etwa
zwanzig Jahren verwendet.
Gegenüber dieser Arbeit konnten Einwände von seiten derjenigen wenigen
Kollegen nicht ausbleiben, die überhaupt dazu in der Lage waren, die Arbeit
zu lesen: Galton, Weldon und Edgeworth. Sie kritisierten Pearson, ähnlich wie
dieser drei Jahre zuvor Galton in Bezug auf den Realismus seiner Modellbil-
dung kritisiert hatte. Darüber hinaus warfen sie eine Frage von allgemeiner
Tragweite auf: Wie soll man das berücksichtigen, was bereits anderweitig be-
kannt war – beispielsweise zur Elimination möglicher abweichender Beobach-
tungen? Pearson hatte sich energisch geweigert, so etwas zu tun. Ungeachtet
aller gegenteiligen Äußerungen Pearsons schien sich seine anfängliche Metho-
de auf der Linie Quetelets zu befinden, für den eine Normalverteilung die
Bestätigung einer tieferliegenden Homogenität und einer konstanten Ursache
war. Pearson schien mit den Zerlegungen seiner schiefen Kurven“ nach meh-

reren konstanten Ursachen zu suchen, die durch diese Zerlegungen bestätigt
würden. Galton stellte jedoch im Verlauf der Diskussion die Frage, was man
mit denjenigen wenigen Dingen tun solle, die bereits bekannt waren:

Das Häufigkeitsgesetz beruht auf der Hypothese einer totalen Un-


kenntnis der Ursachen; aber nur selten sind wir gänzlich unwissend,
und dort, wo wir etwas wissen, sollte das natürlich berücksichtigt wer-
den. Ihre graphischen Darstellungen sind interessant, aber haben Sie
auch den Ursprung Ihrer Formeln und die Rechtfertigung für deren
Anwendung gefunden, oder handelt es sich bei diesen Formeln um ein-
fache approximative Koinzidenzen? Die geschätzten Mittelwerte für
die Farben müssen anderen physiologischen Prozessen entsprechen,
aber welchen? Was ist das gemeinsame Merkmal ihrer Ursache? Über-
all dort, wo die Normalverteilung nicht angewendet werden kann, ist
es sehr wahrscheinlich, daß große und dominante Ursachen irgend-
welcher Art ins Spiel kommen müssen. Jede dieser Ursachen ist zu
isolieren und gesondert zu diskutieren; darüber hinaus muß das auf
die jeweilige Ursache zutreffende Häufigkeitsgesetz bewiesen werden.
(17. Juni 1894). (Galton, zitiert von Stigler.)
Zwar war Weldon ziemlich stark in das Unternehmen eingebunden. Aber
die Flut der Formeln erschreckte ihn und er hatte das Gefühl, daß ihm sein
Wissen als Biologe entzogen wird. Er fragte sich, ob er Pearson vertrauen
könne, dessen nichtmathematische Überlegungen ihm wenig streng zu sein
schienen. Er schrieb an Galton:
154 4 Korrelation und Ursachenrealismus

Wenn Pearson aus seiner Wolke von mathematischen Symbolen auf-


taucht, dann scheint mir seine Argumentation auf wackligen Füßen zu
stehen und er macht sich wohl kaum die Mühe, seine eigenen Daten zu
verstehen ... Ich vertraue nicht einmal darauf, daß er ein klarer Denker
ist, wenn er ohne Symbole schreibt. Kann ich ihm denn dann impli-
zit dieses Vertrauen schenken, wenn er sich hinter einer Tabelle der
Gammafunktionen verbirgt? (11. Februar 1895). Je mehr ich über die
Pearsonsche Theorie der asymmetrischen Schwankungen nachdenke,
desto weniger Gewißheit habe ich, daß es sich dabei um reale Dinge
handelt (3. März 1895).
Ich fürchte mich sehr vor reinen Mathematikern, die keine experimen-
telle Ausbildung hatten. Schauen Sie sich Pearson an. Er spricht von
der Kurve der Frontalbreiten“, als ob es sich um eine unschöne Ap-

proximation der Normalverteilung handle. Ich sage ihm, daß ich einige
signifikanten Ursachen kenne (Verwerfung und Regeneration), mit de-
nen sich anormale Beobachtungen erklären lassen. Ich lege ihm den
Gedanken nahe, daß diese Beobachtungen – aufgrund der Existenz der
besagten Ausnahmeursachen – nicht den gleichen Wert haben wie die
Masse der übrigen Beobachtungen und daß sie deswegen ausgeklam-
mert werden müssen. Er antwortet, daß die Häufigkeitskurve, welche
die Beobachtungen darstellt, als rein geometrische Kurve aufzufassen
ist, deren sämtliche Eigenschaften von gleicher Wichtigkeit sind. Für
ihn verhält es sich so: weisen die beiden Enden“ der Verteilung bei

nur einem Dutzend Beobachtungen eine Besonderheit in Bezug auf
ihre Eigenschaften auf, dann ist diese Besonderheit genauso wichtig,
wie jede andere Eigenschaft der Figur ... Aus diesem Grund hat er
eine seiner schiefen Kurven an meine Frontalbreiten“ angepaßt. Die-

se Kurve paßt sich an ein Dutzend extremer Beobachtungen besser
an, als es die Normalkurve tun würde; aber für den Rest der Kurve,
der 90% der Beobachtungen ausmacht, ist die Anpassung schlechter.
Dinge dieser Art passieren andauernd bei Pearson und bei beliebigen
anderen reinen Mathematikern (6. März 1895.) (Weldon, Briefe an
Galton.)
Diese Briefe, die Stigler in den Galton-Archiven ausgegraben hatte, sind
aufschlußreich: wir sehen hier, wie Weldon – dessen Rolle als Vermittler zwi-
schen Galton und Pearson für die Folgezeit wesentlich war – seine Besorgnis
über die Starrheit und das Selbstvertrauen eines Mathematikers zum Aus-
druck bringt, den er in den Schafstall der Biologen geführt hatte: Aber was

weiß er denn schon von meinen Daten?“ Dennoch reichten diese Befürchtun-
gen nicht aus, um die Zusammenarbeit der beiden zu unterbrechen, die bis
zum Tode von Weldon im Jahre 1906 eng blieb.
Mit Edgeworth verhielt sich die Sache anders, denn sein Alter, Charak-
ter und seine Hauptinteressen hielten ihn in größerer Distanz zu Pearson und
zu dessen mit Reklametrommeln geführten Unternehmen. Tatsächlich waren
Kontroversen über den Realismus der Modelle 155

die beiden zwischen 1893 und 1895 Konkurrenten, als sie die schiefen Kurven
untersuchten, die sich auf der Grundlage der Weldonschen Daten ergaben.
Edgeworth schrieb 1894 einen Artikel über das Thema, aber die Publikation
der Arbeit wurde abgelehnt und er hatte den Verdacht, daß Pearson dabei
seine Hand im Spiel hatte – dafür gibt es jedoch keine Beweise (Stigler, 1978,
[266]). Im Grunde genommen polemisierten beide über die Bedeutung der
Normalverteilungen, die Pearson für denjenigen Sachverhalt hielt, der hinter
den schiefen Kurven stand. Für Edgeworth war jedoch der Zusammenhang
zwischen Normalverteilungen und schiefen Kurven zu zerbrechlich, um als
Argument zu dienen. Die Kurven waren nichts anderes, als empirische Ad-
hoc-Konstruktionen. Sie konnten nicht dazu verwendet werden, um auf eine
Homogenität zu schließen. Paßten die Kurven gut zu den Daten, dann be-

steht die Frage darin, welches Gewicht jemand dieser Korrespondenz geben
sollte, der keinen theoretischen Grund für diese Formeln sah.“ Hingegen war
es notwendig, Homogenitätshypothesen aufzustellen, die auf Kenntnissen aus
anderen Quellen beruhten. Folglich schrieb Edgeworth seinem Konkurrenten
eine Art antiquierten Queteletismus“ zu.

Aber Pearson, der möglicherweise sensibel auf diese Kritik reagierte, war
damit befaßt, seine antirealistische Erkenntnisphilosophie Schritt für Schritt
in die Interpretation der Statistik einzuarbeiten. Das gab ihm die Möglichkeit,
sich auf elegante Weise den von Weldon und Edgeworth aufgeworfenen Fragen
zu entziehen. Wenn es keine äußere Ursache“ für statistische Konstruktionen

gibt, und wenn die mathematischen Formeln lediglich mentale Stenographien
sind, dann wird alles möglich. Insbesondere wurde die Frage des Zusammen-
hangs zu anderen Wissensgebieten (die Weldonschen Verwerfungen und Re-

generationen“) nicht mehr in dem Maße als restriktiv empfunden. Pearson
war gewiß weniger dogmatisch, und sei es nur, um Verbindungen zu Univer-
sen herzustellen und zu pflegen, die vom seinigen verschieden waren – aber
seine Argumentationsweise gewährte ihm eine fast unangreifbare Rückzugs-
position im Falle von Einwänden gegen den Realismus seiner Objekte. Auf die
Kritik von Edgeworth, daß er – Pearson – aus einer guten Anpassung auf das
Vorhandensein einer Normalverteilung und die Existenz einer einfachen er-
klärenden Ursache geschlossen hätte, antwortete er: Es geht nicht darum, zu

wissen, ob es sich dabei wirklich um die Bestandteile handelt, sondern darum,
ob ihre Gesamtwirkung so einfach beschrieben werden kann.“
Die Bedeutung dieser Formulierung besteht darin, daß sie es ermöglicht, in
Abhängigkeit von den Gesprächspartnern und den Situationen fast unbewußt
von einem Register zum anderen zu gleiten. In gewissen Fällen existieren die
Dinge, weil andere Personen diese Dinge benötigen und weil die Betreffenden
mit Dingen beliefert werden möchten, die wirklich da sind und einen Zusam-
menhalt aufweisen. In anderen Fällen – zum Beispiel in Reaktion auf Kritiken
am hypothetischen und konstruierten Charakter der Dinge – kann man die
betreffenden Dinge als mentale Stenographien oder praktische Konventionen
bezeichnen. Diese ständige Verlagerung ist weder ein Betrug noch hat sie mit
Verschlagenheit zu tun. Beide Haltungen sind für das soziale Leben gleicher-
156 4 Korrelation und Ursachenrealismus

maßen kohärent und notwendig. Man muß sich dieser Tatsache nur bewußt
sein und darf sich nicht auf eine der Haltungen zurückziehen und diese als
einzig richtige Erkenntnisphilosophie ausgeben. Jede dieser Haltungen ist von
der jeweiligen Situation abhängig. Zu gewissen Zeiten ist es besser, Realist
zu sein. Zu anderen Zeiten wiederum kann uns ein Schuß Nominalismus bei
der Wiederentdeckung von Dingen helfen, die seit langem in umfassenderen
Dingen eingekapselt“ sind, welche ihrerseits den gesamten Schauplatz ein-

nehmen.
Um die Jahrhundertwende entstand aus der Allianz von Biologen und Ma-
thematikern eine ausgeprägt mathematisch zugeschnittene Statistik, die zur
Biometrie führte. Später folgten weitere Allianzen. Yule hatte bereits damit
begonnen, den Regressions- und den Korrelationskalkül auf die Ökonomie zu
übertragen – dort schufen Irving Fisher und Ragnar Frisch dreißig Jahre später
die Ökonometrie. Spearman, ein Psychologe, vereinheitlichte die Ergebnisse
und die Interpretationen von Intelligenztests mit Hilfe der Faktorenanalyse,
einer statistischen Technik, die sich aus den Techniken der Biometrielabors
ableitete. Auf diese Weise entwickelte er die Psychometrie. In beiden Fällen
sollten die erschaffenen und verwendeten Objekte in der Folgezeit wieder in-
frage gestellt werden – die Yuleschen Objekte wurden von Pearson selbst,
die Spearmanschen Objekte von Thurstone und in der Folgezeit von vielen
anderen infrage gestellt.

Yule und der Realismus der administrativen Kategorien

Yule erfand schon bei seiner ersten Anwendung der neuen Werkzeuge im Jah-
re 1895 eine Sprache, um die damals brennenden Fragen zu behandeln, bei
denen es um Armut und Fürsorge ging. Er verglich die relativen Gewichte der
verschiedenen möglichen Ursachen der Schwankungen des Pauperismus, um
denjenigen Personen Anhaltspunkte zu liefern, die an einer Reform der aus
dem Jahre 1834 stammenden Fürsorgegesetzgebung (poor laws) arbeiteten. Er
legte ein elaboriertes Beispiel der Übersetzung eines politischen Problems und
dessen Bearbeitung mit Hilfe eines Meßinstruments vor, das es ermöglichte,
eine Kontroverse zu schlichten. Die angeschnittene Frage hatte den englischen
Gesetzgebern seit drei Jahrhunderten keine Ruhe gelassen: Wie kann man die
Armen auf ökonomisch rationelle Weise so unterstützen, daß die von ihnen aus-
gehende soziale Gefahr gebannt wird? In der Geschichte Englands kann man
verschiedene Fürsorgegesetzgebungen hervorheben. Ein solches Gesetz wurde
1601 verabschiedet, eine weitere Verfahrensweise war die Speenhamland Act
of Parliament 23 und schließlich ist das Gesetz von 1834 zu nennen, das die
23
Im Jahre 1775 kam eine Gruppe von Friedensrichtern, also Männer der Herren-
klasse, in Speenhamland (Berkshire) zusammen und beschloß, die Differenz zwi-
schen den fürs erste gleichbleibenden Löhnen und den erhöhten Brotpreisen aus
der Armenkasse auszugleichen. Damit wälzten sie ihre eigenen Lasten auf die
Yule und der Realismus der administrativen Kategorien 157

Gründung von Arbeitshäusern (workhouses) beschloß und zwischen anstalts-


interner Unterstützung (indoor relief ) und Fürsorgeunterstützung (outdoor
relief ) unterschied. Die Debatten über dieses Gesetz bündelten im gesamten
19. Jahrhundert die Überlegungen der Philosophen, Statistiker und Ökonomen
(Polanyi, 1983, [234]). In den 1880er Jahren führte Charles Booth Untersu-
chungen mit dem Ziel durch, die Armen zu klassifizieren und zu zählen. Galton
verwendete diese Untersuchungen, um seine Eignungsskala aufzustellen.
Aber die einzigen regelmäßigen Informationen über die Entwicklung des
Pauperismus kamen von den Verwaltungsstatistiken der Fürsorgeverbände,
die zwischen den Fürsorgeunterstützungen und den anstaltsinternen Un-
terstützungen unterschieden. In den damaligen Diskussionen wurde der Pau-

perismus“ als ein meßbares Ding betrachtet. Diese meßbare Größe war die An-
zahl derjenigen Personen, die in Anwendung der Fürsorgegesetzgebung eine
Unterstützung erhielten – ebenso wie man heute die Arbeitslosigkeit durch die
Anzahl derjenigen Personen mißt, die bei den Arbeitsämtern gemeldet sind.
Das betreffende Objekt existiert dank seiner sozialen Kodierung durch die
Vergegenständlichung der Ergebnisse eines administrativen Verfahrens, dessen
Modalitäten Schwankungen unterworfen sind. Die Verlagerung vom Verfahren
auf das Ding ist es nun, was die Interpretation der Yuleschen Schlußfolgerung
so schwierig macht. Die Schlußfolgerung, die sich auf Korrelationen von Mes-
sungen im Rahmen ein und desselben Verfahrens bezieht, läßt sich entweder
als arithmetische Tatsache interpretieren oder aber als Information über die
Auswirkungen der Sozialpolitik.
Yule untersuchte für den Zeitraum von 1850 bis 1890 drei statistische Rei-
hen. Die erste Reihe enthielt die Gesamtzahl der unterstützten Personen; die
zweite Reihe umfaßte die Anzahlen derjenigen Personen, die eine Fürsorgeun-
terstützung (outdoor relief ) erhielten, und die dritte Reihe bestand aus den
Anzahlen der Personen, die eine anstaltsinterne Unterstützung (indoor relief )
erhielten. Die ersten beiden Reihen korrelierten stark – insbesondere zeigte
sich zwischen 1871 und 1881 ein deutlicher Rückgang, während die dritte Rei-
he (workhouse) mit den ersten beiden kaum einen Zusammenhang aufwies.
Die gleiche Korrelation wurde für das Jahr 1891 bei den 580 lokalen Fürsor-
geverbänden der Grafschaften festgestellt. Wichtig war die Tatsache, daß die
Politik der Fürsorgeunterstützung – insbesondere zwischen 1871 und 1881 –
sehr viel restriktiver geworden war und daß der Pauperismus“ zurückging,

denn die durch das Arbeitshaus (workhouse) gewährte Unterstützung war
viel weniger variabel. Das sieht a priori so aus, wie eine arithmetische Selbst-
Schultern der Steuerträger, also auch der kleinen Landbesitzer, die keine Lohnar-
beiter beschäftigten. Das Verfahren von Speenhamland machte bald Schule und
verbreitete sich über alle südenglischen Grafschaften bis weit nach Mitteleng-
land hinein, so daß man bald von einer Speenhamland Act of Parliament sprach,
ohne daß jemals ein solches Gesetz zustandegekommen wäre. Die Gesetzgebung
bestätigte das Vorgehen der Friedensrichter nur, indem eine Akte von 1796 aus-
drücklich erlaubte, auch solchen Armen Unterstützung zu reichen, die nicht im
Armenhaus wohnten.
158 4 Korrelation und Ursachenrealismus

verständlichkeit. Aber die von Yule aufgeworfene Frage war weitaus komple-
xer: Welcher Anteil des Rückgangs des Pauperismus ist auf administrative
Änderungen der Fürsorgeverwaltung zurückzuführen, und welcher Anteil auf
andere Ursachen, zum Beispiel auf Änderungen der Gesamtbevölkerungszahl
oder der Altersstruktur? Er berechnete die multiple lineare Regression der
Änderung der Pauperismusquote (in jeder Grafschaft) im Vergleich zu den
Änderungen der drei als explikativ“ vorausgesetzten Variablen: Fürsorgeun-

terstützung, Gesamtbevölkerungszahl der Grafschaft und Anteil der Alten in
den betreffenden Grafschaften. Er schloß die erste jemals durchgeführte öko-

nometrische“ Untersuchung mit folgenden Worten.

Die Änderungen der Pauperismusquote zeigen immer eine markan-


te Korrelation zu den Änderungen der Fürsorgeunterstützung, wo-
hingegen die Korrelation zur Bevölkerungsänderung oder zum An-
teil der Alten ziemlich gering ist. Die Änderungen der Fürsorge-
unterstützung korrelieren überhaupt nicht mit den Änderungen der
Bevölkerungszahl und den Änderungen des Anteils der Alten. Es er-
scheint unmöglich, den überwiegenden Anteil der Korrelation zwi-
schen den Änderungen des Pauperismus und den Änderungen der
Fürsorgeunterstützung einer anderen Ursache zuzuschreiben, als dem
direkten Einfluß der Änderung der Politik auf die Änderung der Pau-
perismus – wobei die Änderung der Politik nicht auf externe Ursachen
wie Bevölkerungswachstum oder ökonomische Veränderungen zurück-
zuführen ist.
Setzt man eine derartige direkte Beziehung voraus, dann hat es den
Anschein, daß etwa fünf Achtel des Rückgangs des Pauperismus zwi-
schen 1871 und 1881 auf eine Änderung der Politik zurückzuführen
ist. Der leichtere Rückgang, der zwischen 1881 und 1891 beobachtet
wurde, läßt sich nicht auf diese Weise erklären, denn die Politik hatte
sich in dieser Zeit kaum geändert. In beiden Jahrzehnten gab es signifi-
kante Änderungen des Pauperismus, die sich nicht durch Änderungen
der Fürsorgeunterstützung, der Bevölkerungszahl oder des Anteils der
Alten erklären lassen. Bei diesen nicht erklärten Änderungen handelt
es sich um Rückgänge bei den ländlicheren Gruppen und um Zunah-
men bei den städtischen Gruppen in diesen beiden Jahrzehnten. Diese
Änderungen haben das gleiche Vorzeichen und die gleiche Größenord-
nung wie die Änderungen bei der anstaltsinternen Unterstützung und
sind wahrscheinlich auf soziale, wirtschaftliche oder moralische Fakto-
ren zurückzuführen. (Yule, 1899, [291]).

Weder in der Darstellung von Yule noch in den sich anschließenden Kom-
mentaren wurde die Bedeutung des Objekts Pauperismus“, das durch die

Anzahl der unterstützten Personen definiert war, explizit diskutiert. Nun führ-
te aber der von Yule vorgelegte Beweis exakt zu einer Infragestellung dieser
Bedeutung, denn die erklärende Hauptvariable, das heißt der Rückgang der
Yule und der Realismus der administrativen Kategorien 159

Fürsorgeunterstützung, wurde als Politikänderung bezeichnet. Yule präzisier-


te sogar, daß die fünf Achtel des Rückgangs des Pauperismus hierauf – das
heißt auf Änderungen in der Politik – zurückzuführen waren, während der
Rest mit Ursachen zusammenhing, die der Gesellschaft zuzuordnen waren,
und nicht der Art und Weise der Registrierung. Alles spielte sich so ab, als
ob jeder verstanden hätte, daß diese Untersuchung folgendes bedeutete: Die
Schwankungen des auf diese Weise gemessenen Pauperismus spiegeln ledig-
lich einen Teil der Schwankungen einer möglichen realen Armut“ wider, die

jedoch von niemandem explizit erwähnt wurde. War das selbstverständlich?
War es überflüssig, über etwas zu sprechen, das jeder verstanden hatte? Am
Ende der Versammlung der Royal Statistical Society ergriffen zwei Ökono-
men das Wort: Robert Giffen und Francis Edgeworth. Für Giffen waren die
Ergebnisse von Yule
... eine Bestätigung dafür, daß die administrativen Maßnahmen der
für die Fürsorgegesetzgebung zuständigen örtlichen Behörden einiges
dazu beigetragen hatten, den Pauperismus in den vergangenen dreis-
sig Jahren zu senken ... Die Spezialisten dieser Administration hatten
bereits bemerkt, daß man unmittelbar nach Verschärfung der Voraus-
setzungen für den Erhalt einer Fürsorgeunterstützung einen Rückgang
des Pauperismus feststellen konnte. (Giffen, zitiert von Yule, 1899,
[291].)
Edgeworth bemerkte, daß manche Leute glaubten, aus einer in Irland be-
obachteten starken Zunahme des Pauperismus die Schlußfolgerung ziehen zu
können, daß dieses Land auch einen entsprechenden Rückgang seines wirt-
schaftlichen Wohls erfahren hat. Hätten sie aber die Arbeit von Yule gelesen,
dann hätten sie sich auch gefragt, ob denn nicht administrative Änderungen

einen Großteil dieser Zunahme des Pauperismus erklären könnten“. (Edge-
worth machte sich auch Gedanken darüber, ob es sich bei den Verteilungen
der verschiedenen Quoten, die bei den Berechnungen verwendet wurden, um
Normalverteilungen handelte.)
Yule, Giffen und Edgeworth hatten also verstanden, daß die Schwankun-
gen des Pauperismus etwas mit der Art und Weise zu tun hatten, in der
dieser registriert und verwaltet wurde. Keiner der drei ging jedoch so weit,
die tatsächliche Verwendung des Wortes Pauperismus zur Bezeichnung die-
ser administrativen Aufzeichnung infrage zu stellen. So könnte der erste Satz
von Giffen folgendermaßen gelesen werden: Die Maßnahme der Administra-

tion hat mit Erfolg dazu geführt, die Armut zu verringern“, aber schon im
nächsten Satz traten Zweifel auf. Natürlich ist es eine klassische Beobach-
tung, die Vergegenständlichung eines Kodierungsverfahrens festzustellen, das
– unabhängig von diesem Anfangsmoment – zur Schaffung eines an sich exi-
stierenden Dings führt: Beispiele hierfür sind die Kriminalität und die Ar-
beitslosigkeit. Die Schwankungen dieser Dinge“ sind dann mehrdeutig. Die

häufigste Interpretation besteht darin, die Schwankungen als Widerspiegelung
der sozialen Phänomene zu deuten. Aber die Schwankungen lassen sich auch
160 4 Korrelation und Ursachenrealismus

als Änderungen im Verhalten der Politik oder der Arbeitsvermittlungsbehörde


auffassen. Die frühe ökonometrische Untersuchung von Yule ist deswegen wert-
voll, weil sie sich exakt auf diesen Punkt bezieht, obgleich sie nicht so weit
geht, die entsprechende logische Schlußfolgerung zu ziehen. Diese Schlußfol-
gerung hätte darin bestanden, die Konstruktion der im Modell tatsächlich
verwendeten Äquivalenzklasse, das heißt den Pauperismus, infrage zu stellen.
Wie es sich herausstellte, stand diese Frage nach der Bedeutung und Rea-
lität der Klassen im Mittelpunkt einer Polemik, die Pearson in den Jahren
zwischen 1900 und 1914 gegen Yule so sehr aufbrachte, daß ihre Beziehun-
gen darunter litten (Mac Kenzie, 1981, [183]). Die Debatte drehte sich um
einen scheinbar technischen Punkt: Wie mißt man die Stärke der Verbindung
oder Korrelation“ zwischen zwei Variablen, wenn diese Variablen nicht auf

einer stetigen Skala gemessen werden, sondern es sich vielmehr um Klassi-
fizierungen in diskreten Kategorien oder um diskrete Variable handelt. Der
einfachste Fall ist das Kreuzen“ von zwei Merkmalen mit zwei Ausprägun-

gen, das heißt eine Tabelle mit 2 × 2 = 4 Feldern ( Vierfeldertafel“), zum

Beispiel die Anzahl der am Ende eines Jahres überlebenden oder verstorbe-
nen Personen, die gegen Pocken geimpft oder nicht geimpft worden waren.
Dieser Fall tritt in den Humanwissenschaften üblicherweise auf, in denen man
Populationen in Kategorien sortiert, die als klarerweise diskrete Äquivalenz-
klassen behandelt werden: Geschlecht, Familienstand, Nationalität, Tätigkeit
oder Untätigkeit. In seiner vorhergehenden Untersuchung klassifizierte Yule
die Personen von dem Standpunkt aus, ob sie Unterstützung erhielten oder
nicht, ob es sich um Fürsorgeunterstützung (outdoor relief ) oder anstaltsinter-
ne Unterstützung (indoor relief ) handelte und ob die betreffenden Personen in
der Stadt oder auf dem Lande lebten. Pearson dagegen arbeitete im Rahmen
der Biometrie über stetige physikalische oder nichtphysikalische Messungen,
die typischerweise normalverteilt waren. Falls die Variablen nicht stetig waren,
dann bestand seine Reaktion darin, die beobachteten Häufigkeiten der Katego-
rien zu verwenden, um diese – unter der Voraussetzung einer Normalverteilung
– auf einer stetigen Skala zu kalibrieren. Das hatte Galton bereits in den 1880er
Jahren getan, als er die Kategorien von Charles Booth verwendete. Darüber
hinaus war die Korrelationstheorie auf der Grundlage der zweidimensionalen
Normalverteilung entwickelt worden, wobei die Regressionskoeffizienten und
die Korrelationskoeffizienten als deren Parameter auftraten.
Hieraus leiteten sich die verschiedenen Messungen der Korrelation einer
Tafel ab, in der sich diskrete Variable kreuzen – vor allem ging es um Vier-
feldertafeln. Yule hatte keinen Grund zu der Annahme, daß seine Kategorien
latente stetige und normalverteilte Variable widerspiegelten. Er schlug einen
leicht zu berechnenden Indikator vor. Enthält die Tafel in der ersten Zeile die
beiden Zahlen a und b und in der zweiten Zeile die Zahlen c und d, dann wird
die Stärke des Zusammenhangs durch Q = (ad−bc)/(ad+bc) gemessen. Dieser
Ausdruck besaß mehrere Eigenschaften, die man von einem Zusammenhangs-
koeffizienten erwarten konnte: den Wert +1 für den Fall einer vollständigen
positiven Abhängigkeit, den Wert 0 für die Unabhängigkeit und den Wert −1
Yule und der Realismus der administrativen Kategorien 161

für den Fall einer vollständigen negativen Abhängigkeit. (Dennoch hat der In-
dikator den Nachteil, daß er den Wert +1 bzw. −1 annimmt, wenn nur eines
der vier Felder gleich Null ist, was schwerlich als vollständige Abhängigkeit
betrachtet werden kann.) Pearson dagegen empfand nur Verachtung für diesen
Ausdruck, der willkürlich war und sich durch nichts begründen ließ. Im Übri-
gen könne der Ausdruck durch Q3 oder Q5 ersetzt werden und würde dann
die gleichen erforderlichen Eigenschaften besitzen. Um den Zusammenhang
auf eine ihm eindeutig erscheinende Weise zu messen, konstruierte er eine
zweidimensionale Normalverteilung, deren Randverteilungen sich an die bei-
den beobachteten Randverteilungen anpaßten. Er bewies, daß es genau eine
derartige Verteilung gibt und daß einer der dabei auftretenden Parameter die
gewünschte Korrelation liefert; Pearson verwendete hierfür die Bezeichnung
tetrachorischer Korrelationskoeffizient“.

Dieser Streit sorgte unter den Mitarbeitern des Biometrielabors für Unru-
he und sie lieferten sich bissige Artikel, die im Journal of the Royal Statistical
Society (eher das Lager von Yule) und in der von Pearson gegründeten Zeit-
schrift Biometrika veröffentlicht wurden. Die Auseinandersetzung wurde von
Mac Kenzie eingehend analysiert, der die unterschiedlichen rhetorischen und
sozialen Strategien der betreffenden Autoren erläuterte und nachwies, daß
jeder an seiner eigenen Methode festhielt und Schwierigkeiten hatte, die Me-
thoden der anderen zu verstehen. Yule attackierte die nutzlosen und nicht

verifizierbaren“ Normalverteilungshypothesen. Er griff den Fall der Tafel auf,
in der die Wirkungen der Impfungen beschrieben wurden und wies nach, daß
sich in diesem Fall die Äquivalenzkonventionen schwerlich bestreiten lassen:
... alle diejenigen, die an Pocken gestorben sind, sind gleichermaßen
tot; keiner ist toter oder weniger tot als der andere und die Toten
unterscheiden sich vollkommen von den Lebenden ... In diesen Fällen
gibt uns der Normalverteilungskoeffizient“ bestenfalls eine hypothe-

tische Korrelation zwischen den vorgeblichen Variablen (Yule (1911),
zitiert von Mac Kenzie, 1981, [183]).
Aber Pearson erwiderte, daß Yule seine Kategorien vergegenständlicht ha-
be und daß es selten der Fall sei, daß sich die Kategorien so klar voneinander
abgrenzen. Pearson klagte Yule des Realismus“ im mittelalterlichen Sinne

an und ging in seiner Behauptung so weit, daß der Unterschied zwischen Le-
ben und Tod im Grund genommen kontinuierlich verläuft ( Man stirbt nicht

plötzlich“ 24 ):
Unter Klassenindizes wie Tod“ oder Genesung“ oder Anstellung“
” ” ”
oder Arbeitslosigkeit“ der Mutter sehen wir nur Messungen steti-

24
Der Mensch ist so beschaffen, daß er sich stets für das interessiert, was morgen
geschehen wird, nicht erst in tausend Jahren. Doch gerade die langsam wirkenden
Kräfte pflegen auch die schicksalsträchtigsten zu sein. Die meisten Menschen ster-
ben nicht eines plötzlichen Todes, sondern weil sie langsam und fast unmerklich
gealtert sind.
162 4 Korrelation und Ursachenrealismus

ger Variabler, die selbstverständlich nicht notwendigerweise a priori


Gaußsch sind ... Die Kontroverse zwischen uns liegt viel tiefer, als es
ein oberflächlicher Leser auf den ersten Blick vermuten würde. Es ist
die alte Kontroverse zwischen Nominalismus und Realismus. Mr. Yule
jongliert mit den Klassenbezeichnungen, als ob sie reale Entitäten dar-
stellen würden und seine Statistik ist nur eine Form der symbolischen
Logik. In keinem Falle haben diese Logiktheorien zu irgendeinem prak-
tischen Wissen geführt. Es mag sein, daß diese Theorien als Übungen
ein praktisches Interesse für Studenten der Logik haben, aber die mo-
derne statistische Praxis wird einen großen Schaden davontragen, falls
sich die Methoden von Mr. Yule ausbreiten – Methoden also, die darin
bestehen, alle diejenigen Individuen als identisch anzusehen, die unter
ein und demselben Klassenindex auftreten. Es kann schon passieren,
daß diese Methoden um sich greifen, denn es ist leicht, dem Weg von
Mr. Yule zu folgen und die Mehrzahl der Leute versucht, Schwierig-
keiten aus dem Weg zu gehen. (Pearson und Heron, 1913, [225].)

Den von Yule aufgestellten Äquivalenz- und Diskretheitskonventionen


bezüglich der Klassen stellte Pearson die Stetigkeits- und Normalverteilungs-
konventionen gegenüber: der Realistischere der beiden kann nicht Yule ge-
wesen sein. Pearson klagte Yule an, daß dieser mit Klassenbezeichnungen

jongliere, als ob sie reale Entitäten darstellten“ und daß er diejenigen In-

dividuen als identisch behandele, die unter ein und demselben Klassenindex
auftreten“. Mit dieser Anklage warf Pearson das Problem auf, das uns hier
beschäftigt. Aber Pearson tat das nicht, weil er sich für das eigentliche Klassi-
fizierungsverfahren als administrativer Kodierungstätigkeit interessierte. Viel-
mehr wollte er dieses durch eine andere Klassifizierungsform ersetzen, die ihm
natürlicher erschien: Stetigkeit gemäß Normalverteilungen oder wenigstens auf
der Grundlage von Verteilungen, die sich durch möglichst einfache mathema-
tische Gesetze approximieren lassen. Der Begriff Äquivalenzklasse, die ihre
Elemente per Konvention als identisch behandelt, war in der juristischen und
administrativen Praxis allgegenwärtig – und zwar mit der doppelten Absicht,
die Verfahren gerecht und ökonomisch abzuwickeln. Aber diese Imperative wa-
ren für einen Biologen nicht ebenso zwingend. Das erklärt, warum sich Yule
und Pearson zweier derart verschiedener statistischer Rhetoriken bedienten.

Epilog zur Psychometrie:


Spearman und die allgemeine Intelligenz

Die Diskussion über die Realität der von der Statistik geschaffenen Objek-
te wiederholte sich in fast identischer Weise – gleichsam wie ein Stottern der
Geschichte – zwischen 1904 und den 1950er Jahren in Bezug auf die Interpreta-
tion der in der Psychometrie durchgeführten Faktorenanalysen (Gould, 1983,
[112]). Die Tests spielten hier die Rolle der bei Quetelet zufällig ausgewählten
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz 163

Individuen. Spearman (1863–1945), ein Schüler von Pearson, zeigte 1904, daß
die auf Kinder angewendeten Eignungstests stark korrelierten. Er erfand die
Methode der Faktorenanalyse in Hauptkomponenten, indem er in dem durch
diese Komponenten gebildeten Vektorraum die orthogonalen Achsen suchte,
welche sukzessiv das Maximum der Varianz der Punktwolken erklärten, die
ihrerseits den Ergebnissen für jedes einzelne Kind entsprachen. Aus der Tat-
sache der Korrelation zwischen den Tests folgte, daß die erste dieser Achsen
den überwiegenden Teil der Gesamtvarianz widerspiegelte. Es handelte sich
um eine Art Mittelwertbildung der verschiedenen Tests. Spearman bezeich-
nete diesen Mittelwert als allgemeine Intelligenz oder g-Faktor .25 Spearman
promotete und orchestrierte seinen g-Faktor in ähnlicher Weise, wie es Quete-
let mit dem Durchschnittsmenschen gemacht hatte: er bildete ein Objekt, das
allgemeiner als die speziellen Tests war und betrachtete die speziellen Tests
als kontingente Manifestationen dieses allgemeinen Objekts. Dieses reprodu-
zierbare Ding, das sich auch in anderen Kontexten verwenden ließ, lieferte
einen gemeinsamen Meßraum für die individuellen Fähigkeiten, deren Exi-
stenz Galton postuliert hatte, ohne jemals in der Lage gewesen zu sein, diese
Fähigkeiten direkt zu messen.
Die Theorie von Spearman wurde von Cyril Burt vervollständigt und
später von Thurstone kritisiert und zerstört. Das geschah in einer Abfolge von
Ereignissen, die durch ihre Argumente und deren Wiederauflodern an die Ver-
kettung der Umstände erinnerte, unter denen die Begriffsbildungen Quetelets
– der Durchschnittsmensch und die konstanten Ursachen – zunächst von Gal-
ton vervollständigt und transformiert und danach von Lexis und Edgeworth
wieder zerstört wurden. Als überzeugter Anhänger des Begriffs der allgemei-
nen Intelligenz versuchte Burt einerseits, die durch den g-Faktor nicht erklärte
Varianz zu analysieren und zu interpretieren ( Gibt es sekundäre Faktoren,

die spezifische, von g unabhängige Fähigkeiten widerspiegeln?“). Andererseits
versuchte er zu beweisen, daß diese allgemeine Intelligenz angeboren und erb-
lich ist. Er war für die Schulpsychologie der Grafschaft London zuständig.
Seine Arbeiten haben dazu geführt, die Einrichtung eines Testsystems für
elfjährige Kinder zu untermauern und zu rechtfertigen. Die Tests liefen wie
eine Prüfung ab, wobei die Kinder entsprechend ihrem Niveau auf der g-Skala
jeweils einer von zwei sehr unterschiedlichen Ausbildungsrichtungen zugeord-
net wurden. Dieses System wurde unter der Bezeichnung eleven plus bekannt;
man verwendete es in England von 1944 bis 1965. Das System beruhte auf
einem Umstand, der in der ersten Hälfte des Jahrhunderts in folgendem Sin-
ne real zu sein schien: erstens teilten viele Menschen die Vorstellung von der
Existenz dieses Systems; zweitens ließen sich Messungen durchführen und das
System konnte – als erklärende Variable oder als zu erklärende Variable – in
25
Spearman konnte mit der von ihm entwickelten Tetradendifferenzen-Methode zei-
gen, daß sich in allen Intelligenzleistungen ein gemeinsamer Faktor g (general
factor) isolieren läßt. Eliminiert man diesen Faktor, dann bleiben nach Spearman
nur noch spezifische Faktoren übrig, die für jede der einzelnen Leistungen gelten.
164 4 Korrelation und Ursachenrealismus

umfassendere Konstrukte integriert werden; und drittens schien es konsistent


und widerstandsfähig gegen Schläge zu sein.
Derartige Schläge sind dem System auf mehrere Weisen versetzt worden.
Zuerst erfand der Amerikaner Thurstone (1887–1955) eine Verfeinerung der
Faktorenanalyse.26 Er zerlegte g durch geschickte Rotation der Achsen in sie-
ben voneinander unabhängige mentale Primärfähigkeiten, wobei er sich auf
die Tatsache stützte, daß sich die Tests in besonders stark korrelierte Un-
termengen einteilen lassen. Diese Zerlegung von g hatte den Vorteil, daß die
Individuen nicht auf einer einzigen Skala angeordnet wurden und das Ganze
– im Gegensatz zur rigiden eindimensionalen Hierarchie der englischen Ge-
sellschaft – dem amerikanischen demokratischen Ideal besser zu entsprechen
schien. Aber diese differenzierten mentalen Fähigkeiten blieben dennoch et-
was Angeborenes: wir finden hier ein Äquivalent der mehrgipfligen Kurven von
Bertillon oder Pearson und der Zerlegungen dieser Kurven in mehrere Normal-
verteilungen. Es kam jedoch selten vor, daß Spearman, Burt und Thurstone
auf die vorsichtige nominalistische Rhetorik von Pearson zurückgriffen, die
womöglich ihre Konstrukte sozial weniger überzeugend gemacht hätte.
Die zweite Attacke wurde später von den Soziologen geritten. Diese hat-
ten bemerkt, daß sich die Korrelationen und erblichen Übertragungen von
Neigungen zum Bestehen gewisser Tests ebenso gut auch als Auswirkungen
des familiären und sozialen Milieus, der Umgebung und der Ausbildung der
Kinder interpretieren lassen, das heißt man mußte sich nicht mehr auf ei-
ne biologische Vererbung berufen. In jedem Fall lassen sich die statistischen
Untersuchungen auch aus der Sicht einer Soziologie der Ungleichheiten inter-
pretieren, die sich in den 1950er Jahren entwickelte, das heißt genau zu der
Zeit als es zum Niedergang der Psychometrie kam. Jedoch hinterließ die Psy-
chometrie die komplexen Techniken der mehrdimensionalen Faktorenanalyse,
die sich auch in anderen Kontexten weiterverwenden ließen. Wie bei Galton
und Pearson hatte sich der Kreis geschlossen: die Rhetoriken der Eugenik und
der Psychometrie verblaßten, aber die formale Grammatik verselbständigte
sich und fand andere Anwendungen.

26
Es handelt sich um die multiple Faktorenanalyse“, die von der Gleichwertigkeit

aller Faktoren ausgeht. Die Faktoren werden hier nicht aus den einzelnen Korre-
lationen sukzessiv nach der Reihenfolge ihrer Allgemeinheit abgehoben, sondern
man geht von allen Korrelationen gleichzeitig aus (Korrelationsmatrix) und be-
handelt sie als geschlossenes System.
5
Statistik und Staat:
Frankreich und Großbritannien

Der Begriff der Statistik im ältesten Sinne des Wortes geht ins 18. Jahrhun-
dert zurück und beinhaltet eine Beschreibung des Staates durch ihn und für
ihn (vgl. Kapitel 1). Zu Anfang des 19. Jahrhunderts kristallisierte sich in
Frankreich, England und Preußen um das Wort Statistik“ eine Verwaltungs-

praxis heraus und man entwickelte Formalisierungstechniken, bei denen die
Zahlen im Mittelpunkt standen. Spezialisierte Bureaus wurden damit beauf-
tragt, Zählungen zu organisieren und die von den Verwaltungen geführten
Register zu kompilieren, um für den Staat und für die Gesellschaft Darstel-
lungen zu erarbeiten, die den Handlungsweisen und dem Ineinandergreifen
von Staat und Gesellschaft in angemessener Weise entsprachen. Die Forma-
lisierungstechniken bestanden aus Zusammenfassungen, Kodierungen, Tota-
lisierungen, Berechnungen und Konstruktionen von Tabellen und grafischen
Darstellungen. Diese Techniken ermöglichten es, die durch die Staatspraxis
geschaffenen neuen Objekte mit einem einzigen Blick zu überschauen und
miteinander zu vergleichen. Man konnte jedoch keine logische Trennung zwi-
schen Staat, Gesellschaft und den Beschreibungen vornehmen, die von den
statistischen Bureaus geliefert wurden. Der Staat setzte sich aus besonderen
– mehr oder weniger organisierten und kodifizierten – Formen von Beziehun-
gen zwischen den Individuen zusammen. Diese Formen ließen sich – vor allem
mit Hilfe der Statistik – objektivieren. Aus dieser Sicht war der Staat keine
abstrakte Entität, die außerhalb der Gesellschaft stand und in den verschie-
denen Ländern identisch war. Es handelte sich vielmehr um eine singuläre
Gesamtheit von sozialen Bindungen, die sich verfestigt hatten und von den
Individuen in hinreichender Weise als Dinge behandelt wurden. Und zumin-
dest für den Zeitraum, in dem der betreffende Staat existierte, waren diese
sozialen Tatbestände tatsächlich Dinge.
Innerhalb der Grenzen, die durch diese historische Konsolidierung der
staatlichen Zusammenhänge abgesteckt waren, stellen die statistischen Bu-
reaus und ihre Tabellierungen Quellen für den Historiker dar. Aber der Histori-
ker kann auch die Peripetien und Besonderheiten der allmählichen Errichtung
dieser Bureaus als Momente der Bildung moderner Staaten betrachten, wie sie
166 5 Statistik und Staat: Frankreich und Großbritannien

im Laufe des 19. Jahrhunderts entstanden sind. In den beiden vorhergehenden


Kapiteln hatten wir – vom Standpunkt der wissenschaftlichen Rhetoriken und
deren Darlegung – die Konsistenz der von der Statistik produzierten Dinge
untersucht und unsere Untersuchung erstreckte sich von Quetelet bis hin zu
Pearson. Aber diese Konsistenz hing auch mit der Konsistenz der staatlichen
Einrichtungen und deren Solidität zusammen; und sie hing mit dem Umstand
zusammen, der die Individuen veranlaßte, diese Institutionen als Dinge zu be-
handeln, ohne sie ständig infrage zu stellen. Diese Solidität kann ihrerseits das
Ergebnis einer Willkürherrschaft oder einer konstruierten Legitimität sein, wie
es in unterschiedlichen Formen in den Rechtsstaaten der Fall war, die gerade
im 19. Jahrhundert aufgebaut wurden. Diese Legitimität war nicht per Dekret
vom Himmel gefallen. Vielmehr wurde sie Tag für Tag geformt und gewoben,
vergessen, bedroht, infrage gestellt und unter erneuten Anstrengungen wie-
dererrichtet. Innerhalb dieser Legitimität der staatlichen Institutionen nahm
die Statistik eine Sonderstellung ein: sie setzte einen allgemeinen Bezugsrah-
men, der mit zwei Garantien ausgestattet war – der Garantie des Staates
und der Garantie von Wissenschaft und Technik. Das subtile Ineinandergrei-
fen von Staat, Wissenschaft und Technik verlieh der amtlichen Statistik eine
besondere Originalität und Glaubwürdigkeit.
Sollte in den nachfolgenden Kapiteln der Eindruck entstehen, daß wir The-
men anschneiden, die a priori wenig miteinander zusammenhängen, dann hat
das folgende Ursache: es hat lange gedauert und war kostenaufwendig, die
obengenannten beiden Garantien in der Weise miteinander zu verbinden, die
heute natürlich erscheint. Die Statistik ist heute Bestandteil der wesentlichen
Merkmale eines entstehenden oder wiedererstehenden demokratischen Staates
– zusammen mit anderen juristischen und politischen Merkmalen. Aber die
Statistik hängt auch von den singulären Formen ab, die von der Geschichte der
betreffenden Staaten gewoben wurden, und auch von der Beschaffenheit der
Verbindungen zwischen den verschiedenen öffentlichen Einrichtungen und den
anderen Teilen der Gesellschaft: administrative und territoriale Zentralisie-
rung, Status der Beamtenschaft, Beziehungen zu anderen Expertisezentren“

– zu denen die Universitäten, die Gelehrtengesellschaften und die im 19. Jahr-
hundert so wichtigen philanthropischen Gesellschaften gehörten – oder private
Stiftungen von Unternehmen in einigen Ländern im 20. Jahrhundert.
In den Kapiteln 5 und 6 deuten wir einige dieser spezifischen Verbindun-
gen an, die zwischen den statistischen Bureaus, den staatlichen Strukturen
und anderen Stellen für soziale Analysen in der Zeit ab 1830 – in der viele
dieser Bureaus gegründet wurden – bis zu den 1940er Jahren bestanden. In
den 1940er Jahren änderten sich diese Verbindungen radikal in Bezug auf ihre
Beschaffenheit und Größenordnung. Das war einerseits auf die Transformati-
on der Rolle der Staaten zurückzuführen, andererseits aber auch auf die nun
endlich gelungene Allianz der Wirtschafts- und Sozialstatistik mit der mathe-
matischen Statistik. Bei diesem Vergleich beziehen wir uns auf vier Länder.
Für zwei dieser Länder – Frankreich und Großbritannien – war der geein-
te Staat etwas altes und legitimes, obwohl er sich in sehr unterschiedlichen
5 Statistik und Staat: Frankreich und Großbritannien 167

Formen äußerte (Kapitel 5). Für die beiden anderen Länder – Deutschland
und die Vereinigten Staaten – war er im Entstehen begriffen bzw. durchlief ein
schnelles Wachstum (Kapitel 6). Die Unterschiede in Bezug auf die Konsistenz
der Staaten lassen sich aus der Geschichte der jeweiligen statistischen Syste-
me ablesen. In sämtlichen Fällen nennen wir nicht nur die Bedingungen, unter
denen die öffentliche Statistik ihre Legitimität konstruierte, sondern auch die
öffentlichen Debattenräume, in denen sie einen Platz gefunden hat.
In Frankreich ist der Staat zentralisiert und so ist es auch seine Stati-
stik – sowohl vom administrativen als auch vom territorialen Standpunkt aus.
Im Allgemeinen lag die Sachverständigenkompetenz eher innerhalb der Admi-
nistration, beim Berufsstand der Ingenieure und bei der Beamtenschaft. Die
Universitäten hatten einen geringeren Einfluß als in den anderen drei Ländern.
Die öffentliche Statistik, deren hauptsächlicher (aber nicht einziger) Bestand-
teil die Statistique générale de la France (SGF) war, organisierte sich rund um
die Zählungen. Vor allem war die öffentliche Statistik auf den Gebieten der
Demographie (Geburtenrückgang) und der Wirtschaft (gewerbliche Struktu-
ren, Arbeit, Löhne, Lebenshaltungskosten) tätig, aber infolge des Gewichtes
und der Autorität der Behörde waren diese Fragen weniger als anderswo der
Gegenstand großer und öffentlicher Debatten zwischen Fachleuten und Aus-
senstehenden.
In Großbritannien waren die Verwaltungen unabhängiger voneinander und
die Behörden der Grafschaften und Gemeinden hatten umfassendere Befug-
nisse als in Frankreich. Die Statistik war in Großbritannien nie in einer einzi-
gen Institution zentralisiert und die überregionalen Bureaus mußten mit den
örtlichen Bureaus Kompromisse eingehen, wie es im Falle der für den Per-
sonenstand und die Umsetzung der Fürsorgegesetzgebung zuständigen Bu-
reaus auch geschehen war. Die beiden – gesondert bearbeiteten – Hauptgebie-
te waren einerseits Außenhandel und Geschäftstätigkeit (verwaltet durch das
Board of Trade 1 ) und andererseits Bevölkerung, Armut, Hygiene und öffent-
liche Gesundheit (verwaltet durch das General Register Office 2 , GRO). Die
parlamentarischen Untersuchungskommissionen – die zum Beispiel anläßlich
der schweren sozialen Krisen gegründet wurden, welche mit der schnellen In-
dustrialisierung und der zügellosen Verstädterung zusammenhingen – waren
Orte intensiver Diskussionen zwischen Wissenschaftlern, Statistikern, Ökono-
men und führenden Persönlichkeiten der Politik.
In Deutschland zeichnete sich dieser Zeitraum zunächst durch die allmähli-
che Gestaltung der Reichseinigung aus – mit Preußen als Kern –, die 1871
vollendet wurde. Die nachfolgende Zeit war zwischen 1871 und 1914 durch
industrielles Wachstum und schließlich – in der Zeit zwischen den beiden
Weltkriegen – durch die Wirtschaftskrise und politische Krisen gekennzeich-
net. Die amtliche Statistik, die es in den verschiedenen Königreichen bereits
gab, vereinigte sich nach 1871 und organisierte umfangreiche Untersuchun-
1
Handelsministerium.
2
Hauptstandesamt.
168 5 Statistik und Staat: Frankreich und Großbritannien

gen und Zählungen zum Produktionsapparat. Die an den Universitäten täti-


gen Statistiker und Ökonomen verfaßten ihrerseits zahlreiche und reichhaltige
Monographien deskriptiver und historischer Art, deren Inhalt stark mit Stati-
stik durchsetzt war. Die Arbeiten der deutschen historischen Schule“ wurden

durch den Verein für Socialpolitik angekurbelt und in diesem Verein disku-
tiert, der zwischen 1872 und 1914 sehr aktiv war und – ziemlich erfolglos –
versuchte, die Entscheidungen der kaiserlichen Bürokratie zu beeinflussen.
Die Vereinigten Staaten schließlich waren eine vor kurzem gegründete
Föderation, deren Bevölkerung aufgrund der aufeinanderfolgenden Einwan-
derungswellen ein rasantes Wachstum zu verzeichnen hatte. Die Tätigkeit der
öffentlichen Statistik gestaltete sich in ihrem Rhythmus auf der Grundlage
der durch die Verfassung von 1787 vorgesehenen und alle zehn Jahre statt-
findenden Volkszählungen, die das Ziel hatten, die finanziellen Belastungen
und die Sitze im Repräsentantenhaus (House of Representatives) zwischen
den Staaten anteilmäßig und unter Berücksichtigung der sich ständig ändern-
den Bevölkerungszahl aufzuteilen. Die Debatten über die Statistik hingen mit
wiederholten und tiefgreifenden Veränderungen bezüglich der Demographie
des Landes und den sich hieraus ergebenden Konsequenzen zusammen – Kon-
sequenzen politischer Natur (gesetzliche Vertretung der Staaten) und soziale
Konsequenzen (Integration der Einwanderer, entfesselte Verstädterung, Kri-
minalität). Die statistische Verwaltung blieb in unterschiedliche Dienststellen
aufgesplittert. Die wichtigste dieser Behörden war das Bureau of the Census 3 ,
das erst 1902 zu einer ständigen Einrichtung wurde. Vor 1933 gab es keinerlei
Koordinierung. Nach diesem Datum änderte sich die Funktion der Bundes-
verwaltung in Bezug auf Politik, Wirtschaft und Haushaltsplan radikal. Eine
Gruppe von Universitätslehrern, Statistikern und Ökonomen gab den Anstoß
zur Umgestaltung und Koordinierung der amtlichen Statistik. Die Gruppe
erweiterte ihren Aktionsbereich erheblich, rekrutierte junge Leute mit ma-
thematischer Ausbildung, setzte neue Techniken ein (zum Beispiel Stichpro-
benerhebungen) und konstruierte mit Hilfe der Statistik neue Objekte, zum
Beispiel die Begriffe Arbeitslosigkeit“ und soziale Ungleichheit“. Erst zu
” ”
diesem Zeitpunkt entdeckt der Leser im Panorama der öffentlichen Statistik
der vier Länder eine vertraute Landschaft: die für die modernen statistischen
Ämter typischen Merkmale zeichneten sich in den Vereinigten Staaten in den
1930er Jahren ab.
Diese erste skizzenhafte Darstellung der Situation in den vier Ländern
zwischen 1830 und 1940 zeigt, daß ein internationaler Vergleich der Systeme
der statistischen Beschreibung nicht auf Institutionen der amtlichen Statistik
beschränkt werden darf. Der Grund hierfür sind die Unterschiede bezüglich
der relativen Gewichte dieser Einrichtungen, ihrer Mittel, ihrer administrati-
ven Solidität und vor allem die Unterschiede hinsichtlich der jeweiligen Zie-
le. Notwendig wäre ein vollständigerer Überblick über die institutionelle und
soziologische Situation der Orte, an denen statistisches Wissen konstruiert
3
US-amerikanisches Statistisches Bundesamt, auch als Census Bureau bezeichnet.
Französische Statistik – eine diskrete Legitimität 169

wurde. Aber die zu diesen Fragen bereits durchgeführten historischen For-


schungen – die im Falle Großbritanniens und der Vereinigten Staaten zahl-
reich und detailliert, für Frankreich und Deutschland hingegen seltener waren
– bezogen sich im Allgemeinen nur auf Teile dieser Räume, wobei auch die
Sichtweisen sehr unterschiedlich waren. Dementsprechend besteht das Risiko,
die Vergleiche zu verzerren, indem man einen gewissen Aspekt nur deswegen
besonders hervorhebt, weil er gut dokumentiert ist. Die nachfolgenden Analy-
sen, die sich für Großbritannien, die Vereinigten Staaten und Deutschland auf
Sekundärquellen stützen, sind also nicht vor derartigen fehlerhaften Sichtwei-
sen geschützt: diese Gefahr ist bei vergleichenden Studien fast unvermeidlich.
Genau an diesem Problem scheiterte die deutsche Statistik – im Sinne des im
18. Jahrhundert verwendeten Begriffes – ebenso, wie die Statistik der französi-
schen Präfekten im Jahre 1805. Die Errichtung eines Komparabilitätsraumes
muß dem Vergleich vorangehen, aber das betrifft natürlich nicht nur die Be-
schreibung und die Geschichtsforschung. Die folgenden Ausführungen stellen
daher eher eine logisch begründete Gegenüberstellung der vier geschichtlichen
Schilderungen dar, als einen umfassenden Vergleich.

Französische Statistik – eine diskrete Legitimität

Die Statistique générale de la France (SGF) war von 1833 bis 1940 eine kleine
Behörde, die nur in Paris ansässig war. Ihre Hauptaufgabe bestand darin, die
alle fünf Jahre stattfindenden Volkszählungen zu organisieren und auszuwer-
ten und – ausgehend von den Personenstandsregistern (Geburten-, Heirats-
und Sterberegister) – die Bevölkerungsbewegung“ zu analysieren. Die Ge-

schichte dieser Behörde ist die Geschichte der allmählichen Errichtung einer
diskreten Legitimität, die auf strengen fachlichen Kriterien beruhte. Das gilt
insbesondere für die Jahre nach 1890, als Lucien March die gesamte Produkti-
onskette der Zählungen – von den Fragebögen und deren Auswertung bis hin
zu den Veröffentlichungen – umfassend transformierte. Diese Legitimität war
nicht von Anfang an vorhanden. Sie hing mit der Aufstellung von Verwaltungs-
routinen und auch mit dem Vorgehen einer kleinen Gruppe zusammen, die sich
nach 1860 in der Société de statistique de Paris (SSP) zusammengeschlossen
hatte (Kang, 1989, [144]). Aber die statistische Tätigkeit, ihre Kosten, ihre
Zentralisierung und ihre Interpretation waren nicht – wie in Großbritannien
oder in den Vereinigten Staaten – Gegenstand umfassender Diskussionen in
der Presse oder im Parlament.
Bei ihrer Gründung im Jahre 1833 war die an das Handelsministerium
angegliederte SGF damit beauftragt, die von anderen Verwaltungen erstellten
statistischen Tabellen zu sammeln, zu koordinieren und zu veröffentlichen.
Der Gründer der SGF, Moreau de Jonnès (1778-1870), leitete die Einrichtung
bis zum Jahre 1852. Bereits 1835 legte er einen detaillierten Plan zur Publi-
kation von vierzehn Bänden vor, die sich bis zum Jahre 1852 erstreckten und
die verschiedenen Bereiche der Verwaltungstätigkeit abdeckten. Die öffentli-
170 5 Statistik und Staat: Frankreich und Großbritannien

che Gesundheit, die damals in der britischen Statistik einen wesentlichen Platz
einnahm, trat in diesem Plan kaum in Erscheinung: man findet lediglich An-
gaben zur Verwaltung von Krankenhäusern.4 Die Moralstatistiker“, die sich

um die Annales d’Hygiène Publique zusammenschlossen, blieben außerhalb
der französischen öffentlichen Statistik, während sich ihre englischen Amts-
kollegen von der Public Health Movement im General Register Office, dem
Zentrum der amtlichen Statistik befanden.
Die Hauptschwierigkeit der im Entstehen begriffenen SGF bestand darin,
mit Hilfe einer technischen Spezifität die Anerkennung der anderen Ministeri-
en zu finden. Es war keine Selbstverständlichkeit, die Statistiken der Landwirt-
schaft, des Gewerbes und des Handels mit der Statistik der Bevölkerungsbe-

wegung“ (Personenstand) und der Zählungen zu vereinigen, deren Organisati-
on noch vom Innenministerium abhing. Dieses gründete 1840 ein statistisches
Bureau, das von Alfred Legoyt (1815–1885) geleitet wurde. Legoyt kritisierte
Moreau de Jonnès und wurde dessen Nachfolger als Leiter der SGF, deren
Direktor er von 1852 bis 1871 war. Der Aufruf zur Zentralisierung der nume-
rischen Unterlagen im Hinblick auf deren Publikation reichte allein nicht aus,
um die Durchschlagskraft der Institution zu garantieren – es mußten auch die
Standardwerkzeuge zur Registrierung vorhanden sein: regelmäßige Bestands-
aufnahmen, Karteien und Nomenklaturen. Das Vertrauen in die Statistiken
und deren Zuverlässigkeit“ hing mit der Kohärenz und der Stabilität des

Verwaltungsmechanismus zusammen.
In ihrer Anfangszeit veröffentlichte die SGF (außer den Zählungen) zu-
nächst regelmäßige Verwaltungsdaten, die von anderen erstellt worden waren,
aber auch die Ergebnisse der auf eigene Initiative durchgeführten außeror-
dentlichen Enqueten zu den Landwirtschaftsstrukturen (1836–1839) und zu
den Gewerbestrukturen (1841, 1861). Im Vergleich zu den von anderen Ver-
waltungen herausgegebenen Kompilationen war der durch die SGF erzeugte
Mehrwert“ gering und die Überprüfung erwies sich als schwierig. Dennoch

wurden auf diesem Umweg Gewohnheiten“ geschaffen: Beispiele hierfür sind

die 1827 gegründete Kriminalstatistik und die Statistik der Mineralindustrie
(für die Le Play im Jahre 1848 verantwortlich zeichnete). Die Strukturuntersu-
chungen standen dagegen den Monographien in der Hinsicht näher, daß ihre
Ergebnisse – die aus nur einmal verwendeten Ad-hoc-Techniken hervorgin-
gen – kaum verallgemeinerungsfähig waren. Diese Ergebnisse blieben isolierte
Punkte und trugen nicht dazu bei, eine quantitative Routine zu schaffen.
Die Landwirtschaftszählungen wurden als schlecht beurteilt, während die Un-
tersuchungen zu den Katastervorgängen unvollendet blieben: die statistische
Tätigkeit war nur dann operativ, wenn sie sich in eine mit ihr abgestimmte
Verwaltungspraxis einfügte.
Die Kontrolle der Statistiken war ein zentrales Problem dieser Zeit. Die
Arbeit von Bertrand Gille (1964, [108]) über die statistischen Quellen der

4
Dennoch steht Moreau de Jonnès der Medizin nahe: vgl. hierzu Kapitel 3 und die
Debatten über die Cholera.
Französische Statistik – eine diskrete Legitimität 171

Geschichte Frankreichs“ beschreibt die Ambivalenz der Anforderungen der


Zeit aus der Sicht eines Historikers. Gille unterscheidet zwischen kollektiver,

fast demokratischer Kontrolle“, lokaler Kontrolle auf der Grundlage fundier-

ten Wissens angesehener Persönlichkeiten“ und logischer, wissenschaftlicher

Kontrolle“. Das Modell lokal erworbenen Wissens, das durch kollektive Zu-
stimmung garantiert ist, wurde im 19. Jahrhundert häufig angewendet, zum
Beispiel im Fall von Epidemien oder im Kampf gegen ungesunde Lebensbe-
dingungen. Man beauftragte damals örtliche Ausschüsse, deren Mitglieder an-
gesehene Persönlichkeiten waren, mit Aufgaben, die später von zentralisierten
Behörden übernommen wurden, welche ihrerseits Routinevorschriften anwen-
deten. In diesem Sinne wurden das umfassende Vorhaben zur Gründung von
Kantonskommissionen für Statistik“ – das mit der Landwirtschaftszählung

von 1836 begann – im Jahre 1848 fortgesetzt und 1852 systematisiert. Mit
dem Vorhaben unternahm man den Versuch, für die Beteiligten eine Informa-
tionskontrolle einzurichten. Aber die Kommissionen scheiterten – vielleicht
deswegen, weil sie sich in den von Paris durchgestellten standardisierten Fra-
gen nicht wiedererkannt hatten. Die Kombination von lokal erworbenem Wis-
sen und kollektiver Validierung (der Gille die logische und wissenschaftliche“

Kontrolle durch Verifikation der internen Konsistenz mit Hilfe von Rechnun-
gen gegenüberstellt) ging mit dem Risiko einher, sowohl spezifische lokale
Merkmale als auch Unstimmigkeiten zwischen besonderen und allgemeinen
Interessen hervortreten zu lassen. Ebenso wie die Statistik der Präfekten zu
Anfang des 19. Jahrhunderts war auch diese Statistik nicht lebensfähig, denn
sie ging nicht mit der Errichtung eines Verwaltungsraumes einher, der auf dem
gesamten Territorium durch äquivalente Regeln und Verfahren strukturiert
war. Dieser Raum war seinerseits gewiß adäquat für statistische Totalisierun-
gen. Aber auch hier war die Situation in Frankreich eine ganz andere als in
England, wo die lokale Informationsvalidierung ein notwendiger Umweg zur
Begründung der Legitimität des General Register Office gewesen ist.
Die Moralstatistiker, die unter den einheimischen angesehenen Persönlich-
keiten Einfluß hatten, kritisierten den Entwurf einer zentralisierten Verwal-
tungsbehörde, die sich noch nicht durch ihre Technizität rechtfertigen konnte.
Für Villermé (1845, [281]) hat die Verwaltung nichts weiter zustande gebracht,
als eine unbeholfene Kompilierung inkonsistenter Daten – wobei die Daten we-
der geprüft noch abgeglichen wurden. Er wünschte eine Organisation, die dem
dezentralisierten englischen Modell näher steht:

Wir werfen den statistischen Publikationen Ungenauigkeiten, Lücken


und den Mangel einer Einheit von Plan und Denken vor, der es nicht
ermöglicht, sie immer untereinander zu vergleichen und gegeneinander
zu kontrollieren ... Wir weisen auf den Nachteil hin, wichtige Publi-
kationen einem Ministerium anzuvertrauen, das in diesen Angelegen-
heiten unbewandert ist. Wir kündigen an, daß ähnliche Dokumente
in Bezug auf Wirtschaft, Finanzen, Streitkräfte, Marine, Justiz, Kon-
fessionen und öffentliches Schulwesen veröffentlicht werden. Mit der
172 5 Statistik und Staat: Frankreich und Großbritannien

Arbeit müssen diejenigen Verwaltungsbehörden beauftragt werden,


die sich mit diesen Themen befassen. Wir hoffen, daß es den Verwal-
tungsbehörden zur Ehre gereicht, diese Arbeit zu übernehmen und die
Kammern nötigenfalls nicht dulden werden, daß die von ihnen – zur
Ausstattung Frankreichs mit einer allgemeinen Statistik – so dienstbe-
flissen bewilligten Gelder für Zwecke verwendet werden, die der Nation
so wenig würdig sind. (Villermé, 1845, [281])

Die Verteilung der Verantwortlichkeiten ist klar erkennbar für die Zählung,
die zu diesem Zeitpunkt noch durch das von Legoyt geleitete statistische Bu-
reau des Innenministeriums organisiert wurde. Die Ergebnisse der Zählung
wurden hingegen von der SGF veröffentlicht. Jedoch übernahm Legoyt 1852
die Leitung der SGF und sammelte dort alle Zählungsvorgänge. Er führte
wichtige Neuerungen hinsichtlich der Berufe (1851) und der Wirtschaftstätig-
keiten (1866) ein; zuvor hatte es lediglich eine Namensliste der Einzelpersonen
gegeben. Die Position Legoyts im Handelsministerium schien damals sicherer
zu sein, als die seines Vorgängers.
Im Übrigen ließen die Rivalitäten zwischen den Verwaltungsstatistikern
und den Moralstatistikern nach, als 1860 eine Gruppe von Ökonomen und
Sozialforschern – von denen Villermé, Michel Chevalier und Hyppolite Passy
die berühmtesten waren – die Société de statistique de Paris (SSP) gründete.
Sie beantragten und erhielten eine offizielle Garantie des Handelsministeri-
ums. Legoyt war der erste Präsident der SSP. Diese Gelehrtengesellschaft
spielte bis in die 1930er Jahre bei der Gründung der großen Verwaltungen
und statistischen Schulen eine wichtige Rolle: sie war der Begegnungsort von
(öffentlichen und privaten) Statistikern und denjenigen, die deren Arbeiten
nutzten. Darüber hinaus wirkte die Gesellschaft als Zentrum zur Verbreitung
der Ideen und Forderungen dieser Statistiker. Ihre Zeitschrift, das Journal de
la Société de statistique de Paris, bot einer kleinen Gruppe von unermüdli-
chen Propagandisten der Statistik ein Diskussionsforum. Diese Gruppe be-
stand aus Lehrstuhlinhabern und Mitgliedern von Verwaltungskommissionen,
die mit der Förderung und Koordinierung der statistischen Arbeiten beauf-
tragt waren. Der Gruppe gehörten an: Émile Cheysson (1836-1910), Ingenieur
für Brückenbau und Schüler von Le Play; Émile Levasseur (1828–1911), Uni-
versitätsgeograph; Adolphe Bertillon (1821–1883) und sein Sohn Jacques Ber-
tillon (1851–1922), beide Ärzte und leitende Angestellte eines statistischen
Bureaus der Stadt Paris. Dieses Bureau publizierte Informationen über die
öffentliche Gesundheit und die Todesursachen (Alphonse Bertillon, 1853–1914,
der im Kapitel 4 im Zusammenhang mit Galton erwähnte Anthropometrie-
Experte der Polizeipräfektur, war ein weiterer Sohn von Adolphe Bertillon).
Wir treffen diese politisch aktiven Experten auch im Conseil supérieur de
la statistique an, der 1885 gegründet wurde, um die SGF und die anderen
statistischen Bureaus zu unterstützen und ihre Arbeit zu steuern. Jedoch
war die Statistik dieser Zeit noch kaum mit den Werkzeugen ausgestattet,
die ihre heutige Stärke ausmachen: administrative und verordnungsrechtliche
Französische Statistik – eine diskrete Legitimität 173

Infrastruktur, die zur Identifikation und Definition der Objekte erforderlich


ist; Geräte zur maschinellen Datenverarbeitung und später Computer sowie
mathematische Analyse- und Interpretationstechniken. Die kontinuierlichen
Bemühungen der SGF, der SSP und des Conseil supérieur de la statistique
bezogen sich auf die Infrastruktur und auf die Bestätigung der Wichtigkeit der
Statistik. Aber das reichte nicht aus. In den 1890er Jahren war die SGF noch
eine sehr kleine Behörde und der Kampf mußte ohne Unterlaß weitergeführt
werden.
Dieser Voluntarismus läßt sich auch bei den (von Quetelet inaugurierten)
Internationalen Statistischen Kongressen zwischen 1851 und 1875 sowie in
den Anfangszeiten des 1885 gegründeten Internationalen Instituts für Stati-
stik (IIS)5 beobachten. Zunächst brachte das IIS Verwaltungsstatistiker zu-
sammen, die dort einen Ort zur Förderung und anspruchsvollen Bestätigung
ihrer Aktivitäten fanden. Die Kongresse des IIS wurden von den höchsten
Persönlichkeiten der gastgebenden Länder eröffnet. Diese Kongresse boten
Gelegenheit, für die Harmonisierung der Methoden und der Nomenklaturen
zu kämpfen und ermöglichten es jedem, seine eigene Position unter Berufung
auf eine Legitimität höherer Ordnung zu begründen – der Ordnung der in-
ternationalen wissenschaftlichen Instanz (Jacques Bertillon erarbeitete zwei
wichtige Klassifikationen und ließ sie 1893 durch das IIS annehmen: die Klas-
sifikation der Berufe und die Klassifikation der Krankheiten). Die Rolle des
IIS sollte sich nach dem Ersten Weltkrieg, mehr aber noch nach dem Zweiten
Weltkrieg ändern, und zwar aus zweierlei Gründen. Die Aufgabe der Koordi-
nierung der nationalen Statistiken wurde durch die neuen internationalen In-
stitutionen weitergeführt: vom Völkerbund, vom Internationalen Arbeitsamt6
(IAA) und schließlich von der UNO. Das ermöglichte es dem IIS, sich fortan
der Diskussion und Verbreitung der mathematischen Methoden zu widmen,
die aus der Biometrie und aus der englischen Statistik hervorgegangen waren.
Diese Methoden waren zum ersten Mal auf dem 1909 in Paris abgehal-
tenen 12. Kongreß des IIS ausführlich diskutiert worden. Edgeworth sprach
über die Anwendung der Wahrscheinlichkeitsrechnung in der Statistik“. Yule

faßte seine Arbeit über die Methode der Korrelation, angewendet auf die So-

zialstatistik“ zusammen. March zeigte, wie es die mathematische Verfahren

ermöglichen, statistische Zeitreihen zu vergleichen, um deren Übereinstim-
mung oder Nichtübereinstimmung zu untersuchen und die möglichen Bezie-
hungen der verglichenen Größen vorauszuahnen oder zu schätzen“. Bowley
stellte einen internationalen Vergleich der Löhne mit Hilfe des Medians“ vor.

Dieses erste bedeutsame Auftreten mathematischer Verfahren“ in der

Wirtschafts- und Sozialstatistik war im Falle Frankreichs durch die Umge-
staltung der SGF in den 1980er Jahren begünstigt worden. Während die eng-
lischen Statistiker vom General Register Office (GRO) ihre Position um die
Mitte des 19. Jahrhunderts gefestigt hatten, indem sie sich bei der Behand-
5
Institut international de statistique (IIS); International Statistical Institute (ISI).
6
International Labor Office (ILO).
174 5 Statistik und Staat: Frankreich und Großbritannien

lung der Probleme ungesunder städtischer Lebensbedingungen unentbehrlich


machten, zogen ihre französischen Kollegen von der SGF am Ende des Jahr-
hunderts nach, indem sie bei Fragen zur Arbeit und zu den Arbeitskräften ein-
griffen – bei Problemen also, die aus der gegen 1875 beginnenden Wirtschafts-
krise resultierten. Die Bemühungen der kleinen, politisch aktiven Gruppe von
Statistikern vereinigten sich damals mit den Anstrengungen eines Netzwerks
von Beamten, Intellektuellen und Führungspersönlichkeiten der Gewerkschaf-
ten und der Politik, die sowohl die Lohnarbeit besser kennenlernen wollten
als auch neue Gesetze anstrebten, um die Lohnarbeit zu organisieren und zu
schützen. Zu diesen Aktivisten gehörten der Bergbauingenieur Arthur Fon-
taine (1860–1931), die Gewerkschafter Isidore Finance und Auguste Keufer,
die Reformsozialisten Alexandre Millerand und Albert Thomas sowie später
Lucien Herr und François Simiand, die in Verbindung zu Durkheim und zur
École normale supérieure (ENS) standen.
Im Jahre 1891 wurde innerhalb des Handelsministeriums das von Arthur
Fontaine geleitete Arbeitsamt (Office du travail ) gegründet (Luciani und Sa-
lais, 1990, [181]). Diesem war die SGF angegliedert und Lucien March, ein jun-
ger Ingenieur für Maschinenbau, organisierte dort eine zentralisierte Auswer-
tung der Zählung von 1896. Er führte in Frankreich die Hollerith-Maschinen“

ein, das heißt die ersten mit Lochkarten arbeitenden elektrischen Zählmaschi-
7 ”
nen“ , die in den Vereinigten Staaten konstruiert worden waren. Er erfand eine
vervollkommnete Maschine, den classicompteur-imprimeur“ 8 , der bis in die

1940er Jahre benutzt wurde (Huber, 1937, [134]). Schließlich gelang es ihm
durch eine geschickte Auswertung der Zählblätter, die entsprechend der Ar-
beitsplatzanschrift der gezählten Personen sortiert wurden, diese a priori ad-
ministrative und demographische Operation in eine umfassende Untersuchung
zu transformieren, die sich auf den Produktionsapparat und die Arbeitskräfte
(Lohnarbeiter und Selbständige) bezog. Aus Furcht vor der Zurückhaltung
7
Die Zählmaschinen (auch statistische Maschinen“ genannt) dienten zur Verar-

beitung statistischer Daten. Die Maschinen waren ein Hilfsmittel zur Aufstellung
von Tabellen, welche Summen von Zahlen enthielten, die auf der Grundlage ei-
nes Prinzips oder verschiedener Prinzipien zusammengestellt waren. Die Daten-
verarbeitung erfolgte nach dem Lochkartenverfahren, bei dem die Angaben auf
eine gelochte Registrierkarte (Lochkarte) übertragen wurden. Die erste Lochkar-
te war die Jacquard-Karte (1804), benannt nach dem französischen Mechaniker
Joseph-Marie Jacquard (1752–1834). Der englische Mathematiker, Rechentechni-
ker, Ökonom und Wissenschaftsorganisator Charles Babbage (1792–1871) schlug
1839 die Verwendung von Lochkarten bei Rechenarbeiten vor. Die Maschinen,
die zur Herstellung der Lochungen (Lochmaschinen) und zur Auswertung der
Lochkarten (Sortier- und Tabelliermaschinen) dienten, heißen Lochkartenmaschi-
nen. Diese Maschinen wurden 1880 von Hermann Hollerith (1860–1929) erfunden
(Hollerith-Maschinen).
8
Diese Maschine sortierte die Daten nach gewissen Gesichtspunkten, zählte sie und
druckte die Ergebnisse dann aus (classer = sortieren, compter = zählen, imprimer
= drucken).
Entwurf und Scheitern eines Einflußnetzwerks 175

oder Feindseligkeit der Unternehmen war es für unmöglich gehalten worden,


eine derartige Untersuchung direkt in den Betrieben vor Ort durchzuführen:
die Legitimität der öffentlichen Statistik reichte damals noch nicht aus, eine
solche Operation umzusetzen. Die zentrale Position der SGF und ihre An-
gliederung an das neue Arbeitsamt ermöglichten es March, diese doppelte
Nutzung der Zählung – das heißt die demographische und die wirtschaftliche
Nutzung – zu realisieren. Diese Nutzung erfolgte mit wenigen Änderungen von
1896 bis 1936 und lieferte eine von den Historikern sehr geschätzte statistische
Reihe.
Das Arbeitsamt war von 1891 bis zum Krieg von 1914 die erste wissen-
schaftlich-administrative Institution, die mit bedeutenden Mitteln ausgestat-
tet war (was die nach 1945 bereitgestellten Mittel vorausahnen ließ). Das Amt
war ein Vorläufer des 1906 gegründeten Arbeitsministeriums und umfaßte ei-
nerseits Dienststellen für Erhebungen und Untersuchungen zu den Löhnen,
zur Arbeitslosigkeit und zu den Lebensbedingungen der Arbeiter. Zum ande-
ren gehörten dem Amt Dienststellen an, die mehr mit Verwaltungsfragen zu
tun hatten – zum Beispiel mit der Vermittlung von Arbeitskräften, mit der
Arbeiterschutzgesetzgebung, mit Arbeits-, Hygiene- und Sicherheitsvorschrif-
ten sowie mit Berufsverbänden und Arbeitsgerichten. Die Untersuchungen
stützten sich auf direkte statistische Erhebungen (zu den Löhnen und zur Ar-
beitsdauer) und auf Monographien in der LePlayschen Tradition von Studien
über Arbeiterhaushalte (Du Maroussem, 1900, [192]; Savoye, 1981, [251]) und
Untersuchungen über Daten aus administrativen Quellen, wie zum Beispiel
die (von Michelle Perrot, 1974, [228] analysierte) Streikstatistik.

Entwurf und Scheitern eines Einflußnetzwerks

Die Situation der französischen Verwaltungsstatistik zwischen 1890 und 1920


kann mit anderen ähnlichen Situationen verglichen werden. Unter besonderen
historischen Umständen – zum Beispiel in Krisen, Kriegszeiten oder bei ra-
schen Neukonzipierungen der Art und Weise, eine Gesellschaft zu verstehen
und zu verwalten – gelang es den für ihre Bureaus zuständigen Statistikern,
sich derart in umfassendere, gleichzeitig wissenschaftliche, administrative und
politische Netzwerke zu integrieren, daß sie ihre Werkzeuge unentbehrlich
machten und daß diese Werkzeuge sogar nahezu zwangsläufig benutzt wur-
den. So verhielt es sich zwischen 1840 und 1880 mit dem englischen General
Register Office (GRO). Und so war es auch mit dem amerikanischen Census
Bureau in den 1930er und 1940er Jahren, zur Zeit des New Deal und während
des Zweiten Weltkrieges. Dasselbe geschah mit dem französischen INSEE in
den 1960er und 1970er Jahren, als sich die Planifikation und die Modellierung
des Wirtschaftswachstums weitgehend auf die Tabellen der volkswirtschaft-
lichen Gesamtrechnung stützten. Von diesem Standpunkt aus boten das Ar-
beitsamt und die SGF – vor allem während des Ersten Weltkrieges – mit viel
bescheideneren Mitteln den ersten Entwurf eines solchen Netzwerks.
176 5 Statistik und Staat: Frankreich und Großbritannien

Zwischen 1875 und 1890 wurden die Industrieländer von einer schweren
Wirtschaftskrise heimgesucht, deren soziale Folgen in Großbritannien und in
den Vereinigten Staaten gravierender waren als in Frankreich. Aber über-
all diskutierte man neue Gesetze, die ein Recht auf Arbeit definieren und
einführen sollten – eine Neuheit im Vergleich zum klassischen Zivilrecht –
und einen Schutz gegen Arbeitslosigkeit, Arbeitsunfälle, Krankheiten und Al-
tersarmut organisieren sollten. Ein Conseil supérieur du travail, ein überge-
ordneter Betriebsrat, wurde 1891 gegründet und von Millerand und Fontaine
umgestaltet, um diese Gesetze auszuarbeiten. Der Rat brachte Beamte, Leiter
von Unternehmen und Gewerkschafter zusammen und war ein Vorbote für die
Plankommissionen, das Tarifvertragswesen und die Vertragspolitik in der Zeit
nach 1945. Das Arbeitsamt veröffentlichte in diesem Zusammenhang im Jahre
1893 eine große Enquete über Löhne und Arbeitsdauer in der französischen

Industrie“ und führte später Enqueten über die Arbeiterhaushalte und die
Lebenshaltungskosten durch. Im Übrigen arbeiteten Akademiker, die in der
Tradition von Durkheim standen, an den gleichen Themen und veröffentlichen
die ersten Soziologie-Dissertationen mit ausgeprägt empirischem und statisti-
schem Inhalt. François Simiand (1873–1935) analysierte die Schwankungen der
Bergarbeiterlöhne und March diskutierte diese Analyse in der Société de stati-
stique de Paris (Simiand, 1908, [262]). Maurice Halbwachs (1877–1945) legte
1912 seine thèse d’État“ in lettres“ 9 an der Sorbonne vor; diese Dissertation
” ”
befaßte sich mit den Lebensniveaus und Bedürfnissen der Arbeiterklasse und
erschien unter dem Titel La classe ouvrière et les niveaux de vie. Recherches
sur la hiérachie des besoins dans les sociétés industrielles contemporaines. In
seiner Arbeit nutzte Halbwachs die von deutschen Statistikern gesammelten
Informationen über die finanziellen Mittel von Arbeiterfamilien (aber seine
thèse complémentaire“ über die Theorie des Durchschnittsmenschen, Que-
” ”
telet und die Moralstatistik“ blieb durchweg auf der Linie der Fragen des
19. Jahrhunderts). Halbwachs führte eine Enquete zum Familienbudget der
französischen Arbeiter und Bauern durch und veröffentlichte die Ergebnisse
1914 im Bulletin der SGF (Desrosières, 1985 [60] und 1988 [63]).
Die Beziehungen zwischen Statistikern, Universitätslehrern und verant-
wortlichen Politikern verstärkten sich während des Ersten Weltkriegs, vor
allem innerhalb des Kabinetts des Rüstungsministers Albert Thomas (Kui-
sel, 1984, [161]). Intellektuelle spielten bei der Verwaltung der militärischen
Anstrengungen eine wichtige Rolle. Der Mathematiker Paul Painlevé (1863–
1933) war Kriegsminister und später für einige Monate Premierminister. Sein
Kollege, der Wahrscheinlichkeitstheoretiker Émile Borel (1871–1956) war Ge-
9
Die thèse d’État“ in lettres“ besteht aus zwei Teilen: einer thèse principale und
” ”
einer thèse complémentaire. Wie schon der Name sagt (Haupt- und Zusatz-These),
gelten in beiden Fällen jeweils andere Anforderungen: Während die thèse prin-

cipale“ eine ausführlich dokumentierte und detaillierte Behandlung eines Themas
erfordert, darf die thèse complémentaire“ allgemeiner und offener gehalten sein

(beispielsweise kann sie aus der Erarbeitung eines kritischen Apparates im Rah-
men einer wissenschaftlichen Herausgeberschaft bestehen).
Entwurf und Scheitern eines Einflußnetzwerks 177

neralsekretär des Ministerrates – ein Posten für interadministrative Koordi-


nierung, auf dem er ohne Erfolg versuchte, eine gestärkte SGF einzubinden
(Borel, 1920, [23]). Simiand und Halbwachs waren Mitglieder des Kabinetts
von Albert Thomas. Dieses Kabinett hatte aufgrund seines Gewichtes bei der
Lenkung der notwendigerweise stark zentralisierten Kriegsindustrien und we-
gen der damals eingeführten Verfahrensstandardisierung vollständig neue For-
men der staatlichen Verwaltung und der Berufsbeziehungen entwickelt. Zwar
verschwand die Struktur der Kriegswirtschaft nach 1918 vorübergehend, aber
die Erinnerung daran blieb erhalten und inspirierte andere Formen, die nach
1940 eingeführt wurden: zum Beispiel die Organisationskomitees der Vichy-
Regierung oder das Plankommissariat nach der Befreiung. Ein Mann zeichne-
te sich in diesen beiden Zeiten der Rationalisierung der Kriegswirtschaft und
des Wiederaufbaus durch seine ausgeprägten Aktivitäten aus: Jean Monnet
(1888–1979), der 1946 das Plankommissariat gründete.
Simiand erlangte als Sekretär des Komitees für Statistik bedeutenden Ein-
fluß auf die Herstellung von kriegswichtigen Gütern und auf die Rohstoffpro-
duktion. Er setzte sich mehrfach dafür ein, die SGF in ein großes, an den Vor-
sitz des Ministerrates angegliedertes statistisches Zentralamt umzuwandeln.
Er leitete 1921 eine aus Borel, dem Statistiker Liesse und dem Industriellen
Gruner bestehende Abordnung zum Präsidenten der Republik Millerand (dem
ehemaligen Handelsminister, dem das Arbeitsamt und die SGF unterstanden),
um diese Reform der SGF voranzutreiben. Aber die Bedingungen für die Rück-
kehr zum Frieden waren in den 1920er Jahren noch nicht die gleichen wie nach
1945, als das INSEE und das Plankommissariat gegründet wurden. Die SGF
wurde schließlich 1930 dem Vorsitz des Ministerrates angegliedert, aber ih-
re Mittel und ihre Kompetenzen wurden nicht erweitert. Die SGF blieb eine
kleine Behörde mit etwa hundert Mitarbeitern, die in den Jahren von 1920
bis 1936 von Michel Huber (1875–1947) geleitet wurde und vor allem demo-
graphische Arbeiten durchführte (Sauvy, 1975, [249]). Simiand intervenierte
1932 als Mitglied des Conseil national économique erneut bei Regierungsrat
Blondel und forderte eine Verstärkung sowie die wissenschaftliche Autonomie
der SGF (Journal Officiel vom 13. April 1932), aber diese Versuche blieben
ergebnislos. Die SGF wurde schließlich in einem ganz anderen Zusammen-
hang von einer sehr großen statistischen Landesbehörde aufgesogen, die 1941
von dem Militäringenieur René Carmille gegründet worden war (Desrosières,
Mairesse und Volle, 1977, [67]).
Eine weitere Folge der während des Ersten Weltkriegs hergestellten Ver-
bindungen war die Förderung der Lehrtätigkeit auf dem Gebiet der Statistik;
an diesem Projekt waren die politisch aktiven Statistiker der 1880er Jahre
gescheitert (Morrisson, 1987, [205]). Im Jahre 1920 wurde auf Initiative von
March und Borel das Institut de statistique de l’université de Paris (ISUP) ge-
gründet. March, Huber und der Mathematiker Georges Darmois (1888–1960)
hielten die Hauptvorlesungen. Die Institutsgründung war einerseits durch die
Bedeutung begünstigt worden, welche die statistische Rationalisierung für die
Verwaltung der Kriegswirtschaft erlangt hatte, andererseits aber auch durch
178 5 Statistik und Staat: Frankreich und Großbritannien

die Änderungen in den Beziehungen zwischen statistischer Praxis und Wahr-


scheinlichkeitstheorie. Eine gute Illustration hierfür sind die gemeinsamen Ak-
tivitäten der Wahrscheinlichkeitstheoretiker Fréchet (1878–1973) und Borel
(der im Übrigen auch Mitglied eines Rates der SGF war, welcher in der Zeit
von 1907 bis 1936 zunächst March und später Huber unterstützte) und der
Soziologen Simiand und Halbwachs. Fréchet und Halbwachs veröffentlichen
1924 zusammen ein kleines Handbuch mit dem Titel Le calcul des probabilités
à la portée de tous (vgl. [97]). Die Annäherung zwischen Verwaltungsstati-
stikern, Mathematikern und Soziologen, die um 1900 noch unwahrscheinlich
war, wurde nun durch die wissenschaftlichen und politischen Umstände des
Augenblicks begünstigt. Weder Cheysson (der zwar Absolvent der École po-
lytechnique war) noch Bertillon oder Levasseur hatten versucht, sich mit den
Wahrscheinlichkeitstheoretikern ihrer Zeit zusammenzutun und sie kannten
Pearson nicht. Dagegen hatte March in der Zeit zwischen 1900 und 1910 die
mathematischen Werkzeuge der Engländer in Frankreich eingeführt. Mit Bo-
rel, Darmois und Fréchet trat eine neue Generation von Wahrscheinlichkeits-
theoretikern auf den Plan. Von nun an gab es ein Technologieangebot und
qualifizierte Fachleute. Es bot sich aber auch die politisch-administrative Ge-
legenheit, ein neues akademisches Lehrfach ins Leben zu rufen. Dieses Lehr-
fach war aber nur von geringem Umfang und die Durkheimsche Soziologie ist
keine mathematische Soziologie geworden. Die Lehrtätigkeit auf dem Gebiet
der Statistik erreichte erst in den 1950er Jahren einen bedeutenden Umfang
– einerseits durch das Institut de statistique de l’université de Paris (ISUP)
und andererseits durch die École d’application de l’INSEE, die 1960 zur École
nationale de la statistique et l’administration économique (ENSAE) wurde.
Die vorhergehenden Ausführungen dürfen jedoch nicht die Vorstellung sug-
gerieren, daß es von 1890 bis 1920 ein umfassendes wissenschaftlich-politisches
Netzwerk gegeben hat, in dem die SGF eine wesentliche Rolle spielte. Das war
nicht der Fall. Die oben beschriebenen Verbindungen betrafen nur eine kleine
Anzahl von Personen und deren Einfluß war auch nur während des Ersten
Weltkriegs – das heißt in dem Ausnahmezeitraum von 1914 bis 1918 – von
Bedeutung. Ähnlich wie Sauvy beschreiben Autoren wie Lévy (1975, [178])
oder Le Bras (1987, [171]) die damalige SGF als schwach, von der Außenwelt
abgekapselt und schlecht mit den anderen statistischen Behörden koordiniert.
Dieser Eindruck war nicht ganz verkehrt und auch die mehrfachen Stellung-
nahmen von Simiand gingen in diese Richtung. Aber die genannten Wissen-
schaftler betrachteten diesen Zeitabschnitt aus einer Nachkriegsperspektive:
die in den 1930er Jahren, während des Krieges und der Besatzungszeit entwor-
fenen neuen Modernisierungsnetzwerke konnten in den nach 1945 gegründeten
Institutionen fortbestehen, das heißt in der École normale d’administration
(ENA), im Plankommissariat, im Centre nationale de la recherche scientifi-
que (CNRS), im Institut national de la statistique et des études économiques
(INSEE) und im Institut national des études démographiques (INED). Im
Vergleich hierzu sind ihre Vorgänger-Institutionen der Zeit von 1890 bis 1920
natürlich gescheitert. Als Alfred Sauvy (1898–1990) im Jahre 1923 an die SGF
Entwurf und Scheitern eines Einflußnetzwerks 179

kam, fand er dort eine kleine Gruppe von kompetenten und effizienten Wis-
senschaftlern und Technikern vor, die jedoch introvertiert waren und sich

nicht darum kümmerten, sich selbst zu verkaufen“. Das heißt sie kümmer-
ten sich nicht darum, ihre Arbeiten so zu übersetzen, daß andere den Inhalt
verwenden konnten. Sauvy machte sich damals mit Erfolg daran, ein neues
öffentliches Image der Statistiker und der Demographen aufzubauen und zu
popularisieren, wobei er tabula rasa mit allen vorherigen Dingen machte. Er
erwähnte weder March noch das Arbeitsamt (Office du travail ). Es lief alles
so ab, als ob der Erste Weltkrieg eine Bewegung unterbrochen hätte. Mit den
Reformern vom Beginn des Jahrhunderts hatten die Reformer der 1930er Jah-
re kaum noch etwas gemeinsam; die letzteren erfanden die Sprache, die sich
in den 1950er Jahren und 1960er Jahren durchsetzte.
Es geht uns hier nicht darum, vergessene Vorgänger wieder auferstehen
zu lassen – vielmehr wollen wir die Ursachen dafür suchen, warum das Kon-
strukt der 1890er Jahre keinen Bestand hatte, während das, was sich zwischen
1930 und 1950 abzeichnete, fast ein halbes Jahrhundert gehalten hat. Selbst-
verständlich gibt es makrosoziale historische Erklärungen, zum Beispiel die
von Kuisel (1984, [161]) vorgelegte Analyse der Entwicklung der Beziehun-
gen zwischen Kapitalismus und Staat in Frankreich“ in der Zeit von 1900

bis 1960. Laut Kuisel überwog vor 1914 eine ultraliberale Staatskonzeption,
die sich jede makroökonomische Intervention verbat. Diese Konzeption wurde
an der Universität gelehrt und von den angesehensten Ökonomen der Zeit
gerühmt. Unter den außergewöhnlichen Umständen des Ersten Weltkriegs ex-
perimentierte man unter Clémentel (Handelsminister) und Albert Thomas
(Rüstung) mit einer ersten Form der organisierten Wirtschaft, aber diese
Wirtschaftsform wurde 1919 rasch zerschlagen. Die Krise der 1930er Jahre
und die Situation der äußersten Not der 1940er Jahre – vor und auch nach
der Befreiung – ermöglichten das Entstehen von in größerem Maß interven-
tionistisch ausgerichteten Strömungen (die man damals als dirigistisch“ be-

zeichnete). Unter der Vichy-Regierung äußerten sich diese Strömungen mit
Bichelonne in administrativer und autoritärer Form und später, nach 1945,
in der demokratischeren und stimulierenderen Art und Weise der konzertier-
ten und statistisch aufgeklärten Planifikation von Jean Monnet, Pierre Massé
und Claude Gruson. In der von Kuisel ausführlich beschriebenen Geschich-
te wird die Arbeit der Statistiker fast gar nicht erwähnt. Dennoch geht klar
daraus hervor, welche Unterschiede zwischen der von March geleiteten SGF
und dem INSEE der Nachkriegszeit bestanden – vor allem in Bezug auf die
Rolle, welche die Ökonomen spielten (oder nicht spielten). Vor 1939 kam es
selten vor, daß jemand seine Argumente auf statistische Daten stützte. Der
Grund hierfür war nicht nur – wie Sauvy argumentiert – in Ignoranz oder
Inkompetenz zu suchen, sondern leitete sich vor allem aus der Tatsache ab,
daß es weder ein politisches noch ein intellektuelles Gesamtkonstrukt gab. Ein
derartiges Konstrukt wurde – insbesondere von Keynes – erst in den 1930er
Jahren in Großbritannien und in den Vereinigten Staaten und in den 1950er
Jahren in Frankreich geschaffen.
180 5 Statistik und Staat: Frankreich und Großbritannien

Man kann aber auch nach Erklärungen suchen, die auf einer eher mikroso-
zialen Ebene liegen und zum Beispiel mit der komplexen Persönlichkeit Marchs
zusammenhängen. Als Ingenieur des 19. Jahrhunderts war March ein phanta-
sievoller Techniker. Er führte die von Hollerith in den Vereinigten Staaten er-
fundenen Verfahren der maschinellen Datenverarbeitung in Frankreich ein und
gestaltete sie um. Aber er teilte auch die Sorgen vieler seiner Zeitgenossen in
Bezug auf die Bevölkerung, den Rückgang der Geburtenzahlen und die Qua-

lität der Rasse“. In Frankreich gab es damals keine so umfassende und radikale
Eugenikbewegung wie in Großbritannien: es wäre schwer gewesen, gleichzei-
tig eine Steigerung der Geburtenzahlen und eine Senkung der Fertilität der
armen, fruchtbarsten Schichten zu predigen, wie es die Engländer taten. Als
Statistiker kannte und bewunderte March jedoch die Arbeiten von Galton und
Pearson und er übernahm beide Aspekte – den statistischen Aspekt ebenso wie
den eugenischen. Bereits 1905 legte er der Société de statistique de Paris For-
schungsarbeiten zur Korrelation von numerischen Kurven vor. Später orien-
tierte er zwei junge Statistiker der SGF, Henry Bunle (1884–1986) und Marcel
Lenoir (1881–1926), auf die Anwendung dieser Ergebnisse bei der Analyse von
Zusammenhängen zwischen statistischen Wirtschaftsreihen. Bunle (1911) un-
tersuchte Korrelationen zwischen Heiratsraten, Preisniveau, Arbeitslosigkeit
und Außenhandel. Lenoir (1913) verteidigte seine Dissertation über Angebots-
und Nachfragekurven, wobei er u.a. das Ziel verfolgte, Preisbildungen und
Preisbewegungen zu erklären. Lenoirs Dissertation war eine der allerersten
ökonometrischen Arbeiten im engeren Sinne. Aber diese Arbeit stieß auf kei-
nerlei Resonanz und war den Amerikanern (Moore, Working, Schultz) nicht
bekannt, die gleichzeitig oder wenig später die Ökonometrie erfanden (Mor-
gan, 1990, [204]; Armatte, 1991, [5]).
Die Arbeiten Marchs (und seiner Schüler) wurden der Société de statistique
de Paris vorgelegt, dort diskutiert und im Journal der Gesellschaft veröffent-
licht. Jedoch wurden Marchs Forschungsarbeiten und seine Stellungnahmen
zu den Geburtenzahlen und zur Eugenik – die offensichtlich von Pearson inspi-
riert worden waren – an anderer Stelle veröffentlicht, nämlich in Zeitschriften
und Büchern, die von sehr unterschiedlichen Kreisen herausgegeben wurden:
Revue d’hygiène et de médecine infantiles, Revue philanthropique, Eugénique
et sélection (ein kollektives Werk, das von einer französischen Gesellschaft
für Eugenik veröffentlicht wurde, an deren Gründung March 1912 beteiligt
war, als er von einem in London gehaltenen Weltkongreß für Eugenik zurück-
kehrte). Die Kombination von mathematischer Statistik und Eugenik, die da-
mals in England bereits vollzogen war, ließ sich nicht direkt übernehmen:
March war der einzige französische Statistiker, der sich mit beiden Gebieten
beschäftigte. Dieses doppelte Interesse war rein persönlicher Natur und konn-
te daher nicht dazu beitragen, die Verwaltungsstatistik in ein umfassenderes
politisches und wissenschaftliches Netzwerk einzugliedern, da die Strömung
der selektionistischen Eugenik in Frankreich nicht die gleiche Bedeutung hat-
Entwurf und Scheitern eines Einflußnetzwerks 181

te, wie jenseits des Kanals.10 Folglich verhielt es sich nicht nur so, daß die
politischen und wirtschaftlichen Umstände für die Gründung einer bedeuten-
den statistischen Einrichtung ungünstig waren, in der man Forschungsarbei-
ten zu verschiedenen demographischen, sozialen und ökonomischen Bereichen
zentralisieren und zusammenfassen konnte. Auch die persönlichen Bindungen
und Interessen von March begünstigten eine solche Entwicklung keinesfalls.
Dennoch hätte die ursprüngliche Organisation der Volkszählungen von 1896
bis 1938 – welche in einfallsreicher Weise die Demographie mit der Beschrei-
bung von Betriebsstrukturen kombinierte – die Keimzelle für eine solche In-
stitution liefern können. Das wäre in Großbritannien nicht möglich gewesen,
denn dort waren Bevölkerungsstatistik und Wirtschaftsstatistik voneinander
getrennt (und sind es immer noch).
Letzten Endes war die Situation in Frankreich am Vorabend des Zweiten
Weltkriegs dadurch gekennzeichnet, daß es kaum Begegnungs- und Diskus-
sionsorte gab, an denen sich Fachleute der Sozialwissenschaften – seien es
Statistiker, Demographen, Ökonomen oder Soziologen – mit Führungskräften
aus Politik und Verwaltung, mit Unternehmern und mit Gewerkschaftern tref-
fen konnten. Im Rahmen des Staates gab es derartige Diskussionsforen noch
nicht, aber die Umrisse zeichneten sich in den Vorstellungen einiger Intellek-
tueller und Ingenieure ab. Verfolgt man die hier erzählte Geschichte zurück,
dann trifft man immer wieder auf Bewegungen aufgeklärter Persönlichkeiten,
die außerhalb des Staates den Versuch unternahmen, die französische Gesell-
schaft mit Hilfe von Enqueten zu untersuchen und zu analysieren. Später
hat der Staat, der oftmals von diesen Reformern umgestaltet wurde, diese
Begegnungs- und Diskussionsorte auf die eine oder andere Weise in die neuen
Institutionen eingegliedert. Die Demoskopen und die Zeitreisenden unter den
Philosophen des 18. Jahrhunderts verfaßten, nachdem sie Präfekten geworden
waren, die Statistiken“ ihrer Departements. Bis in die 1830er Jahre wurden

lokale Monographien von Provinzbürgern, Ärzten, Verwaltungsbeamten und
Geschäftsleuten verfaßt. Einige von ihnen beteiligten sich am Wettbewerb um
den Montyon-Preis11 für Statistik, der von der Akademie der Wissenschaf-
ten verliehen wurde (Brian, 1991, [36]). Wir begegnen diesen Autoren – den
Anhängern der Moralstatistik“ – erneut in der 1829 gegründeten Zeitschrift

Annales d’hygiène publique (Lécuyer, 1977, [172]), die bis in die 1850er Jahre
hinein aktiv war und die amtliche Statistik kritisierte. Nach 1860 kam es zu
einer Annäherung der beiden Kategorien von Statistikern, das heißt der Ver-
10
Jedoch förderte die von Carrel von Alexis im Jahre 1942 gegründete Stiftung
zum Studium der Probleme der menschlichen Spezies diese eugenistische Kon-
zeption; die Stiftung wurde später in das nach der Befreiung gegründete INED
eingegliedert (Drouard, 1983, [71]; Thévenot, 1990, [274]).
11
Der Montyon-Preis durfte nur für rein deskriptive Arbeiten zur Statistik verliehen
werden; bewertet wurden (wie bereits in der napoleonischen Bürokratie) nur die
strikten Aufzeichnungen kontingenter Fakten. Aus der Statistik des Montyon-
Preises geht hervor, daß mathematische Arbeiten ausdrücklich zurückgewiesen
wurden, weil man sie als zu eng begrenzt ansah (vgl. Armatte, 2001, [344]).
182 5 Statistik und Staat: Frankreich und Großbritannien

waltungsstatistiker und der Moralstatistiker, und sie wurden gemeinsam in


der Société de statistique de Paris (SSP) aktiv. Adolphe und Jacques Bertil-
lon, Ärzte und nacheinander Leiter des Statistischen Bureaus der Stadt Paris,
symbolisierten diese Allianz ebenso, wie Levasseur (Universitätslehrer) und
Cheysson (Ingenieur für Brückenbau).
Die Bewegung der außerhalb des Staates durchgeführten Enqueten hat-
te ab 1840 bis zum Ende des Jahrhunderts eine eigenständige Form mit
den Familienbudgets von Arbeitern“, einer Sammlung von Frédéric Le Play

(1806–1882). Le Play war Bergbauingenieur und Prophet einer konservati-
ven christlich-sozialen Schule, die gleichzeitig dem allgemeinen Wahlrecht, der
Beschäftigung im kapitalistischen Lohnverhältnis und der gleichen Erbtei-

lung“ 12 feindlich gegenüberstand. Aber es war eine technizistische Schule, die
gegenüber der Wissenschaft offen war und die Lebensbedingungen der Arbei-
ter aufmerksam verfolgte (Savoye, 1981, [251]). Aufgrund der Positionen ihres
Gründers, der ein Gegner des republikanischen Staates war, wurde diese dy-
namische Gruppe zu einer Sekte. Einige ihrer Mitglieder spielten jedoch eine
bemerkenswerte Rolle: Cheysson an der SSP und als Professor für Statistik,
du Maroussem (1900) im Arbeitsamt (Office du travail ), wo er monographi-
sche Untersuchungen über Unternehmen verfaßte (die von Halbwachs 1907
und die von Dugé de Bernonville 1913 an der SGF durchgeführten Unter-
suchungen zu den Familienbudgets von Arbeitern waren nicht direkt durch
die Aktivitäten von Le Play inspiriert worden; wir diskutieren diese Enque-
ten im Kapitel 7 ausführlicher). Der von Le Play verwendete Bezugsrahmen
stützte sich auf die Trilogie Familie, Arbeit, Ort“ und hatte später außerhalb

von Frankreich in Großbritannien (Geddes) und in Deutschland (Schnapper-
Arndt) Einfluß. Aber in Frankreich verkümmerte diese von der universitären
Soziologie abgeschnittene Strömung. Ihre letzten Vertreter waren im Umfeld
der Vichy-Regierung zu finden (Kalaora und Savoye, 1985, [142]).

Statistik und Wirtschaftstheorie – eine späte Verbindung


Vor 1930 hatten einige Demographen, Ärzte, Philanthropen und Sozialrefor-
mer häufig auf statistische Argumente zurückgegriffen. Bei den Ökonomen
war das überraschenderweise weit weniger üblich – unabhängig davon, ob sie
geisteswissenschaftlich oder mathematisch gebildet waren. Multiple Korrela-
tionen und multiple Regressionen, die sich auf ökonomische Variable bezogen,
waren zwar bereits von Statistikern (Yule, March, Bunle) berechnet worden,
12
Le Play sprach in diesem Zusammenhang von der unbeständigen Familie“: Beim
” ”
Tode des Vaters wird die schon verstreute Familie aufgelöst; das Erbe wird durch
die gleiche Zwangsteilung zerstückelt, und der landwirtschaftliche oder industri-
elle Betrieb, wenn es einen gibt, wird liquidiert. Dies System hat sich aus dem
Individualismus ergeben und charakterisiert fast alle modernen Gesellschaften
und besonders Frankreich.“
Statistik und Wirtschaftstheorie – eine späte Verbindung 183

aber sie wurden nicht mit wirtschaftswissenschaftlichen Überlegungen ver-


knüpft (eine Ausnahme war jedoch die Arbeit von Lenoir (1913, [177]) zur
Konstruktion der Angebots- und Nachfragekurven). Die Verbindung zwischen
Statistik und Wirtschaftstheorie war nicht selbstverständlich. Die Ökonomen
hatten die Intuition, daß die verfügbaren Messungen – beispielsweise Preis-
messungen – Endprodukte komplexer Verkettungen waren, bei denen sich die
von den entsprechenden Modellen theoretisch beschriebenen Wirtschaftsme-
chanismen nur schwer aufklären ließen. So dachten vor allem Jean-Baptiste
Say, Walras und sogar Cournot, der in Statistik doch ziemlich bewandert war
(Ménard, 1977, [193]). Auf einer tieferliegenden Ebene verhielt es sich so, daß
der Wahrscheinlichkeitsbegriff von diesen Ökonomen noch sehr oft mit dem
Begriff des unzulänglichen Wissens assoziiert wurde und nicht mit der in-
trinsischen Variabilität der ökonomischen Phänomene. Diese Variabilität war
mit der deterministischen Philosophie unvereinbar, die aus der Physik des 19.
Jahrhunderts hervorging. Für die obengenannten Ökonomen war die Physik
des 19. Jahrhunderts ein Modell, das es ihrer Wissenschaft ermöglichte, den
Ungewißheiten und den Undeterminiertheiten der anderen Sozialwissenschaf-
ten und der Philosophie zu entkommen (Mirowski, 1989, [197]). Von dieser
Warte aus war die Statistik – von der man nicht so recht wußte, was sie wi-
derspiegelte – nicht notwendigerweise ein guter Verbündeter im Kampf um
dieselbe Anerkennung, wie sie die Physik erfahren hatte. Statistik ist keine

Experimentalwissenschaft“: seit der von Claude Bernard formulierten Kritik
kam es immer wieder zu Debatten über die Natur der statistischen Erkenntnis.
Aber in den 1920er Jahren sagte sich die Physik mit der Quantenme-
chanik und der Heisenbergschen Unschärferelation13 in entschiedener Weise
vom Laplaceschen Determinismus los. Ungefähr zur gleichen Zeit wurde die
von Kolmogorow axiomatisierte Wahrscheinlichkeitstheorie ein vollwertiges
Teilgebiet der Mathematik und nahm eine zentrale Stellung in verschiedenen
Naturwissenschaften ein. Und schließlich erreichte die inferentielle Statistik 14
mit Ronald Fisher und dann mit Neyman und Egon Pearson ein hinreichend
allgemeines Formalisierungsniveau, um in vielfältigen Zusammenhängen ein-
gesetzt werden zu können. Diese Entwicklungen ermöglichten eine Vereini-
gung von drei früher sehr unterschiedlichen Strömungen, die zur Entstehung
der Ökonometrie im modernen Sinne (das heißt auf der Grundlage von Wahr-
scheinlichkeitsmodellen) beigetragen haben: es handelt sich hier um die neo-
klassische Wirtschaftstheorie von Walras und Marshall15 , um die Anfänge
13
Es gibt eine Reihe von anderen Bezeichnungen für diesen Begriff, zum Beispiel:
Unbestimmtheitsrelation, Ungenauigkeitsrelation, Unsicherheitsrelation.
14
Auch schließende Statistik bzw. induktive Statistik genannt.
15
Alfred Marshall (1842–1924) studierte Mathematik in Cambridge und wandte
sich später der Nationalökonomie zu. Sein Interesse an der Nationalökonomie
erklärte er damit, daß die Untersuchung der Armut gleichzeitig die Untersuchung

der Wurzel der sozialen Deklassierung eines großen Teiles der Menschheit ist.“
Marshalls Bücher lesen sich glatt und flüssig und sind so formuliert, daß die
meisten Aussagen selbstverständlich zu sein scheinen. Mathematik wird kaum
184 5 Statistik und Staat: Frankreich und Großbritannien

der Ökonometrie à la Lenoir und Moore in den Jahren von 1910 bis 1930,
die ohne Modelle auskam, und um die neue inferentielle Statistik, die aus
der englischen Biometrie hervorgegangen war. Diese Konvergenz wurde von
Haavelmo (1944, [116]) formalisiert und führte zum Programm der amerikani-
schen Cowles Commission 16 , das die strukturelle Abschätzung von Modellen
mit simultanen Gleichungen zum Gegenstand hatte (Morgan, 1990, [204]).
Diese neue Synthese von Statistik und Wirtschaftstheorie fand in Frank-
reich unmittelbar in der Nachkriegszeit Verbreitung, wobei eher Ingenieure als
Universitätslehrer beteiligt waren: die Bergbauingenieure Maurice Allais und
René Roy, sowie Edmond Malinvaud am INSEE und an der ENSAE (Bun-
gener und Joël, 1989, [40]). Und so bahnte sich nunmehr mit Nachdruck ei-
ne starke Allianz zwischen theoretischer Wirtschaftslehre, angewandter Wirt-
schaftslehre und dem statistischen Apparat an. Diese Allianz trug dazu bei,
die Statistik mit einer Legitimität und Autorität auszustatten, die sich über-
haupt nicht mit der Situation von vor zwanzig Jahren vergleichen ließ. Die
wesentliche Transformation der Rolle und der Art und Weise des Eingreifens
von Ökonomen, die eher an Ingenieursschulen als an Universitäten lehrten
oder in öffentlichen Verwaltungen oder Unternehmen arbeiteten, war bereits
vor dem Krieg von einem Kreis von ehemaligen Schülern der École polytech-
nique angekündigt und vorbereitet worden.
Das Centre polytechnicien d’études économiques (auch X-Crise genannt)
wurde unter den Bedingungen der Wirtschaftskrise und der politischen und
intellektuellen Krise der 1930er Jahre (Boltanski, 1982) von einer Gruppe ge-
gründet, der Jean Ullmo (1906–1980), Alfred Sauvy (1898–1990) und Jean
Coutrot angehörten. Die von der Gruppe organisierten Vorträge sind ein gu-
tes Beispiel für die Errichtung eines Netzwerks, das in den Wirren der Krise
die Erarbeitung einer gemeinsamen Sprache und eines neuen Bezugssystems
anstrebte. Statistik und Ökonomie – die im Begriff waren, sich im Rahmen
der Ökonometrie zu vereinigen – sollten fortan Objekte dieser gemeinsamen
Sprache bleiben. Außer den obengenannten Gründern, die oft Vorträge hiel-
ten, referierten die Ökonomen Charles Rist und Jacques Rueff, die Soziologen
Bouglé, Halbwachs und Simiand (der damals in diesem Umfeld ein großes Pre-
stige hatte), der Historiker Marc Bloch, der Mathematiker und Wahrschein-
lichkeitstheoretiker Darmois sowie Paul Reynaud und Paul Valéry (X-Crise,
1982, [289]). Aber im Unterschied zu ihren Saint-Simonistischen oder ihren le-
playsianischen Vorläufern des 19. Jahrhunderts ergriffen diese Absolventen der
verwendet oder in die Fußnoten verbannt, damit jeder Interessierte die Bücher
lesen kann.
16
Die 1932 von dem amerikanischen Geschäftsmann und Ökonomen Alfred Cowles
in den USA gegründete Cowles Commission for Research in Economics arbeitete
eng mit der Ökonometrischen Gesellschaft zusammen. Ab Mitte der 1940er Jahre
war die Cowles Commission zum wichtigsten Zentrum für quantitative Ökono-
mie geworden. Die mit der Kommission assoziierten Ökonomen entwickelten bis
Anfang der 1950er Jahre den ökonometrischen Ansatz, der die Ökonometrie mehr
als zwei Jahrzehnte lang dominierte.
Statistik und Wirtschaftstheorie – eine späte Verbindung 185

École polytechnique nicht mehr den Beruf eines Soziologen, sondern wurden
vielmehr Ökonomen.
Eine Reihe von Konferenzen war der Ökonometrie“ gewidmet (in ihrem

ursprünglichen Sinne der Quantifizierung von Wirtschaftsmodellen). François
Divisia (1889–1964), einer der ersten französischen Universitätsökonomen, die
sich für den systematischen Gebrauch der Statistik in den Wirtschaftswis-
senschaften einsetzten, sprach 1933 über die Arbeiten und Methoden der

Gesellschaft für Ökonometrie“, die drei Jahre zuvor gegründet worden war.
Er zitierte Irving Fisher, aber auch March und dessen Arbeiten über den
Preisindex, bezeichnete Lenoir als den Ersten, der die Methode der multi-

plen Korrelationen bei den Preisuntersuchungen einführte“, nannte Gibrat
und dessen Ungleichheitsindex“ der Einkommensverteilungen und zitierte

den englischen Statistiker Arthur Bowley wegen dessen Untersuchung zur

Preisstreuung als Symptom von Wirtschaftskrisen“. Jan Tinbergen17 (1903–
1994) beschrieb 1938 seine ökonomischen Forschungen über die Bedeutung

der Börse in den Vereinigten Staaten“. Jacques Rueff hielt 1934 ein Referat
mit dem Titel Warum ich trotz allem liberal bleibe“, während Jean Ullmo

1937 die theoretischen Probleme einer gelenkten Wirtschaft“ untersuchte.

Die beiden letztgenannten Titel zeigen, wie die theoretischen Überlegun-
gen, die durch die Krise der 1930er Jahre ausgelöst worden waren, mit einer
Kritik des liberalen Denkens und einem Interesse für gelenkte Wirtschaften“,

das heißt für Planwirtschaften, zusammenhingen. Diese Betrachtungen stan-
den ganz im Gegensatz zu den Überlegungen, die später durch die Krise der
1980er Jahre ausgelöst wurden; sie beruhten auf der Kritik der Planwirtschaf-
ten und makroökonomischen Regulierungen, wobei diese Kritik ihrerseits aus
exakt denjenigen Theorien hervorging, die in den 1930er Jahren in Zirkeln
wie X-Crise formuliert worden waren. Die diskutierten Vorstellungen kamen
anschließend erneut zur Sprache, zum Beispiel in Einrichtungen wie dem Plan-
kommissariat, in dem von Claude Gruson 1950 gegründeten Service des études
économiques et financières (SEEF), im INSEE (das Gruson von 1961 bis 1967
leitete), oder in dem von Sauvy 1946 gegründeten INED. Einmal mehr führ-
ten also Themen, die außerhalb des staatlichen Rahmens entwickelt worden
waren, zu einer Umgestaltung des Staates und zu einer Institutionalisierung
des öffentlichen Debattenraumes. Die technische Kompetenz tendierte dazu,
sich in den Staat einzugliedern. Das unterscheidet Frankreich deutlich von
Großbritannien und von den Vereinigten Staaten. In diesen Ländern besaßen
die Universitäten eine große Vitalität und knüpften mit der Verwaltung en-
ge, aber keine ständigen Wechselbeziehungen und diese Tatsache verlieh der
Verbindung von Wissenschaft und Staat ein ganz anderes Gefüge.
17
Tinbergen erhielt 1969 zusammen mit Ragnar Frisch den ersten Nobelpreis für
Wirtschaftswissenschaften.
186 5 Statistik und Staat: Frankreich und Großbritannien

Britische Statistik und öffentliche Gesundheit

Das Großbritannien des 19. Jahrhunderts war nicht nur das Land, in dem
die Biometrie und die mathematische Statistik entstanden sind. Es war auch
das Land, in dem unter den Bedingungen des industriellen und städtischen
Wachstums und seiner dramatischen Folgen die verschiedensten Formen der
Beziehungen zwischen Verwaltungsstatistik und nichtadministrativer Stati-
stik, Gesellschaftsanalyse und Gesetzgebung ausprobiert worden sind, um die
mit diesem Wachstum zusammenhängenden Probleme zu behandeln: Armut,
öffentliche Gesundheit (public health) und Arbeitslosigkeit. Die britische Ver-
waltung neigte nicht dazu, den überwiegenden Teil des statistischen Wissens
und der einschlägigen Expertise in Ämter zu integrieren, die von ihr abhängig
waren. Gewiß gab es diese Ämter, aber sie waren breiter gestreut als in Frank-
reich. Zudem waren sie umstritten und ihre Organisation wurde oft infrage
gestellt. Darüber hinaus pflegten Gruppen von Sozialreformern, Gelehrtenge-
sellschaften und Universitätslehrern die gute Tradition der Erhebungen und
der Debatten zur Konstruktion eines praktischen Wissens, das sich unmit-
telbar umsetzen ließ. Die beiden Umfelder – das heißt der Verwaltungsbe-
reich und der Bereich der Sozialforscher und Wissenschaftler – waren von-
einander verschieden, standen aber in kontinuierlicher Wechselwirkung: die
Sozialforscher und die Wissenschaftler waren zum Beispiel im Rahmen der
parlamentarischen Untersuchungskommission ständig an den Entscheidungen
des Verwaltungsbereiches beteiligt. Das unterschied England von Frankreich,
wo dieser Personenkreis (zum Beispiel die Leplaysianer) weniger aktiv oder
weniger an die Verwaltung gebunden war. Und das war auch ein Unterschied
zu Deutschland, in dem das Gelehrtenmilieu zwar vorhanden war, aber auch
mehr Mühe hatte, sich Gehör zu verschaffen. Arthur Bowley (1869–1957) war
eine Persönlichkeit, die diese typisch englische Verbindung zwischen Univer-
sität und Verwaltung besonders gut symbolisierte. Er war Professor an der
London School of Economics (LSE) und formulierte zu Beginn des 20. Jahr-
hunderts in deutlicher Weise die wissenschaftlichen und beruflichen Normen
eines Metiers, das es in dieser Form überhaupt noch nicht gab: es handelte sich
um den Beruf des Verwaltungsstatistikers, der sich auf die Errungenschaften
der mathematischen Statistik stützte.
Die Geschichte der britischen amtlichen Statistik war durch die Aufein-
anderfolge von gesetzgebenden Akten großer Tragweite und durch institutio-
nelle Ad-hoc-Gründungen gekennzeichnet, die zu einem zersplitterten System
führten, das erst im Jahre 1941 durch das Central Statistical Office (CSO)
teilweise koordiniert wurde. Zwischen 1832 und 1837 stellte eine Reihe von
politischen und wirtschaftlichen Reformen den liberalen Bezugsrahmen auf,
der mindestens bis zum Jahre 1914 den Hintergrund für alle Debatten bil-
dete. Dieser Rahmen beinhaltete vor allem das Prinzip des Freihandels, die
Bedeutung der örtlichen Gewalten (Stadtgemeinden und Grafschaften), die
Armenfürsorge in Arbeitshäusern (workhouses) anstelle einer direkten Beihil-
fe (Fürsorgegesetzgebung von 1834, welche die Speenhamland Act of Parlia-
Britische Statistik und öffentliche Gesundheit 187

ment von 1796 ersetzte; letztere sah Geldbeihilfen für die Kirchengemeinden
vor (vgl. Polanyi, 1983, [234])). Diese drei Aspekte bestimmten die Formen
des im Entstehen begriffenen statistischen Systems. Im Jahre 1832 wurde im
Board of Trade (Handelsministerium) ein statistisches Bureau gegründet, das
sich mit Handelsbeziehungen, Export und Import befaßte. Im Übrigen erfolgte
die Verwaltung des Fürsorgerechtes auf lokaler Ebene und zog die Gründung
von Fürsorgeverbänden in jeder Grafschaft nach sich (1834). Die auf dem
Territorium verstreute neue Struktur ermöglichte 1837 die Akzeptanz des
General Register. Dieses weltliche Personenstandsregister wurde damals ge-
gründet, um Abhilfe gegen die Tatsache zu schaffen, daß die Ausbreitung von
religiösen Konfessionen, die sich von der amtlichen anglikanischen Kirche un-
terschieden, eine zusammenhängende Registrierung der Taufen, Heiraten und
Sterbefälle verhinderte. Der nicht konfessionsgebundene Personenstand hing
also von Anfang an mit der Verwaltung des Fürsorgegesetzes und den dafür
zuständigen örtlichen Behörden zusammen. Die britische öffentliche Statistik
war somit gleich auf Anhieb in zwei unterschiedliche Teile geteilt: für den Teil
der Wirtschaftsstatistik war das Board of Trade zuständig, für die Sozialsta-
tistik hingegen das General Register Office (GRO). Zum großen Teil besteht
diese Situation immer noch: das Office of Population, Censuses and Surveys
(OPCS), das 1970 die Nachfolge des GRO angetreten hatte, ist weiterhin eine
autonome Institution geblieben und das Central Statistical Office (CSO), das
im Prinzip das ganze System koordiniert, ist mehr auf Wirtschaftsstatistik
ausgerichtet. In Frankreich dagegen hatte die SGF schon ab 1833 wenigstens
die Aufgabe, die Statistik zu zentralisieren (selbst wenn sie dieser Aufgabe
nicht vollständig nachgekommen ist). Und die SGF war ein ausschließlich in
Paris ansässiges Bureau ohne örtliche Verbindungen: die zwischen 1837 und
1852 geplanten statistischen Kantonskommissionen waren gescheitert.
Die Situation in Großbritannien war eine ganz andere. Das GRO, das von
1837 bis 1880 durch den Arzt William Farr (1807–1883) in Schwung gehalten
wurde, hing eng mit der Public Health Movement zusammen und kann mit
den französischen Hygienikern verglichen werden. Die Behörde war in die Ver-
waltung des Fürsorgegesetzes einbezogen – und zwar nicht nur deswegen, weil
sie in die örtlichen Fürsorgeverbände (poor law unions) eingegliedert war, son-
dern auch aufgrund der Tatsache, daß ihr diese Verwaltung ein Mittel in die
Hand gab, eine Legitimität von unten zu konstruieren, die ihr nicht sofort vom
Zentralstaat übertragen werden konnte (Szreter, 1991, [271]). Die englische
öffentliche Meinung stand damals den Interventionen einer nationalen Exe-
kutive feindselig gegenüber, die ohne weiteres bonapartistischer Tendenzen
verdächtigt wurde. Die Bewegung zur öffentlichen Gesundheit konnte sich nur
auf unabhängige örtliche Initiativen stützen. Das GRO hatte seinerseits kei-
nen direkten Zugang zu den Entscheidungsprozessen. Die Behörde hatte nur
wenig Macht; sie konnte lediglich Überzeugungsarbeit leisten und Ratschläge
geben. Das GRO schmiedete eine Politik der Allianzen mit lokal ansässigen
Ärzten und Behörden, um die Bevölkerungsstatistik zu fördern, das heißt die
vom klassischen Personenstand (Geburten, Heiraten, Sterbefälle) und von der
188 5 Statistik und Staat: Frankreich und Großbritannien

Morbidität gebildete Gesamtheit, wobei die Morbidität die Statistik der spe-
zifischen Todesursachen bezeichnete. Diese Daten wurden entsprechend einer
geographischen Feineinteilung zusammengestellt, die das Ziel verfolgte, schnell
auf die Brutstätten von Epidemien und Zentren des Elends hinzuweisen. Das
GRO spielt somit eine wesentliche Rolle bei der Diagnose und der Behand-
lung eines Problems, das die englische Gesellschaft während des gesamten
Jahrhunderts bedrängt hatte – das Problem der mit der Industrialisierung
und der anarchischen Verstädterung zusammenhängenden Not. Beispielswei-
se veröffentlichte und verglich das GRO die Kindersterblichkeit in den großen
Industriestädten. In Liverpool starb die Hälfte der Kinder, bevor sie das Alter
von sechs Jahren erreicht hatten. Zuvor hatte man aus dem schnellen Bevölke-
rungwachstum, das die Stadt zwischen 1801 und 1831 zu verzeichnen hatte,
die Schlußfolgerung abgeleitet, daß dort das Klima vermutlich besonders ge-
sund war.
Das GRO schuf auf diese Weise mit seinen vereinheitlichten Daten einen
Komparabilitäts- und Konkurrenzraum zwischen den Städten. Die Behörde
erweckte das Interesse für einen nationalen Wettbewerb in Bezug auf die
Senkung der Sterblichkeitsraten. Die Gesundheitsdienste eines jeden Ortes
verfügten über diese Informationen und hätten sie deswegen auch selbst auf-
bereiten können. Das GRO erzeugte jedoch durch die gleichzeitige Sammlung
und Veröffentlichung dieser Informationen ein neues Bedürfnis und schuf da-
durch einen Markt für seine Produkte. Die Sterblichkeitsrate im Allgemeinen
und insbesondere die Kindersterblichkeit wurden zu relevanten Indikatoren für
die Gemeindepolitik. Es konnte kein direktes allgemeines Interesse für diese
Statistiken erweckt werden, da es keine nationale Politik für den Umgang mit
der Armut gab. Das öffentliche Interesse wurde jedoch dadurch erweckt, daß
man mit Hilfe der Sterblichkeitsraten die Konkurrenz zwischen den Städten
förderte. Auf diese Weise wurden die Sterblichkeitsraten zu einer Angelegen-
heit von nationaler Bedeutung; sie wurden 1848 sogar im neuen Gesetz zur
öffentlichen Gesundheit (public health law ) verankert. Dieses Gesetz legte fest,
daß Orte mit einer Sterblichkeitsrate von mehr als 23 von Tausend (vom GRO
berechneter nationaler Durchschnitt) sogenannte Gesundheitstafeln“ (health

tables) aufstellen mußten, um die Durchführung von Gesundheitsreformen zu
unterstützen. In den 1850er Jahren ging William Farr noch weiter, indem
er die mittlere Sterblichkeitsrate der 63 gesündesten Distrikte ermittelte (ein
Zehntel aller Distrikte): er kam auf 17 von Tausend und wies diese Sterblich-
keitsrate allen anderen Distrikten als Ziel zu. Er ersetzte somit den nationalen
Durchschnitt durch ein ehrgeizigeres Optimum und bereitete damit auf sei-
ne Weise die später von Galton durchgeführte Verschiebung vor: das durch
den Durchschnitt ausgedrückte Ideal (Quetelet) wird durch den Begriff des
Optimums ersetzt, den das äußerste Ende der Verteilung repräsentiert. Unter
Bezugnahme auf die Mortalität, die für die im gesamten Territorium verstreu-
ten Distrikte festgehalten wurde, war er dann dazu in der Lage, die Tausende
von Todesfällen zu berechnen, die man in den anderen Distrikten hätte ver-
Britische Statistik und öffentliche Gesundheit 189

meiden können, wenn die – keineswegs nur theoretische, sondern sehr wohl
reale – Rate von 17 von Tausend überall existiert hätte.
Das GRO machte sich diese Verhaltensrichtlinie zu eigen und positionier-
te sich dadurch im Zentrum einer allgemeineren Bewegung, deren Ziel die
Prävention war. Darüber hinaus stellte die Behörde eine spezifische Spra-
che und Werkzeuge bereit, welche sich von denen der Ärzte unterschieden,
die ihrerseits einzeln mit isolierten“ Patienten zu tun hatten. Der englischen

Behörde gelang, was ihre französischen Amtskollegen nicht erreicht hatten:
zunächst in den örtlichen Verwaltungen und dann nach 1900 auf nationaler
Ebene diejenigen Instrumente des statistischen und wahrscheinlichkeitstheore-
tischen Risikomanagements einzuführen, mit denen die Versicherungsmathe-
matiker bereits vertraut waren. Somit übersetzte das GRO diejenigen Ideen in
eine öffentliche Handlungsweise, die implizit bereits in den von Quetelet popu-
larisierten Durchschnittsbegriffen enthalten waren (im Übrigen war Farr ein
Bewunderer von Quetelet). Darüber hinaus lenkte das GRO die Aufmerksam-
keit und die Debatte auf das wirtschaftliche und soziale Umfeld als erklären-
den Faktor der Mortalität, die ihrerseits als Folge des Elends wahrgenommen
wurde. Wie zur gleichen Zeit in Frankreich stand auch in Großbritannien der
Durchschnitt als Analysewerkzeug in einem engen Zusammenhang zur Verbes-
serung der sanitären Bedingungen und der Gesundheitspflege im städtischen
Umfeld.18 Zum Zweck des Handelns führte Farr eine Neuklassifikation der
Todesursachen aus einem verallgemeinerten Blickwinkel durch:

Die Überlegenheit einer Klassifikation läßt sich nur durch die Anzahl
der verallgemeinerungsfähigen Fakten oder durch die praktischen Er-
gebnisse feststellen, zu denen diese Klassifikation führt ... Die Klas-
sifikation der Krankheiten muß durch die Art und Weise begründet
werden, in der sich diese Krankheiten auf die Bevölkerung auswirken
... Die erste Klasse umfaßt die endemischen oder epidemischen Krank-
heiten, denn diese sind es, die am meisten variieren und fast immer
verhütet oder abgemildert werden können. (Farr, 1839, zitiert nach
Szreter, 1991, [271].)
Diese Art der Klassifizierung, die mit einer präventiven oder abmildern-

den“ Handlung verbunden ist, kann von einer wissenschaftlichen oder klini-
schen Ätiologie abweichen, welche sich auf die Untersuchung von Einzelfällen
stützt, die der Arzt mit der Absicht durchführt, seine Patienten zu heilen. Das
GRO konzentrierte seine Arbeit auf die Verbesserung der öffentlichen Gesund-
heit und schuf sich dadurch die Position einer wissenschaftlichen Autorität im
Zentrum eines informellen nationalen Netzwerks, das für den Informationsfluß
18
Die Verwendung von Mittelwerten war auch kohärent mit der Position, die von
den Ärzten des GRO in der im Kapitel 3 beschriebenen Debatte vertreten wurde,
bei der die Kontagionisten“ den Verfechtern der Miasmentheorie“ gegenüber
” ”
standen: William Farr neigte zur Miasmentheorie und war antikontagionistisch
eingestellt.
190 5 Statistik und Staat: Frankreich und Großbritannien

sorgte. Dieses Netzwerk umfaßte die an den Verbesserungsbestrebungen be-


teiligten Ärzte, aber auch die entsprechenden örtlichen Behörden und Verwal-
tungsbehörden: Die Kraft der verbreiteten Botschaften hing nicht nur einfach

von der wissenschaftlichen Strenge der entsprechenden Betrachtungsweise ab,
sondern auch – und zwar auf kritischere Weise – von der kommunikativen
Fähigkeit des GRO, mit den betreffenden Informationen umzugehen und sie
so zu präsentieren, daß sie maximalen Einfluß auf ein Publikum ausüben, das
größer und vielgestaltiger ist, als nur die Zielgruppe der Ärzte.“ (Szreter, 1991,
[271].) Die statistische Totalisierung ließ eine allgemeinere Sichtweise hervor-
treten, als den Standpunkt der Ärzte, die – vor allem wenn sie im Krankenhaus
arbeiteten – nur ihre Patienten sahen und deswegen eine andere Auffassung
von Fragen der öffentlichen Gesundheit hatten.
Die vom GRO gewählte Aktionsform trug dazu bei, eine Weiterentwick-
lung des britischen Staates und eine Wandlung der Wahrnehmung des Staates
in der öffentlichen Meinung vorzubereiten. Das Spektrum der öffentlichen Mei-
nung erstreckte sich von der Furcht vor einem als Unterdrücker fungierenden
Zentralstaat bis hin zum Wohlfahrtsstaat des 20. Jahrhunderts. Die Statistik
spielte bei dieser Transformation eine wesentliche Rolle, und zwar gleichzei-
tig als Werkzeug (in diesem Kontext entstanden die Stichprobenerhebungen)
und als Symbol einer neuen Funktion des Staates. Diese Verschiebung war
schon 1859 von John Stuart Mill beobachtet worden, der in seinem Essay
Representative Government die Probleme der Volksgesundheit nannte: Der

Zentralstaat erlangt durch seine Fähigkeit, Auskünfte zu sammeln und diese
Informationen zu verarbeiten, eine ausgeprägte Funktion, die über den loka-
len und persönlichen Autonomieforderungen steht.“ (Mill, 1859, zitiert von
Szreter, [271].)
Die Linie des GRO war auf der medizinischen Ebene gleichzeitig epide-
miologisch und antikontagionistisch und auf der sozialen Ebene sowohl en-
vironmentalistisch als auch reformistisch. Diese Linie wurde seit Beginn der
1880er Jahre aufgrund einer zweifachen Fortentwicklung bekämpft und teil-
weise ausgegrenzt: einerseits durch die Fortschritte in der Mikrobiologie und
andererseits durch den Aufstieg des Sozialdarwinismus und der evolutioni-
stischen Theorien der natürlichen Auslese. Die Entdeckungen auf dem Ge-
biet der Bakteriologie, die sich auf die Ursachen und die unmittelbare Be-
handlung von Krankheiten bezogen, verringerten die relative Bedeutung der
statistischen Epidemiologie und disqualifizierten die Theorie der Miasmen.
Die Eugeniker behaupteten ihrerseits, daß die philanthropischen und refor-
mistischen Unterstützungsmaßnahmen für die Ärmsten nur die Reproduktion
von untauglichen Personen begünstigen und die natürliche Auslese behindern
würden. Diese Position stellte einen Frontalangriff auf die Politik der Public
Health Movement dar und stieß sich an der Aufmerksamkeit, die diese Bewe-
gung den örtlichen Milieus und Umfeldern schenkte. Zunächst (vor 1910) hatte
das GRO diese seine Position verteidigt und bei der Vorlage der Zählergeb-
nisse auch weiterhin den Akzent auf geographische Unterteilungen gesetzt,
von denen man annahm, daß sie die soziale Situation am besten erklärten.
Britische Statistik und öffentliche Gesundheit 191

Die Anhänger der Eugenik, die gegen das GRO auftraten, sprachen jedoch
von Degeneration und von sozialem Verfall als Folge von erbbedingten Merk-
malen und Fähigkeiten, die sich auf einer eindimensionalen Ordinalskala dar-
stellen ließen. Diese Überzeugung führte Galton dazu, adäquate Instrumente
zur Messung der Vererbung zu schmieden (Kapitel 4): die Statistiker vom
GRO und die Begründer der Biometrie befanden sich somit in entgegenge-
setzten Lagern. Die Biometriker verwendeten die beruflichen Tätigkeiten der
Individuen als Indikatoren der entsprechenden Eignungen und das wiederum
führte dazu, diese auf einer eindimensionalen Skala anzuordnen (Szreter, 1984,
[270]). Und so spiegelte sich für einige Zeit die Debatte zwischen den beiden
Strömungen in der Gegensätzlichkeit zweier als relevant vorausgesetzter Un-
terteilungen wider – für die eine Strömung war die geographische Unterteilung
relevant, für die andere dagegen die berufliche Unterteilung.
Aber die Situation änderte sich gegen 1910. Zwischen 1906 und 1911 er-
setzte eine Reihe von neuen Sozialgesetzen das ehemalige Fürsorgegesetz von
1834. Ein Rentensystem (1908), Arbeitsvermittlungsbüros (1909) und Sozial-
versicherungen (1911) kamen hinzu. Im Unterschied zu den hauptsächlich lokal
angesiedelten Fürsorgemaßnahmen des 19. Jahrhunderts wurde der entstehen-
de Wohlfahrtsstaat auf der Grundlage von nationalen Gesetzen aufgebaut, die
ihrer Form nach auf dem gesamten Territorium homogen waren. Das führte zu
einer Änderung der Termini in der Debatte zwischen den Statistikern des GRO
und den Eugenikern. Anläßlich der Volkszählung von 1911 gaben die GRO-
Statistiker ihre Zustimmung, die Hypothesen der Eugeniker unter Verwendung
einer nationalen Berufsklassifikation zu testen, die aus fünf hierarchisch an-
geordneten Kategorien bestand. Diese Klassifikation bildete die ursprüngliche
Matrix der Nomenklaturen der sozialen Schichten – Nomenklaturen, die dann
im gesamten 20. Jahrhundert von den englischen und amerikanischen Demo-
graphen und Soziologen verwendet wurde. Die behauptete eindimensionale
Struktur dieser Kategorien – die stark von der Struktur der französischen
berufssoziologischen Nomenklatur abwich – hatte ihren fernen Ursprung in
dieser alten Debatte, die sich fast über ein ganzes Jahrhundert hingezogen
hat.
Die Bewegung zur öffentlichen Gesundheit und ihre Verbindung zum GRO
ist ein beispielhafter Fall für eine Verkettung, die sich auch in anderen Fällen
beobachten läßt: Debatten und statistische Erhebungen in Reformkreisen aus-
serhalb des Staates wurden von parlamentarischen Ad-hoc-Kommissionen auf-
gegriffen und führten zu einer neuen Gesetzgebung, die ihrerseits der Ursprung
eines spezialisierten statistischen Bureaus war. Die Frage nach der Bildung der
Volksschichten wurde im Zusammenhang mit der Kriminalität und der Trunk-
sucht aufgeworfen. Man führte zu diesen Themen statistische Untersuchungen
durch, deren Ergebnisse umstritten waren: manche Fachleute leiteten daraus
die Schlußfolgerung ab, daß die Kriminalität in gebildeten Kreisen nicht nied-
riger ist. Im Jahre 1870 wurde ein Gesetz zum Schulwesen verabschiedet;
1876 erfolgte die Gründung eines statistischen Bureaus für Schulwesen. Die
Aufmerksamkeit richtete sich anschließend auf die Wirtschaftsstatistiken von
192 5 Statistik und Staat: Frankreich und Großbritannien

Einrichtungen zur Selbsthilfe (self-help) innerhalb der Arbeiterklasse: Ver-


sicherungsgesellschaften auf Gegenseitigkeit und Sparkassen. Innerhalb des
Board of Trade kam es 1886 zur Gründung eines Labour Department (in
Frankreich wurde das Office du travail 1891 innerhalb des Handelsministe-
riums gegründet; ähnliche Einrichtungen entstanden zur gleichen Zeit in den
Vereinigten Staaten). Das Labour Department sammelte Statistiken, die von
den Gewerkschaften, den Versicherungsgesellschaften auf Gegenseitigkeit und
von den Genossenschaften kamen (Metz, 1987, [195]). Bis zur Gründung der
Arbeitsvermittlungsämter im Jahre 1909 waren die Daten der Gewerkschaften
die einzigen, mit denen man die Arbeitslosigkeit messen konnte, die um 1880
als unabhängiges soziales Problem in Erscheinung trat, das sich vom Pro-
blem der Armut unterschied (Mansfield, 1988, [187]). In diesen dreißig Jahren
vervielfachten sich die Debatten zur Taxonomie, um im Rahmen umfassen-
derer Diskussionen – mit dem Ziel der Reformierung des Gesetzes von 1834
– zwischen Untauglichen, Armen und Arbeitslosen unterscheiden zu können
(die im Kapitel 4 vorgestellten Forschungen von Yule zum Pauperismus las-
sen sich nur in diesem Kontext verstehen). Im Jahre 1905 wurde eine Royal
Commission zur Reform des Fürsorgerechtes gegründet. Der Kommissions-
bericht wurde 1909 veröffentlicht (mit einem widersprüchlichen Gutachten
einer Minderheit von Kommissionsmitgliedern) und man richtete Arbeitsver-
mittlungsämter ein, die den Beginn einer Organisation des Arbeitsmarktes
darstellten.
Die Vielfalt der untereinander nicht koordinierten Bureaus für amtliche
Statistik führte in den 1920er und 1930er Jahren zu Kritiken und Reformvor-
schlägen. Mehrmals – aber vergeblich – wurde die Gründung eines übergeord-
neten Central Statistical Office (CSO) vorgeschlagen. Die Gründung des CSO
erfolgte erst 1941 im Zusammenhang mit der kriegsbedingten intensiven Mo-
bilisierung der wirtschaftlichen Ressourcen (Ward und Doggett, 1991, [285]).
Die ersten Berechnungen des Nationaleinkommens (Richard Stone) spielten
eine aktive Rolle bei der teilweisen Vereinheitlichung der Standpunkte der
verschiedenen Behörden. Im Gegensatz zu den entsprechenden französischen
und deutschen Behörden faßte das CSO jedoch nicht den überwiegenden Teil
der Verwaltungsstatistik unter einem Dach zusammen. Das CSO koordinierte
aber die Methoden mehrerer unabhängiger Behörden, von denen die folgenden
beiden die wichtigsten waren: das für Produktionsstatistik zuständige Busi-
ness Statistical Office (BSO) (das schließlich 1989 mit dem CSO fusionierte)
und das alte GRO, das 1970 in das neue Office of Population, Censuses and
Surveys (OPCS) eingegliedert wurde. In jeder Phase ihrer Geschichte grif-
fen diese Behörden in umfassender Weise auf den Rat und die Mitarbeit von
Universitätslehrern zurück, denn zumeist waren es die Universitäten, deren
methodologische Untersuchungen zu statistischen Neuerungen führten. Harry
Campion, der Gründer des CSO, war Professor in Manchester. Arthur Bowley,
der noch bis in die 1940er Jahre eine wichtige Beraterfunktion innehatte, lehr-
te an der London School of Economics (LSE). Richard Stone, der Vater der
volkswirtschaftlichen Gesamtrechnung, gehörte der University of Cambridge
Sozialenqueten und wissenschaftliche Gesellschaften 193

an. Nichts oder fast nichts dergleichen gab es in Frankreich, wo die amtlichen
Statistiker aus Ingenieurskreisen hervorgingen und die Universitätslehrer bei
Debatten zur Statistik höchstens in seltenen Ausnahmefällen (Divisia, Per-
roux) in Erscheinung traten.

Sozialenqueten und wissenschaftliche Gesellschaften

Die Einbeziehung von Wissenschaftlern und Intellektuellen in die praktischen


Probleme der Regierung ihres Landes ist ein neuartiges Merkmal der briti-
schen Gesellschaft. Die englischen Wissenschaftler erfanden die Techniken zur
Objektivierung wissenschaftlicher Fakten. Diese Fakten ließen sich vom Be-
obachter abkoppeln, konnten übertragen werden, waren reproduzierbar und
vor widersprüchlichen Leidenschaften und Interessen geschützt. Für die Na-
turwissenschaften, insbesondere für die Physik und die Astronomie, war ein
derartiges Modell im 17. und im 18. Jahrhundert konstruiert worden. Die Be-
deutungsverschiebung des Begriffes Statistik“ von der allgemeinen Beschrei-

bung der Staaten (in diesem Sinne wurde das Wort im 18. Jahrhundert in
Deutschland verwendet) hin zur zahlenmäßigen Beschreibung von Gesellschaf-
ten (das war der Bedeutungsinhalt des Wortes im 19. Jahrhundert), ging mit
einer intensiven Arbeit einher, die das Ziel hatte, die Ansprüche und Metho-
den der Naturwissenschaften in die menschliche Gesellschaft zu überführen.
Diese Umsetzung erfolgte nicht im Selbstlauf. Man spürt das Ringen in den
endlosen Debatten zur Beschaffenheit der Statistik – im gesamten 19. Jahr-
hundert waren die statistischen Gesellschaften der europäischen Länder von
diesen Debatten beseelt. Ist die Statistik eine unabhängige Wissenschaft oder
ist sie eine Methode, die sich in verschiedenen Wissenschaften als nützlich
erweist? Kann man die Statistik mit den Experimentalwissenschaften verglei-
chen? Lassen sich die Fakten von den Meinungen über die Fakten trennen?
In Frankreich und in Deutschland spielten sich diese Debatten oft auf einer
akademischen Ebene ab. Im Gegensatz hierzu waren sie in Großbritannien
weitgehend mit Erhebungspraktiken, Diskussionen zu brennenden Fragen und
mit politischen Maßnahmen verknüpft, die sich auf folgende Probleme bezo-
gen: Freihandel, Armut, öffentliche Gesundheit, Ausbildung, Kriminalität und
Arbeitslosigkeit. Die Arbeiten der 1834 gegründeten Statistical Society of Lon-
don (die 1887 zur Royal Statistical Society wurde) zeigen die Spannung, die
damals aus der Schwierigkeit resultierte, zwei teilweise widersprüchliche Zie-
le zu verfolgen: einerseits wollte man die Zusammenstellung der Rohfakten
vollständig von jeglicher Interpretation und Ursachenanalyse abkoppeln; an-
dererseits beabsichtigte man, in der Nähe derjenigen lokalen oder nationalen
Führungskräfte zu bleiben, die für die Maßnahmen zur Lösung der prakti-
schen Probleme verantwortlich zeichneten (Abrams, 1968, [1]). Die Statistical
Society of London verkündete in dem anläßlich ihrer Gründung im Jahre 1834
veröffentlichten Manifest den Unterschied zwischen politischer Ökonomie und
Statistik. Beide hatten zwar das gleiche Ziel, nämlich die Wissenschaft vom

194 5 Statistik und Staat: Frankreich und Großbritannien

Wohlstand“, aber die Statistik unterschied sich von der politischen Ökonomie
durch folgende Tatsache:
... sie diskutiert weder die Ursachen, noch argumentiert sie bezüglich
der wahrscheinlichen Wirkungen, sondern versucht vielmehr, diejeni-
gen Faktenklassen zu sammeln, zu kombinieren und zu vergleichen,
welche allein die Basis für korrekte Schlußfolgerungen vom Stand-
punkt der gesellschaftlichen und politischen Exekutive liefern ... Dieser
Unterschied schließt jede Art von Spekulation aus ... Die statistische
Gesellschaft betrachtet es als ihre erste und wichtigste Verhaltensregel,
aus ihren Arbeiten und Publikationen sorgfältig alle Meinungen auszu-
schließen, um ihre Aufmerksamkeit strikt auf Fakten zu beschränken,
und zwar soweit wie möglich auf Fakten, die sich numerisch zusam-
menstellen lassen und in Tabellen angeordnet werden können. (London
Statistical Society, 1837, zitiert von Abrams, 1968, [1].)
Die Gründer und treibenden Kräfte dieser Gesellschaft standen der Regie-
rung nahe, und zwar so sehr, daß ihr Rat als Unterkommission des liberalen

Kabinetts“ bezeichnet werden konnte. Sie waren an den öffentlichen Dienst
gebunden, dienten einer Regierung, berieten diese und versuchten, sie zu be-
einflussen und zu rationalisieren. Indem sie das taten, erfanden und vertieften
sie die Regeln der Arbeitsteilung zwischen Politikern und Technikern. Die
Elimination der Meinungen und der Interpretationen war der Preis, den die-
se Statistiker zahlen mußten, das Opfer, das sie bringen mußten, damit ihre
Objekte die von den Politikern geforderte Glaubwürdigkeit und Universalität
erlangten. Dickens lästerte in einem seiner Romane über das Auftreten des
strengen und unerbittlichen Mr. Gradgrind, der unschuldige Leute zugrunde-
richtete, indem er Fakten, nichts als Fakten“ forderte. Ein Mitglied einer

anderen statistischen Gesellschaft – der Gesellschaft von Ulster – versicherte,
daß das Studium der Statistik langfristig die politische Ökonomie vor der

Ungewißheit bewahren wird, von der sie gegenwärtig umgeben ist“. Dieser
Zusammenhang zwischen Statistik und objektiver Gewißheit, der im Gegen-
satz zu Spekulationen und persönlichen Meinungen steht, hilft uns in der
Retrospektive beim Verständnis dessen, warum die Wahrscheinlichkeitsrech-
nung – die ursprünglich mit der Idee der Ungewißheit zu tun hatte – erst so
spät in den Werkzeugkasten der Statistiker (im Sinne des 19. Jahrhunderts)
aufgenommen wurde. Das statistische Manifest gab im Jahre 1837 eine klare
Definition der Funktion des Statistikers.
Aber ein so drastisches Opfer trug seine eigenen Schranken in sich, indem
es dem Statistiker eine enggefaßte Rolle zuwies und ihm verbot, seine Ener-
gie und seine Talente unter Umständen in zwei verschiedenen Richtungen zu
entfalten: in Richtung der Politik und in Richtung der Wissenschaft. Der Stati-
stiker konnte sich nur dann auf die Seite von politischen Entscheidungsträgern
stellen, wenn er vorher seine Religion Fakten ohne Meinung“ abgelegt hatte.

Aber er konnte auch nicht mehr aktiv an den Sozialwissenschaften, Wirt-
schaftswissenschaften oder an der Soziologie teilnehmen, denn dann müßte er
Sozialenqueten und wissenschaftliche Gesellschaften 195

seine Fakten in allgemeinere erklärende und interpretierende Systeme einord-


nen, die er nicht allein mit der Logik der in gebührender Weise konstatierten
Fakten rechtfertigen konnte. Der Statistiker war also gleichsam eingekeilt und
in die Enge getrieben. Diese Probleme führten dazu, daß dem Enthusias-

mus für Statistik“, der in den 1830er und 1840er Jahren deutlich ausgeprägt
war, für den nachfolgenden Zeitraum von etwa dreißig Jahren der Atem aus-
ging. In der ersten Zeit konzipierten die statistischen Gesellschaften – nicht
nur in London, sondern auch in Manchester und weiteren Industriestädten
– ehrgeizige Erhebungsprojekte. Diese Projekte bezogen sich auf Sparkassen,
Verbrechen, Mieten, Lebensbedingungen der Arbeiter und Streiks. Fragebögen
wurden nicht nur an eine repräsentative Auswahl der Bevölkerung versendet,
sondern auch an die zuständigen Behörden und an kompetente Personen: Poli-
zei, Krankenhäuser, Schulausschüsse, Versicherungsgesellschaften, Verwaltun-
gen des Fürsorgegesetzes, Fabrikdirektoren, Grundbesitzer, Zeitungsverleger,
Verwaltungsbeamte, Gefängnisdirektoren und vor allem an ortsansässige Mit-
glieder der statistischen Gesellschaften.
Aber in Ermangelung eines standardisierten Definitionsapparates und ei-
nes homogenen Erfassungsnetzes sowie aufgrund der Tatsache, daß manche
Ergebnisse unerwartet oder unbegreiflich waren, schlugen diese Versuche fehl
– ähnlich wie es vierzig Jahre zuvor (aber innerhalb der Verwaltung selbst)
den Enqueten der französischen Präfekten ergangen war (vgl. Kapitel 1). Der
technische Apparat, die Infrastruktur der Verwaltung und die Werkzeuge zur
Formalisierung der Daten waren noch zu beschränkt und erlaubten es den
Statistikern nicht, ihren 1836 unvermittelt proklamierten Prinzipiendiskurs
in anspruchsvollen Arbeiten auszutragen. Auch waren die Statistiker nicht
dazu in der Lage, ihre spezifische Legitimität gegenüber Politikern und Öko-
nomen deutlich durchzusetzen – ja, dies gelang ihnen nichteinmal gegenüber
Mathematikern und Philosophen der Wahrscheinlichkeitsrechnung, die zwar
ebenfalls in Großbritannien aktiv waren (George Boole19 , John Venn20 ), aber
in einer ganz anderen Welt lebten und keine Verbindung zu dieser Statistik
hatten.
Zwischen 1850 und 1890 wurde die statistische Gesellschaft mit den ag-
gregierten Daten versorgt, die von den amtlichen statistischen Büros kamen.
Diese Daten waren Nebenprodukte der bürokratischen Verwaltungstätigkeit:
Zölle, Armengesetz, Totenscheine, Statistiken von Gewerkschaften und Versi-
cherungsgesellschaften für gegenseitige Hilfe. Die Tradition der Umfragen leb-
te gegen 1890 wieder auf (Hennock, 1987, [128]). Charles Booth (1840–1916),
19
George Boole (1815–1864), Mathematiker und Logiker, baute die von ihm be-
gründete Logik ( Boolesche Algebra“) in seinem Hauptwerk An Investigation of

the Laws of Thought, on which are Founded the Mathematical Theories of Logic
and Probabilities (1854) systematisch aus.
20
John Venn (1834–1923) widmete sich unter dem Einfluß der Arbeiten von A. de
Morgan, G. Boole und J.S. Mill den Fragen der Logik und der Wahrscheinlich-
keitsrechnung (The Logic of Chance, 1866). Er entwickelte die grafische Darstel-
lung der kategorischen Aussagen der Klassenlogik weiter (Venn-Diagramme).
196 5 Statistik und Staat: Frankreich und Großbritannien

ein reicher bürgerlicher Reformer opferte sein Vermögen für eine beispiellose
Untersuchung über die Armut in London. Rowntree (1871–1954), ein Schoko-
ladenfabrikant, führte die Methoden von Booth weiter, um andere englische
Städte zu untersuchen und sie mit London zu vergleichen. Bowley, ein Öko-
nom und mathematisch ausgebildeter Statistiker, erfaßte und standardisierte
die Techniken der Stichprobenerhebung und allgemeiner die Techniken des
Sammelns, des Aufbereitens und der Interpretation von Sozialstatistiken auf
der Grundlage von Normen, die später von Fachleuten, Verwaltungsstatisti-
kern, Ökonomen und Soziologen übernommen wurden (Bowley, 1906 [29] und
1908 [30]). Die aufeinanderfolgenden Auflagen des Handbuchs von Bowley lie-
ferten bis in die 1940er Jahre für die Aufzeichnung und Aufbereitung von
Wirtschafts- und Sozialstatistiken einen Standard, der mit dem des Buches
von Yule über die mathematischen Techniken der Datenanalyse vergleichbar
war.21
Diese Arbeiten wurden zunächst von angesehenen Bürgern durchgeführt,
die technisch – und vor allem mathematisch – nicht allzu qualifiziert wa-
ren (Booth und Rowntree); sie drückten sich mit Hilfe der Methoden und in
der Sprache des 19. Jahrhunderts aus, aber dabei fand keine strikte Tren-
nung zwischen Fakten, Interpretationen und Empfehlungen“ statt. Eines der

Ziele von Booth bestand darin, zwischen den nichtresozialisierbaren Armen,
die für ihren eigenen Verfall verantwortlich waren und denjenigen zu unter-
scheiden, die Opfer von strukturellen Ursachen geworden waren, welche mit
der Wirtschaftskrise zusammenhingen. Er schätzte den relativen Anteil die-
ser Kategorien und leitete daraus Formen der Relegierung“ (zum Beispiel

die Ausweisung aus einer Stadt) oder einer geeigneten Fürsorge ab. Bow-
ley hingegen sah in der Anwendung anspruchsvoller technischer Normen die
Möglichkeit, mit größeren Erfolgschancen als in den 1830er Jahren eine klare
Trennung zwischen Experten und Entscheidungsträgern zu fordern. Auf diese
Weise bereitete er den Boden für die Autonomisierung einer neuen Gestalt
vor – der Gestalt des Staatsstatistikers, der mit einer besonderen beruflichen
Kompetenz ausgestattet ist und sich von Politikern und hohen Verwaltungs-
beamten ebenso unterscheidet wie von Universitätslehrern oder spezialisierten
akademischen Forschern. Noch zu Anfang des 20. Jahrhunderts war diese Ge-
stalt eine Seltenheit, aber ab 1940 war sie in der amtlichen Statistik allgemein
verbreitet.
In einem 1908 vor der Royal Statistical Society gehaltenen Vortrag The

improvement of official statistics“ analysierte Bowley sieben Voraussetzungen
dafür, daß eine statistische Operation konsistente Objekte erzeugt: Defini-
tion der Einheiten; Homogenität der untersuchten Populationen; Exhausti-
vität (das heißt adäquate Stichprobenerhebung); relative Stabilität (das heißt
Messungswiederholungen in dem von der Instabilität geforderten Rhythmus);
Vergleichbarkeit (eine isolierte Zahl hat keine Bedeutung); Relativität (Zähler
21
Vergleich und Interpretation der Untersuchungen von Booth, Rowntree und Bow-
ley werden im Kapitel 7 weitergeführt.
Sozialenqueten und wissenschaftliche Gesellschaften 197

und Nenner eines Quotienten müssen auf kohärente Weise geschätzt werden);
Genauigkeit (accuracy), die aus der Kombination der sechs vorhergehenden
Bedingungen resultiert. Er stellte fest, daß die Genauigkeit der amtlichen Sta-

tistiken – trotz der Aufmerksamkeit und der systematischen Überprüfungen,
der sie unterzogen worden sind – nur oberflächlich ist“. Zur Illustration seiner
Äußerungen gab er eine Reihe von konkreten Beispielen und machte mehrere
Vorschläge, die betreffenden Messungen vor allem durch die Verwendung wis-

senschaftlich ausgewählter Stichproben“ zu verbessern, wobei obligatorische
Fragen zu beantworten sind, um Verzerrungen zu vermeiden, die aufgrund
willkürlich gegebener Antworten auftreten. Zum Schluß schlug er – da es kein
Zentralamt für Statistik gab – die Gründung eines Central Thinking Office of
Statistics vor und erinnerte seine Zuhörer an den Ratschlag, den ein anderes
Mitglied der Gesellschaft gegenüber Statistikern geäußert hatte: Denken Sie

mehr nach und publizieren Sie weniger!“
In der sich anschließenden Debatte stimmte Yule den Äußerungen von
Bowley zu, machte aber zwei signifikante Bemerkungen. Er stellte fest, daß
die Annahme der Homogenität der Bevölkerungsgruppen nicht notwendig ist
und daß die neuen statistischen Methoden (das heißt die Methoden von Pear-
son) genau darauf abzielen, heterogene Bevölkerungsgruppen zu analysieren.
Bowley antwortete, daß es sich um ein Mißverständnis handelte. Im Übrigen
war Yule nicht davon überzeugt, daß eine Stichprobe wirklich zufällig und

für die Gesamtbevölkerung repräsentativ sein kann, selbst wenn eine entspre-
chende Antwort in ähnlicher Weise zur Pflicht gemacht wird, wie die Teilnah-
me an Geschworenengerichten“ (ein interessanter und selten angestellter Ver-
gleich). Die Debatte wurde dann mit einer scheinbar praktischen Frage fortge-
setzt, die jedoch das Problem der Beschaffenheit und des Realitätsstatus der
veröffentlichten amtlichen Statistiken aufwarf. Bowley hatte behauptet, daß
diese Veröffentlichungen immer auch von sämtlichen Einzelheiten zu den Me-
thoden und Definitionskonventionen sowie von allen Details zur Aufzeichnung,
Kodierung und Tabellierung begleitet sein müßten. Man hielt ihm entgegen,
daß diese Vorgehensweise das Risiko birgt, die betreffenden Veröffentlichun-

gen so voluminös und sperrig zu machen, daß sich deren Nützlichkeit eher
verringert als erhöht“. Bowley schlug in professioneller Weise vor, die Black
Box wenigstens einen Spalt geöffnet zu lassen, damit die Verfahren zur Her-
stellung der Objekte teilweise sichtbar bleiben. Man antwortete ihm in der
Fachsprache der Ökonomie: Wozu ist diese gewichtige Investition überhaupt
gut, wenn man sie nicht mit geschlossenen Augen benutzen kann und sie sich
nicht schlüsselfertig in andere Konstrukte integrieren läßt? Dieser scheinbar
harmlose Spannungszustand war der Kern der statistischen Realitätskonstruk-
tion. Die Entscheidung zwischen den beiden Anforderungen hing weitgehend
von der Legitimität und Glaubwürdigkeit der veröffentlichenden Institution
ab. Die Normen, die den für notwendig gehaltenen kritischen Apparat be-
stimmten, unterschieden sich je nachdem voneinander, ob es sich um eine
Dissertation, eine wissenschaftliche Zeitschrift oder um eine Verwaltungspu-
blikation handelte. Die Auswahl, die in dieser Hinsicht von den verschiedenen
198 5 Statistik und Staat: Frankreich und Großbritannien

Informationsverbreitungsträgern“ eines statistischen Amtes getroffen wird,



ist ein Hinweis darauf, ob sich die Legitimität des betreffenden Amtes eher
auf die Wissenschaft oder eher auf den Staat stützt.22
Das paradoxe Merkmal des englischen Gefüges bestand darin, daß das
neue Berufsprofil von einem Universitätslehrer kodifiziert wurde und daß es
dieser Umstand ermöglichte, die obengenannten Fragen zu einem sehr frühen
Zeitpunkt zu stellen. In Großbritannien nahmen abstrakte theoretische Über-
legungen an den Universitäten viel weniger Raum ein als in Frankreich und
sehr viel weniger als seinerzeit in Deutschland. Dagegen war die enge Wech-
selwirkung zwischen Universitäten, Verwaltung und Politik in Großbritannien
eine alltägliche und traditionsreiche Angelegenheit. In Deutschland fanden die
Vorstöße, die zwischen 1871 und 1914 in dieser Richtung unternommen wur-
den, bei der Verwaltung und im politischen Dienst des Kaiserreiches einen nur
geringen Anklang.

22
Ein weiterer wichtiger Indikator zu diesem Thema war der mehr oder weniger ano-
nyme Charakter einer Veröffentlichung. Eine Unterschrift wurde mit der Praxis
der wissenschaftlichen Konkurrenz in Verbindung gebracht, Anonymität hingegen
mit der Verwaltungspraxis.
6
Statistik und Staat:
Deutschland und die Vereinigten Staaten

Zu Beginn des 19. Jahrhunderts war die Existenz eines Nationalstaates in


Frankreich, Großbritannien und sogar in den Vereinigten Staaten gesichert
und wurde nicht mehr infrage gestellt. In Deutschland war das jedoch nicht
der Fall und das Land war noch immer in unterschiedliche Staaten von sehr
ungleichem Gewicht zersplittert. Die aufeinanderfolgenden Abschnitte der Er-
richtung der deutschen Nation prägten die Geschichte der nächsten beiden
Jahrhunderte: das Königreich Preußen, das Bismarcksche Kaiserreich, die
Weimarer Republik, das Nazireich, die BRD und die DDR voneinander ge-
trennt und schließlich das wiedervereinigte Deutschland. Diese Ungewißheit in
Bezug auf den Staat, seine Konsistenz und seine Legitimität hinterließen ihre
Spuren nicht nur in den Strukturen der statistischen Institutionen, sondern
auch in den Denkweisen und im Argumentationsverhalten. Die Ungewißheit
verlieh der deutschen Statistik – und allgemeiner den Sozialwissenschaften
und deren Beziehungen zur Macht – in ihren aufeinanderfolgenden Formen
eine besondere Färbung, die sich zumindest bis 1945 deutlich von den drei
anderen Ländern unterschied. Der in historischen und religiösen Traditionen
verankerte Wunsch nach Beibehaltung der Besonderheiten der Einzelstaaten
(und später der Bundesländer ) wurde durch einen Rechtsformalismus und
eine Organisation kompensiert, welche den Zusammenhalt des Ganzen auf
eine Art und Weise garantierten, die früher autoritär war und heute demo-
kratisch ausgerichtet ist. Philosophische Debatten hatten lange Zeit hindurch
in den deutschen Sozialwissenschaften – einschließlich der Statistik – einen
bedeutenden Raum eingenommen. Diese Debatten zeichneten sich durch ho-
listisches und historizistisches Denken aus, das dem Individualismus und den
vermeintlich reduktiven Universalismen des französischen Rationalismus und
des englischen Ökonomismus feindlich gegenüberstand. Die Beziehungen der
Universitätslehrer und der Statistiker zum Staat waren komplex, häufig kon-
fliktbeladen und erreichten selten die in Großbritannien beobachtete Flexi-
bilität und Kontinuität. Diese Merkmale waren für das Deutschland des 19.
Jahrhunderts und des beginnenden 20. Jahrhunderts typisch. Einige dieser
Merkmale bestehen seit 1945 weiter: der Föderalismus, der Rechtsformalis-
200 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

mus und die Organisation. Dagegen haben sich die statistischen Techniken
und deren Nutzung in der Verwaltung und in den Sozialwissenschaften den
entsprechenden anglo-amerikanischen Vorbildern angenähert.

Deutsche Statistik und Staatenbildung

Das Wort Statistik“ hat seinen Ursprung im Deutschland des 18. Jahrhun-

derts und bezeichnete eine deskriptive und nichtquantitative Staatenkunde“

oder Staatswissenschaft“, einen Bezugsrahmen und eine Nomenklatur, die

den Fürsten zahlreicher deutscher Staaten von Universitätsgelehrten vorge-
legt wurde (Kapitel 1). Unter diesen Staaten nahm Preußen eine herausragen-
de Stellung ein und es waren auch schon Quantifizierungspraktiken bekannt,
die sich deutlich von der Statistik unterschieden, wie sie von den Professo-
ren betrieben wurde. Wie zur gleichen Zeit in Frankreich teilten sich diese
Praktiken auf zwei verschiedene Bereiche auf: einerseits beschäftigte sich die
Verwaltung mit Statistik; andererseits befaßten sich aufgeklärte Amateure
damit (Hacking, 1990, [119]). Die königliche Regierung und ihre Bürokratie
sammelte Informationen, die geheim und ausschließlich dem eigenen Gebrauch
vorbehalten waren, um die Armee zu organisieren und Steuern zu erheben. In
der preußischen Statistik des 19. Jahrhunderts blieb die fundamentale Tren-
nung zwischen Militär und Zivilisten bestehen. Das führte zu einer entspre-
chenden Strukturierung der Tabellierungen und später auch der deutschen
Volkszählungen – die Unterscheidung zwischen den Beamten und den anderen
Berufsgruppen ist noch heute erkennbar: der Staatsdienst war ein wichtiges
Element bei der Definition der Identität von Individuen. Im Übrigen produ-
zierten Amateure“ – Geographen oder Reisende, die weder in der Verwaltung

noch an Universitäten tätig waren – zusammenfassende Arbeiten, die sich auf
Zahlen stützten und der Statistik im Wortsinne der folgenden Jahrhunderte
näher standen. Der bekannteste dieser Amateure war der Pfarrer Süssmilch
(1707–1767), dessen Göttliche Ordnung eines der Werke war, welche die De-
mographie begründeten (Hecht, 1979, [126]).
Nach der Niederlage gegen die Armeen Napoleons wurde der preußische
Staat umorganisiert und mit einem statistischen Dienst ausgestattet. Die-
ser existierte ohne Unterbrechung von 1805 bis 1934 und war die wichtigste
Behörde des im Jahre 1871 proklamierten Deutschen Reiches (Saenger, 1935,
[246]). Die anderen deutschen Staaten – Bayern, Sachsen, Württemberg, ... –
erhielten in der ersten Hälfte des 19. Jahrhunderts ebenfalls statistische Bu-
reaus. Das Deutsche Statistische Reichsamt wurde 1872 gegründet, aber die
Ämter der verschiedenen Staaten blieben bis 1934 unabhängig und wurden
danach vom vereinigten Statistischen Reichsamt des Nazistaates aufgesogen.
(Im Jahre 1949 stellte die neue Bundesrepublik das vor 1934 existierende
System wieder her: die Bundesländer erhielten statistische Landesämter, die
sich von dem in Wiesbaden gegründeten Statistischen Bundesamt unterschei-
den, wobei die Aktivitäten der einzelnen Ämter jedoch ziemlich koordiniert
Deutsche Statistik und Staatenbildung 201

sind). Das Königlich Preußische Statistische Bureau und die anderen deut-
schen statistischen Bureaus erbten die drei Traditionen des 18. Jahrhunderts
und amalgamierten sie miteinander: die von den Universitätslehrern verfaß-
ten politischen, historischen und geographischen Beschreibungen, die Verwal-
tungsregister der Beamten und die Zahlentabellen der gelehrten Amateure.
Die Leiter der statistischen Bureaus (und späteren statistischen Ämter) waren
oft gleichzeitig Universitätsprofessoren für Staatswissenschaften“. In diesen

beiden Tätigkeitsbereichen erarbeiten sie umfangreiche Kompilationen über
die verschiedenen Aspekte eines Territoriums, dessen historische, religiöse, kul-
turelle und wirtschaftliche Identität den deskriptiven und explikativen“ Leit-

faden lieferte. Aber im Unterschied zu ihren Vorgängern im 18. Jahrhundert
bezogen diese Statistiken“ immer mehr Zahlentabellen aus den Bereichen der

Demographie und der Verwaltungstätigkeit ein. Die engen Verbindungen zur
Verwaltung waren durch die Tatsache gekennzeichnet, daß diese Ämter an das
Innenministerium angegliedert waren – ein Ministerium der direkten politi-
schen Verwaltung –, während ihre französischen und englischen Amtskollegen
eher den Ministerien aus dem Bereich der Wirtschaft (Handel, Arbeit, Finan-
zen) unterstellt waren. Dieser Unterschied blieb auch weiterhin bestehen: die
Statistik ist einer der Mechanismen, die einen Staat zusammenhalten, dessen
Konsistenz mehr Probleme aufweist, als es in anderen Staaten der Fall ist.
Das Königlich Preußische Statistische Bureau zeigte eine große Beständig-
keit. In den einhundertneunundzwanzig Jahren seiner Existenz hatte es nur
sechs Leiter. Zwei von ihnen übten einen besonders langen und weitreichen-
den Einfluß aus: Hoffmann, Leiter von 1810 bis 1845, und vor allem Ernst
Engel1 , Leiter von 1860 bis 1882. Die ersten Leiter der statistischen Bureaus
waren hohe Beamte, die gleichzeitig andere Positionen innehatten – nicht nur
an Universitäten, sondern auch im diplomatischen Dienst oder im Staatsrat,
wo sie an der Gesetzgebung mitwirkten. Vor der Ernennung Engels im Jahre
1860 bestand die Tätigkeit dieses Bureaus – vergleichbar mit der Tätigkeit der
SGF unter Moreau de Jonnès – darin, große Mengen von Daten zu sammeln
und zu veröffentlichen, die von anderen Verwaltungen aufgezeichnet worden
waren und sich somit jeglicher technischen Kontrolle, aber auch jeder zen-
tralen Koordinierung entzogen. Die veröffentlichten Tabellen bezogen sich auf
Bevölkerungsbewegungen“ (Personenstand), aber auch auf Preise, Existenz-
” ”
mittel“, Finanzstatistiken, Gebäude und Schulen für das gesamte Königreich
und für dessen Provinzen: diese subtilen geographischen Beschreibungen wa-
ren von großer Bedeutung. Die Gesamtheit der deskriptiven Arbeiten bildete
ein unzusammenhängendes administratives und territoriales Patchwork, des-
sen Reputation als Datenquelle in der Retrospektive eher schwach war. Aber
1
Ernst Engel wurde 1821 in Dresden geboren, wo er 1896 auch starb. Er studierte
an der École des mines in Paris bei Le Play. In Belgien lernte Engel Adolphe Que-
telet kennen, mit dem er später eng zusammenarbeitete. Bevor Engel nach Berlin
ging, war er von 1850 bis 1858 Leiter des Königlich Sächsischen Statistischen

Bureaus“ in Dresden.
202 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

es ist wahrscheinlich, daß diese Publikationen durch ihre Existenz und ihr Vo-
lumen – als Symbole der Staatsmacht und ihrer Verwaltung – genauso wichtig
waren, wie durch die Details und die Präzision ihrer imposanten Tabellen. Im
Unterschied zu England war Deutschland noch nicht sehr industrialisiert und
die sozialen Probleme waren noch nicht im gleichen Maße erkennbar. Dagegen
spielten die Probleme, die durch die politischen und militärischen Beziehun-
gen zwischen den Staaten, durch den im Entstehen begriffenen Zollverein und
durch die wachsende Macht Preußens hervorgerufen wurden, in der Zeit vor
1860 eine wesentliche Rolle. Danach änderte sich die Situation, nicht nur auf-
grund der starken Persönlichkeit von Engel, sondern auch deswegen, weil der
wirtschaftliche und politische Kontext – aufgrund der schnellen Industriali-
sierung und der Reichseinigung mit Preußen an der Spitze – nicht mehr der
gleiche war.
Ernst Engel ist vor allem wegen seiner Arbeiten über Familienbudgets
und wegen der Formulierung einer Elastizitätsrelation, des Engelschen Ge-

setzes“, bekannt, gemäß dem sich mit steigendem Einkommen der Anteil der
Ausgaben für Nahrungsmittel zugunsten der Ausgaben für Dienstleistungen
verringert. Zunächst war Engel ein typischer Statistiker des 19. Jahrhunderts,
ein aktiver und streitbarer Organisator, der sich aber gegenüber den Finessen
der Mathematik noch nicht übermäßig aufgeschlossen zeigte. Die Rolle eines
solchen Statistikers bestand darin, Verwaltungsmechanismen ex nihilo zu er-
schaffen, zu ändern oder ihnen eine andere Richtung zu geben, um Bureaus
zu vereinigen oder zu koordinieren und deren Tätigkeit – auf der Grundlage
von mehr oder weniger hierarchisierten und zentralisierten Formen – einer all-
gemeinen Logik unterzuordnen. Zu seinen Funktionen gehörte es aber auch,
das Interesse anderer Akteure zu erwecken und das statistische Amt in umfas-
sendere wissenschaftliche und politische Netzwerke einzubinden. Wir hatten
bereits festgestellt, daß die französische SGF unter Lucien March und das bri-
tische GRO unter William Farr diese beiden Ziele mehr oder weniger erreicht
hatten. In Bezug auf Engel und das Preußische Statistische Bureau verhielten
sich die Dinge jedoch anders. Zwar gelangen ihm die technische Umgestaltung
und die administrative Zentralisierung, die seine Vorgänger nicht zustandege-
bracht hatten. Jedoch scheiterte er teilweise an der zweiten Aufgabe, das heißt
am Aufbau eines wissenschaftlich-politischen Netzwerks, obgleich er einen be-
deutenden Beitrag zur 1872 erfolgten Gründung des Vereins für Socialpolitik
geleistet hatte. Aber das Scheitern Engels betraf nicht nur ihn allein. Es war
auch das Schiffbruch des aus Professoren und angesehenen liberal-gemäßigten
Persönlichkeiten bestehenden Vereins, dem es nicht gelang, der autoritären
Politik Bismarcks eine andere Richtung zu geben. Die Geschichte von Engel
und seinem statistischen Bureau läßt sich nicht von diesem umfassenderen
Vorhaben trennen, das mit den Sozialgesetzen zwar zur Hälfte gelungen war,
dessen andere Hälfte jedoch fehlschlug, da das politische Bündnis schließlich
auseinanderbrach.
Engel machte sich 1861 an die Aufgabe, das Preußische Statistische Bu-
reau vollständig umzugestalten, indem er die Statistiken des Staates so er-
Deutsche Statistik und Staatenbildung 203

weiterte und vereinheitlichte, daß ihm der überwiegende Teil ihrer Umset-
zung anvertraut wurde. Für die Zählungen schuf er individuelle Berichte, da-
mit die grundlegenden Daten aller befragten Personen – und nicht nur die
Daten der maßgeblichen angesehenen Persönlichkeiten (Bürgermeister, Prie-
ster) – gespeichert wurden. Die Berichte wurden vom Bureau selbst entworfen
und ausgewertet (die zentrale Auswertung wurde in Frankreich erst 1896 von
March eingeführt). Engel erhöhte die Anzahl und Vielfalt der Publikationen.
Darüber hinaus gründete er eine zentrale statistische Kommission, die als
Verbindungsstelle zwischen den Ministerien und dem Bureau fungierte. Und
schließlich gründete er 1870 – gemäß dem für die damaligen deutschen Univer-
sitäten typischen Modell – auch ein statistisches Seminar , um die Statistiker
der anderen Verwaltungen oder Staaten auszubilden, die bald darauf im neuen
Reich vereinigt wurden. Viele Ökonomen und Wirtschaftshistoriker besuchten
dieses Seminar und wurden in der Folgezeit, nach den Vertretern des Vereins,
zu den bekanntesten Repräsentanten der wirtschaftswissenschaftlichen Denk-
richtung, die den Namen deutsche historische Schule 2 trug. Diese Ökonomen,
die Gegner der österreichischen und der englischen abstrakten deduktiven und
formalisierten Ökonomie waren, legten großen Wert auf empirische Monogra-
phien mit historischer und statistischer Grundlage und verfuhren nach den
Methoden, die Engel gelehrt hatte.3
Zu der Zeit, als Engel das statistische Bureau leitete, setzte in Deutschland
ein rasches industrielles Wachstum ein. Deutschland holte England und Frank-
reich ein – Länder, in denen der Start zur Industrialisierung früher erfolgt war.
Es mußte eine Statistik der gewerblichen Betriebe geschaffen werden. Engel
stellte sich eine vereinheitlichte Zählung der Individuen, Berufe und Betriebe
auf der Grundlage individueller Berichte vor (so war auch das in Frankreich
im Jahre 1896 gewählte System beschaffen). Die erste Zählung der Industrie-
betriebe erfolgte 1876, eine Vollerhebung zu den industriellen Einrichtungen
wurde 1882 durchgeführt. Diese Zählungen waren im letzten Viertel des 19.
Jahrhunderts der Ursprung einer historisch bedeutsamen statistischen Rei-
he zu Berufen und Betrieben (Stockmann und Willms-Herget, 1985, [268]).
Auf diese Weise wurden die Statistiken des Produktionsapparates mit den
Beschäftigungsstatistiken verbunden. Die Industrialisierung hatte ein schnel-
les Wachstum der Arbeiterklasse zur Folge. Die Arbeiterklasse war durch die
sozialdemokratische Bewegung gewerkschaftlich und politisch hochorganisiert.
Engel und die Ökonomen des Vereins kämpften für die Schaffung von Versiche-
rungssystemen für gegenseitige Hilfe, die auf der Idee der Selbsthilfe beruhten.
2
Die deutsche historische Schule repräsentiert die ökonomische Ausprägung des
historistischen Denkens. Der Historismus bestreitet die Existenz allgemeingülti-
ger sozialwissenschaftlicher Gesetze. Anders als in den Naturwissenschaften seien
Gesetze“ in den Sozialwissenschaften geschichtlich bedingt.
3 ”
Die betreffenden Ökonomen waren später selbst eine Quelle der Inspiration für
die amerikanischen institutionalisierten Ökonomen, welche ihrerseits die Statistik
umfassend nutzten und zwischen 1910 und 1930 zur Gründung der Ökonometrie
beitrugen.
204 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Engel hatte bereits 1858 die Idee einer Versicherungsgesellschaft neuen Typus
und eine solche Gesellschaft auch gegründet: Hypotheken bildeten die Grund-
lage des Schutzes gegen die Androhung der Wohnungspfändung, die damals
bei Arbeitern häufig durchgeführt wurde (Hacking, 1987, [118]). Außerdem
wirkte er an der Sozialgesetzgebung mit, die von der Bismarck-Regierung in
Antwort auf die von der Arbeiterbewegung erhobenen Forderungen in die
Wege geleitet wurde. Im Zeitraum von 1881 bis 1889 führte die Regierung
die Kranken-, Unfall-, Invaliden- und Alterssicherungsgesetze ein; 1891 folg-
te das Arbeiterschutzgesetz.4 Dieses allererste soziale Sicherungssystem hatte
denjenigen Statistikern und Ökonomen sehr viel zu verdanken, die mit Engel
innerhalb des vom Verein geknüpften Netzwerks in Verbindung standen.
Aber als diese Gesetze verabschiedet wurden, mußte Engel 1882 von sei-
nem Posten zurücktreten, da er gegen die protektionistische Politik Bismarcks
auftrat5 (Bismarck, der Verbindungen zu den ostpreußischen Grundbesitzern
hatte, lehnte erhöhte Importzölle für Getreide ab, was zu einer Steigerung
der Nahrungsmittelpreise führte und die Löhne belastete. Dadurch waren Ar-
beiter und Fabrikanten gleichermaßen benachteiligt und die Spannungen zwi-
schen ihnen nahmen zu). Bereits zuvor war dem Engelschen Vorhaben die Luft
ausgegangen. Im Jahre 1873 stagnierte sein statistisches Seminar und das In-
teresse der preußischen Beamten für Statistik ließ nach. Es war ihm weder
gelungen, die Beziehungen zwischen dem statistischen Amt und den lokalen
Verwaltungen aufrechtzuerhalten (die er anfangs durch die Gründung von 97
örtlichen Ämtern fördern wollte), noch hatte er es erreicht, die in den anderen
Ministerien erstellten statistischen Untersuchungen vollständig zu vereinheit-
lichen. Nach dem erzwungenen Abgang von Engel im Jahre 1882 kam es zu
einem Vertrauensbruch zwischen der Regierung und dem Preußischen Stati-
stischen Landesamt. Saenger rekonstruierte 1935 die Geschichte dieses Amtes
(zu einem Zeitpunkt also, an dem dieses von der statistischen Zentralbehörde
aufgesogen wurde) und beschrieb die sich abzeichnende Schwächung des wis-
senschaftlichen und politischen Netzwerks:

Im Gegensatz zu Friedrich dem Großen hatte Bismarck nicht viel für


Statistik übrig und dachte sogar, daß man darauf verzichten könne. Es
ist nur allzu verständlich, daß der Blitz, der unerwartet den Leiter des
Amtes getroffen hatte und dieses in seiner Tätigkeit lähmte, nur zur
Vorsicht gemahnen konnte und zu einem großen Vorbehalt gegenüber
allen Eingriffen von außen führte ... Die zentrale statistische Kommis-
sion, die zur Zeit von Engel eine sehr anregende Tätigkeit ausgeübt
hatte, schlief allmählich ein ... Das Preußische Statistische Landesamt
4
Die erste Berufszählung des Deutschen Reiches wurde 1882 durchgeführt, um
insbesondere Unterlagen für die ein Jahr zuvor eingeleitete Etablierung der Sozial-
versicherung zu liefern.
5
Engel hatte 1881 unter einem Pseudonym einen Angriff auf die Bismarcksche
Schutzzollpolitik veröffentlicht und trat später aus gesundheitlichen Gründen“

zurück.
Deutsche Statistik und Staatenbildung 205

ging fast unmerklich von einer Institution, die als Unterstützungsor-


gan für Gesetzgebung, Verwaltung und Wirtschaft vorgesehen war,
in ein wissenschaftliches Institut über, in dem Forschungsarbeiten je
nach Begabung oder Interessenlage der Institutsmitglieder veröffent-
licht wurden. (Saenger, 1935, [246].)

Dieses retrospektive Urteil wurde also fünfzig Jahre nach dem Rücktritt
Engels gefällt – und zwar von einem Leiter des gleichen Amtes, das zudem ge-
rade von einem Blitz getroffen wurde, der noch viel vernichtender als der von
Bismarck geschleuderte Blitz sein sollte. Vielleicht wollte Saenger damit nur
den Gedanken nahelegen, daß sich Hitler – ebenso wie Bismarck – nicht auf die
Autorität Friedrichs des Großen berufen konnte, denn er hatte das Preußische
Statistische Landesamt schlecht behandelt. Dennoch war die Tätigkeit die-
ses Amtes zwischen 1882 und 1914 von Bedeutung und es war durchaus kein
Institut, in dem Forschungsarbeiten je nach Interessenlage der Institutsmit-

glieder veröffentlicht wurden“. Bevölkerungsstatistiken wurden alle fünf Jahre
erstellt. Zwei große Zählungen – eine Berufszählung und eine Betriebszählung
– fanden 1895 und 1907 statt. Es wurden statistische Untersuchungen durch-
geführt, deren Themen ein deutlicher Hinweis darauf waren, wie das Amt dem
jeweiligen Hauptanliegen der Verwaltung folgte: zusätzliche Steuern, Taug-
lichkeit für den Wehrdienst und dessen Aufteilung zwischen Stadt und Land,
Schul- und Universitätssystem, Nationalitäten und Gemeindefinanzen. Aber
das Preußische Statistische Landesamt spürte allmählich die doppelte Kon-
kurrenz, die aus dem Wirtschaftswachstum und der deutschen Einigung re-
sultierte. Die rasche industrielle Entwicklung ging mit der Gründung von sehr
großen Firmen, Kartellen und Arbeitgeberverbänden einher; diese wiederum
führten ihre eigenen Datenaufzeichnungen, was früher der amtlichen Statistik
oblag und nun einen Verlust dieses Monopols nach sich zog. Saenger beschreibt
die Folgen der deutschen Einheit in Ausdrücken, die ein Jahrhundert später an
die Folgen der europäischen Einigung erinnern – mit Ausnahme der Tatsache,
daß es heute in Europa keinen Staat gibt, der die Gemeinschaft so deutlich
dominiert, wie damals Preußen das Reich dominiert hatte:
In dem Maße, in dem eine vereinheitlichte deutsche Wirtschaft ge-
schaffen wurde, verloren die ausschließlich auf Preußen beschränkten
Daten ihren Wert. Es war noch ein Staat, aber es war keine vollwer-
tige wirtschaftliche Entität mehr. Je mehr sich die Gesetzgebung des
Reiches ausbreitete, desto stärker war der Bedarf an Daten, die über-
all auf einheitlicher Grundlage erfaßten werden ... Man konnte die
einzelnen Staaten nicht mehr berücksichtigen und Preußen sogar nur
in geringerem Maße als die mitteldeutschen Staaten, die noch mehr
oder weniger geschlossene wirtschaftliche Entitäten bildeten ... Die
Statistik des Reiches wurde immer wichtiger. Die preußische zentrale
Kommission wurde allmählich durch Arbeitskommissionen ersetzt, in
denen die statistischen Ämter der Staaten und des Reiches vereinigt
206 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

waren. Die beratende Rolle der Kommission wurde von nun an vom
Bundesrat übernommen. (Saenger, 1935, [246].)

Jedoch übernahm das Preußische Amt zunehmend Arbeiten für die an-
deren Staaten und es kam zu einer allmählichen Arbeitsteilung zwischen der
preußischen Statistik und der gesamtdeutschen Statistik. Dieses empirische
Gleichgewicht bestand bis zum Zusammenschluß beider Behörden im Jahre
1934. Der beschriebene Prozeß ist bedeutsam: die Vereinheitlichung erfolgte
schrittweise und es konnten mehrere Behörden nebeneinander bestehen, deren
Konkurrenz- und Komplementaritätsbeziehungen durch die jeweiligen politi-
schen Verhältnisse, durch Verhandlungen und Kompromisse geregelt waren.
Im Gegensatz hierzu kannte der französische Staat, der politisch schon seit
langem geeint war, keine derartigen wechselnden Beziehungen. Auch die ge-
genwärtige deutsche Statistik beruht auf einem Gleichgewicht, das zwischen
dem Bund und den Ländern ausgehandelt wird, wobei der Bundestag (und
vor allem die zweite Versammlung, der die Bundesländer vertretende Bundes-
rat) eine wichtige Kontrollfunktion der Tätigkeit des Statistischen Bundesam-
tes ausübt. Die im Aufbau begriffene europäische Statistik – beginnend mit
dem Statistischen Amt der Europäischen Gemeinschaften (dem in Luxem-
burg eingerichteten EUROSTAT) – wird womöglich durch seinen föderalen
und zwischen unabhängigen Staaten ausgehandelten Charakter mehr mit der
historisch gewachsenen deutschen Statistik gemeinsam haben, als mit dem
zentralisierten französischen System, das auf dem Territorialprinzip beruht.
Die gleichen Probleme stellen sich in den anderen Ländern Mittel- und Ost-
europas, die nach dem bundesstaatlichen Prinzip aufgebaut sind.

Historische Schule und philosophische Tradition

Die Schwierigkeiten, die Engel und das Preußische Statistische Landesamt


nach 1880 mit der politischen Macht hatten, beschränkten sich nicht nur auf
die von Saenger beschriebenen wirtschaftlichen und administrativen Proble-
me. Die Abkühlung der Beziehungen zwischen den Statistikern und der kai-
serlichen Regierung war eine allgemeinere Erscheinung und betraf die gesamte
gemäßigt-liberale Strömung, der Engel durch den Verein für Socialpolitik an-
gehörte. In den ersten Jahren nach seiner Gründung im Jahre 1872 hatte
dieser Verein zunächst – aufgrund der geringen Bedeutung des Reichstags –
die Funktion eines Fürstenberaters und eines Beraters von Spezialisten, Sta-
tistikern und Ökonomen, die Gesetzestexte vorbereiteten. In dieser Hinsicht
ließ sich der Verein mit der englischen Statistical Society vergleichen. Aber
diese national-liberal orientierte Gruppierung geriet anschließend in zahlrei-
chen Punkten mit dem Bismarckschen Autoritarismus aneinander und zerfiel
schließlich in mehrere Gruppen unterschiedlicher Richtungen. Diese Richtun-
gen hingen von den politischen Organisationsformen ab, die zur Bewältigung
der betreffenden Situation befürwortet wurden. In diesem neuen Kontext, in
Historische Schule und philosophische Tradition 207

dem Beratung und direkter Einfluß nicht mehr möglich waren, wurde der
Verein mit Wirtschaftserhebungen und Sozialenqueten aktiv, die einen ausge-
prägten statistischen Inhalt hatten. Der Verein betrachtete das vor allem als
Mittel zur Aussöhnung seiner verschiedenen Fraktionen.
Eine der wichtigsten dieser Enqueten wurde 1891 von Max Weber durch-
geführt und bezog sich auf die ostpreußischen Landarbeiter.6 Trotz ihres
scheinbar technischen und begrenzten Themas war die Untersuchung durch ein
wirtschaftliches und politisches Problem ausgelöst worden, das für das dama-
lige Deutschland wesentlich war: Wie ließ sich die Identität des gerade entste-
henden Nationalstaates aufrechterhalten und stärken, während die industrielle
Entwicklung gleichzeitig das soziale Gleichgewicht zwischen Grundbesitzern,
Betriebsinhabern, Landarbeitern und Fabrikarbeitern erschütterte? In Eng-
land wurde das Problem des Gleichgewichts zwischen den Klassen durch die
Begriffe der Armut und der Gefahr zum Ausdruck gebracht, die vom Lumpen-
proletariat – den am meisten Benachteiligten – ausging. In Deutschland hinge-
gen formulierte man das Problem mit Hilfe der Frage der nationalen Identität,
die man durch nichtdeutsche Bevölkerungsanteile bedroht sah. Die Industria-
lisierung hatte innerhalb des Kaiserreiches zu bedeutenden Bevölkerungsbe-
wegungen geführt, die vom preußischen Nordosten in Richtung des rheinischen
Südwesten verliefen. Arbeitskräfte slawischen (polnischen und russischen) Ur-
sprungs übernahmen in Ostpreußen die freigewordenen Arbeitsstellen auf den
großen Gütern der preußischen Junker , die das Regime politisch unterstütz-
ten. Die traditionellen patriarchalischen Bindungen wurden allmählich durch
anonyme kapitalistische Beziehungen ersetzt.
Die Enquete verfolgte das Ziel, die neuen Beziehungen durch ökonomi-
sche Begriffe zu beschreiben und die Auswirkungen dieser Beziehungen auf
den sozialen und nationalen Zusammenhalt zu bewerten. Bei der Erhebung
wurden zwei verschiedene Fragebögen verwendet. Der erste Fragebogen war
für die Grundbesitzer bestimmt und beinhaltete faktische Fragen: Anzahl der
Lohnempfänger, Anteil der Entlohnung in Geld und Sachleistungen, sozia-
le Merkmale der Arbeiter, Formen der Arbeitsverträge, Möglichkeit des Zu-
gangs zu Schulen und Bibliotheken. Von den 3100 versendeten Fragebögen
wurden 2277 (69%) zurückgeschickt. Der zweite Fragebogen beinhaltete ei-
ne Bewertung. Er richtete sich an Lehrer, Pfarrer, Notare und Beamte, von
denen man vermutete, daß sie die Werte und Meinungen der Landbevölke-
rung kannten. Der Fragebogen wurde an 562 Personen versendet und von 291
Adressaten (das heißt 52%) ausgefüllt. Auf der Grundlage dieser Umfrage
erstellte Weber einen 900 Seiten umfassenden Bericht mit zahlreichen stati-
stischen Tabellen, in denen die Lage der Wirtschaft und der Landwirtschaft
Preußens beschrieben wurde. Er befürwortete die Entwicklung einer kleinen
unabhängigen Landwirtschaft, welche die großen kapitalistischen Güter der
6
Im Kontext des Vereins für Socialpolitik hat Michaël Pollak (1986, [236]) in
französischer Sprache einen Auszug aus diesen Untersuchungen veröffentlicht und
analysiert.
208 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

nicht ortsansässigen und in Berlin lebenden Junker ersetzen sollte. Das Ziel
dieses Vorhabens bestand darin, deutsche Arbeitskräfte zu binden, welche die
Freiheit des Lebens mehr schätzten als höhere Löhne. Gleichzeitig sollte da-
mit auch der Zustrom slawischer Lohnarbeiter verhindert werden. Das Ziel
der Umfrage und die daraus abgeleiteten Schlußfolgerungen waren vor allem
politisch ausgerichtet, auch wenn sich die Beweisführung auf wirtschaftliche
Argumente stützte, die von statistischen Tabellen untermauert wurden. Wie
kann und muß sich die deutsche Nation unter Berücksichtigung der tiefgreifen-
den sozialen Veränderungen entwickeln, die auf das industrielle Wachstum und
die Migrationsbewegungen zurückzuführen waren? Die Untersuchung wurde
technisch korrekt durchgeführt. Der Statistiker Grohmann, ein Kollege von
Weber, wertete die Fragebögen aus. Der methodologische Aspekt war jedoch
nicht das Wichtigste. Im damaligen Deutschland waren die überzeugenden
Argumente, an denen sich der Furor des Methodenstreits 7 entzündete, philo-
sophischer und politischer Natur. Man führte noch keine statistischen oder
mathematischen Argumente ins Feld, wie sie zur gleichen Zeit von der engli-
schen biometrischen Schule ausgearbeitet wurden.
Das intellektuelle Konstrukt von Quetelet hatte – mit seinen statistischen
Regelmäßigkeiten und seinem Durchschnittsmenschen – im Deutschland der
zweiten Hälfte des 19. Jahrhunderts in der Philosophie einen Anklang gefun-
den, für den es in Frankreich und England kein Äquivalent gab. Dieser Einfluß
war im Übrigen indirekter Natur. Es war eine Reihe von (nicht nur lingui-
stischen) Übersetzungen erforderlich, bevor das eigentlich ziemlich einfache
Schema Eingang in die Subtilitäten der intellektuellen Debatte in Deutsch-
land finden konnte. Als Vermittler trat der englische Historiker Henry Buckle
auf, dessen monumentale History of Civilisation in England (1857, [38]) sich
von der Idee leiten ließ, daß es die – von der Statistik freigelegten – makro-
sozialen Regelmäßigkeiten ermöglichen, die langfristigen und unabwendbaren
Tendenzen des Schicksals einer Nation explizit anzugeben. Mit Hilfe der Be-
griffe des historischen Determinismus und der nationalen Identität ließ sich das
statistische Konstrukt Quetelets im Rahmen einer deutschen Debatte erneut
einführen, transformieren und kritisieren – in einer Debatte, die sich genau um
die obengenannten Fragen drehte. Ähnliche philosophische Rückübersetzun-
gen erfolgten in den 1920er und 1930er Jahren auch in Bezug auf verschiedene
andere Theorien, zu denen die Relativitätstheorie und die Theorie der Wahr-
7
Eigentlich gab es nicht nur einen Methodenstreit, sondern zwei Methodenstreite;
an beiden war die jüngere historische Schule beteiligt (vgl. Söllner, 2001, [442]).
Die ältere Kontroverse in den letzten beiden Jahrzehnten des 19. Jahrhunderts
drehte sich um die Methode der Nationalökonomie: es ging um die Rolle der Theo-
rie bzw. um die Frage, ob ein deduktives oder ein induktives Vorgehen sinnvoll
sei. Der zweite, jüngere Methodenstreit fand Anfang des 20. Jahrhunderts statt
und drehte sich um die Frage, welche Rolle Werturteile in der Wissenschaft bil-
den. Max Weber postulierte das Prinzip der Werturteilsfreiheit, wonach Normen
nicht Gegenstand der Wissenschaft sind, weil sie nicht aus Tatsachen abgeleitet
werden können.
Historische Schule und philosophische Tradition 209

scheinlichkeitsmodelle sowie in jüngerer Vergangenheit die Katastrophentheo-


rie und die Chaostheorie gehörten.8
Die deutschen Neuinterpretationen von Quetelet sind das Werk von Stati-
stikern, Ökonomen und Historikern, die hauptsächlich Universitätslehrer wa-
ren. Sie waren von einer alten philosophischen Tradition durchdrungen, für die
der Gegensatz zwischen Freiheit und Determinismus ebenso wesensmäßig war
wie der Gegensatz zwischen einem angeblich deutschen Holismus und einem
reduktiven Individualismus – unabhängig davon, ob dieser Individualismus
französisch-rationalistisch oder englisch-ökonomistisch war. Ein statistisches
Schema, das den Anspruch auf die Präsentation unabwendbarer Gesetze er-
hob, die den physikalischen Gesetzen ähneln, schien in diesem Kontext me-
chanistisch zu sein und den Sachverhalt zu verzerren. Ein solches Schema
negierte die Besonderheiten und die spezifischen Merkmale freier und mitein-
ander nicht vergleichbarer Individuen ebenso wie die ursprünglichen kultu-
rellen Traditionen.9 Diese Kritik an der Aufstellung einer Äquivalenz, die der
(im modernen Sinne verstandenen) statistischen Konstruktion vorangeht, war
bereits in der im deutschen Wortsinn betriebenen Statistik“ des 18. Jahrhun-

derts anzutreffen (Kapitel 1). Aber der Begriff des Durchschnittsmenschen –
der durch seine Regelmäßigkeiten eine Realität höherer Ordnung ausdrückte,
als es die kontingenten und unberechenbaren Individuen taten – konnte auch
in einem entgegengesetzten Sinne verwendet werden: nämlich als Argument
aus holistischer Sicht, in der das Ganze in einem umfassenderen Sinne exi-
stiert, als die Individuen, aus denen es sich zusammensetzt: so hatte auch
Durkheim in seinen frühen Arbeiten sein Konstrukt der vor den Individuen
existierenden sozialen Gruppe verwendet (vgl. Kapitel 3). Im deutschen Kon-
text konnte man Quetelet also je nachdem als mechanistischen Individuali-
sten stigmatisieren, der aus dem trockenen Rationalismus der Philosophie der
Aufklärung hervorgegangen war, oder ihn als modernistischen Bezugspunkt
in einer Argumentation verwenden, die den traditionellen Kulturen und na-
tionalen Gemeinschaften eine große Bedeutung beimißt.
Die Statistiker und die Ökonomen der historischen Schule“ debattierten

vor allem im Rahmen des Vereins für Socialpolitik viel über den Status und die
Methoden der Sozialwissenschaften im Vergleich zu den Naturwissenschaften.
Dabei ließen sie sich von einer Geschichtsphilosophie leiten, die im Gegen-
satz zur entsprechenden Philosophie der Franzosen und der Engländer stand.
8
Mit dieser Bemerkung ist nicht beabsichtigt, die philosophische Debatte aufgrund
ihres eklektischen Opportunismus für ungültig zu erklären. Wir wollen vielmehr
andeuten, daß derartige Übertragungen Vorsichtsmaßregeln implizieren, ohne die
das ursprüngliche Modell, ähnlich wie im Falle des Durchschnittsmenschen, ganz
anders interpretiert werden könnte.
9
Jacques Bouveresse (1993, [28]) zeigt in Der wahrscheinliche Mensch: Robert

Musil, der Zufall und der Durchschnitt“, daß das Thema Der Mann ohne Eigen-

schaften“ (das heißt ohne Singularitäten“) teilweise von den deutschen Debat-

ten über den Durchschnittsmenschen und über die individuelle Freiheit beeinflußt
worden war.
210 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Man griff häufig auf die Statistik zurück, aber sie wurde als deskriptive Me-
thode und nicht als Methode zur Herausarbeitung von Gesetzen verstanden.
So bekannte sich etwa Engel zu der Vorstellung, daß die Statistik möglicher-
weise empirische Regelmäßigkeiten aufzeigen kann; keinesfalls könne sie aber
den Anspruch erheben, Gesetze aufzustellen, die den Gesetzen der Physik
ähneln, denn die physikalischen Gesetze implizierten eine Kenntnis der zu-
grundeliegenden Elementarursachen.10 Die deutschen Ökonomen nutzten die
reichlich vorhandenen Daten, die von den – ihnen intellektuell und politisch
oft nahestehenden – Verwaltungsstatistikern veröffentlicht worden waren. Ins-
besondere verwendeten sie diese Daten zur Unterlegung von deskriptiven Mo-
nographien über präzise und lokalisierte Themen. Beispielhaft hierfür war die
von Weber durchgeführte Landarbeiter-Enquete, die ein hohes Niveau hat-
te. Für diese Ökonomen war die Statistik eines von mehreren deskriptiven
Elementen – andere Elemente waren historischer, institutioneller oder sozio-
logischer Natur. Die Tatsache, daß diese verschiedenen Erkenntnisweisen noch
nicht in gesonderten Disziplinen getrennt voneinander behandelt wurden, war
der auslösende Faktor für den philosophischen Charakter dieser Debatte und
der Ursprung des Methodenstreits“, den die dem Verein für Socialpolitik

angehörenden Universitätslehrer führten.
Die Akkumulation dieses aufgesplitterten Wissens und die Ablehnung von
Formalisierungen, die von denen der traditionellen deutschen Philosophie
abwichen, können rückblickend den Eindruck erwecken, daß es sich um ei-
ne wissenschaftliche Strömung ohne Zukunft handelte – insbesondere wenn
man einen Vergleich zu den Entwicklungen zieht, die wenig später mit den
Anfängen der Ökonometrie und der Soziologie der Umfragen eingeleitet wur-
de. Dennoch hatte diese Tradition ihre geistigen Erben. Das hing vor allem
mit der Tatsache zusammen, daß viele der französischen, englischen und ame-
rikanischen Akademiker zur damaligen Zeit in Deutschland studierten oder
umherreisten und daher das intellektuelle Milieu kannten. Halbwachs ver-
wendete die deutschen Statistiken für seine Dissertation über das Lebens-
niveau der Arbeiter. Karl Pearson hielt sich in seiner Jugend in Heidelberg
auf und brachte von dort eine Wissenschafts- und Kausalitätsphilosophie mit,
die der Philosophie von Engel nahestand und Gesetze“ zugunsten festge-

stellter Regelmäßigkeiten ausschloß. Die amerikanischen institutionalistischen
Ökonomen – zum Beispiel die Soziologen der Chicagoer Schule“ zu Beginn

des zwanzigsten Jahrhunderts – kannten die Arbeiten und die Debatten der
deutschen historischen Schule gut. Ein wichtiger Grund dafür, warum die-
ser Strömung in Deutschland die Luft ausging, ist darin zu suchen, daß sie
es nicht vermocht hatte, sich im Rahmen einer Bewegung unentbehrlich zu
machen, die zu einer tiefgreifenden Transformation der makroökonomischen
Politik und der Makrosozialpolitik führte. Im Gegensatz hierzu war diese In-
10
Es ist eine Ironie des Schicksals, daß die Bezeichnung Engelsches Gesetz“ für

die Beziehung beibehalten wurde, die Engel zwischen den Einkommen und den
Ausgaben für Nahrungsmittel aufgestellt hatte.
Volkszählungen in der amerikanischen politischen Geschichte 211

tegration der quantitativen Sozialwissenschaften in den 1930er und 1940er


Jahren in den Vereinigten Staaten und nach dem Krieg auch in Frankreich
und Großbritannien erfolgreich durchgeführt worden.

Volkszählungen in der amerikanischen politischen


Geschichte
Volkszählungen sind impliziter Bestandteil des Mechanismus zur Errichtung
und Organisation des amerikanischen Bundesstaates auf der Grundlage von
Modalitäten, für die es in Europa kein Äquivalent gibt. Die Volkszählungen
liefern alle zehn Jahre einen Bezugsrahmen für die anteilmäßige Verteilung
(apportionment 11 ) der zu wählenden Abgeordneten und der direkten Steuern
auf die Einzelstaaten, aus denen sich die Union zusammensetzt. Das in der
Verfassung von 1787 festgeschriebene Prinzip der regelmäßigen Beschaffung
der demographischen Daten wurde zwischen 1790 und 1990 einundzwanzigmal
angewendet – vor allem bei der Verteilung der Sitze im Repräsentantenhaus
(House of Representatives). In den europäischen Ländern, in denen sich die
Bevölkerung nur langsam entwickelte, war dieses Verfahren etwas alltägli-
ches, von dem man kaum Notiz nahm. Im Gegensatz hierzu lief dieser Prozeß
in einem Land, dessen Einwohnerzahl von einer Volkszählung zur nächsten
rasch anstieg, im Rampenlicht der Öffentlichkeit ab und war Gegenstand von
erbitterten Debatten: das auf jeweils zehn Jahre bezogene durchschnittliche
Bevölkerungswachstum belief sich zwischen 1790 und 1860 auf 35%, zwischen
1860 und 1910 auf 24% und zwischen 1910 und 1990 auf 13%. Die Bevölke-
rung wuchs also von 4 Millionen Einwohnern im Jahre 1790 auf 31 Millionen
im Jahre 1860, auf 92 Millionen im Jahre 1910 und 250 Millionen im Jahr
1990. Die Einwanderungswellen, die Verschiebung der Grenze nach Westen,
Verstädterung, Wirtschaftskrisen und Nationalitätenkonflikte – all das hat zu
einer kontinuierlichen und tiefgreifenden Änderung des politischen Gleichge-
wichts zwischen den Regionen und den Parteien beigetragen.
Die Techniken, mit deren Hilfe die Bevölkerung der einzelnen Staaten
gezählt wurde und die Zählergebnisse anschließend in Kongreßmandate umge-
wandelt wurden, führten im Kongreß zu ständig wiederkehrenden Debatten.
Wie sollte man die Sklaven, wie die Ausländer zählen? Welche arithmeti-
schen Verfahren mußte man anwenden, um proportional zur Bevölkerungs-
zahl eine ganzzahlige Anzahl von Sitzen zu verteilen. Weitere wichtige Fragen
wurden im Zusammenhang mit den Zählergebnissen diskutiert, wobei unter
Umständen die Methoden und die Konventionen angefochten wurden. Wie
sollte man die ökonomischen und sozialen Auswirkungen der Sklaverei beur-
teilen (in den 1850er Jahren)? Ließ sich die Einwanderungsflut eindämmen
11
Definiert als the apportioning of representatives or taxes among states or districts

according to population“. Insbesondere versteht man unter apportionment of re-

presentatives“ die Festlegung der Anzahl der Abgeordneten für die Einzelstaaten
und unter apportionment of a tax“ die Steueraufteilung.

212 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

oder konnte man ihr eine andere Richtung geben (1920er Jahre)? Wie soll-
te man die Arbeitslosigkeit und die sozialen Ungleichheiten messen (1930er
Jahre)? In jeder dieser Debatten wurden Statistiken reichlich zitiert, kritisiert
und zueinander in Konkurrenz gesetzt. Statistiken waren gleichzeitig allge-
genwärtig und relativ. Sie traten bei Verhandlungen und Kompromissen auf,
in denen die Kräfteverhältnisse für einige Zeit bestätigt wurden und der Ge-
sellschaft die Möglichkeit gaben, bis zur nächsten Krise voranzuschreiten. Die
Statistiken waren das Abbild eines Staates, der nicht wie in Frankreich ein
über den persönlichen Interessen stehendes allgemeines Interesse verkörperte.
Vielmehr stellten die Statistiken durch das Gleichgewicht der verschiedenen –
in der Verfassung und in ihren aufeinanderfolgenden Änderungen kodifizier-
ten – Gewalten ein Spiegelbild der Kompromisse dar, die es den Individuen
erlaubten, ihre Rechte auszuüben und zu verteidigen.
Folgerichtig waren die Vereinigten Staaten das Land, in dem sich die Sta-
tistik am üppigsten entwickelte. Aber die Vereinigten Staaten waren auch das
Land, in dem der Apparat der öffentlichen Statistik niemals eine so starke
Integration und Legitimität aufwies, wie es – wenn auch in unterschiedlichen
Formen – in Frankreich, Großbritannien und Deutschland der Fall war. Umge-
kehrt hatten jedoch Universitäten, Forschungszentren und private Stiftungen
auf den Gebieten der Soziologie und der Wirtschaft zahlreiche Untersuchun-
gen (surveys 12 ), Kompilierungen und Analysen von Statistiken durchgeführt,
die aus äußerst unterschiedlichen Quellen kamen, und keine der genannten
Institutionen hatte die Aufgabe, die Ergebnisse zu zentralisieren. Im Übrigen
wurden in den Vereinigten Staaten bereits in den 1930er Jahren einige derjeni-
gen bedeutenden technischen Innovationen experimentell eingesetzt, die nach
1945 zu einer radikalen Umgestaltung der statistischen Tätigkeit und des Sta-
tistikerberufes führten: Stichprobenerhebungen, volkswirtschaftliche Gesamt-
rechnung und Ökonometrie sowie – in den 1940er Jahren – Computer.13
Das konstitutionelle Prinzip, gemäß dem die Bevölkerungszahl der Einzel-
staaten sowohl für die Verteilung der Steuerlast als auch für die Verteilung der
politischen Vertretung den Bezugspunkt darstellt, ist wohldurchdacht. Dieses
Prinzip verhindert nämlich, daß die Einzelstaaten den Versuch unternehmen,
ihre Bevölkerungsstatistik zu manipulieren: in diesem Falle würde die eine
Hand verlieren, was die andere gewonnen hätte. Dieser Mechanismus ermutigt
zum Kompromiß zwischen gegensätzlichen Zielen. Er spielte jedoch faktisch
12
Die Bezeichnung survey“ ist von den zuerst in Indien durchgeführten Flächen-

stichproben in die Fachsprache der Statistik übernommen worden. Bei diesen
Flächenstichproben ging es einerseits um eine sorgfältige Prüfung und Schätzung
des Bestandes und andererseits auch um ein Verfahren, das sich der Landvermes-
sung bediente, und die Bestandsaufnahme, zumindest in der ersten Stufe, auf der
Grundlage von Landkarten durchführte. Das englische Wort survey“ wird u.a.

auch durch Erhebung, Untersuchung, Studie“ wiedergegeben.
13 ”
Die hier vorgelegte Analyse der amerikanische Statistik hat den Arbeiten von
Duncan und Shelton (1978, [74]) und Margo Anderson (1988, [4]) viel zu verdan-
ken.
Volkszählungen in der amerikanischen politischen Geschichte 213

kaum eine Rolle, denn der Bundesstaat nutzte seine fiskalische Strecke im 19.
Jahrhundert nur selten. Der Bundesstaat blieb lange Zeit hindurch ziemlich
unbedeutend: Jefferson sprach von einer weisen und genügsamen Regierung“.

Die Zolleinnahmen reichten – außer in Kriegszeiten – für den Staatshaushalt
aus. Die Census-Verwaltung wurde alle zehn Jahre zu dem Zeitpunkt neu
konstituiert, als die Erhebung durchgeführt, ausgewertet und verwendet wer-
den mußte, um die parlamentarische Vertretung der Staaten zu berechnen.
Nach drei oder vier Jahren wurde die Census-Verwaltung wieder aufgelöst.
Ein ständiges Amt, das Census Bureau (Statistisches Bundesamt der USA,
auch Bureau of the Census genannt), wurde erst im Jahre 1902 gegründet.
Die Organisation der Zählung und die Einrichtung eines Ad-hoc-Dienstes wa-
ren jedes Mal Gegenstand eines Sondergesetzes. Der Verabschiedung dieses
Gesetzes ging eine lebhafte Debatte im Kongreß voraus, in der man u.a. über
folgende Probleme diskutierte: Welche Konventionen sollen bei der Zählung
und anteilmäßigen Verteilung des Zählergebnisses angewendet werden? Wel-
che Fragen sollte man stellen und wie soll man die Befrager und Mitarbeiter
rekrutieren, die mit der Durchführung der Operation beauftragt werden?
Von Anfang an und bis zum Sezessionskrieg (1861) stellte sich die Fra-
ge nach der Berücksichtigung der Sklaven in der Bemessungsgrundlage für
die politischen Verteilung. Die Nordstaaten und die Südstaaten vertraten in
dieser Frage selbstverständlich entgegengesetzte Standpunkte. Wenn aber die
Union nicht auseinanderbrechen sollte – was keine der beteiligten Seiten woll-
te –, dann mußte ein Kompromiß geschlossen werden, dessen einziger Vorzug
es war, von beiden Parteien akzeptiert zu werden: das war die Drei-Fünftel-

Regel“ (three-fifth rule), nach der ein Sklave drei Fünftel eines freien Mannes
zählte. Diese Konvention erscheint uns heute besonders schockierend, denn
sie läßt sich nicht durch eine Objektivität (oder Realität) rechtfertigen, die
außerhalb des Konfliktes liegt. Die Konvention bedeutet, daß ein Sklave zwar
mit einem freien Mann vergleichbar, gleichzeitig aber minderwertiger ist. Eine
solche Kombination konnte sich nur als äußerst instabil erweisen. Sie wurde
nach dem Sieg des Nordens über den Süden im Jahre 1865 abgeschafft. Die
Debatte nahm danach eine andere Form an, denn den Südstaaten gelang es
unter Anwendung verschiedener Mittel, den Schwarzen das Wahlrecht auch
weiterhin zu entziehen. Der Norden versuchte daraufhin, die unberechtigter-
weise um ihre Stimme gebrachten Erwachsenen aus der Bemessungsgrundlage
für die Verteilung auszuschließen. Der Süden konterte mit dem Vorschlag,
die Ausländer (das heißt die Neueinwanderer) aus dieser Bemessungsgrund-
lage auszuschließen, was wiederum den Norden benachteiligen würde, da sich
die Neueinwanderer dort niedergelassen hatten. Der Kompromiß bestand nun
darin, alle Erwachsenen zu zählen.
Auch eine andere, scheinbar technische Frage, führte bis in die 1920er Jah-
re zu endlosen Diskussionen: Welche arithmetische Konvention soll berück-
sichtigt werden, um die zur Bevölkerungszahl proportionale Verteilung in ei-
ne ganzzahlige Anzahl von Kongreßsitzen umzuwandeln? Nacheinander wur-
den mehrere Lösungsmöglichkeiten angewendet (Balinski und Young, 1982,
214 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

[7]), die zu unterschiedlichen Ergebnissen führten ( major fractions“ und



equal proportions“) und jeweils andere Staaten begünstigten. Statistiker, die

Anhänger unterschiedlicher Lösungen waren, wurden vor den Kongreß geladen
und sahen sich dort zwischen 1923 und 1929 mit Kongreßmitgliedern konfron-
tiert, die nichts von der Sache verstanden, weil das Thema so überaus trocken
war. Da man schließlich über das Gesetz zur Durchführung der Volkszählung
von 1930 abstimmen mußte, einigte man sich und schuf ein hybrides System
auf halbem Weg zwischen den beiden Lösungen. Nachdem die Zählung statt-
gefunden hatte, stellt man durch Zufall fest, daß beide Methoden zu genau
den gleichen Ergebnisse geführt hätten (Anderson, 1988, [4]). Inzwischen war
die Wirtschaftskrise ausgebrochen. Die Kongreßmitglieder und die Statistiker
hatten jetzt andere Sorgen. In den Debatten rief man die Statistiker nun nicht
mehr deswegen zu Hilfe, damit sie die Wahrheit erzählen – vielmehr sollten
sie Lösungen liefern, die einen Weg aus der politischen Sackgasse ermöglichen.
Die Statistiker standen den Juristen (lawyers), die den Entscheidungsträgern
halfen, näher als den über dem Kampfgetümmel stehenden Wissenschaftlern,
zu denen sie später werden sollten. Der Dreh- und Angelpunkt war das kon-
stitutionelle Prinzip des apportionment und die Debatte drehte sich um die
Anwendungsmodalitäten dieses Prinzips.
Die Statistik wurde auch bei Polemiken angerufen, in denen es um die
entscheidenden Probleme der amerikanischen Gesellschaft ging, das heißt –
in Abhängigkeit von der jeweiligen Zeit – um Sklaverei, Armut, Einwande-
rung, Arbeitslosigkeit und Rassenintegration. Im Jahre 1857 führte Helper,
ein aus dem Norden stammender Ökonom, einen systematischen Vergleich
der Indikatoren für folgende Bereiche durch: Produktion, Wohlstand, sozia-
le und kulturelle Entwicklung. Diese Indikatoren wurden gesondert für die
Nordstaaten und die Südstaaten berechnet. Helper machte die Sklaverei für
die Tatsache verantwortlich, daß die Nordstaaten stets besser als die Südstaa-
ten abschnitten. Sein Werk wirbelte viel Staub auf und führte zu Gegenat-
tacken der Südstaatler. Ein Journalist namens Gordon Bennett schrieb, daß
die Sklaverei nur deswegen ein Übel ist, weil die Arbeit an sich ein Übel

ist. Das System der freien Arbeit ist in Wahrheit die weiße Sklaverei des Nor-
dens“. Dieses Plädoyer für die Südstaaten stützte sich auf Statistiken der (von
den Einzelstaaten geleiteten) Sozialfürsorgeverwaltungen, die zeigten, daß es
in den Neuenglandstaaten (im Norden) mehr Arme, Taube, Blinde, Stumme

und Idioten“ gibt, als in den Südstaaten. Diese beiden konträren statistischen
Argumentationen wurden ihrerseits aufgrund der Konstruktion und Relevanz
der verwendeten Daten angefochten. Die Südstaatler wiesen darauf hin, daß
Helper seine Wohlstandsindikatoren nicht in Beziehung zur Bevölkerungszahl
der Einzelstaaten gesetzt hatte und daß die Daten deswegen – nach Meinung
der Südstaatler – keinerlei Vergleichswert hätten. Die Nordstaatler kritisier-
ten ihrerseits, daß Gordon Bennett Angaben zu denjenigen Armen verwen-
det hätte, die Beihilfen erhielten, wie sie in den Gesetzen der verschiedenen
Einzelstaaten explizit vorgeschrieben waren. Diese Statistiken spiegelten die
besonderen Verfahrensweisen der Einzelstaaten und nicht die absolute Zahl
Volkszählungen in der amerikanischen politischen Geschichte 215

der Armen wider: Jedem Vergleich muß eine Prüfung der Gesetze und Ge-

wohnheitsrechte in Bezug auf die aus der Staatskasse gezahlte Armenhilfe
vorangehen.“ (Jarvis, zitiert von Anderson, 1988, [4].)
Demnach führte bereits seit den 1850er Jahren das Feuer der Kontroverse
dazu, daß man explizit die Frage stellte, wie sich die Realität auf der Grund-
lage administrativer Aufzeichnungen konstruieren läßt. Genau das war die
Frage, die Yule in Großbritannien vierzig Jahre später in seiner mathemati-
schen Analyse der Armut nicht so deutlich formuliert hatte (vgl. Kapitel 4).
Die Tatsache, daß die Statistik in den Vereinigten Staaten so eng und auch
so frühzeitig in einem widersprüchlichen Debattenraum in Erscheinung trat,
regte den kritischen Verstand an und begünstigte eine Vielfalt von Interpre-
tationen und Anwendungen dieses Werkzeugs. Mehr als anderswo waren die
statistischen Belegstellen an Argumentationen gebunden und nicht an eine
vermutete Wahrheit, die über den verschiedenen Lagern stand. Diese Sicht-
weise scheint typisch für die amerikanische Demokratie zu sein, die sich mehr
auf Debatten und die Suche nach Kompromissen stützt als auf die Beteuerung
eines allgemeinen Interesses und einer einzigen Wahrheit; auf jeden Fall finden
wir dort die Spur eines besseren Verständnisses für die unterschiedlichen Be-
deutungen und Funktionen der statistischen Argumentsweise – entsprechend
den politischen und kulturellen Traditionen auf beiden Seiten des Atlantiks.
Im gesamten 19. Jahrhundert hatten die Vereinigten Staaten immer größe-
re Wellen von Einwanderern aufgenommen, was dazu führte, daß sich die
Bevölkerungsanzahl zwischen 1790 und 1910 mit dem Faktor 23 multiplizier-
te. Die Einwanderer kamen zunächst von den Britischen Inseln (England, Ir-
land), später aus Nordeuropa (Deutschland, Skandinavien) und dann um die
Wende zum 20. Jahrhundert verstärkt aus Südeuropa (Italien) und Osteu-
ropa (Polen, Rußland, Balkanländer). In Bezug auf die ersten Einwanderer
(aus West- und Nordeuropa) bestand die Annahme, daß sie sich – aufgrund
der Sprachverwandtschaft und der Religion (Protestantismus) – mühelos an
die Lebensweise und die Ideale des ursprünglichen Kerns der Nation anpassen
konnten. Hingegen sah sich die zweite Gruppe in den 1920er Jahren immer
mehr dem Verdacht ausgesetzt, nicht assimilierbare kulturelle Elemente zu
befördern, die – insbesondere wegen ihrer Religionen (Katholiken, Juden, Or-
thodoxe) – mit der liberalen Demokratie unvereinbar seien. Zum ersten Mal
wurde die Doppelfrage nach einer Beschränkung der Einwanderung und ei-
ner entsprechenden Quotenregelung auf der Grundlage des Einwanderungs-
anteils der betreffenden Länder gestellt. Zwischen 1920 und 1929 fand eine
intensive politische und statistikbezogene Debatte über die Kriterien statt,
mit deren Hilfe die Quoten festgelegt und gerechtfertigt werden sollten. An
dieser Debatte nahmen nicht nur die Kongreßabgeordneten und die Statisti-
ker teil, die mit der Aufstellung dieser Kriterien beauftragt waren, sondern
auch Vertreter entgegengesetzter Interessengruppen: Industrielle, die einer Be-
schränkung der Einwanderung aus Furcht vor einem Mangel an Arbeitskräften
feindselig gegenüber standen; Vertreter der verschiedenen Nationalitätengrup-
pen; verschiedene Wissenschaftler; Ökonomen, welche die Auswirkungen ei-
216 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ner Verlangsamung der Einwanderungsfluten ermittelten; Psychologen, welche


die Intelligenzquotienten der Einwanderer entsprechend den jeweiligen Her-
kunftsländern miteinander verglichen; Soziologen, welche die Sozialisierung
der Einwanderer in Städten wie Chicago untersuchten, die aus dem Boden
gestampft worden sind; Historiker, welche die ethnische Zusammensetzung
der Besiedlungen vor der Unabhängigkeit im Jahre 1776 und die späteren
Veränderungen dieser Besiedlungen rekonstruierten.
Die Volkszählung ermöglichte es, die Bevölkerung gemäß den jeweiligen
Geburtsorten zu sortieren. Im Jahre 1920 wurde dem Kongreß vorgeschlagen,
für jede ursprüngliche Staatsangehörigkeit14 die jährliche Einwanderung auf
5% der Anzahl derjenigen Personen zu beschränken, die entsprechend den
Angaben der 1910 durchgeführten Zählung im betreffenden Land geboren
wurden. Der Kongreß reduzierte die vorgeschlagene Quotenregelung auf 3%.
Präsident Wilson legte gegen dieses Gesetz sein Veto ein, aber sein Nachfolger
Harding unterzeichnete es ein Jahr später. Das Gesetz war eine entscheidende
Wende in der amerikanischen Bevölkerungspolitik und wurde als Verkörpe-
rung des Willens wahrgenommen, das ungestüme Wachstum der Städte zu
bremsen, die allmählich die Macht der ländlichen Einzelstaaten aushöhlten.
Bei dem obengenannten technischen Streit über den Berechnungsmodus der
Kongreßsitze ging es um die gleiche Sache, denn es hatte den Anschein, daß
die eine Methode die urbanisierten Einzelstaaten begünstigte, die andere hin-
gegen die ländlichen Einzelstaaten. Allen diesen Debatten lag die Sorge um
das politische Gleichgewicht zweier verschiedener Amerikas zugrunde: das ei-
ne war das industrielle, städtische, kosmopolitische Amerika, das andere das
ländliche und traditionelle Amerika.
Die Debatte über die ethnischen Quoten wurde in dem Jahrzehnt ab 1920
unter starker Beteiligung der Statistiker des Census Bureau weitergeführt. Es
hatte zunächst den Anschein, daß die Verwendung der letzten, 1910 durch-
geführten Volkszählung zur Quotenfestsetzung ein Problem für diejenigen dar-
stellte, die eine Einwanderung aus West- und Nordeuropa gegenüber einer
Einwanderung aus Süd- und Osteuropa bevorzugen wollten. Die Einwande-
rungswellen nach 1900 setzten sich mehrheitlich aus Süd- und Osteuropäern
zusammen und deswegen bestand das Risiko, daß die den entsprechenden
Ländern bewilligten Quoten höher als erwünscht waren. Dieses Risiko wäre
noch größer gewesen, wenn man sich in den nachfolgenden Jahren dazu ent-
schlossen hätte, die Zählung des Jahres 1920 als Grundlage zu nehmen. Zur
Vermeidung dieser Gefahr wurde vorgeschlagen, die Zählung von 1890 als
Berechnungsgrundlage für die Quoten zu nehmen. Dieser Vorschlag erwies
sich jedoch als äußerst ungünstig für die Italiener, Polen und Russen, die als
letzte gekommen waren. Aber die Wahl der Volkszählung von 1890 erschien
willkürlich und ungerechtfertigt, wie die Gegner dieser Maßnahmen ausführ-
ten, die entweder selber aus den betreffenden Ländern kamen oder aber In-
dustrielle waren, die sich Arbeitskräfte aus diesen Ländern zunutze machten.
14
Gemeint ist die durch Geburt erworbene Staatsangehörigkeit.
Volkszählungen in der amerikanischen politischen Geschichte 217

Das führte zu einer Ausweitung der Diskussion auf den Begriff des Gleichge-
wichts zwischen den ursprünglichen Staatsangehörigkeiten der Vorfahren der
jetzigen Amerikaner vor deren Einwanderung. Das Census Bureau wurde also
ersucht, dieses ziemlich heikle Problem zu lösen. Ein erster Versuch in dieser
Richtung wurde 1909 von Rossiter unternommen, einem Statistiker des Bu-
reau, der aber ein anderes Ziel hatte: er verglich die Fertilität der nach ihrem
Abstammungsland klassifizierten Amerikaner mit den Fertilitätsziffern, die
seither in diesen Ländern beobachtet wurden, um die günstigen Wirkungen
und die Vitalität der amerikanischen Demokratie zu beweisen. Im Jahre 1927
wurde Hill, der stellvertretende Direktor des Census damit beauftragt, diese
Arbeit weiterzuführen, damit ein neues Einwanderungsgesetz auf der Grund-
lage dieser Aufgliederung der Nationalitäten der Vorfahren der Amerikaner
erarbeitet werden konnte.
Sehr bald bemerkte Hill die Schwachstellen der Berechnung von Rossiter:
eine geringfügige Änderung der Schätzungen bezüglich der im 18. Jahrhundert
niedrigen Bevölkerungszahl führte zu wesentlichen Änderungen der andert-
halb Jahrhunderte später berechneten Quoten. Rossiter hatte die Familienna-
men der Personen als Indiz für deren Abstammung verwendet, ohne dabei
die Tatsache zu berücksichtigen, daß zahlreiche Einwanderer ihre Namen bei
ihrer Ankunft anglisiert hatten. Das führte zu einer starken Heraufsetzung
der Anzahl der Personen britischer Abstammung – vor allem zum Nachteil
der Iren und der Deutschen, das heißt genau derjenigen west- und nordeu-
ropäischen Länder, deren Quoten man eigentlich erhöhen wollte. Während al-
so die früheren Einwanderungsgesetze die Immigrantenlobbies spalteten, ging
die neue Formulierung mit dem Risiko einher, diese Lobbies unter der Flagge
einer gemeinsamen feindlichen Einstellung wieder zu vereinen. Man beauf-
tragte daraufhin eine aus Historikern und Genealogen bestehende Kommis-
sion, das Problem eingehender zu studieren und die fatalen Ergebnisse zu
korrigieren, zu denen die Methode von Rossiter geführt hatte. Zur Lösung des
Problems wurden zwischen 1927 und 1929 zahlreiche Verwaltungsleute und
Akademiker mobilisiert, was für das Census Bureau eine schwierige Aufgabe
war. Zu Beginn des Jahres 1929 bestätigten Fachhistoriker die vom Bureau
berechneten Ziffern. Präsident Hoover konnte im Frühjahr 1929 die amtliche

und wissenschaftliche“ Aufschlüsselung der Abstammungsländer der amerika-
nischen Bevölkerung ankündigen. Diese Aufschlüsselung diente als Grundlage
für die Einwanderungsquoten, die bis in die 1960er Jahre verwendet wurden
und in den Jahren zwischen 1933 und 1945 ein furchtbares Hindernis für Ju-
den und politische Flüchtlinge bedeuteten, die der Naziherrschaft entkommen
wollten. Das Census Bureau sah sich einige Monaten nach Beendigung die-
ser Arbeit der Jahre 1927–29 mit einem ganz anderen Problem konfrontiert,
einer Folge der Oktoberkrise des Jahres 1929: eine neue Zahlenschlacht war
ausgebrochen – die Schlacht um die Arbeitslosenzahlen. Die Krise und die zu
ihrer Entschärfung ab 1933 gegebenen politischen, wirtschaftlichen und ad-
ministrativen Antworten der Roosevelt-Regierung führten zum Aufbau eines
vollkommen neuen Systems der öffentlichen Statistik, das sich vor allem und
218 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

zum ersten Mal auf wahrscheinlichkeitstheoretische Techniken und auf die


Methode der Stichprobenerhebungen stützte.

Das Census Bureau: Aufbau einer Institution

Im Unterschied zu den europäischen Staaten verfügte der amerikanische Bun-


desstaat im gesamten 19. Jahrhundert über kein ständiges Amt für Verwal-
tungsstatistik. Bei jeder Volkszählung wurde ein Superintendent ernannt und
vorläufiges Personal rekrutiert, das man nach getaner Arbeit wieder entließ.
Diese sich ständig wiederholende Diskontinuität hing mit der konstitutionel-
len Definition der Volkszählungen zusammen, deren Funktion darin bestand,
alle zehn Jahre das Gleichgewicht zwischen den Einzelstaaten und ihrer Ver-
tretung im Kongreß neu zu ermitteln. Aber die Bevölkerung und das Ter-
ritorium wuchsen sehr schnell und deswegen nahm die Operation im Laufe
des Jahrhunderts ein Ausmaß an, das 1790 noch unvorstellbar war. Jedes
Mal wurden die Organisation der Feldarbeit, der Inhalt des Fragebogens, die
Modalitäten der Personalrekrutierung ebenso wie die entsprechenden Mittel
und Termine erneut zwischen dem Kongreß, seiner Haushaltsbehörde (Budget
Office) und dem verantwortlichen Superintendenten ausgehandelt. Der Su-
perintendent versuchte unweigerlich, seine Meisterschaft in der Beherrschung
der verschiedenen politischen, administrativen und technischen Komponenten
dieses langen und komplexen Prozesses zu steigern, indem er auf die beson-
deren Opportunitäten und Umstände eines jeden Jahrzehnts setzte. Demnach
kann man die – von Margo Anderson (1988, [4]) ausführlich geschilderte –
Geschichte der Volkszählungen und des Bureau als die Geschichte der lang-
wierigen Konstruktion eines politischen und wissenschaftlichen Mechanismus
interpretieren. Die Solidität der Produkte dieses Mechanismus läßt sich nicht
in absoluter Form feststellen, sondern kann nur entsprechend den Zwängen
und Erfordernissen des jeweiligen Augenblicks beurteilt werden.
Der Superintendent sah sich in seinen ständigen Verhandlungen mit dem
Kongreß in einem Widerspruch gefangen, der jedem leitenden Mitarbeiter im
Bereich der öffentlichen Statistik wohlbekannt ist, aber im amerikanischen
Kontext in erheblich zugespitzter Form zum Ausdruck kommt. Zum einen
versuchte der Superintendent, die Kreisläufe des Sammelns und Aufbereitens
des statistischen Rohmaterials unabhängig von den Zufälligkeiten und äußeren
Zwängen zu machen, um eine stabile industriemäßige Werkzeugroutine zu rea-
lisieren. Zum anderen mußte er aber am normalen Spiel des politischen und ad-
ministrativen Lebens teilnehmen, in dem das temporäre Gleichgewicht durch
den Druck von Interessengruppen (Lobbying), durch Mehrheitsumschwünge
und durch Änderungen der Agenda des Kongresses unaufhörlich infrage ge-
stellt wurde. Der Kongreß seinerseits wurde alle zwei Jahre teilweise erneuert.
Diese scheinbare Instabilität war jedoch im unveränderlichen Rahmen der
Verfassung festgeschrieben, deren Einhaltung zu Kompromissen zwang. Die
alle zehn Jahre durchzuführenden Volkszählungen und der Mechanismus des
Das Census Bureau: Aufbau einer Institution 219

Apportionment waren Bestandteil dieser unantastbaren Zwänge. Diese Tat-


sache bot dem Statistiker, der für die korrekte Durchführung der Operation
ausersehen war, eine wichtige Verhandlungsressource.
Die politische Schirmherrschaft“ ist ein gutes Beispiel für dieses stets

gleichbleibende Spiel. Die Rekrutierung des zeitlich befristeten Personals, das
mit dem Sammeln der Feldinformationen und deren Auswertung in Washing-
ton beauftragt war, ermöglichte es den gewählten Vertretern, Druck für die
Anstellung derjenigen Personen auszuüben, deren Stimmen sie sich sichern
wollten. Dieser Umstand war ein regelmäßig wiederkehrendes Hindernis für
die Bildung eines Berufsstandes von beamteten Statistikern, die den Kon-
greßabgeordneten dieses Tauschmittel entziehen würden. Der Mechanismus
hängt mit dem uralten Zögern zusammen, die Anzahl und das Gewicht der
Bundesbehörden zu erhöhen und liefert darüber hinaus eine Erklärung dafür,
warum ein ständiges Census Bureau erst 1902 gegründet wurde. Im vorher-
gehenden Zeitraum fand ab Beginn der 1880er Jahre ein intensives Lobby-
ing statt, das die Gründung dieser Institution begünstigte. Im Ergebnis der
Arbeit wurden Akademiker, Geschäftsleute und Gewerkschafter zusammen-
gebracht, die aus verschiedenen Gründen daran interessiert waren, daß die
öffentliche Statistik über ihre traditionelle konstitutionelle Funktion hinaus-
geht und Konjunkturdaten sowie Daten zur Sozialstruktur produziert, die den
aktuellen industriellen und städtischen Boom widerspiegeln. In diesem vorteil-
haften Kontext konnte der Superintendent den Mechanismus der politischen
Schirmherrschaft zu seinem Nutzen wenden, indem er seine Angestellten da-
zu bewegte, bei ihren Vertretern zu intervenieren, um die Arbeitsplätze zu
sichern.
Die aufeinanderfolgenden Etappen, in denen das Census Bureau seine Kon-
trolle auf die Produktionskette der Ergebnisse ausdehnte, waren gleichzeitig
administrativer und technischer Natur. Bis 1840 wurden die Informationen
von örtlichen Beamten (marshalls) auf der Grundlage territorialer Eintei-
lungen gesammelt, die vollkommen unabhängig vom Bundesamt waren. Das
vorläufige Personal dieses Bundesamtes zählte weniger als 50 Personen. Es gab
sich damit zufrieden, die von den Einzelstaaten auf lokaler Ebene bereits ag-
gregierten Daten zusammenzufassen, wobei es nicht möglich war, diese Daten
zu prüfen. Die individuellen amtlichen Berichte wurden ab 1850 gesammelt
und in Washington manuell ausgewertet. Der erforderliche Personalbestand
erhöhte sich dann schnell, von 160 im Jahre 1850 auf 1500 im Jahre 1880,
denn die manuelle Stimmenzählung bedeutete eine gigantische Arbeit. Fran-
cis Walker (1840–1896), der Superintendent der Volkszählungen von 1870 und
1880, kämpfte für die Ausdehnung seiner Kontrolle über den Prozeß und für
die Erweiterung seines Netzwerks von Allianzen. Im Jahre 1880 wurde er vom
Kongreß autorisiert, die Feldarbeit zu kontrollieren. Seit dieser Zeit durfte das
Bureau die Erhebungsgebiete selbst aufteilen und auch die Hilfsangestellten
(census takers) und Kontrolleure (supervisors) rekrutieren und bezahlen. Das
war sowohl ein Vorteil als auch ein Nachteil, da sich die Gefahr erhöhte, daß
die gewählten örtlichen Vertreter Druck auf diese Anstellungen ausüben. Wal-
220 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ker schlug 1888 vor, den Census an das neu gegründete Arbeitsamt (Labor
Office) anzugliedern, das über bedeutende Ressourcen verfügte. Eine unerwar-
tete Änderung der Präsidentschaftsmehrheit ließ das Projekt jedoch scheitern,
denn der neue Präsident wollte, daß seine Partei vom Census profitierte (eine
analoge Angliederung erfolgte 1891 in Frankreich, wo die SGF in das neue
Arbeitsamt (Office du travail ) integriert wurde. Die Entwicklung der Arbeits-
statistik fand in Großbritannien und in Deutschland gleichzeitig statt). Die
ungeheure manuelle Arbeit verringerte sich 1890 mit der Verwendung der er-
sten Geräte zur maschinellen Datenverarbeitung, die von Herman Hollerith
(1860–1929), einem Büroangestellten, erfunden und gebaut wurden. Aber die
Aufgabe war immer noch groß genug und man mußte für die Volkszählungen
von 1890 und 1900 mehr als 3000 Personen rekrutieren.
Das Problem bestand darin, den Kongreß davon zu überzeugen, die Mit-
tel für die Gründung eines ständigen statistischen Amtes bereitzustellen: man
führte dem Kongreß die Notwendigkeit vor Augen, zusätzlich zu den alle zehn
Jahre stattfindenden Volkszählungen auch regelmäßig jährliche Erhebungen
durchzuführen – vor allem im Bereich der landwirtschaftlichen Produktion
und der Industrieproduktion. Eine Gelegenheit für diese Überzeugungsarbeit
bot sich 1899 anläßlich des Verfalls der Baumwollpreise, der sich für die Klein-
produzenten als dramatisch erwies. Die englischen Abnehmer prognostizierten
höhere Ernten, um Preissenkungen anzukündigen. Man mußte ihnen gesicher-
te Produktionsstatistiken entgegenhalten können, um derartige Spekulationen
zu unterbinden. Seit Beginn des 19. Jahrhunderts waren die Volkszählungen
(in unregelmäßiger Weise) durch Zählungen der Manufakturen ergänzt wor-
den, so daß es möglich war, die Baumwollentkörnungsmaschinen zu identifizie-
ren und zu lokalisieren. Die bei der Zählung 1900 aufgestellte Liste dieser Ma-
nufakturen ermöglichte die Durchführung einer jährlichen Erhebung zu den
Ernten. Das wiederum lieferte ein ausgezeichnetes Argument, um den Kongreß
davon zu überzeugen, die Einrichtung eines ständigen Amtes zu akzeptieren,
das für diese regelmäßigen – und für die Marktregulierung unerläßlichen –
Erhebungen zuständig war. Die im Jahre 1902 verabschiedete institutionelle
Neuerung war ihrerseits Bestandteil einer umfassenderen administrativen Um-
strukturierung, die auch die Gründung eines neuen Ministeriums für Handel
und Arbeit (Department of Commerce and Labor ) einschloß. Das Ministerium
faßte zahlreiche zuvor verstreute Dienststellen zusammen und war bestrebt,
den Außen- und Binnenhandel, den Bergbau, die veredelnde Industrie und den
Schiffbau, den Fischfang und das Transportwesen zu fördern und entwickeln.
Außer dem Census Bureau gehörten dem Ministerium auch noch andere stati-
stische Bureaus an, zum Beispiel das Bureau für Arbeitsstatistik und die sta-
tistischen Bureaus der Finanzbehörde und des Außenhandels. Eines der Ziele
bei der Gründung des Ministeriums bestand darin, diese Bureaus zu vereini-
gen oder wenigstens zu koordinieren, um unnötige Arbeitsverdopplungen zu
vermeiden und allgemeine Methoden und Nomenklaturen zu verbreiten.
Die Tätigkeit des neuen ständigen Census Bureau entwickelte sich da-
mals in die Richtung häufiger und regelmäßiger Wirtschaftsstatistiken und
Das Census Bureau: Aufbau einer Institution 221

beschränkte sich nicht darauf, in zehnjährigen Abständen Zählungen durch-


zuführen. Um diese Zeit begann man, Wirtschaftsstatistiken umfassend zu
verbreiten und zu diskutieren. Aber der Census scheiterte in seinem Ehr-
geiz, das gesamte statistische System zu dominieren und zu kontrollieren.
Die Produkte der anderen spezialisierten Dienststellen hingen eng mit dem
laufenden Management der Verwaltungen zusammen, denen die betreffenden
Dienststellen unterstanden. Diese Dienststellen hatten kein Interesse daran,
ihre Verbindungen zu schwächen und die Vormundschaft und Sprache eines
Neulings zu akzeptieren, dessen Interessen weniger mit diesem Management
zusammenhingen und dessen Legitimität noch nicht offensichtlich war. Das
Problem, welchen Platz der Census im neuen Ministerium einnehmen soll-
te, wird anhand eines Streites deutlich, in dem es um die Bezeichnung dieses
Amtes ging: das Ministerium wollte es als Census Bureau bezeichnen, um es
mit den anderen administrativen Einheiten in eine Reihe zu bringen, während
es der Census bevorzugt hätte, seine frühere Bezeichnung Census Office bei-
zubehalten, da dieser Begriff – ähnlich dem französischen Terminus Institut
– eine größere Autonomie implizierte. Diese Spannung war charakteristisch:
die statistischen Ämter waren erst dreißig Jahre später dazu in der Lage, die
Originalität ihrer Position – zwischen einer klassischen Verwaltung und ei-
nem Forschungslabor – voll zu rechtfertigen, das heißt zu einem Zeitpunkt,
als sie zusätzlich zur rein administrativen Kompetenz auch eine spezifische
Technizität geltend machen konnten.
Der unregelmäßige Fortschritt dieser Professionalisierung der öffentlichen
Statistik erfolgte in den Vereinigten Staaten durch einen Austausch mit Aka-
demikern und Vereinigungen wie der American Statistical Association (ASA)
oder der American Economic Association (AEA), in denen Wissenschaftler
zusammengebracht wurden, die für die Entwicklung der statistischen Pro-
dukte kämpften. Diese Wissenschaftler fanden im Census nicht nur Quellen
für ihre Arbeiten, sondern auch einen Ausbildungs- und Praktikumsort für
Studenten und junge Forscher. Deswegen versuchten die Wissenschaftler sys-
tematisch, die noch junge Institution – deren Status zudem noch unklar war
– für den Nachwuchs attraktiv zu machen und einige ihrer eigenen Leute
im Census unterzubringen. Aber sie waren nicht die einzigen. Die politische
Schirmherrschaft zeigte auch weiterhin ihre Wirkungen. Das Betreuungsper-
sonal stand auf einem noch schwachen professionellen Niveau und es boten
sich keine Aufstiegsmöglichkeiten für junge Leute, die von der Universität ge-
kommen waren. Nachdem die Absolventen im Census gute Kenntnisse des
damaligen statistischen Systems und seiner Möglichkeiten erworben hatten,
verließen sie das Amt, um ihre Forschungsarbeiten im National Bureau for
Economic Research (NBER), in der Brookings Institution oder in der Carne-
gie Foundation fortzusetzen.
Der Eintritt der Vereinigten Staaten im Jahre 1917 in den Krieg hatte
– wie in den europäischen Ländern – eine intensive Mobilisierung und ri-
gorose Planung aller wirtschaftlichen Ressourcen zur Folge. Das erhöhte die
Funktion und die Bedeutung der öffentlichen Statistik und begünstigte de-
222 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ren Koordinierung, da es nun mit den Routinen der Friedenszeiten vorbei


war. Die damals für kurze Zeit neugeschmiedeten Allianzen erinnerten an die
bereits beschriebenen Allianzen des Kabinetts von Albert Thomas in Frank-
reich. Wilson gründete im Juni 1918 ein Zentralamt für Planung und Statistik,
das sämtliche statistikbezogenen Bestrebungen der Regierungsbehörden ko-
ordinierte und Universitätsstatistiker mit ehemaligen Census-Statistikern wie
Wesley Mitchell zusammenbrachte. Aber das Zentralamt wurde bereits im Ju-
ni 1919 wieder aufgelöst. Dennoch führten die aufgefrischten Beziehungen der
Verwaltung und der akademischen Kreise im November 1918 zur gemeinsa-
men Gründung eines Beraterkomitees für den Census. Diesem Komitee, das
von den Statistikern der ASA und den Ökonomen der AEA gegründet wurde,
gehörten die besten Spezialisten der damaligen Zeit an. In den 1920er Jah-
ren hatte das Komitee die Funktion eines Brain Trust und einer Lobby der
öffentlichen Statistik und garantierte dadurch die geistige Kontinuität in einer
administrativen Welt, die kein Erinnerungsvermögen hatte. Jedoch scheiterte
das Komitee – wie schon seine Vorgänger vor dem Krieg – an der Koordinie-
rung und internen Professionalisierung dieser Ämter. Die betreffenden Ämter
waren den bereits genannten Zufälligkeiten und Debatten der Tagespolitik un-
terworfen, in der es beispielsweise um die Festlegung ethnischer Quoten oder
um die Berechnung der anteilmäßigen Verteilung der Kongreßmandate ging
(im Übrigen waren die Akademiker nicht abgeneigt, in diese Debatten ein-
zugreifen). Erst der wirtschaftliche Zusammenbruch der 1930er Jahre führte
zu einer vollständigen Umgestaltung der Landschaft der öffentlichen Statistik
und ihrer Beziehungen zur akademischen Welt.

Arbeitslosigkeit und Ungleichheit:


Die Konstruktion neuer Objekte

In den wenigen Jahren zwischen 1933 und 1940 änderten sich die in der sozia-
len Debatte verwendeten Termini ebenso grundlegend, wie die statistischen
Werkzeuge, die in dieser Debatte eine Rolle spielten. Die beiden Transforma-
tion hingen eng miteinander zusammen, denn gleichzeitig fanden zwei Ent-
wicklungen statt: es entstand eine neue Art und Weise, das politische, wirt-
schaftliche und soziale Ungleichgewicht des amerikanischen Bundesstaates zu
verstehen und zu verwalten und es bildete sich eine Sprache heraus, mit de-
ren Hilfe sich diese Tätigkeit ausdrücken ließ. Arbeitslosigkeit im nationalen
Maßstab, Ungleichheiten zwischen den Klassen, Rassen und Regionen und
die Tatsache, daß die entsprechenden Objekte mit statistischen Werkzeugen
bearbeitet werden müssen, um darüber debattieren zu können – all das war
Bestandteil dieser neuen Sprache, die nach 1945 in allen westlichen Ländern
alltäglich wurde. Der Vergleich der Art und Weise, in der diese Probleme in
den drei aufeinanderfolgenden Zeiträumen von 1920 bis 1929, von 1930 bis
1932 und schließlich von 1933 bis 1940 aufgeworfen und behandelt worden
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 223

waren, verdeutlicht das gleichzeitige Umschwenken der politischen Program-


me und der Techniken. Die beiden Traditionen, das heißt die administrative
und die mathematische Tradition der Statistik, die in den vorhergehenden
Kapiteln getrennt voneinander beschrieben wurden, vereinigten sich in einem
Konstrukt, das von nun an mit einer doppelten Legitimität ausgestattet war:
mit der Legitimität des Staates und mit der Legitimität der Wissenschaft.
Herbert Hoover, republikanischer Präsident von 1928 bis 1932, sah sich
ab Oktober 1929 zunächst mit dem Börsenkrach und dem Zusammenbruch
der Wirtschaft und danach mit einem schnellen Anstieg der Arbeitslosigkeit
konfrontiert. Hoover wurde oft als fanatischer Anhänger des freien Spiels der
Marktkräfte beschrieben, der demzufolge jeglichen Eingriffen seitens des Bun-
des feindselig gegenüberstand – unabhängig davon, ob es sich um makroöko-
nomische Eingriffe (Ankurbelung der Nachfrage) oder um soziale Eingriffe
(Arbeitslosenhilfe) handelte. Nach dieser Version hätte er sich damit begnügt,
passiv auf den unabwendbaren Konjunkturumschwung zu warten, was keiner-
lei detaillierte statistische Analyse der Ursachen und Wirkungen der Krise und
der anzuwendenden Mittel bedeutet hätte. Aber die Dinge waren nicht ganz
so einfach und paradoxerweise betätigte sich Hoover in den 1920er Jahren
als aktiver Förderer der Bundesstatistik, vor allem in Bezug auf die Unter-
nehmenstätigkeit. Bereits ab 1921 hatte er als Handelsminister (Secretary of
Commerce) eine ständige Erhebung zu dieser Tätigkeit eingeleitet, den Be-
richt über die laufende Geschäftstätigkeit (Survey of Current Business). Zu
diesem Zeitpunkt befand sich das Land bereits in der Krise und kannte das
Problem der Arbeitslosigkeit. Hoover überzeugte Präsident Harding davon, die
Schirmherrschaft über eine landesweite Konferenz zu diesem Thema zu über-
nehmen, deren Ziel es war, die Ursachen der Arbeitslosigkeit zu analysieren
und Maßnahmen zu deren Senkung vorzuschlagen. Die vorgelegten Erklärun-
gen, die Beobachtungsmethoden und die in Betracht gezogenen Lösungen wa-
ren kohärent und unterschieden sich deutlich von denen, die in den 1930er
Jahren die Oberhand gewinnen sollten. Die Ursachen für die Krise waren
im Wesentlichen auf folgende Faktoren zurückzuführen: Überproduktion, in-
effiziente Managementpraktiken der Unternehmensleitungen, Verschwendung,
Übertreibungen im Zusammenhang mit Spekulationen und übertriebene In-
flation in der Wachstumsphase. Die von Hoover im Jahre 1921 organisierte
Konferenz über die Arbeitslosigkeit sammelte detaillierte Berichte zur Situa-
tion von Firmen in Hunderten von Städten und zu der Art und Weise, in der
sich Arbeitgeber und politische Führungskräfte auf lokaler Ebene organisier-
ten, um die Märkte zu sanieren.
Weder waren diese Berichte quantifiziert, noch waren sie in landeswei-
ten Messungen aggregiert. Sie wurden sorgfältig aufgelistet und analysiert,
um die am meisten betroffenen Gebiete ausfindig zu machen und diejeni-
gen Maßnahmen zu orten, die sich als die effizientesten erwiesen hatten. Die
Regierung und die Unternehmen sollten diese Maßnahmen unterstützen, um
Übertreibungen bei konjunkturellen Aufwärtsbewegungen abzumildern. Die
Konferenz schlug sogar Auftragserteilungen für öffentliche Arbeiten in Pha-
224 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

sen konjunktureller Abschwächungen und Umstrukturierungen der in schlech-


tem Zustand befindlichen Industrien vor, wobei diese Umstrukturierungen im
Umkreis der führenden Unternehmen durchgeführt werden sollten. Aber die-
se Maßnahmen konnten die Übernahme einer lokalen Verantwortung für das
Funktionieren des Arbeitsmarktes nur begleiten – die Bundesregierung konnte
die lokale Verantwortung nicht übernehmen. Die Hauptverantwortung für die
Durchführung der Maßnahmen lag bei den Unternehmensleitern, aber diese
mußten über die Konjunkturzyklen und Marktbedingungen informiert wer-
den. Die auf lokaler Ebene und branchenweise diversifizierten Informationen
konnten von den Bundesbehörden aufgegriffen und verbreitet werden. Die von
Hoover in den 1920er Jahren verfochtene Tendenz in der Statistik führte we-
der zu einer landesweiten Schätzung des Gesamtgeschäftsvolumens und der
Arbeitslosigkeit noch zu einer Analyse der Lebensbedingungen der Arbeits-
losen, da keine öffentlichen Programme zu deren Unterstützung vorgesehen
waren. Bei der Messung der Arbeitslosigkeit hielten sich die Experten zurück.
Die Zurückhaltung war so groß, daß das Census-Beraterkomitee – ein Able-
ger der ASA und der AEA – im Jahre 1920 eine Frage zu diesem zwischen
1880 und 1910 diskutierten Thema streichen ließ, weil man die Ursachen

nicht erkennen kann, warum jemand zum Zeitpunkt der Umfrage nicht arbei-
tet: Wirtschaftskonjunktur, saisonbedingte Schwankungen, Krankheiten ...“
Ein weiterer Vorschlag, diese Frage zu streichen, wurde im Dezember 1928
im Hinblick auf die 1930 durchzuführende Volkszählung unterbreitet, aber es
gelang dem gut informierten demokratischen Senator Wagner, eine Änderung
zu verabschieden, auf deren Grundlage die Frage im Juni 1929 – vier Monate
vor dem Börsenkrach – erneut gestellt wurde.
Der Zufall wollte es, daß die alle zehn Jahre durchgeführte Volkszählung
am 1. April 1930 stattfand, das heißt zu einem Zeitpunkt, an dem die Arbeits-
losigkeit bereits dramatisch angestiegen war und ihre landesweite Messung
erstmalig ein wesentliches politisches Streitobjekt in der Debatte zwischen
Regierung und demokratischer Opposition geworden war. Auf das Census Bu-
reau wurde ein starker Druck ausgeübt, um eine schnelle Bekanntgabe der Ar-
beitslosenzahlen zu erreichen, aber in dem vor der Krise konzipierten Auswer-
tungsplan hatten die Arbeitslosenzahlen nur eine geringe Priorität. Darüber
hinaus trat die entsprechende Information auf einem anderen Fragebogen auf,
der gesondert ausgewertet wurde. Der Vergleich dieses Fragebogens mit den
im Hauptfragebogen stehenden Fragen, die sich auf Rasse, Geschlecht, Alter
und Beruf bezogen, bedeutete eine beträchtliche Arbeit in einer Zeit, in der es
noch keine elektronische Stimmenzählung gab. Dennoch sah sich das Census
Bureau dem Druck der öffentlichen Meinung ausgesetzt, sehr schnell Ergeb-
nisse zu einer Frage zu liefern, die sich fast durch Zufall aus einer Zählung
ergaben, die überhaupt nicht für diesen Zweck konzipiert worden war. In-
folgedessen kündigte das Bureau Ende Juni an, daß eine erste Zählung 2,4
Millionen Arbeitslose registriert hätte. Aber die Konventionen bezüglich der
Definition und der Zählung dieser Arbeitslosen“ waren umstritten und es

wurde behauptetet, daß die wahre Zahl zwischen 4 Millionen und 6,6 Millio-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 225

nen liegt. Die Arbeitslosigkeit war vorher noch nie klar definiert worden und
das Bureau hatte aufgrund der Dringlichkeit restriktive Konventionen ange-
wendet: weder wurden die Arbeiter gezählt, die zwar noch eine Stelle hatten,
aber kurz vor ihrer Entlassung standen, noch erfolgte eine Zählung der Ju-
gendlichen, die noch nie gearbeitet hatten, aber eine Stelle suchten. Hoover
behauptete seinerseits, daß die Arbeitslosigkeit nicht so hoch war, wie es die
vorgeblichen Zahlen suggerierten; die Zählung hätte seiner Meinung nach nur
deswegen zu einem sehr hohen Ergebnis geführt, weil viele der als arbeitslos

registrierten Personen in Wirklichkeit gar keine Arbeit suchten“.
Alle Bestandteile der modernen Debatte zur Arbeitslosigkeit waren also
innerhalb weniger Monaten entstanden. Was war ein Arbeitsloser? Falls er
als eine Person definiert war, die keine Beschäftigung hatte, aber eine solche
suchte, und falls er sofort verfügbar war, dann erwies sich jede dieser drei
Bedingungen als problematisch und führte zu einer Diskussion, weil häufig
zweifelhafte Fälle ins Spiel kamen: da gab es Leute, die in Ermangelung von
etwas besserem nur ab und an arbeiteten; entmutigte Leute, die nicht mehr
intensiv nach Arbeit suchten; Menschen in Notlagen, mit labiler physischer
oder psychischer Verfassung, wie sie unter den sehr Armen häufig vorkamen.
Mißt man darüber hinaus nicht nur die Anzahl der Arbeitslosen, sondern auch
die Arbeitslosenquote, dann stellt auch die Definition des Nenners ein Problem
dar: Soll man die Arbeitslosenzahl zur Gesamtbevölkerung ins Verhältnis set-
zen oder nur zur potentiell berufstätigen Bevölkerung? In diesem Fall gab
es an der Trennlinie zwischen der potentiell beruftstätigen und der nichtbe-
rufstätigen Bevölkerung viele zweifelhafte Fälle. Vor 1930 stellten sich diese
Fragen kaum und sie erlangten erst deswegen Bedeutung, weil die demokrati-
sche Opposition eine national organisierte Politik im Kampf gegen die Arbeits-
losigkeit forderte. Niemand hatte diese Fragen 1920–1921 aufgeworfen, da zu
dieser Zeit die Vorstellung dominierte, daß der Verlauf der geschäftlichen Pro-
zesse von lokalen Umständen und Initiativen abhängt. Das war die Position,
die Hoover auch im Jahre 1930 weiter vertrat. Er machte jedoch den Vor-
schlag, örtliche Hilfen zu organisieren, Teilzeitbeschäftigung und Job-Sharing
zu fördern sowie Ausländer mit illegalem Status abzuschieben. Aber er lehnte
die Vorschläge ab, die das historische Gleichgewicht zwischen den Gewalten
der Stadtgemeinden, der Einzelstaaten und der Föderation ändern würden.
Aus diesem Grund blieben die Statistiken bezüglich Landwirtschaft, Arbeit
und Arbeitslosigkeit, Unterstützung, Ausbildung und Gesundheit noch in der
Zuständigkeit der örtlichen Behörden. Die Bundesstatistik wurde durch die
von der Regierung Hoover beschlossenen Einschränkungen mit voller Wucht
getroffen. Ihr Budget wurde 1932 um 27% beschnitten. Aber ihre Lage änderte
sich in jeder Hinsicht, als Roosevelt im März 1933 an die Macht kam.
Wie wir gesehen hatten, führte in Kriegszeiten die allgemeine Mobilisie-
rung der Ressourcen zur Bildung von ungewöhnlichen Allianzen und Orga-
nisationsweisen, deren Auswirkungen sich auch in der öffentlichen Statistik
bemerkbar machten. Ähnlicherweise führten im Jahre 1933 – in dem die Krise
ihren Höhepunkt erreichte – die Bemühungen der neuen Administration zur
226 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Ankurbelung der Wirtschaft sowie zur Unterstützung der Millionen von Ar-
beitslosen und ruinierten Landwirten zu einer umfassenden Transformation
der Mechanismen und der Funktion der Bundesregierung. Dementsprechend
änderte sich auch der Stellenwert, den die Statistiker in diesen Mechanismen
hatten. Diese Veränderungen bezogen sich auf die Ziele der öffentlichen Poli-
tik, auf die technischen und administrativen Verfahren zur Erreichung dieser
Ziele und auf die Sprache, in der sich diese Maßnahmen ausdrückten. Damit
hatten diese Ziele die gleiche Bedeutung für alle, die sich an deren Umsetzung
beteiligten. Mehr als je zuvor spielte die Statistik damals eine entscheiden-
de Rolle bei dem Vorgang, diejenigen Dinge konsistent zu machen, um die
es bei der kollektiven Aktion ging. Diese Dinge, zu denen Arbeitslosigkeit,
Sozialversicherung, Ungleichheiten zwischen Gruppen oder Rassen und das
Nationaleinkommen gehörten, wurden von nun an auf der Grundlage ihrer
Definitionen und ihrer statistischen Messungen formuliert. Es war nicht das
erste Mal, daß soetwas geschah: bereits im England des 19. Jahrhunderts
nahm die Politik der öffentlichen Gesundheit Bezug auf die lokalen Sterb-
lichkeitsziffern und das General Register Office (GRO) schöpfte hieraus seine
Bedeutung und seine Legitimität. Aber es ging jetzt nicht mehr darum, einer
besonderen – wenn auch sehr wichtigen – Maßnahme Ausdruck zu verleihen.
Vielmehr ging es darum, die Unternehmen und ihre Stiftungen, die Univer-
sitäten und ihre Fachleute, die Gewerkschaften und die Wohltätigkeitsvereine
zu koordinieren und sie über die Aktivitäten zu informieren, die von der Ad-
ministration zusammen mit denjenigen sozialen Kräften umgesetzt wurden,
auf die sie sich bei der betreffenden Maßnahme stützte. Zu einer Zeit, in der
andere Ausdrucksmittel der kollektiven Aktion – Ausdrucksmittel, die auf
die Sprache der Marktökonomie oder der örtlichen Solidarität zurückgriffen –
nicht mehr fähig zu sein schienen, die Dramatik der Lage in die Überlegungen
einzubeziehen, war es nur allzu einleuchtend, neue Formen der Rationalität
und Universalität zu verwenden, die sich durch wissenschaftliche und vor al-
lem durch statistische Begriffe ausdrücken ließen. Einige Jahre zuvor schien
das durchaus noch nicht plausibel gewesen zu sein.
In den ersten drei Jahren der Krise hatte es erbitterte Debatten zwischen
den Mitglieder der republikanischen Administration, den Statistikern der ASA
und den Ökonomen der AEA gegeben. Diese Debatten bezogen sich nicht nur
auf die Messung der Arbeitslosigkeit, sondern auch auf die als archaisch beur-
teilte Organisation der Statistik. Darüber hinaus ging es um Maßnahmen, die
durchzuführen waren, damit sich die Regierungen und die öffentliche Meinung
in einer derart neuen Situation auf vertrauenswürdige Beschreibungen stützen
konnten, denn keine der früheren zyklischen Krisen hatte ein solches Ausmaß.
Bereits in den ersten Wochen der neuen Regierung wurden die mit den Repu-
blikanern sympathisierenden Leiter der wichtigsten statistischen Ämter durch
Mitglieder der ASA ersetzt, die an diesen Debatten teilgenommen hatten. Der
neue Arbeitsminister (zu dessen Ressort das Bureau of Labor Statistics, BLS,
gehörte) und der neue Handelsminister (dem das Census Bureau unterstand)
gründeten zwei Komitees, die damit beauftragt wurden, die Arbeitsweise aller
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 227

statistischen Ämter zu untersuchen und Vorschläge zu deren Umgestaltung zu


erarbeiten. Die wichtigste dieser Expertengruppen, das Committee on Govern-
ment Statistics and Information Services (COGSIS), spielte eine entscheiden-
de Rolle bei der Koordinierung und Rationalisierung derjenigen administrati-
ven Kreisläufe, die zu statistischen Messungen führten. Eine ebenso wichtige
Rolle spielte das Committee bei der Professionalisierung der Ämter. Das Com-
mittee wurde von der Rockefeller-Stiftung finanziert; seine Vorsitzenden waren
zunächst Edmund Day, der Leiter des Bereiches Sozialwissenschaften der Stif-
tung, und danach Frederick Mills, Professor an der Columbia University. Day
verschaffte jungen Spitzenakademikern mit mathematischer und wirtschafts-
wissenschaftlicher Ausbildung Zutritt zum Census. Die jungen Leute nahmen
allmählich die Stellen der alten, überwiegend in der Verwaltung ausgebildeten
Leitungskräfte ein, die noch von den – ansonsten längst vergessenen – politi-
schen Querelen der 1920er Jahre gezeichnet waren. In normalen Zeiten zogen
die offiziellen Ämter nur wenige brillante Studenten an; anders verhielt es sich
jedoch zu einer Zeit, in der die Absatzmärkte der Unternehmen verlorengegan-
gen waren. Die neue Generation, die bis in 1970er Jahre aktiv war, gab dem
Census, dem BLS, dem Amt für Landwirtschaftsstatistik und einigen weiteren
Dienststellen für Statistik und Wirtschaftsstudien, die der Bundesverwaltung
unterstellt waren, ein sehr originelles Profil. Die nachrückende Generation
von Fachleuten transformierte diese Dienststellen in Standorte der Innova-
tion und des Experimentierens mit den neuen Wissensgebieten, die aus der
Mathematisierung der Statistik und der Wirtschaftswissenschaften hervorge-
gangenen waren: hierzu gehörten die Theorie der Stichprobenerhebungen, die
volkswirtschaftliche Gesamtrechnung und die ökonometrischen Modelle (vgl.
Kapitel 9).
Die Technik der Stichprobenerhebungen, die bereits Laplace im 18. Jahr-
hundert ersonnen hatte und die in der Folgezeit in Vergessenheit geraten war,
wurde gegen 1900 von Kiaer in Norwegen und später von Bowley in Groß-
britannien wieder aufgegriffen (vgl. Kapitel 7). Das Zusammentreffen dreier
verschiedener Ereignisse in der 1930er Jahren in den Vereinigten Staaten führ-
te zur routinemäßigen Anwendung dieser Technik und ihrer Verbreitung. Jerzy
Neyman (1894–1981), ein Statistiker polnischer Abstammung und Mitarbei-
ter von Egon Pearson (1895–1980) in London, formalisierte im Jahre 1934 die
Methoden der Stichprobenerhebung und der Stratifizierung. Damit eröffne-
te er einen Weg, der von den am Census frisch rekrutierten jungen Leuten
(Dedrick, Hansen, Stephan und Stouffer) beträchtlich vertieft wurde, indem
sie diese Methoden auf regelmäßige Erhebungen anwendeten. Diese Technik
eignete sich ausgesprochen gut für den Kontext der neuen Wirtschafts- und
Sozialpolitik und für die Bestrebungen des COGSIS, ein ständiges statistisches
System aufzubauen, das eine Umsetzung dieser Politik ermöglichte – ein Ziel,
das sich nicht mit den alle zehn Jahre durchgeführten Volkszählungen errei-
chen ließ. Die Technik wurde schließlich 1936 von Gallup bei Wahlprognosen
erfolgreich eingesetzt. Das trug zur Zerstreuung der Zweifel bei, welche die
öffentliche Meinung über die Konsistenz von Messungen hatte, die sich le-
228 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

diglich auf einen Bruchteil der zu beschreibenden Bevölkerung stützten. Auf


diese Weise hatte die Allianz aus Mathematikern, Statistikern, politischen
Führungskräften und Journalisten nach einigem Hin und Her einen durch-
schlagenden Erfolg.
Viel weniger aufwendig als Zählungen waren Stichprobenerhebungen, die
mit einem festen Fragebogen wiederholt durchgeführt werden konnten. Da-
durch war es möglich, in eleganter Weise die Einwände zu umgehen, die sich
auf die Konventionen und die Willkür der Kodierung bezogen: Läßt sich die
Realitätsnähe einer Niveaumessung anfechten, dann ist die Realitätsnähe der
Schwankungen dieser Messung in geringerem Maße anfechtbar, sobald sich
die Aufzeichnungskonventionen verfestigt haben. Dadurch wurde eine routi-
nemäßige Anwendung der Statistik möglich und diese Anwendung schloß teil-
weise die Kritik ihres Realismus ein. Aber bevor sich die Statistik endgültig
durchsetzte, wurde die neue Realität der Stichprobenerhebung immer noch in
Zweifel gezogen, und zwar von den Politikern und sogar von der Leitung des
Census. Die jungen Statistiker mußten den Beweis antreten, daß ihre Objekte
dauerhafter und besser sind als diejenigen Objekte, die mit Hilfe von klas-
sischen Verwaltungsaufzeichnungen konstruiert wurden. In der im Folgenden
dargelegten Geschichte der Stichprobenerhebungen spielen zwei überzeugende
Tests die Rolle der Gründungsurkunde. Einer der Tests bezog sich auf die Ar-
beitslosigkeit und überzeugte die Führungskräfte in Politik und Verwaltung.
Der andere betraf die zukünftigen Wahlen und überzeugte die Presse und die
öffentliche Meinung.
Die Arbeitslosigkeit blieb für die neue Administration eine ebenso brennen-
de Frage, wie sie es für die vorhergehende war. Um 1935 stießen die Wünsche
nach einer besseren Beschreibung und Messung der Arbeitslosigkeit noch auf
die gleiche Reserviertheit wie früher. So wie sein Vorgänger zog auch Roose-
velt die Realität gewisser Fälle von Arbeitslosigkeit und sogar die Möglichkeit
in Zweifel, hierüber eine Statistik aufzustellen. Niemand – so Roosevelt –
ist dazu in der Lage, einen Arbeitslosen definieren ... Gewisse Frauen ar-

beiten für ihr Taschengeld ... Die Zimmerleute hören auf zu arbeiten, wenn
schlechtes Wetter ist“. Er meinte, daß bei einer Zählung der Arbeitslosigkeit
derartige Fälle in ungerechtfertigter Weise mit den Fällen von Personen ver-
mengt würden, die sich wirklich in Not“ befänden. Aber zwei Jahre später,

im Jahre 1937, wurde der politische Druck so groß, daß der Kongreß Kredite
für eine nationale Umfrage zur Arbeitslosigkeit beschloß. Hierbei handelte es
sich um eine Vollerhebung: die Fragebögen wurden per Post verschickt und
die Arbeitslosen antworteten freiwillig darauf. Die Statistiker waren mit die-
ser Methode nicht einverstanden: sie behaupteten, daß zahlreiche Personen
nicht antworten würden, da sie die Arbeitslosigkeit als demütigende Situati-
on wahrnehmen. Eine weniger kostenaufwendige Stichprobenerhebung würde
es ermöglichen, Interviewer in nur 2% der Haushalte zu schicken; dieser di-
rekte Kontakt würde ein Vertrauensverhältnis zu den Leuten herstellen und
ein besseres Bild von der Realität der Arbeitslosigkeit liefern. Dedrick und
seine jungen Kollegen überzeugten ihren Direktor, diese experimentelle Be-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 229

fragung parallel zu der postalisch durchzuführenden Zählung abzuwickeln,


um die Ergebnisse bezüglich derjenigen Personen zu vergleichen, die sich an
beiden Operationen beteiligt hatten. Der Test war überzeugend: 7,8 Millionen
Arbeitslose beantworteten die postalische Vollerhebung, aber von denen, die
sich in der direkten Stichprobenerhebung als arbeitslos bezeichneten, hatten
nur 71% auf die postalische Umfrage geantwortet (der Prozentsatz lag bei den-
jenigen Arbeitslosen sehr viel höher, die von speziellen Behörden eine Beihilfe
erhielten und deswegen bereits bekannt waren: von diesen Arbeitslosen hatten
98% geantwortet). Somit war es zum ersten Mal möglich geworden, die bei-
den klassischen Arten der Zählung der Arbeitslosen – durch direkte Befragung
oder über die mit Fürsorgeleistungen beauftragten Behörden – miteinander
zu vergleichen. Der Vergleich der postalisch durchgeführten Zählung mit der
Stichprobenerhebung ermöglichte also die Schätzung einer größeren Zahl von
Arbeitslosen, nämlich 11 Millionen anstelle von 7,8 Millionen.
Der andere überzeugende Test der Methode der Zufallsstichprobenerhe-
bung im Vergleich zur spontanen“ Stichprobenerhebung ergab sich 1936 auf-

grund der Erfahrungen des amerikanischen Statistikers George Horace Gallup
(1901–1984), der als Meinungsforscher (pollster ) die Wiederwahl von Roose-
velt vorausgesagt hatte, während das Magazin Literary Digest, das die Leser
auf freiwilliger Grundlage befragt hatte, einen republikanischen Sieg progno-
stizierte und sich damit gewaltig irrte. Gallup und die Anhänger der neuen
Methode vergaßen nicht, die Tatsache hervorzuheben, daß die Zufallsstichpro-
be viel kleiner war, als die des Magazins, aber dennoch zum richtigen Ergebnis
geführt hatte.15 Damit wurde der Begriff der Repräsentativität umfassend po-
pularisiert und das untermauerte die Argumente derjenigen Statistiker, die für
eine regelmäßige Durchführung von Stichprobenerhebungen zu sozialen und
wirtschaftlichen Fragen kämpften. Kurze Zeit später – bei der Vorbereitung
der normalen Volkszählung von 1940 – bot sich diesen Statistikern erneut ei-
ne Gelegenheit, ihre Methoden zu testen und deren Effizienz unter Beweis zu
stellen.
Die zahlreichen Anträge auf Hinzufügung neuer Fragen hätten dazu geführt,
den Fragebogen übermäßig lang zu machen. Die Statistiker der neuen Ge-
neration schlugen vor, der Vollerhebung einen Ergänzungsfragebogen hinzu-
zufügen, der sich jedoch nur an 5% der zu befragenden Personen richtete. In
Verbindung mit der Vollerhebung ermöglichte es dieser Vorgang, wesentliche
theoretische und praktische Fragen zur Zuverlässigkeit des Stichprobenverfah-
rens zu stellen und zu lösen. Die Aktion ermunterte auch dazu, die Formu-
lierung von Fragen zu testen und zu konsolidieren sowie gewisse Messungen
zu standardisieren, die für einen umfassenden Verwendungszweck bestimmt
15
Die sogenannten pre-election surveys“ oder polls“ wurden in den USA seit
” ”
den 1930er Jahren durchgeführt, um eine Vorhersage der Wahlergebnisse (z.B.
bei Präsidentschaftswahlen) zu ermöglichen. Polls und mit ihnen auch andere
Stichprobenuntersuchungen kamen jedoch erst beim Literary Digest Desaster“

zu Ansehen, als die Ergebnisse der Präsidentschaftswahl 1936 die Vorhersage von
Gallup und anderen Meinungsforschern bestätigten.
230 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

waren. Hierzu gehörte die Schätzung der Anzahl der Erwerbspersonen (labor
force), das heißt der Gesamtheit derjenigen Personen, die eine Arbeitsstelle ha-
ben oder eine solche in der Woche suchen, in der die Zählung stattfindet. Von
nun an diente diese Größe als Nenner in der Standardabschätzung der Arbeits-
losenquote. Die verschiedenen Erfahrungen waren hinreichend überzeugend:
fortan konnte das Ergebnis einer Stichprobenerhebung als amtliche Arbeits-

losenziffer“ vorgelegt werden, was zehn Jahre früher unvorstellbar gewesen
wäre. Nach 1940 wurden derartige Erhebungen jeden Monat durchgeführt –
zunächst unter der Bezeichnung Stichprobenerhebung zur Arbeitslosigkeit“

(sample survey of unemployment), danach im Jahre 1942 als Monatsbericht

zu den Erwerbspersonen“ (monthly report on the labor force) und schließlich
1947 als ständige Erhebung“.

Die gleichzeitige Richtungsänderung der Ziele und der Werkzeuge der Sta-
tistik in den 1920er und 1930er Jahren erwies sich auch in Bezug auf Fra-
gen zur Bevölkerung und zu Ungleichheiten zwischen sozialen und ethnischen
Gruppen als spektakulär. Vor 1930 erfolgte die Beschreibung dieser Unter-
schiede im Allgemeinen durch die Begriffe der angeborenen Fähigkeiten oder
der kulturellen und religiösen Unfähigkeit, sich in die amerikanische Gesell-
schaft zu integrieren. Diese Analysen stützten sich auf intellektuelle Konstruk-
te, die auf die Eugenik oder auf eine Form des Kulturalismus zurückgingen,
bei der die Unveränderlichkeit der charakteristischen Merkmale der Abstam-
mung hervorgehoben wurde. Die Debatten der 1920er Jahre zu den ethnischen
Quoten waren deutlich von derartigen Argumenten geprägt. Zehn Jahre später
waren die Terminologie und die aufgeworfenen Fragen nicht mehr die gleichen.
Die Regierung beauftragte Komitees, die sich aus Akademikern und Beamten
zusammensetzten und von den großen privaten Stiftungen unterstützt wur-
den, mit der Analyse der Probleme und der Erarbeitung von Vorschlägen. In
diesen Komitees wurde eine liberale“ politische Linie, das heißt eine Linie

des Fortschritts“ entworfen und formuliert – im amerikanischen Sinne dieses

Begriffes (der in Europa eine andere Konnotation hat). Eines dieser Komitees
untersuchte 1934 die Verbesserung der nationalen Ressourcen“ mit der Über-

zeugung, daß Wissenschaft und Technik als solche mobilisiert werden müssen,
um die sozialen Probleme zu lösen:
Die Anwendung der Ingenieurskunst und des technologischen Wissens
auf die Reorganisation der natürlichen Ressourcen der Nation muß
als ein Mittel konzipiert werden, die Last der Arbeit schrittweise zu
verringern und dadurch den Lebensstandard und den Wohlstand der
Masse der Bevölkerung zu erhöhen. (National Resources Committee,
1934, zitiert von Anderson, 1988, [4]).
Vom ersten Komitee wurde ein weiteres Komitee zu Bevölkerungsproble-

men“ mit dem Ziel bestellt, die Fragen der sozialen und ethnischen Unterschie-
de genauer zu untersuchen. Der von diesem Komitee im Jahre 1938 übergebe-
ne Bericht vertrat einen Standpunkt, der das genaue Gegenteil der Theorien
der 1920er Jahre war. Entsprechend diesem Bericht hat die Einwanderung
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 231

der verschiedenen nationalen Minderheiten die Vitalität der amerikanischen


Gesellschaft ganz und gar nicht verringert. Der Bericht unterstrich die posi-
tiven Aspekte der Vielfalt der kulturellen Traditionen der Einwanderer, der
Schwarzen und der Indianer. Die Probleme der am meisten benachteiligten
Gruppen resultieren aus ihren Schwierigkeiten, eine Ausbildung zu erhalten,

aus der falschen Nutzung der Ressourcen des Erdbodens und des Untergrun-
des sowie aus einer unkorrekten Vorhersage der technischen Veränderungen“.
Die Lösung dieser Probleme liegt in der Verantwortung der Bundesregierung
– vor allem bei der Bereitstellung des Personals und der Finanzierung zur
Sicherung der Chancen auf Schulausbildung und normale Gesundheit für alle
Amerikaner, bei der Wiederherstellung der von den früheren Generationen
gnadenlos ausgebeuteten Wälder und landwirtschaftlichen Böden sowie bei
der Prognostizierung technologischer Veränderungen durch eine entsprechen-
de Wachstumsplanung. Die Tatsache, daß der Föderation die Zuständigkeit
für einen derartigen Fragenkomplex zuerkannt worden war, stellte eine bedeu-
tende Neuerung in der amerikanischen politischen Tradition dar und prägte
bis zum Beginn der 1980er Jahre die Administrationen unabhängig davon, ob
es sich um Demokraten oder Republikaner handelte. Parallel hierzu entwickel-
te sich gleichzeitig das statistische System (mußte dann aber ab 1981 starke
Budgetkürzungen hinnehmen). Die Frage der Beschreibung und der Messung
der Ungleichheiten der (durch prägnante Begriffe der amerikanischen Kultur
wie opportunities und birthright ausgedrückten) Anfangschancen der sozialen
Gruppen, Regionen, Rassen und Geschlechter stand im Mittelpunkt zahlrei-
cher politischer und gesetzgeberischer Bestrebungen, die in der Folgezeit aus-
probiert wurden, um ein Gegengewicht gegen Benachteiligungen aller Art zu
schaffen. Die Philosophie dieser Versuche kommt in der Schlußfolgerung des
Ausschußberichtes treffend zum Ausdruck:
Man kann die Tatsache gar nicht genug hervorheben, daß dieser
Bericht in Bezug auf die Bevölkerung nicht nur Probleme der An-
zahl, Merkmale und Verteilung behandelt, sondern auch Probleme der
Erhöhung der Chancen (opportunities) der Individuen, aus denen sich
diese Bevölkerung zusammensetzt, und seien sie noch so zahlreich. Un-
ser demokratisches System muß schrittweise allen Gruppen zugänglich
machen, was wir für den amerikanischen Lebensstandard halten. Der
Fortschritt der Nation ist vor allem der Fortschritt der Masse des Vol-
kes und das Geburtsrecht (birthright) darf nicht durch Gleichgültigkeit
oder Nachlässigkeit verloren gehen. (National Resources Committee,
1934, zitiert von Anderson, 1988, [4]).
Die Umsetzung dieser Politik führte bereits 1935 zur Verabschiedung ei-
nes Gesetzes zur Sozialversicherung, das durch Bundesmittel finanziert wurde,
die ihrerseits von den staatlichen und den örtlichen Behörden verteilt und ver-
waltet wurden. Es stellte sich demnach die Frage nach der Verteilung dieser
Subventionen (grant-in-aid ) auf die verschiedenen Zwischeninstanzen. Hier-
zu wurde das alte konstitutionelle Verfahren des apportionment zu neuem
232 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Leben erweckt und man mobilisierte das Census Bureau, damit es die Berech-
nungsgrundlage zur Verteilung der Subventionen auf die Einzelstaaten lieferte.
Aber die Gerechtigkeitsprinzipien, von denen diese neuen Politik beseelt war,
stützten sich nicht mehr nur auf die anteilmäßige Verteilung der Vertretungen
und der finanziellen Belastungen, wie es in der Tradition der Gründerväter
üblich war. Diese Gerechtigkeitsprinzipien bezogen sich von nun an auch auf
individuelle Ungleichheiten, die mit der Rasse, dem Beruf und dem Einkom-
mensniveau zusammenhingen. Zur Durchführung dieser Strategie waren Infor-
mationen neuen Typs erforderlich. Individuell-nationale“ Statistiken konn-

ten nicht durch aufwendige Zählungen bereitgestellt werden, die nur selten
durchgeführt wurden. Dagegen erwiesen sich regelmäßige und auf Bundes-
ebene durchgeführte Stichprobenerhebungen als adäquat zur Durchführung
von Maßnahmen, die sich am Begriff der landesweit empfundenen individu-
ellen Ungleichheiten orientierten. Der Raum der Nation war nicht mehr nur
ein politischer und juristischer Raum. Er war auch zu einem statistischen
Äquivalenz- und Komparabilitätsraum geworden, der das Verfahren der Zu-
fallsstichprobenerhebung rechtfertigte – daß heißt die Ziehung von Kugeln
aus einer Urne, wobei die Kugeln“ nunmehr Individuen“ sind, die nicht nur
” ”
politische, sondern auch soziale Rechte haben.
Die Bilanz der amerikanischen Statistik der beiden Jahrzehnte 1921–30
und 1931–40 weist starke Kontraste auf. In dieser Zeit begann man damit,
die Statistik auf zwei partiell unterschiedliche Weisen in die Gesellschaft ein-
zubringen. Es mag nützlich sein, diese beiden Einbringungsweisen“ zu ty-

pisieren – auch auf die Gefahr hin, die entsprechenden Merkmale zu über-
treiben, da diese Merkmale ja bekanntlich in den real existierenden Systemen
in unterschiedlichem Maße kombiniert sind. Die 1920er Jahre waren nicht
nur Jahre der Debatten über Einwanderung und ethnische Quoten. Hoover,
der 1921 Handelsminister war, hatte ein lebhaftes Interesse an Wirtschafts-
statistik, die sich auf Unternehmen und die Geschäftstätigkeit bezog. Aber
er interessierte sich auch für die Arbeitslosigkeit und hatte die Vorstellung,
daß die Administration die Spielregeln und das Umfeld garantieren und ver-
bessern kann, in deren Rahmen die Unternehmen ihre Aktivitäten entfalten.
Von diesem Standpunkt konnten sich Informationen zum Konjunkturverlauf
– aufgeschlüsselt nach Branchen und Regionen – als sehr nützlich erweisen,
wenn man Managementfehler vermeiden wollte, die zu Konkursen und Ar-
beitslosigkeit führen. Das war der Grund dafür, warum Hoover im Jahre 1921
den Census dazu anspornte, einen Bericht über die laufende Geschäftstätig-

keit“ (Survey of Current Business) zu organisieren. Darüber hinaus richtete er
einen Ausschuß ein, der die Aufgabe hatte, die Ursachen der Arbeitslosigkeit
zu untersuchen und entsprechende Gegenmittel zu finden. Aber diese Informa-
tionen waren eher mikroökonomischer Art oder zumindest branchenbezogen
und lokal. Der Staat konnte in keinem Fall direkt in das makroökonomische
Gleichgewicht eingreifen und er konnte auch keine globale Politik der Arbeits-
losenunterstützung betreiben, denn Eingriffe dieser Art hätten das freie Spiel
der Marktkräfte verzerrt. Der letztgenannte Aspekt wurde in der Folgezeit
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 233

nach dem Zusammenbruch der Wirtschaft beibehalten, als Hoover von 1929
bis 1932 Präsident war. Jedoch bedeutete diese Linie, die dem Eingreifen des
Staates in die makroökonomische Regulierung feindselig gegenüberstand, kei-
nen Widerspruch zu dem lebhaften Interesse an statistischen Informationen,
durch die das reibungslose Funktionieren der Märkte gefördert werden sollte.
Der wirtschaftliche Zusammenbruch zu Beginn der 1930er Jahre führte
beinahe zur Auflösung der Gesellschaft und dieser Umstand ermöglichte es
der neuen Administration, mit einigen wichtigen amerikanischen Dogmen zu
brechen, die sich auf das Gleichgewicht der Gewalten zwischen der Födera-
tion, den Einzelstaaten, den Gemeinden und den geschäftlich frei agierenden
Unternehmen bezogen. Die Einrichtung von föderalen Regulierungssystemen
in Bezug auf Finanzen, Banken, Haushalt und soziale Fragen überantwortete
der Regierung in Washington eine völlig neue Funktion. Um diese neue Funk-
tion ausüben zu können, stützte sich die Administration – vor allem über
die Vermittlung der reichen privaten Stiftungen (Carnegie, Ford, Rockefel-
ler u.a.) – immer mehr auf Experten in den Bereichen Sozialwissenschaften,
Wirtschaft, Demographie, Soziologie und Recht. In dieser Zeit knüpften hoch-
karätige Statistiker und Ökonomen, welche die öffentliche Statistik in Schwung
hielten, enge Beziehungen zu Akademikern, die ihrerseits aufgrund der Gut-
achtenanforderungen der Administration mobilisiert waren. In diesem Kontext
entwickelten sich nicht nur die auf Stichprobenerhebungen aufbauende quan-
titative Soziologie in Chicago und an der Columbia University (Converse,
1987, [49]; Bulmer, Bales und Sklar, 1991, [39]), sondern auch die volkswirt-
schaftliche Gesamtrechnung (Duncan und Shelton, 1978, [74]) und die ersten
makroökonomischen Modelle (Morgan, 1990, [204]), auf die sich in der Zeit
von 1940 bis in die 1970er Jahre die vom Keynesianismus inspirierten politi-
schen Maßnahmen stützten. Und schließlich kam es in den 1980er Jahren in
den Vereinigten Staaten und in Großbritannien zur Wiederkehr einer Philoso-
phie der Wirtschaftsinformation, was in gewisser Weise an die entsprechende
Situation der 1920er Jahre erinnert.
7
Pars pro toto: Monographien oder Umfragen1

Die Technik der zufallsbasierten Stichprobenerhebungen“ begann erst gegen



Ende des 19. Jahrhunderts mit den Arbeiten des Norwegers Kiaer, in einer
noch rudimentären Form und eher intuitiv als formalisiert. Die ersten Be-
rechnungen von Konfidenzintervallen wurden 1906 von dem Engländer Bow-
ley durchgeführt und Neyman legte 1935 eine detaillierte Formalisierung der
Stratifizierungsmethoden vor. Erhebungen zu nicht allzu umfangreichen Per-
sonengruppen waren schon seit viel längerer Zeit – insbesondere im gesamten
19. Jahrhundert – durchgeführt worden. Diese Erhebungen wurden häufig
von Leuten mit hoher wissenschaftlicher Bildung durchgeführt (Absolven-
ten der École polytechnique, die dem Berufsstand der Bergbauingenieure oder
Brückenbauingenieure angehörten), für welche die zur intuitiven Erfassung“

der Stichprobenerhebung erforderlichen Grundlagen der Wahrscheinlichkeits-
rechnung keine unüberwindlichen Schwierigkeiten darstellten. Laplace hatte
übrigens die Technik der Stichprobenerhebungen bereits Ende des 18. Jahr-
hunderts angewendet, um die französische Bevölkerungszahl zu schätzen, aber
das Experiment war mehr als hundert Jahre ohne Nachfolger geblieben. Kever-
berg hatte 1827 den Vorwurf erhoben, daß diese Methode implizit die Gleich-
heit des Geburtenmultiplikators“ – das heißt des Verhältnisses der Bevölke-

rungszahl zur Geburtenzahl (vgl. Kapitel 3) – auf dem gesamten Territorium
voraussetzt. Die Kritik an den Schätztechniken der politischen Arithmetiker“

des 18. Jahrhunderts hatte Quetelet und die damaligen Statistiker derart be-
eindruckt, daß Stichprobenerhebungen in den darauffolgenden siebzig Jahren
für einen schlechten Ersatz von Vollerhebungen gehalten wurden, die das Sym-
bol einer strengen Statistik waren.
Die systematischen Formalisierungen und Anwendungen der zufallsbasier-
ten Stichprobenerhebungen sind nur etwas älter als ein halbes Jahrhundert.
Diese Tatsache führt uns vor Augen, daß die Erfindung und Umsetzung einer
Technologie untrennbar an kognitive und soziale Voraussetzungen gebunden
1
Der lateinische Begriff pars pro toto“ bedeutet Ein Teil für das Ganze“, das
” ”
heißt vom Teil wird aufs Ganze geschlossen.
236 7 Pars pro toto: Monographien oder Umfragen

ist: Bevor man die Lösung eines Problems erfand, mußte man erst das Problem
erfinden, das heißt in diesem Fall die Randbedingung der Repräsentativität
im Sinne des Begriffes, wie er seit dieser Zeit von den Statistikern verwen-
det wurde. Man darf aber nicht verkennen, daß dieses Bestreben – das in der
Sprache der Homothetie für gewisse, exakt definierte Elemente des Teils und
des Ganzen zum Ausdruck kommt – neueren Ursprungs war und in jedem
Fall nach den großen Zählungen (Quetelet, ab 1840) und monographischen
Untersuchungen (Le Play, fast um die gleiche Zeit) entstanden ist. Die Ge-
schichte der empirischen Sozialwissenschaften, der Statistik und insbesondere
der Techniken der Stichprobennahme (Seng, 1951, [255]; Hansen, 1987) er-
weckt den Eindruck, daß man von einer Zeit, in der sich die Frage der Re-
präsentativität praktisch nicht stellte – man denke etwa an die zwischen 1914
und 1916 erschienenen Veröffentlichungen der SGF (Statistique générale de la
France) oder an die vom Statistiker Dugé de Bernonville und vom Soziologen
Halbwachs durchgeführten Enqueten zu den Familienbudgets) –, unmittelbar
zu einer anderen Zeit überging, in der die Evidenz dieser Frage überhaupt
nicht geprüft wurde (man vergleiche die Debatten des Internationalen Insti-
tuts für Statistik , die zwischen 1895 und 1903 und dann zwischen 1925 und
1934 geführt wurden).
Fand eine Debatte statt, dann bezog sie sich nicht auf die Randbedingung
der Repräsentativität. Die Debatten wurden in zwei abgrenzbaren Zeiträumen
geführt. Zwischen 1895 und 1903 ging es einerseits darum, zu wissen, ob man
das Ganze (also Vollerhebungen) in legitimer Weise durch einen Teil (das
heißt durch Teilerhebungen) ersetzen kann. Andererseits wollte man wissen,
ob man damit besser“ fährt als mit den LePlayschen Monographien“, die
” ”
sich immer noch großer Beliebtheit erfreuten. Wie wir sehen werden, bezog
sich dieses besser“ nicht unmittelbar auf die Randbedingung der Repräsen-

tativität im Sinne der Genauigkeit der Messung, sondern auf die Möglichkeit,
einen diversifizierten Raum zu berücksichtigen. Zwischen 1925 und 1934 dreh-
te sich die Debatte dann um die Entscheidung zwischen den Methoden der
zufälligen Stichprobennahme“ und den Methoden der bewußten Auswahl“:
” ”
die Entwicklung der Theorie der Stratifizierung durch Neyman versetzte den
letztgenannten Methoden den Todesstoß.
Diese aus der Geschichte der Stichprobenerhebungen hervorgegangene
Chronologie beschreibt die Art und Weise, in der sich zwischen 1895 und
1935 die allgemein anerkannten sozialen Normen so transformierten, daß sie
den neuen Anforderungen entsprachen. Es handelte sich hierbei um die vor-
aussichtlichen Anforderungen, die an die Beschreibungen der Gesellschaft zu
stellen sind – wobei das Ziel darin besteht, Beobachtungen, die man in Bezug
auf einen Teil der Gesellschaft gemacht hatte, so zu verallgemeinern, daß man
Aussagen über die ganze Gesellschaft erhält. Wie aber soll man vom Teil“

auf das Ganze“ schließen? Die beiden Möglichkeiten der sukzessiven und der

gleichzeitigen Verallgemeinerung, wie sie in den seit anderthalb Jahrhunder-
ten durchgeführten Sozialenqueten stattfanden, schienen heterogen und nicht
miteinander vergleichbar zu sein – so als ob jede dieser Verallgemeinerungen
7 Pars pro toto: Monographien oder Umfragen 237

ihren eigenen Gültigkeitsbereich und ihre eigene Logik hätte. Es sah auch so
aus, als ob eine Konfrontation dieser beiden Verallgemeinerungen nur auf der
Grundlage einer wechselseitigen Denunziation erfolgen könne. Diese scheinba-
re Unvereinbarkeit läßt sich besser verstehen, wenn man sie in den Rahmen
des umfassenderen Gegensatzes der unterschiedlichen Denkweisen stellt, mit
denen die Zusammenhänge zwischen den Teilen und dem Ganzen einer Gesell-
schaft betrachtet wurden – Denkweisen, die seit Beginn des 19. Jahrhunderts
im Anschluß an die beiden sozialen Erschütterungen (Französische Revoluti-
on und englischer Wirtschaftsliberalismus) miteinander rivalisierten. Derarti-
ge Analysen der Transformationen der Beziehungen zwischen den Teilen und
dem Ganzen finden sich in den Untersuchungen von Polanyi (1944), Nisbet
(1984, [212]) und Dumont (1983, [73]).
Der den Anthropologen und den Historikern vertraute Gegensatz zwischen
Holismus“ und Individualismus“ liefert eine Definition des Ganzen“, die
” ” ”
für unsere Zwecke nicht ausreicht. In der holistischen“ Vorstellung, die für

Dumont die Vorstellung von den traditionellen Gesellschaften vor den revo-
lutionären politischen und wirtschaftlichen Erschütterungen war, besaß das
gesellschaftliche Ganze eine Existenz, die zeitlich vor den Teilen der Gesell-
schaft (und insbesondere vor den Individuen) existierte und über diesen stand.
Dagegen schließen sich in der individualistischen“ Vorstellung der modernen

Gesellschaften die Individuen, Bürger und Wirtschaftsfaktoren in unterschied-
licher Weise zu Gruppierungen zusammen, ohne aber von diesen Gruppierun-
gen überragt oder gänzlich subsumiert zu werden. Aber bei dieser Art und
Weise, ein die Personen umfassendes Ganzes zu entwerfen, das den atomisier-
ten Individuen der modernen Gesellschaften gegenübersteht (und das man
auch in dem Gegensatz Gemeinde – Gesellschaft“ von Tönnies antrifft), fin-

det eine andere Konstruktion des Ganzen überhaupt keine Berücksichtigung,
nämlich die kriterielle Konstruktionsweise – und gerade diese ist es, die der
Statistiker bei der Konstruktion einer repräsentativen Stichprobe anwendet.
Das soziale Ganze“ des Holismus von Dumont und das Exhaustive“ der
” ”
Statistik sind zwei verschiedene Denkweisen, die Gesamtheit zu erfassen. Der
Gegensatz dieser Denkweisen hilft beim Verständnis dessen, worin der Unter-
schied zwischen den beiden impliziten Verallgemeinerungsweisen besteht, die
bei Monographien und bei Stichprobenerhebungen zum Tragen kamen.
Diese schematisch stilisierten intellektuellen Gefüge rivalisierten miteinan-
der und verbanden sich im Laufe des 19. Jahrhunderts auf unterschiedliche
Weise in den Arbeiten der Gründerväter der Sozialwissenschaften: Quetelet,
Tocqueville, Marx, Tönnies, Durkheim und Pareto (Nisbet, 1966). Aber die
genannten Denkweisen traten nicht als deus ex machina auf den Plan, indem
abwechselnd die Strippen dieser oder jener Praxis der empirischen Forschung
gezogen wurden. Vielmehr handelte es sich um Gefüge, die alle ihre eigene
Kohärenz besaßen und relativ heterogen in Bezug aufeinander waren, was man
anhand der Debatten über die Erhebungsmethoden des betrachteten Zeit-
raums verfolgen kann. Jedes dieser intellektuellen Gefüge implizierte gleich-
zeitig unterschiedliche Auffassungen über die Verwaltung der Gesellschaft,
238 7 Pars pro toto: Monographien oder Umfragen

über den Rang der Sozialwissenschaften bei dieser Verwaltung und über den
Stellenwert der probabilistischen Schemata in diesen Wissenschaften – von
Quetelet bis hin zu Ronald Fisher. Damit haben wir einen Leitfaden für die
Untersuchung einer Geschichte, in der man Sozialenqueten beschrieb, bevor
über die repräsentative Methode“ gesprochen wurde. Aber wir haben damit

auch einen Leitfaden für Untersuchungen zur Entwicklung von Anwendungen
wahrscheinlichkeitstheoretischer Überlegungen in dieser Zeit, für Betrachtun-
gen zu den Debatten am Internationalen Institut für Statistik zwischen 1895
und 1934, für Untersuchungen der ersten Anwendungen der probabilistischen
Methode und für das Studium der Diskussionen über zufällige Auswahl“ und

bewußte Auswahl“.

Die Rhetorik des Beispiels


Man kann die Philosophie der Untersuchungen, mit denen die durchgeführ-
ten Beobachtungen ohne die moderne Randbedingung der Repräsentativität
verallgemeinert werden sollten, auf der Grundlage dreier scheinbar sehr unter-
schiedlicher Fälle rekonstruieren. Bei diesen Fällen handelt es sich um die von
Le Play und seinen Anhängern (den Leplaysianern2 ) zwischen 1830 und 1900
verfaßten Monographien, um die von den Engländern Booth und Rowntree
durchgeführten Untersuchungen zur Armut und schließlich um die zwischen
1900 und 1940 verfaßten Arbeiten des Durkheimschen Soziologen Halbwachs
zu den Arbeiterhaushalten. Der gemeinsame Ausgangspunkt dieser Erhebun-
gen besteht darin, daß die befragten Personen auf der Grundlagen von Ver-

trautheitsnetzwerken“ ausgewählt wurden: Bei Le Play waren es Familien, die
von den Dorfnotabeln als typisch“ bezeichnet wurden, bei Booth handelte

es sich um Personen, die üblicherweise den Schulinspektoren bekannt waren
und bei Halbwachs waren es Arbeiter, die sich freiwillig bereiterklärt hatten
und durch Vermittlung der Gewerkschaften ausfindig gemacht worden waren.
Diese Auswahlmethoden wurden später als Ursachen von Bias“ 3 gebrand-

markt, aber in dem Kontext, in dem sie angewandt wurden, erwiesen sie sich
als kohärent mit den Zielen der Erhebungen. Diese Ziele bestanden darin, die
Funktionstüchtigkeit (oder die Funktionsstörungen) der Arbeiterkommunen
zu beschreiben, die den tiefgreifenden Veränderungen der ersten Industriali-
sierungsphasen ausgesetzt waren. Es ging noch nicht darum, Messungen zur
Vorbereitung der einzuleitenden Maßnahmen durchzuführen, wie es später bei
der Entwicklung des Wohlfahrtsstaates der Fall war. Vielmehr ging es – insbe-
sondere auf der Grundlage typologischer Arbeiten – um das Zusammentragen
von Elementen zur Darstellung der Personen einer noch zu erzählenden Ge-
schichte: So war etwa die Durchführung von Klassifikationen, bei denen kol-
2
Im französischen Original als leplaysiens bezeichnet.
3
Der englische Begriff bias (französisch: biais) wird im deutschen statistischen
Sprachgebrauch durch folgende Begriffe wiedergegeben: Verzerrung, systemati-
scher Fehler, unpräzise Stichprobe, Nichterwartungstreue.
Die Rhetorik des Beispiels 239

lektive Akteure konstruiert wurden, eines der Produkte dieser Erhebungen.


In der anschließenden Phase waren jedoch die atomisierten Individuen die
Hauptakteure geworden (zum Beispiel im Rahmen von Marktstudien, durch
einen Wahlakt oder durch einen Kaufvorgang), und es war wichtig, sie genau
zu zählen.
Dennoch kann man nicht behaupten, daß bei diesen Erhebungen und ihren
Interpretationen keinerlei wahrscheinlichkeitstheoretische Momente vorhan-
den waren. Aber es handelte sich um die von Quetelet hinterlassene holistische
Version der Wahrscheinlichkeitsrechnung. Diese Version hob die Regelmäßig-
keit der auf der Grundlage großer Populationen berechneten Mittelwerte her-
vor, die im Gegensatz zur Streuung und zum unvorhersehbaren Charakter
der individuellen Verhaltensweisen standen. Diese Regelmäßigkeit war eine
massive Untersetzung des Konzeptes eines sozialen Ganzen, das über seine
Bestandteile hinausgeht und diese umfaßt (vgl. Kapitel 3). Die Anwendung
des Gesetzes der großen Zahlen hinsichtlich der Stabilität der berechneten
Mittelwerte (zum Beispiel in Bezug auf die Anzahlen der Geburten, Heira-
ten, Verbrechen oder Selbstmorde) verblüffte die Zeitgenossen von Quetelet
und bildete das Gerüst einer Makrosoziologie, für die das Soziale“ eine ex-

terne Realität besaß, die über den Individuen stand: Das war die zentrale
Idee des Werkes Der Selbstmord von Durkheim und der Analysen des Arbei-

terbewußtseins“ bei Halbwachs. Aber das Wahrscheinlichkeitsmodell des Ge-
setzes der großen Zahlen bezieht sich auf die Regelmäßigkeit der Mittelwerte
und nicht auf Verteilungen, Merkmalshäufigkeiten oder Streuungen. Deswe-
gen konnte dieses Modell auch nicht der Ursprung von Anwendungen sein, die
auf einem zufälligen Stichprobenverfahren beruhen. Wären nämlich die Mit-
telwerte stabil, dann reichte es aus, Fälle in der Nähe dieser Mittelwerte zu
finden, und nur diese typischen“ Fälle würden die Gesamtheit verkörpern. Es

ist nicht nur so, daß sie die Gesamtheit repräsentieren“ – vielmehr stellen sie

buchstäblich diese Gesamtheit dar, denn in den holistischen Systemen ist die
ganzheitliche Betrachtung das Primäre, während die Individuen lediglich kon-
tingente Manifestationen der Gesamtheit sind. Das intellektuelle Modell für
diesen Durchschnittsbegriff wurde durch die Theorie der Meßfehler bereitge-
stellt, also durch eine von Astronomen und Artilleristen entwickelte Theorie.
Die Höhe eines Sterns war nur auf der Grundlage einer Reihe von zufälligen
Messungen bekannt, die um einen Mittelwert normalverteilt waren und dieser
Mittelwert stellte die beste Schätzung dar. Desgleichen waren für Quetelet
die kontingenten Individuen nichts anderes als zufällige Manifestationen eines
göttlichen Plans“, der eine höhere Realität darstellte.

Bekanntlich dominierte diese Auffassung von Statistik gegen Ende des 19.
Jahrhunderts immer noch – zumindest in Frankreich, denn auf England traf
diese Charakterisierung nach dem Erscheinen der ersten Arbeiten von Gal-
ton und Pearson nicht mehr zu. Dieser Umstand trägt zu einem besseren
Verständnis dessen bei, warum Émile Cheysson, ein Schüler von Le Play, die
Monographie-Methode“ im Jahre 1890 beschrieb und rechtfertigte – kurze

240 7 Pars pro toto: Monographien oder Umfragen

Zeit bevor der Norweger Kiaer seine hiervon grundlegend verschiedene re-

präsentative Methode“ vorstellte:

Monographien vermeiden sorgfältig alle Sonderfälle und verfolgen den


allgemeinen Fall; sie vernachlässigen Komplikationen, Ausnahmen und
Anomalien und halten hartnäckig am Mittelwert und am Typus fest.
Der Typus ist das wahre Wesen der Monographie. Außerhalb des Ty-
pus gibt es für sie kein Heil; aber mit dem Typus erwirbt die Mo-
nographie wahrhaftig das Privileg, die wirtschaftlichen und sozialen
Untersuchungen in glänzender Weise zu beleuchten. Der Beobachter
wird in seiner Wahl von den großen synthetischen Statistiken und
von den amtlichen Untersuchungen geleitet, die das Land mit ihrem
Netz überdecken und sozusagen das Gestrüpp von dem Grundstück
entfernen, auf dem der Autor der Monographien operiert. Dank der
ihm so zur Verfügung gestellten Daten weiß der Autor im Voraus,
welche Population er untersuchen will und wählt seinen Typus präzi-
se und ohne Furcht vor Fehlern. Die amtliche Statistik geht also als
Avantgarde voran und stellt die Mittelwerte bereit, die den Verfasser
der Monographie zu seinem Typus führen. Die Monographie leistet
ihrerseits der Statistik den Dienst, die allgemeinen Ergebnisse der Er-
hebung durch eine detaillierte Untersuchung zu prüfen. Diese beiden
Verfahren kontrollieren also einander, aber jedes der beiden bewahrt
seine charakteristischen Merkmale.
Während sich die Methode der amtlichen Untersuchungen an der
Oberfläche entfaltet, geht die Monographie in die Tiefe. Die amtliche
Statistik setzt ein ganzes Heer von mehr oder weniger eifrigen und er-
fahrenen Bediensteten ein und akkumuliert auf diese Weise eine Masse
von oberflächlich erfaßten Tatsachen unter einem einzigen Aspekt; sie
schüttet diese Datenmasse in kunterbuntem Durcheinander auf ihre
Mühlsteine, um sie miteinander zu vermahlen; sie verläßt sich auf das
Gesetz der großen Zahlen, um elementare Beobachtungsfehler zu eli-
minieren. Im Gegensatz hierzu zielt eine Monographie mehr auf die
Qualität als auf die Quantität der Beobachtungen ab; sie verwendet
nur ausgewählte Beobachter, die gleichzeitig Künstler und Wissen-
schaftler sind und sich kraftvoll einer typischen und eindeutigen Tat-
sache bemächtigen und an ihr festhalten, um sie bis ins kleinste Detail
zu zerlegen. (Cheysson, 1890, [45].)

Den Kern dieser Monographien bildeten die Aufstellungen der Ausgaben


und Einnahmen im Rahmen von Familienbudgets. Diese Aufstellungen wur-
den vom Demoskopen angefertigt, der sich mehr oder weniger lang in den
betreffenden Haushalten aufhielt. Aber selbst wenn diese Monographien auf
der Grundlage des von Le Play vorgegebenen einheitlichen Rahmens“ ver-

faßt wurden, so war es dennoch nicht wirklich vorgesehen, sie miteinander
zu vergleichen, um die Budgetstrukturen herauszuarbeiten, die für die unter-
Die Rhetorik des Beispiels 241

schiedlichen Milieus typisch waren. Das tat zum Beispiel Halbwachs kurze
Zeit später und einer seiner Kritikpunkte war die Verfahrensweise der im Gei-
ste von Le Play verfaßten Monographien (Halbwachs, 1912, [121]). Die Frage
war also: Wozu dienten diese Monographien? Die Erhebungen schienen im
Wesentlichen auf die Verteidigung und Illustration einer gewissen Auffassung
von der Familie und den sozialen Beziehungen ausgerichtet gewesen zu sein.
Die von Cheysson vorgebrachten Argumente bezogen sich auf die Bedürfnisse
der Verwaltung und des Gesetzgebers, die darauf bedacht waren, die Aus-
wirkungen ihrer allgemeinen und abstrakten Maßnahmen auf die konkreten
Einzelfälle der Familien zu ermitteln. Jedoch hingen diese verwaltungsseitigen
Bestrebungen auch mit einer moralischen Sorge zusammen:
Dieses Wissen ist sowohl für den Moralisten unerläßlich, der auf die
Sitten einwirken will, als auch für den Staatsmann, der in der Öffent-
lichkeit wirkt. Das Gesetz ist eine zweischneidige Waffe: es hat eine
große Macht, Gutes zu tun, aber in unerfahrenen Händen kann es auch
sehr viel Unheil anrichten. (Cheysson, 1890, [45].)
Tatsächlich wurden mögliche Anwendungen erwähnt, nämlich einerseits
Untersuchungen zur Verteilung der steuerlichen Lasten auf Landwirte, Kauf-
leute und Industrielle und andererseits Analysen der Wirksamkeit der Be-
stimmungen zum Verbot der Frauen- und Kinderarbeit. Aber sogar in diesen
Fällen war eine explizite moralische Sorge erkennbar. Dagegen wurde keine
Technik angegeben oder auch nur vorgeschlagen, die eine praktische Vermitt-
lung zwischen den wenigen verfügbaren Monographien und den staatlichen
Totalisierungen ermöglicht hätte: zu keinem Zeitpunkt wurde die Frage nach
einem eventuellen kategoriellen Rahmen aufgeworfen, in dem die individuellen
Fälle ihren Platz gefunden hätten. Die Monographien von Le Play und seinen
Schülern wurden aus technischen und politischen Gründen kritisiert und dann
vergessen. Zum einen boten sie keinerlei methodische Garantie bezüglich der
Stichprobenauswahl; zum anderen unterstützten sie einen Diskurs, welcher
der Französischen Revolution, dem allgemeinen Wahlrecht und dem Bürger-
lichen Gesetzbuch feindselig gegenüberstand. Dieser Diskurs zielte darauf ab,
die sozialen Beziehungen des Ancien Régime wiederherzustellen. Und dennoch
war das kognitive und politische Konzept kohärent. Das Wissen basierte auf
einer langandauernden Vertrautheit des Demoskopen mit der Arbeiterfami-
lie. Dieser ungezwungene Umgang wurde explizit als nützlich befunden – und
zwar nicht nur, weil er Wissen produzierte, sondern auch deswegen, weil ein
persönliches Vertrauensverhältnis zwischen Mitgliedern der Oberschicht und
der Unterschicht hergestellt und gepflegt wurde.
Eine solches Wissen, das auf einem direkten Kontakt und dem Wert des
Beispiels aufbaute, schloß im Übrigen eine vergleichende Betrachtung keines-
wegs vollständig aus. Besondere Aufmerksamkeit widmete man dem nichtmo-
netären Teil des Einkommens, der unter Bezeichnungen wie Zuschüsse“ oder

unerwartete Glücksfälle“ registriert wurde: es handelte sich hierbei um Rech-

te zur Nutzung von kommunalem Grund und Boden, um Familiengärten und
242 7 Pars pro toto: Monographien oder Umfragen

um Naturalleistungen. Diese Formen der Entlohnung hingen nicht vom Markt


ab und hielten die direkten und persönlichen Bindungen zwischen Mitgliedern
der verschiedenen Schichten aufrecht. Die Monographien enthielten meistens
Plädoyers für die traditionellen familiären Tugenden und dienten nur selten zu
Strukturvergleichen – außer im Falle des Anteils an nichtmonetären Bezügen,
die vermeintlich die Beständigkeit sozialer Bindungen patriarchalischen Typs
wiederspiegelten. In Osteuropa, einer weitgehend ländlichen und kaum indu-
strialisierten Gesellschaft, war dieser Anteil folglich stärker als im Westen, wo
die Städte und die Warenproduktion einen höheren Stellenwert hatten.
Die Vorstellung, daß sich die (von den wirtschaftlichen und politischen
Veränderungen der Gesellschaft erschütterten) traditionellen sozialen Bindun-
gen nur durch eine langanhaltende Nähe zwischen Beobachtern und Beob-
achteten sowie durch die Berücksichtigung der Gesamtheit der Handlungen
und ihrer Bedeutungen verstehen ließen, die der Demoskop nicht in A-priori -
Einzelpositionen zerlegen und kodieren konnte – diese Vorstellung war auch
in anderen Wissensformen wiederzufinden, die andere Arten der Verallgemei-
nerung als die der statistischen Repräsentativität implizieren: Die Ethnologie
beschreibt die nichteuropäischen Gesellschaften auf der Grundlage langer und
ausdauernder Aufenthalte der Forscher in der betreffenden Gemeinschaft und
die Psychoanalyse konstruiert ein Strukturmodell des Unterbewußten auf der
Grundlage des singulären Materials, das im Verlaufe von sehr lange andau-
ernden persönlichen Wechselbeziehungen gesammelt wurde. Das gleiche ko-
gnitive Vorgehen, demgemäß nur eine gründliche Fallstudie die Beschreibung
des generischen Menschen“ und der Mechanismen der allgemeinen mensch-
” ”
lichen Natur“ ermöglichen, findet sich zur gleichen Zeit in den Arbeiten der
experimentellen Psychologen, zum Beispiel in den Arbeiten des deutschen
Psychologen Wundt, der im Labor versuchte, derartige allgemeinen Merkma-
le herauszuarbeiten. Die Idee der Streuung psychischer Merkmale trat erst
später in den Arbeiten von Pearson und Spearman auf.
Anhand der Art und Weise, in der Cheysson die Auswahl seiner typischen

Fälle“ unter Bezugnahme auf die – mit Hilfe großer synthetischer Untersu-
chungen berechneten – Mittelwerte rechtfertigte, erkennt man deutlich, wie
die Queteletsche Theorie vom Durchschnittsmenschen nahezu für ein ganzes
Jahrhundert ein intellektuelles Schema bereitstellte, das es ermöglichte, gleich-
zeitig die Diversität der individuellen Fälle und die Einheit einer Spezies oder
einer sozialen Gruppe zu erfassen:
... dank der statistischen Daten kennt der Verfasser einer Monographie
die zu untersuchende Population im Voraus und wählt seinen Typus
mit Präzision und ohne Furcht vor Fehlern. Die amtliche Statistik
geht als Avantgarde voran und arbeitet die Mittelwerte heraus, die
den Verfasser zu seinem Typus führen.
Diese Art des Vorgehens war in gewisser Weise ein Vorbote der Methode
der bewußten Auswahl“, die zwischen 1900 und 1930 auf dem Umweg über

das Territorium als eine Art Kettenglied zwischen beiden Verfahren fungierte.
Halbwachs: Die soziale Gruppe und ihre Mitglieder 243

Halbwachs: Die soziale Gruppe und ihre Mitglieder

Halbwachs – ein Schüler von Durkheim – war mehr als sein Lehrer an Er-
hebungstechniken und Tatsachenbeobachtungen interessiert, wie man anhand
seiner Dissertation ( thèse“) La classe ouvrière et des niveaux de vie (1912,

[121]) erkennen kann, die sich mit den Lebensniveaus und Bedürfnissen der
Arbeiterklasse befaßt. Weit mehr als die Leplaysianer (leplaysiens), deren Ar-
beiten er heftig kritisierte, war er für die Diversität der beobachteten Fälle
empfänglich und suchte nach Mitteln, diese Diversität zu interpretieren – so
wie es Durkheim in seinem Werk Der Selbstmord getan hatte, mit dem er die
moderne quantitative Soziologie erfand. Außerdem kannte Halbwachs einige
Arbeiten der Wahrscheinlichkeitstheoretiker: seine Ergänzungsschrift ( thèse

complémentaire“) (1913, [122]) lautet La théorie de l’homme moyen; essai sur
4
Quetelet et la statistique morale , und er hat zusammen mit Maurice Fréchet
im Jahre 1924 (vgl. [97]) sogar ein kleines Handbuch der Wahrscheinlichkeits-
rechnung verfaßt. Die kompakte Diskussion über die Probleme bei Stichpro-
bennahmen und Erhebungen hatte jedoch den Titel Le nombre des budgets
und bezog sich auf das ökonomische“ Gleichgewicht, das zwischen der An-

zahl der befragten Personen und der mehr oder weniger gründlichen Art der
Beobachtungen gefunden werden mußte. Mit anderen Worten: es ging um den
Vergleich zwischen den als intensiv“ und extensiv“ bezeichneten Methoden
” ”
und nicht um die Probleme der Ziehung von Stichproben, auf die er gar nicht
einging.
Das, was Halbwachs vom Gesetz der großen Zahlen beibehalten hat, be-
stand darin, daß sich eine Gesamtheit von kleinen“, zahlreichen, zufälligen

und unterschiedlich gerichteten Ursachen gegenseitig kompensiert und einen
Mittelwert“ erzeugt, der nach dem Schema von Quetelet angeblich die es-

sentielle Wahrheit offenbart. Das galt insbesondere für die als extensiv be-
zeichnete Methode, die damals in den Vereinigten Staaten ziemlich verbreitet
war, wobei manche Stichproben einen Umfang von mehr als 10000 Perso-
nen hatten. Aber ebenso wie er die intensive LePlaysche Methode ablehnte,
die keinen Hinweis auf die Diversität lieferte und daher keine Kreuzungen“

von Variablen erlaubte, um Erklärungen vorzuschlagen, so verwarf er auch
die extensive Methode der Amerikaner. Als konsequenter Soziologe der Durk-
heimschen Schule mißtraute er einer mikrosoziologischen Interpretation des
Gesetzes der großen Zahlen. In der Tat waren sich seiner Meinung nach die
Anhänger der extensiven Methoden des Umstandes wohl bewußt, daß die er-
haltenen Antworten Fehler, Ungenauigkeiten oder Unterlassungen enthalten
konnten, aber

... sie glaubten, daß sie bei einer Erhöhung der Anzahl der Fälle
durch die Wirkung des Gesetzes der großen Zahlen eine Kompen-
4
Die Theorie des Durchschnittsmenschen; Essai über Quetelet und die Moralsta-
tistik.
244 7 Pars pro toto: Monographien oder Umfragen

sation und eine zunehmende Abschwächung dieser Fehler bekommen


würden. (Halbwachs, 1912, [121].)
Jedoch vermutete Halbwachs, daß diese Unterlassungen oder Unvollkom-
menheiten – ähnlich wie alle anderen sozialen Tatbestände – systematische
makrosoziale Ursachen hatten und nicht im wahrscheinlichkeitstheoretischen
Sinne zufällig waren. Er hatte eine intuitive Vorstellung vom systematischen

Fehler“:
... man hat beobachtet, daß sich die Unterlassungen nicht aus Zu-
fall ereignen ... Eine Unterlassung ist die Begleiterscheinung eines Zu-
stands der Unaufmerksamkeit eines Subjekts sowie einer Aufgabe von
hinlänglich großer sozialer Bedeutung, die dieses Subjekt zu erfüllen
hat ... Treten die Unterlassungen periodisch und regelmäßig auf, dann
müssen die Ursachen für die Unaufmerksamkeit und die Ursachen für
die Erklärung der zu verrichtenden Aufgaben auf konstant wirkende
Kräften zurückzuführen sein ... Aber die Tatsache der Periodizität der
Unterlassungen gibt Grund zu der Annahme, daß die Kräfte, die diese
Unterlassungen erklären, sich ihrerseits vermöge des Gefüges des So-
ziallebens auswirken und daß ihre Wirkung in einem exakten Verhält-
nis zur ihrer konstanten Intensität steht. (Halbwachs, 1912, [121].)
Halbwachs widmete sich dann einer detaillierten Analyse der Befragungs-

effekte“, die mit der Interaktion und der Funktion des Demoskopen zusam-
menhängen, und zeigte, daß die Fehler in keinem Falle zufallsbedingt und
unabhängig sein konnten. Tatsächlich wurden bei diesen extensiven amerika-
nischen Untersuchungen keine Bücher geführt und der Befrager bat nach der
Befragung um eine Kostenschätzung für einen gewissen Zeitraum, so daß die
Angaben im Endeffekt auf Meinungen“ beruhten:

Das Ziel der Wissenschaft besteht hier wie anderswo darin, Prinzi-
pien, vorgefaßte Meinungen, sowie vage und widersprüchliche Ideen
durch präzises, faktengestütztes Wissen zu ersetzen; aber hier sind
die Fakten im Voraus deformiert, denn sie werden durch eine Mei-
nung zum Ausdruck gebracht, die diese Fakten abschwächt und ihre
Konturen verwischt. Man dreht sich in einem Kreis von Mittelwerten.
(Halbwachs, 1912, [121].)
Diese Kritik an der amerikanischen Methode bezog sich auf die Vorstellung,
daß das Gesetz der großen Zahlen dafür sorgt, daß sich zahlreiche kleine“ und

unabhängige Fehler angeblich annullieren. Ein Kritikpunkt war, daß sich die
amerikanische Methode nicht auf die Tatsache stützte, daß man mit Hilfe des-
selben Gesetzes die Technik der zufälligen Auswahl einer Stichprobe aus einer
Population rechtfertigen könnte, die in Wirklichkeit – und nicht aufgrund von
Beobachtungsfehlern – diversifiziert war. Wir befinden uns demnach immer
noch eher in der Nähe des Modells von Quetelet als in der Nähe der Modelle
von Galton und Pearson. Halbwachs nannte jedoch explizit die Diversität der
Halbwachs: Die soziale Gruppe und ihre Mitglieder 245

Arbeiterbevölkerung und das war genau der Punkt, an dem er sich Le Play
und dessen Auswahl typischer Fälle“ widersetzte, die auf Durchschnitten be-

ruhten. Halbwachs fragte sich, durch welches sichtbare äußere Merkmal man
eine durchschnittliche Arbeiterfamilie wenigstens in Bezug auf die Struktur
ihrer Einnahmen und ihrer Ausgaben charakterisieren kann:

Viele Haushalte wissen selbst nicht, wie es um die Ausgewogenheit


ihres Budgets bestellt ist. Jedenfalls lassen sie es niemanden wissen.
Es handelt sich um etwas, das man weder sieht, noch spürt, noch ahnt;
ganz ähnlich verhält es sich allenfalls mit der Regelmäßigkeit oder
Beständigkeit der familiären Bindungen. Wo sucht man und wie findet
man in diesem Bereich die durchschnittlichen Fälle? (Halbwachs, 1912,
[121].)
Es war demnach notwendig, eine gewisse Familiendiversität direkt (unter
Führung von Büchern) zu beobachten, um die Wirkungen der Schwankungen
der verschiedenen Faktoren untersuchen zu können: die Größe der Familie,
Vorhandensein von Kindern usw. Aber diese Diversität und diese Schwankun-
gen blieben makrosozial – ganz auf der Linie der konstanten Ursache“ von

Quetelet und der Auffassung, die Durkheim in seinem Werk Der Selbstmord
vertrat. Die von Halbwachs verwendeten deutschen Erhebungen schienen ihm
frei von den Nachteilen der anderen Erhebungen zu sein: sie waren hinrei-
chend klein, um eine sorgfältige Prüfung der Buchführung zu erlauben, aber
sie waren auch groß genug, um Schwankungen zu untersuchen.
Dennoch bestand das Ziel dieser Untersuchungen darin, die Merkmale
eines gemeinsamen Arbeiterbewußtseins“ herauszuarbeiten, dessen relativ

homogener Charakter nicht – wie bei Quetelet – auf eine göttliche Essenz
zurückzuführen war (Halbwachs war eher Materialist), sondern auf eine Ge-
meinsamkeit von materiellen Existenzbedingungen. Eine beinahe Darwinsche
Anpassung führte zu homogenen Verhaltensweisen – sowohl in der Praxis als
auch im Bewußtsein. Letztendlich war es wohl dieses Arbeiterbewußtsein, das
Halbwachs interessierte. Deswegen stellten sich ihm die Probleme der Stich-
probennahme nicht in dem Maße, wie es ein halbes Jahrhundert später bei
denjenigen Statistikern der Fall war, die derartige Erhebungen beispielswei-
se zum Aufbau einer volkswirtschaftlichen Gesamtrechnung verwendeten. Er
beglückwünschte sich, daß der Verband der deutschen Metallarbeiter dazu in
der Lage gewesen war, die Budgetangaben von 400 Haushalten zu sammeln,
und notierte:

Offensichtlich haben wir es der Arbeitersolidarität und dem zuneh-


menden Einfluß der Gewerkschaftsorganisationen auf ihre Mitglieder
zu verdanken, daß wir unsere Ergebnisse erzielen konnten. (Halbwachs,
1912, [121].)
Desweiteren machte er Kommentare zu einigen von Booth in London ge-
sammelten Budgetangaben von sehr armen Familien. Halbwachs fragte sich,
246 7 Pars pro toto: Monographien oder Umfragen

wie streng die Bücher in diesen Extremfällen geführt worden waren und
schloß mit der eisigen Frage, ob diese Anteile an extrem mittellosen Perso-
nen tatsächlich zur Arbeiterklasse gehörten, denn sie dringen nicht bis in das

allgemeine Bewußtsein vor“:
... aufgrund des ärmlichen Zustands dieser Haushalte gibt vielleicht
eine kurze Beobachtung ein richtiges Bild ihres chronischen Elends,
aber man kann sich dessen nicht sicher sein. Außerdem ist diese untere
soziale Schicht, die nicht in das allgemeine Bewußtsein vordringt, nicht
die interessanteste für die Untersuchung der sozialen Schichten und
kann allenfalls nur oberflächlich bekannt werden. (Halbwachs, 1912,
[121].)
Trotz allem, was die Leplaysianer und die Durkheimianer in ihren wis-
senschaftlichen und politischen Projekten voneinander unterscheidet, lassen
sich bezüglich ihrer Vorgehensweise dennoch einige gemeinsame Punkte fest-
halten: Zuallererst waren sie darauf bedacht, die Natur der von den revolu-
tionären Veränderungen aufgelösten sozialen Bindungen neu zu überdenken
(wobei die Durkheimianer zugegebenermaßen subtiler vorgingen als die Le-
playsianer); ferner waren sie mit ihren empirischen Methoden bestrebt, auf
die Beständigkeit der alten Formen und auf die Entstehung neuer Formen
derartiger Bindungen hinzuweisen, indem sie in jedem Falle deren moralische
Tragweite würdigten. Diese Art und Weise der Anwendung einer empirischen
Methode zum Zweck einer sozialen Rekonstruktion war im gesamten 19. Jahr-
hundert üblich – Quetelet eingeschlossen. Jedoch war diese Vorgehensweise
noch nicht mit der Absicht einer direkten sozialen und politischen Aktion
verbunden und demzufolge war es auch nicht erforderlich, daß es sich bei der
Erhebung um eine Vollerhebung im territorialen oder nationalen Sinne handel-
te. Der für die beschriebenen Fälle vorausgesetzte Allgemeinheitsgrad reichte
zur Unterstützung der politischen und moralischen Entwicklungen aus und
setzte dabei keinerlei Form der territorialen Einordnung voraus (außer notge-
drungen für den Fall, in dem Le Play einen allgemeinen Vergleich zwischen
Osteuropa und Westeuropa durchgeführt hatte).

Die Armen: Wie beschreibt man sie


und was macht man mit ihnen?
Die Geschichte der allmählichen Entstehung des Begriffs der Repräsentati-
vität im modernen Sinne läßt sich parallel zur Geschichte der Erweiterung und
Transformation der politischen und wirtschaftlichen Werkzeuge zur Behand-
lung der Armutsprobleme interpretieren – von der Wohltätigkeit der Lehns-
herren und der Kirchengemeinden bis hin zu den Formen des Wohlfahrtsstaa-
tes, die im späten 19. Jahrhundert geschaffen wurden. Um diese Zeit änderte
sich die Funktion der Sozialstatistik: Früher erläuterte die Statistik umfas-
sende Analysen der sozialen Welt, die durch ein holistisches Schema (Modell
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 247

Quetelet) oder durch ein organizistisches Schema (Modell Auguste Comte)


wahrgenommen wurde. Nun aber bildete sie allmählich ein wesentliches Ele-
ment der ansonsten verschiedenartigen politischen Programme, die auf der
Ebene der Individuen wirksam werden sollten. Der Begriff der Repräsentati-
vität erlangte damals eine entscheidende Bedeutung bei der Ermittlung der
Kosten und der Vorteile der umgesetzten politischen Programme.
Drei dieser Bereiche spielten eine wesentliche Rolle bei der Durchsetzung
der Randbedingung der Repräsentativität im modernen Sinne: die Einführung
der ersten Gesetze zur sozialen Sicherung in Nordeuropa ab 1890, die Entwick-
lung der nationalen Konsumgütermärkte (die der Eisenbahn geschuldet war)
sowie schließlich (dank dem Radio) die Möglichkeit, landesweite Wahlkämp-
fe zu führen, wie es in den Vereinigten Staaten in der Zeit zwischen den
beiden Weltkriegen geschah. Der gemeinsame Punkt der Transformationen,
deren Schauplatz diese drei Bereiche darstellten, war der Übergang von lo-
kalen Verwaltungsweisen, die sich an persönlichen Beziehungen orientierten
(Wohltätigkeit, Kleinhandel, Handwerk, ländliche Märkte, Wahlklientelismus)
zu anderen, nationalen Verwaltungsweisen, bei denen das Territorium als Ort
der täglichen Reproduktion der sozialen Bindungen seine relative Bedeutung
verlor. Die Errichtung allgemeiner Äquivalenzräume und die Uniformisierung
des Territoriums waren – zumindest in Frankreich – durch die administrative
Strukturierung des Landes in Departements, die Verbreitung des Bürgerlichen
Gesetzbuches, das allgemeine Wahlrecht, die Wehrpflicht, die Schulpflicht in
konfessionslosen Schulen und durch das Verschwinden der örtlich gesproche-
nen Sprachen vorbereitet worden – ganz zu schweigen vom metrischen System
und vom Eisenbahnfahrplan. Das waren die Vorbedingungen für die Konzipie-
rung der beiden miteinander zusammenhängenden Begriffe der Exhaustivität
und der Repräsentativität, die in den Methoden der Leplaysianer und der
Durkheimianer fehlten.
Eine Illustration des Zusammenhangs zwischen diesen drei Transforma-
tionen – das heißt des Zusammenhangs zwischen der Delokalisierung der So-
zialstatistik, der Verbreitung der repräsentativen Methode“ und des zufalls-

basierten Stichprobenverfahrens sowie der Errichtung des Wohlfahrtstaates –
findet man in zwei Studien (1976 [127], 1987 [128]) von E.P. Hennock über
die Reihe der Armutsuntersuchungen, die nacheinander von Charles Booth,
Seebown Rowntree und Arthur Bowley durchgeführt worden waren. Die Un-
tersuchung der nach 1895 am Internationalen Institut für Statistik geführten
Debatten bestätigt diese Zusammenhangshypothese“ weitgehend.

Im gesamten 19. Jahrhundert hing die Geschichte der englischen Armuts-
untersuchungen mit aufeinanderfolgenden Interpretationen und Erklärungen
der Armut und mit den vorgeschlagenen Behandlungsweisen zusammen (Ab-
rams, 1968, [1]). In der ersten Zeit führte eine reformistische Strömung lokale
Untersuchungen durch, die im Allgemeinen von Empfehlungen zur Verbesse-
rung der Moral der Arbeiterklasse begleitet waren. Dieser Standpunkt unter-
schied sich von der LePlayschen Sichtweise nur dadurch, daß die Verurteilung
der Warenproduktion deutlich weniger heftig ausfiel. In den 1880er Jahren
248 7 Pars pro toto: Monographien oder Umfragen

wütete die Wirtschaftskrise und die Lage in London, vor allem in East End,
war besonders dramatisch. Es setzte eine Diskussion darüber ein, welcher Teil
der Arbeiterklasse unterhalb einer als extrem betrachteten Armutsschwelle
lebte. Diese stets und ständig wiederkehrende Debatte erwies sich als unlösbar,
da die Definitionen der Armutsschwelle und der entsprechenden Meßmethoden
reichlich konventionell waren. Dennoch erwies sich die Debatte als signifikant,
denn sie war der Ursprung einer Armutstypologie, die gleichzeitig deskrip-
tiv, explikativ und operativ war. Aus seinen Messungen der Armut leitete
Booth Lösungsmaßnahmen ab: Ausweisung der sehr Armen aus London –
das heißt derjenigen Personen, die aus im Wesentlichen moralischen Gründen
(Trunksucht, Gedankenlosigkeit) arm waren –, um die Lasten derjenigen zu
erleichtern, die etwas weniger unter der Armut litten und aus wirtschaftlichen
oder jedenfalls makrosozialen Gründen (Krise) verarmt waren. Die Einteilung
erwies sich tatsächlich als viel komplexer (es gab acht Kategorien) und bezog
sich sowohl auf die Höhe als auch auf die Regelmäßigkeit des Einkommens
(vgl. Kapitel 8). Die Zählungen wurden auf der Grundlage der Eindrücke“

von Kontrolleuren“ vorgenommen und führten zu detaillierten Statistiken.

Aber das eigentlich Wichtige war die Verbindung der Taxonomie mit den
geographischen Ergebnissen. Bis zu diesem Zeitpunkt wurden die Armutspro-
bleme auf der Ebene der Stadtgemeinden behandelt. Aber das Beispiel Lon-
dons war besonders dramatisch und es zeigte sich, daß – im Gegensatz zur
allgemeinen Meinung – der Anteil der sehr Armen“ in ganz London kaum

niedriger war als in East End allein (Untersuchung von Charles Booth). Die
Frage der geographischen Repräsentativität der Ergebnisse, die für die ein-
zelnen Stadtteile gewonnen wurden, führte allmählich zu politischen Schluß-
folgerungen. Der Vorschlag zur Ausweisung der sehr Armen stützte sich auf
die Überzeugung, daß die Situation in London am gravierendsten war. Nun
war aber die Untersuchung nur in London durchgeführt worden und es war
nicht mehr möglich, Verallgemeinerungen nach Art von Le Play oder gar nach
Art von Halbwachs vorzunehmen. Um handeln zu können, benötigte man ein
Modell , und zwar ein reduziertes Modell .
Rowntree organisierte einige Jahre später in anderen Städten Englands
(insbesondere in York) Untersuchungen, die mit den von Booth in London
durchgeführten Erhebungen vergleichbar waren. Er spürte, daß die Methoden
von Booth fragwürdig waren und widmete den Techniken der Datensamm-
lung eine größere Aufmerksamkeit. Jedoch konnte er die Methoden nicht
vollständig ändern, denn sein Ziel bestand darin, die Anteile der sehr Ar-
men in beiden Städten miteinander zu vergleichen. Nun zeigte es sich aber,
daß dieser Anteil in York kaum niedriger war als in London. Dieses Ergeb-
nis unterstützte das Argument, gemäß dem die Armut nicht lokal behandelt
werden kann. Die Verabschiedung eines neuen Fürsorgegesetzes (poor law ) im
Jahre 1908 erfolgte im Kontext einer nationalen Verantwortungsübernahme
für eine entstehende soziale Sicherung. Auf diese Weise gab man makrosoziale
Antworten auf Probleme, die nicht mehr im Rahmen der individuellen Moral
präsentiert werden konnten (Lohnzurückhaltung der Arbeiter und bürgerliche
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 249

Wohltätigkeit). In der Zeit zwischen Booth (1880er Jahre) und Rowntree (im
Zeitraum zwischen 1900 und 1910) wurden die anfänglich lokal formulierten
Probleme durch Begriffe ausgedrückt, die sich auf das ganze Land bezogen.
Jedoch gab es noch kein Werkzeug, auf das sich diese neue nationale Sozial-
statistik stützen konnte. Dieses Werkzeug wurde von Bowley eingeführt.
Die Beziehung zwischen der Erhebungstechnik, dem von ihr erwarteten
Nutzen und den eingesetzten Mitteln änderte sich nicht nur aufgrund der
Verabschiedung der neuen Sozialgesetze radikal, sondern auch wegen der im
damaligen England zunehmenden Bedeutung der Diskussionen über die Kon-
kurrenz zwischen den großen Industrieländern und über die Frage des Freihan-
dels. Es wurden mehrere Erhebungen durchgeführt, in denen man verschie-
dene Länder miteinander verglich. Rowntree nahm Kontakt zu Halbwachs
auf, der auf der Grundlage der Methoden des Engländers eine Untersuchung
durchführte, die von der SGF veröffentlicht wurde (Halbwachs, 1914, [123]).
Vor allem aber organisierte das englische Board of Trade in der Folgezeit ei-
ne umfassende Operation in mehreren Ländern. Zwar setzte man dabei noch
keine probabilistischen Methoden ein, aber es war die erste derart umfang-
reiche Erhebung in Europa und vor allem bezog sie sich auf mehrere Länder.
In Frankreich führte man Umfragen bei 5605 Arbeiterfamilien durch; die Fra-
gebögen wurden von Arbeitnehmergewerkschaften in ungefähr dreißig Städten
verteilt (Board of Trade, 1909, [18]).
Die englische liberale Regierung brauchte Argumente für ihren Kampf ge-
gen den Protektionismus und stellte deswegen bedeutende öffentliche Mittel
für das Board of Trade bereit. Diese Mittel ermöglichten es, Untersuchungen
in einer großen Zahl von Städten durchzuführen. Darüber hinaus konnte man
jetzt diejenigen Probleme formulieren, die für die spätere Errichtung der für
Stichprobenerhebungen erforderlichen Infrastruktur entscheidend waren: Or-
ganisation eines Netzwerks von homogenen“ Demoskopen und Berücksich-

tigung der Unterschiede, die auf lokale Umstände“ zurückzuführen waren

(Wohnungstypen, Verbrauchergewohnheiten, Beschäftigungsstrukturen). Die
Nutzung derartiger Erhebungen für einen Vergleich zwischen Städten inner-
halb eines Landes war ein a priori nicht gewolltes Nebenprodukt des interna-
tionalen Vergleichs (Hennock, 1987, [128]).
Die nächste Phase, die durch diese großangelegte Operation möglich wur-
de, bestand darin, daß Bowley auf plausible Weise die Bedingungen für die
Möglichkeit von (entsprechend der damaligen Terminologie) repräsentativen“

Erhebungen formulieren konnte. Er tat dies, indem er eine derartige Erhe-
bung mit einer Quote von 1:20 in vier ausgewählten Städten durchführte,
von denen zwei eher mono-industriell“ waren, die anderen beiden dagegen

multi-industriell“. Er hatte auch erkannt, daß die Voraussetzungen der Ex-

haustivität und der Repräsentativität einander bedingten: die Verpflichtung
zu antworten war ein Thema, das früher nicht existierte. Durch diese Vorge-
hensweise entfernte er den Prozeß der Wechselwirkung zwischen Befrager und
Befragung aus dem Modell des vertrauensvollen Umgangs, der im Rahmen des
Soziabilitätsnetzwerks der früheren Erhebungen entstanden war. Stattdessen
250 7 Pars pro toto: Monographien oder Umfragen

näherte er den Prozeß an eine allgemeine Form der Bürgerpflicht an – ähnlich


dem allgemeinen Wahlrecht oder der Wehrpflicht.
Ebenso änderte sich auch die Natur der Fehler und die Genauigkeit:
Während Rowntree besonders pedantisch in Bezug auf die Aufzeichnung der
Informationen war – gleichzeitig aber Fragen der Stichprobenauswahl ignorier-
te – ging Bowley weniger streng mit den Informationsaufzeichnungen um. Bei-
spielsweise warf ihm Rowntree vor, daß er – Bowley – Antworten zur Lohnhöhe
akzeptiert hätte, die von den Ehefrauen der Lohnarbeiter gegeben wurden, als
die Arbeiter nicht anwesend waren. Rowntree hätte sich geweigert, derartige
Antworten zu akzeptieren. Vor allem aber machte Bowley die Ungenauigkeiten
und die Fehlergrenzen zu einem respektablen Objekt, zu etwas Besonderem
(Konfidenzintervall), das nicht mehr auf schändliche Weise im schamhaften

Verschweigen“ des Fehlers verschleiert wurde. Die Technik und das Gesetz
der großen Zahlen ersetzten die Moralisierung des Individuums. Ebenso ver-
suchte Bowley nicht mehr – wie es noch Booth getan hatte – die Armut auf
der Grundlage von visuellen Eindrücken zu identifizieren, die bei Besuchen
entstanden waren. Vielmehr stützte sich Bowley auf feste und quantifizier-
bare Variable. Auch versuchte er nicht mehr, zwischen einer mit schlech-

ten Gewohnheiten“ zusammenhängenden Armut und einer anderen Armut zu
unterscheiden, die auf wirtschaftliche Ursachen zurückzuführen war. Damit
verbannte er jegliches moralische Urteil aus seinen Untersuchungen.
Und schließlich erhob er – sozusagen in Umwertung all dessen, was früher
die berufliche Identität ausmachte – den Anspruch, daß er selbst keine Lösung
des Armenproblems anbieten müsse. Ungefähr um die gleiche Zeit hatte Max
Weber ähnlicherweise gefordert, zwischen dem Wissenschaftler und dem Po-

litiker“ zu unterscheiden. Das war eine ganz neue Position im Vergleich zu
allem, was sich im 19. Jahrhundert ereignet hatte:
Im Rahmen unserer Tätigkeit als Ökonomen und Statistiker gehören
Notbehelfe oder Notlösungen (zur Senkung der Armut) nicht zu un-
seren Belangen; zu unseren Belangen gehört vielmehr eine korrekte
Kenntnis und eine exakte Diagnose des Umfangs dieser Übel, gegen
die man wohlüberlegte und dauerhafte Abhilfen schaffen kann (Bow-
ley, 1906, [29]).
Booth, Rowntree und Bowley kannten sich und nahmen Bezug aufeinan-
der. Der Vergleich der von ihnen durchgeführten Untersuchungen zeigt die
Kohärenz der verschiedenen kognitiven, technischen und politischen Aspekte
der vollkommen neuen Wissens- und Verallgemeinerungsmittel, die um 1900
auf den Plan traten. Die folgenden Entwicklungen waren nicht voneinander
zu trennen: Errichtung des Wohlfahrtsstaates auf dem gesamten Territori-
um; Delokalisierung der Produktion und der Dateninterpretation; Ersetzung
der Moralurteile durch neutrale technische Mechanismen und schließlich das
Auftreten eines neuen Berufsbildes in der Person des Staatsstatistikers. Der
Staatsstatistiker unterschied sich sowohl vom gebildeten Gelehrten des 19.
Jahrhunderts, dem die Auflösung der sozialen Bindungen keine Ruhe ließ, als
Von Monographien zu systematischen Stichprobenerhebungen 251

auch vom Verwaltungsbeamten, der direkt für die Bearbeitung der sozialen
Probleme verantwortlich zeichnete.

Von Monographien
zu systematischen Stichprobenerhebungen

Das neue Berufsbild zeichnete sich immer deutlicher in den nationalen stati-
stischen Gesellschaften und vor allem im Internationalen Institut für Statistik
(IIS) ab, das 1883 gegründet wurde und die bedeutendsten Staatsstatistiker
zusammenführte. In diesen verschiedenen Einrichtungen wurden die aufge-
klärten und eklektischen Amateure des 19. Jahrhunderts zwischen 1900 und
1940 allmählich durch professionelle Techniker der Statistik ersetzt, die eine
immer größere mathematische Bildung und eine immer geringere historische
oder politische Bildung hatten. Das war der Rahmen, in dem die repräsenta-

tive Methode“ nach 1895 zweimal diskutiert wurde. Den Anstoß hierzu gab der
Norweger Kiaer, der 1894 in seiner Heimat eine erste repräsentative Zählung“

durchgeführt hatte. Diese Zählung beinhaltete aufeinanderfolgende Auswah-
len von Orten und Personen, die in diesen Orten befragt wurden, und bezog
sich auf Berufe, Einkommen, Ausgaben, Ehe und Anzahl der Kinder sowie auf
die Anzahl der Tage, an denen nicht gearbeitet wurde.
Die Initiative von Kiaer wurde ausgiebig auf den vier aufeinanderfolgenden
Kongressen des IIS diskutiert, die in der Zeit zwischen 1895 und 1903 stattge-
funden hatten. Auf dem Berliner Kongreß 1904 wurde ein Antrag angenom-
men, der diese Methode unter dem Vorbehalt favorisierte, daß klar erkennbar
anzugeben ist, unter welchen Voraussetzungen die beobachteten Einheiten

ausgewählt werden“. Der damals angeforderte Bericht wurde erst 1925 von
dem Dänen Jensen vorgelegt und man nahm einen Antrag an, der keinen Un-
terschied zwischen dem Verfahren der zufälligen Auswahl“ (random sample)

und dem Verfahren der bewußten Auswahl“ 5 (purposive sample) machte. Die

letztgenannte Methode wurde erst im Anschluß an die Arbeiten von Neyman
im Jahre 1934 eliminiert.
In der ersten Phase (1895–1903) hatte man den wahrscheinlichkeitstheo-
retischen Aspekt der neuen Methode und die Notwendigkeit des zufälligen
Charakters der Auswahlen kaum wahrgenommen. Im Übrigen war Kiaer bei
seiner ersten Erhebung 1894 in dieser Hinsicht nicht sehr anspruchsvoll und
erfaßte damals noch nicht die Bedeutung des wahrscheinlichkeitstheoretischen
Aspekts. Nachdem er beispielsweise die Orte und Straßen sorgfältig gezogen“

hatte, überließ er den Befragern die Auswahl der zu besichtigenden Häuser:

Sie mußten dafür Sorge tragen, nicht nur Häuser zu besuchen, die
vom sozialen Standpunkt zum Durchschnitt gehören, sondern im All-
gemeinen auch Häuser, welche die unterschiedlichen sozialen und wirt-
5
Auch gezielte Auswahl“ genannt.

252 7 Pars pro toto: Monographien oder Umfragen

schaftlichen Bedingungen der Gemeinde repräsentieren (Kiaer, 1895,


[152]).

Kiaer beharrte mit Nachdruck und zum ersten Mal an einer solchen Stel-
le auf dem Begriff der Repräsentativität. Damit wollte er zeigen, daß man
mit Hilfe einiger (vorerst noch rudimentärer) Vorsichtsmaßnahmen bezüglich
der Stichprobenauswahl für einige kontrollierbaren“ Variablen (die bereits in

den Vollerhebungen auftraten) hinreichend gute Ergebnisse erzielt und deswe-
gen voraussetzen kann, daß diese Ergebnisse auch für die anderen Variablen
hinlänglich gut“ sein würden, ohne eine allzu präzise Definition des letztge-

nannten Begriffes zu geben. Das Wesen des Begriffs der Repräsentativität war
hier bereits vorhanden: Der Teil kann das Ganze ersetzen – dagegen dachte
man bei den früheren Untersuchungen nicht daran, einen Teil mit dem Ganzen
zu vergleichen, denn man faßte das Ganze nicht mit denselben Begriffen auf.
So war bei Quetelet der Durchschnittsmensch eine Zusammenfassung“ der

Bevölkerung, aber die Aufmerksamkeit konzentrierte sich auf die durchschnitt-
lichen Merkmale und deren Regelmäßigkeiten und nicht auf die tatsächliche
Bevölkerung mit ihren Grenzen, ihren Strukturen und ihrer Exhaustivität.
Bei Kiaer dagegen ist das Bemühen um eine in diesem neuen Sinne ex-
haustive und repräsentative Beschreibung gegenwärtig – auch wenn das ent-
sprechende technische Werkzeug noch nicht verfügbar war. Dieses Werkzeug,
das zur Konstruktion einer Zufallsstichprobe und zur Berechnung der Kon-
fidenzintervalle erforderlich war, wurde erst 1906 von Bowley außerhalb des
IIS vorgestellt (wobei Bowley dann aber 1925 aktiv am Kongreß des IIS teil-
nahm, auf dem die Debatte mit Jensen, March und Gini erneut in Gang kam).
Die technischen Debatten, die bei diesen Zusammenkünften von Statistikern
geführt wurden, sind in bedeutenden Forschungsarbeiten (Seng (1951, [255]),
Kruskal und Mosteller (1980, [160])) unter dem Blickwinkel der allmählichen
Einbeziehung der Ergebnisse der Wahrscheinlichkeitsrechnung und der ma-
thematischen Statistik in die Theorie der Stichprobenauswahl beschrieben
worden. Die für diesen Standpunkt entscheidende Phase war die Arbeit von
Neyman (1934, [210]) zur Stratifizierung, mit der die bewußt“ oder gezielt“
” ”
ausgewählten Stichproben in der Versenkung verschwanden. Wir gehen hier
auf diese Debatten nicht ein, wollen stattdessen jedoch untersuchen, wie Kiaer
seine Methode einführte und wie er das Bedürfnis empfand, diese Methode
mit den Monographien LePlayscher Art zu vergleichen – was einem Statistiker
des nachfolgenden 20. Jahrhunderts nicht mehr in den Sinn gekommen wäre.
Die Rechtfertigungen, die er sogleich für seine Untersuchung gab, waren be-
zeichnend für den plötzlichen Übergang von einer Zeit, in der die Beziehungen
zwischen den Kategorien noch durch den Begriff der Anordnung ausgedrückt
wurden und daher vergleichbar waren, zu einer neuen Zeit. Nun ließen sich
die Individuen verschiedener Kategorien durch ein gemeinsames Maß mitein-
ander vergleichen. Das Thema der Ungleichheit, das in einem anderen System
undenkbar war, wurde zu einem fundamentalen Thema: Man drückte Pro-
bleme der Armut nicht mehr mit Hilfe der Begriffe der Wohltätigkeit und
Von Monographien zu systematischen Stichprobenerhebungen 253

der gutnachbarlichen Beziehungen aus, sondern durch Sozialgesetze, die von


den Parlamenten verabschiedet wurden. Kiaer bemerkte nämlich, daß sich die
früheren Erhebungen lediglich auf die Arbeiter (oder auf die Armen) bezo-
gen, da es noch nicht vorstellbar war, unterschiedliche Kategorien im Rahmen
eines übergeordneten Ganzen zueinander in Äquivalenz zu setzen. Er war so-
mit einer den Ersten, die das Problem der sozialen Ungleichheiten“ in dieser

Weise aufwarfen, und es ist verblüffend, daß diese Idee im Jahre 1895 gleich
am Anfang des ersten Textes eines Staatsstatistikers formuliert wurde, der
sich mit Fragen der Repräsentativität befaßte:

Besonders erstaunt hat mich, daß die detaillierten Untersuchungen


über Einkommen, Wohnungen und andere wirtschaftliche oder soziale
Bedingungen der Arbeiterklasse nicht in analoger Weise auf alle ande-
ren Klassen der Gesellschaft verallgemeinert worden sind. Es scheint
mir offensichtlich zu sein, daß man selbst dann, wenn man nur die
eigentliche Arbeiterfrage berücksichtigt, auch die wirtschaftliche, so-
ziale und moralische Lage der Arbeiter mit der entsprechenden Lage
des Mittelstandes und der wohlhabenden Schichten vergleichen muß.
In einem Land, in dem die Oberschicht sehr reich und der Mittelstand
gut situiert ist, werden die Ansprüche der Arbeiterklasse in Bezug auf
Löhne und Wohnungen nach einem anderen Maßstab gemessen, als in
einem Land (oder an einem Ort), wo die Mehrzahl der zur Oberschicht
gehörenden Leute nicht reich ist und wo der Mittelstand in Geldverle-
genheit ist. Aus diesem Vorschlag folgt, daß man – um die Bedingun-
gen der Arbeiterklasse erfolgreich beurteilen zu können – zusätzlich
auch die entsprechenden Einzelheiten der anderen Schichten kennen
muß. Aber man muß noch einen Schritt weitergehen, denn die Ge-
sellschaft besteht nicht nur aus der Arbeiterklasse und man darf bei
Sozialenqueten keine Schicht der Gesellschaft vernachlässigen. (Kiaer,
1895, [152].)
Unmittelbar danach erläuterte er, daß sich diese Untersuchung für die
Gründung einer Pensions- und Sozialversicherungskasse als nützlich erweisen
würde, da sie einen sozialen Ausgleich und eine statistische Behandlung der
verschiedenen Risiken garantiert:

Seit Beginn dieses Jahres wurde und wird in unserem Land eine re-
präsentative Zählung durchgeführt, deren Ziel es ist, verschiedene Fra-
gen zum Projekt der Gründung einer allgemeinen Rentenkasse und
einer Invaliditäts- und Altersversicherung zu klären. Diese Zählung
erfolgt unter der Schirmherrschaft eines parlamentarischen Ausschus-
ses, der mit der Prüfung dieser Fragen beauftragt wurde und dem ich
als Mitglied angehöre. (Kiaer, 1895, [152].)
Zwei Jahre später, 1897, drehte sich die Debatte im Verlauf einer neuen
Diskussion am IIS um das, was die repräsentative Methode“ im Vergleich

254 7 Pars pro toto: Monographien oder Umfragen

zur typologischen Methode“ gebracht hat, die damals innerhalb des IIS von

Leplaysianischen Statistikern wie Cheysson empfohlen wurde. Kiaer hob nach-
drücklich den territorialen Aspekt hervor, indem er das Gesamtterritorium in
einem verkleinerten Maßstab darstellte und nicht nur Typen zeigte, sondern
auch die Vielfalt der Fälle, die im Leben vorkommen“. Zwar schnitt er da-

bei noch nicht die Frage der zufälligen Auswahl an, aber er bestand auf der
Kontrolle der Ergebnisse durch die allgemeine Statistik:

Ich finde nicht, daß die in unserem Programm verwendete Terminolo-


gie, das heißt Verfahren der typologischen Studien“, meinen Vorstel-

lungen entspricht. Ich werde Gelegenheit haben, auf den Unterschied
hinzuweisen, der zwischen den typenbezogenen Untersuchungen und
den repräsentativen Untersuchungen besteht. Unter repräsentativer
Untersuchung verstehe ich eine teilweise Erkundung, bei der Beob-
achtungen in einer großen Anzahl von über dem gesamten Territorium
verstreuten und verteilten Orten in einer Art und Weise durchgeführt
werden, daß die Gesamtheit der beobachteten Orte einem verkleiner-
ten Maßstab des Gesamtterritoriums entspricht. Diese Orte dürfen
nicht willkürlich ausgewählt werden; sie müssen vielmehr entspre-
chend einer sinnvollen Einteilung ausgewählt werden, die sich auf die
allgemeinen Ergebnisse der Statistik stützt. Die individuellen Erhe-
bungsbögen, derer man sich bedient, müssen so abgefaßt sein, daß die
in ihnen auftretenden Ergebnisse in mehrerlei Hinsicht mit Hilfe der
allgemeinen Statistik kontrolliert werden können. (Kiaer, 1895, [152].)
Als Kiaer seine Methode, die eine Beschreibung der Vielfalt der Fälle“ ge-

stattete, mit der Methode verglich, die lediglich typische Fälle“ zeigte, hob er

eine Veränderung hervor, die parallel zu der von Galton und Pearson bewirk-
ten Wandlung der alten Mittelwert-Statistik von Quetelet verlief: Von nun an
richteten die englische Eugeniker die Aufmerksamkeit auf die Variabilität der
individuellen Fälle unter Berücksichtigung der Begriffe Varianz , Korrelation
und Regression und überführten dadurch die Statistik aus dem Stadium der
Untersuchung von Ganzheiten, die in Mittelwerten zusammengefaßt waren
(Holismus), in das Stadium der Analyse der Verteilungen von Individuen, die
miteinander verglichen werden:

Das Institut hat Untersuchungen empfohlen, die auf der Grundlage


von ausgewählten Typen durchgeführt werden. Ohne die Nützlichkeit
dieser Form der partiellen Untersuchung zu bestreiten, denke ich, daß
sie im Vergleich zu repräsentativen Untersuchungen gewisse Nachteile
hat. Selbst wenn man die Anteile kennt, in denen die verschiedenen
Typen in die Gesamtheit eingehen, ist man noch weit davon entfernt,
ein plausibles Ergebnis für die Gesamtheit zu erzielen. Denn die Ge-
samtheit umfaßt nicht nur die Typen, das heißt die Durchschnitts-
verhältnisse, sondern die ganze Vielfalt der Fälle, die im Leben auf-
treten. Soll demnach eine partielle Untersuchung einen wahren ver-
Von Monographien zu systematischen Stichprobenerhebungen 255

kleinerten Maßstab der Gesamtheit liefern, dann ist es notwendig, daß


man nicht nur die Typen, sondern alle Arten von Phänomenen beob-
achtet. Und das ist es, was man – wenn nicht gar vollständig – mit
Hilfe einer guten repräsentativen Methode erreichen kann, die weder
die Typen noch die Variationen vernachlässigt. (Kiaer, 1895, [152].)

Kiaer versuchte dann, sich zwischen den beiden fundamental verschiedenen


Erkenntnisweisen zu positionieren, die auf der einen Seite durch individuelle
Monographien und auf der anderen Seite durch Vollerhebungen repräsentiert
wurden. Überraschenderweise hob er dabei hervor, daß er es genau so gut
machen könne, wie die Monographien auf ihrem Terrain ( Blut, Fleisch, Ner-

ven“). Jedoch wurden anschließend die Stichprobenerhebungen (hinsichtlich
Kosten und Genauigkeit) mit Vollerhebungen und keineswegs mit Monogra-
phien verglichen. Das zeigt die Prägnanz einer Erkenntnisweise, die auf der
intuitiven Erfassung der Gesamtperson aufbaut:
Bei der Diskussion über die wechselseitigen Rollen der Monographien
und der partiellen Statistik sagten wir, daß sich Monographien mit
Objekten befassen, die man weder zählen noch wiegen, noch messen
kann; dagegen beschäftigt sich die partielle Statistik mit Objekten,

die in ihrer Gesamtheit gezählt werden können, die aber absichtlich
nur zum Teil gezählt werden“... Im Allgemeinen glaube ich, daß ich
auf die partiellen Untersuchungen und vor allem auf die repräsenta-
tiven Untersuchungen die eloquenten Worte unseres sehr verehrten
Kollegen Herrn Bodio anwenden kann, die er in Bezug auf die Arbeit
unseres von allen betrauerten Kollegen Dr. Engel zu den Familienbud-
gets von Arbeiterfamilien äußerte: Die statistische Monographie und

die Zählung sind zwei einander ergänzende Untersuchungsarten zur
Ermittlung der sozialen Tatbestände. Die Zählung allein kann nur die
allgemeinen Profile der Phänomene liefern, sozusagen nur die Silhou-
ette der Figuren. Monographien – und dazu zähle ich partielle Unter-
suchungen im Allgemeinen – ermöglichen ein Vorantreiben der Ana-
lyse aller Einzelheiten des wirtschaftlichen und moralischen Lebens
des Volkes. Monographien geben dem von der allgemeinen Statistik
errichteten Skelett das Blut, das Fleisch und die Nerven, während die
Vollerhebung ihrerseits die von den Monographien gelieferten Begriffe
ergänzt“. Unter der Voraussetzung, daß ich dort den Begriff partielle

Untersuchung“ einfüge, finde ich, daß diese Worte von Luigi Bodio eine
ausgezeichnete Demonstration der wechselseitigen Rollen der partiel-
len Untersuchungen und der allgemeinen Statistik sind. (Kiaer, 1895,
[152].)

Kiaer beschrieb dann sein ideales Werkzeug, das ebenso reichhaltig wie
die Monographien und ebenso präzise wie die Vollerhebungen war – sofern
man nur die Randbedingung der Repräsentativität einhält (er erfaßte diesen
Begriff intuitiv, besaß aber noch kein Werkzeug dafür):
256 7 Pars pro toto: Monographien oder Umfragen

Der wissenschaftliche Wert der partiellen Untersuchungen hängt weit


mehr von deren repräsentativem Charakter als von der Anzahl der
Daten ab. Es kommt oft vor, daß die leicht zu erhaltenden Daten eher
eine Elite als gewöhnliche Typen darstellen. (Kiaer, 1895, [152].)

Man kann a posteriori verifizieren, daß das angewendete Verfahren taug-


lich ist, falls bei den kontrollierbaren Variablen keine allzu große Abweichung
zwischen Stichprobe und Zählung auftritt.

Im gleichen Maße, in dem sich die partielle Untersuchung hinsichtlich


der kontrollierbaren Punkte als korrekt erweist, ist sie wahrscheinlich
auch bezüglich derjenigen Punkte korrekt, die nicht mit Hilfe der all-
gemeinen Statistik kontrolliert werden können (Kiaer, 1895, [152].)

Noch niemandem war die Idee gekommen, daß es die gleich zu Beginn des
19. Jahrhunderts formulierten wahrscheinlichkeitstheoretischen Sätze ermögli-
chen könnten, mehr über die wahrscheinlichen Fehler“ zu sagen, die bei der

Auswahl von Zufallsstichproben auftreten (womit man auch mehr über die
Signifikanz der von Kiaer beobachteten Abweichungen sagen konnte). Sein
Verfahren wurzelte in einer soliden Kenntnis des Terrains und Kontrollen
fanden nur nachträglich statt. Die Deterritorialisierung und die Mathemati-
sierung der Verfahren erfolgten erst später.
Erst 1901 kam es – im Rahmen einer erneuten Diskussion über das Ver-
fahren von Kiaer – zum zaghaften Einsatz von probabilistischen Methoden.
Der Ökonom und Statistiker Bortkiewicz6 behauptete damals, von Poisson

für analoge Fälle abgeleitete Formeln verwendet zu haben, um herauszube-
kommen, ob der Unterschied zweier Zahlen auf einen Zufall zurückzuführen
war“. Dabei stellte er fest, daß dies in den von Kiaer vorgestellten Fällen nicht
zutraf und daß die Abweichungen signifikant waren. Demnach war die Stich-
probe von Kiaer nicht so repräsentativ, wie er es gedacht hatte. Es sieht so
aus, als ob Bortkiewicz dem Norweger Kiaer einen schweren Schlag versetzt
hätte. Dennoch nahm im Verlauf der Debatte merkwürdigerweise niemand
die Argumentation von Bortkiewicz auf und es ist nichteinmal bekannt, wie
Kiaer reagiert hat. Vielleicht hatte Bowley davon Wind bekommen“, da er

fünf Jahre später, im Jahre 1906, der Royal Statistical Society die ersten Be-
rechnungen von Konfidenzintervallen vorlegte (Bowley, 1906, [29]).

6
Ladislaus von Bortkiewicz (Vladislav Iosifovich Bortkevich), geb. 1868 in St. Pe-
tersburg, gest. 1931 in Berlin. Bortkiewicz studierte in St. Petersburg Rechts-
und Staatswissenschaften und nach dem Staatsexamen mathematische Statistik
bei W. Lexis in Göttingen und G.F. Knapp in Straßburg; seit 1901 Professor für
Staatswissenschaften in Berlin. Bortkiewicz war um die Mathematisierung der
Statistik in Deutschland bemüht.
Wie verbindet man was man schon weiß“ mit dem Zufall? 257

Wie verbindet man was man schon weiß“

mit dem Zufall?

Die Idee, gemäß der man die Repräsentativität einer Stichprobe durch Kon-

trollvariable“ garantieren kann, hatte nichtsdestoweniger im Rahmen der Me-
thode der bewußten Auswahl“ noch etwa dreißig weitere Jahre Bestand. Bei

dieser Methode (Erbe der vorhergehenden Epoche) wurde auch weiterhin die
territoriale Einteilung des nationalen Raumes in eine Gesamtheit von Distrik-
ten bevorzugt, aus der man eine Untermenge auswählt – und zwar nicht nach
dem Zufallsprinzip, sondern so, daß eine gewisse Anzahl von wesentlichen
Variablen (die sogenannten Kontrollvariablen) für diese Untermenge und für
das gesamte Territorium den gleichen Wert haben. Eine bemerkenswerte An-
wendung dieser Methode wurde 1928 von dem Italiener Corrado Gini vorge-
stellt. Nachdem man sich aus Platzgründen der individuellen amtlichen sta-
tistischen Berichte der Volkszählung von 1921 entledigen mußte, hatte Gini
die Idee, einen Teil davon zu behalten. Er bewahrte diejenigen Berichte aus
29 (von den insgesamt 214) italienischen Regionalbezirken auf, bei denen die
Mittelwerte der 7 Variablen in der Nähe der betreffenden Landeswerte lagen
(durchschnittliche Höhe über dem Meeresspiegel, Geburtenrate, Sterberate,
Heiratsrate, Anteil der ländlichen Bevölkerung, Anteil der in Ballungsräumen
lebenden Bevölkerung, Durchschnittseinkommen). Die Auswahl der 29 Regio-
nalbezirke, die diesen Randbedingungen am besten entsprachen, war das Er-
gebnis mühsamer tastender Versuche. Gini selbst übte Kritik an der Auswahl
und zeigte, daß es keinen Grund für die Annahme gibt, daß diese Stichprobe
ein guter Ersatz für ganz Italien ist – es sei denn, man macht sehr speziel-
le Voraussetzungen in Bezug auf die Linearität der Korrelationen zwischen
kontrollierten und nichtkontrollierten Variablen.
Die ganze Diskussion, die sich vom Bericht von Jensen im Jahre 1925 bis
zum Artikel von Neyman im Jahre 1934 erstreckte, drehte sich um die Frage
nach dem Zusammenhang zwischen reiner Zufallsauswahl und dem, was be-

reits anderweitig bekannt war“ (zum Beispiel aufgrund einer Zählung). Das
hat zunächst zur Methode der Kontrollvariablen“ von Kiaer und anschlies-

send zur Methode der bewußten Auswahl“ geführt. Diese Methoden sind

nacheinander wieder verworfen worden. Akzeptiert wurde schließlich die Tech-
nik der geschichteten Stichprobenauswahl auf der Grundlage von A-priori -
Einteilungen der Bevölkerung. Bei diesen Einteilungen wurde eine Zusammen-
fassung dessen vorausgesetzt, was man bereits wußte, das heißt daß es signifi-
kante Unterschiede bei den Mittelwerten der Klassen gab und daß man daher
die Genauigkeit der globalen Schätzungen verbesserte, wenn man A-priori -
Schichtungen vornimmt. Das setzte demnach voraus, daß solche Nomenkla-
turen – echte Depots früheren Wissens – vorhanden waren, einen gewissen
Fortbestand hatten, eine entsprechende Solidität aufwiesen und Vertrauen er-
weckten: nach 1950 spielten die Berufsgruppen, das Bildungsniveau, die Ge-
meindekategorien und die Familientypen eine solche Rolle. Die Konstruktion
des Repräsentativitätsmechanismus erfolgte einerseits durch das Gebäude der
258 7 Pars pro toto: Monographien oder Umfragen

Mathematik, das nach und nach von den alten Kontrollvariablen“ gesäubert

wurde (Neyman), und andererseits durch ein System von Nomenklaturen,
mit deren Hilfe die Merkmale von Personen in einem Rahmen aufgezeichnet
wurden, den der Staat als Träger des allgemeinen Interesses garantierte. Die
Ausarbeitung der Nomenklaturen erfolgte ihrerseits durch eine vertrauener-
weckende Institution.
Auf diesen Punkt hatte Jensen 1925 in seinem Bericht über die repräsenta-
tive Methode mit Nachdruck hingewiesen. Jensen bemerkte, daß die Methode
immer noch Mißtrauen erweckte, weil sie sich nur auf einen Teil der Bevölke-
rung bezog. Deswegen fragte er sich, ob eine vertrauenerweckende statistische
Verwaltung ein ausreichender Grund dafür ist, diese Art Kritik zu entkräften.
Die Tatsache, daß beide Problemkategorien – das heißt die Kategorie der
technischen Probleme und die der soziopolitischen Probleme – gleichzeitig
Erwähnung fanden, stellt einen Teil der Antwort auf die anfängliche Frage
dar, warum die repräsentative Methode nicht schon früher verwendet worden
war.
Der Kern dieses Einwands besteht darin, daß dem gegenseitigen Ver-
trauen zwischen den amtlichen statistischen Institutionen und der
Bevölkerung die allergrößte Bedeutung beizumessen ist: Einerseits lie-
fert nämlich die Bevölkerung das Material für die Statistik und an-
dererseits ist es die Bevölkerung, für welche die ganze Arbeit durch-
geführt wird. Die amtliche Statistik muß natürlich peinlich genau auf
ihren Ruf achten: Es reicht nicht aus, daß die Frau von Caesar tu-

gendhaft ist – vielmehr müssen auch alle davon überzeugt sein, daß sie
es ist“. Aber es wäre – außerhalb jeder Prestigefrage – kaum zu recht-
fertigen, einen technischen Fortschritt zu verhindern, dessen Recht-
fertigung an sich voll und ganz anerkannt ist. Man versagt es sich
doch auch nicht, eine Brücke nach einem präzisen Bauplan zu bauen,
nur weil die Öffentlichkeit in ihrer Ignoranz kein Vertrauen in die-
sen Plan hat; man baut die Brücke, wenn der Ingenieur ihre Wider-
standsfähigkeit garantieren kann – die Öffentlichkeit wird die Brücke
dann ganz normal benutzen und Vertrauen in ihre Stabilität haben.
(Jensen, 1925, [137].)
Das Problem von Jensen in diesem Text bestand darin, die technische
Solidität des Objekts und dessen Ruf miteinander zu verbinden. Es war diese
Verbindung, welche die Stärke der Staatsstatistik ausmachte.

Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen


Aber mit Beginn der 1930er Jahre kamen zu diesem typisch europäischen Fall
der Anwendung der repräsentativen Methode auf die staatliche Verwaltung
sozialer Probleme weitere Anwendungen hinzu. In mindestens zwei anderen
Fällen, vor allem aber in den Vereinigten Staaten, erlangten von dieser Zeit an
Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen 259

gewisse Totalisierungen eine unmittelbare Relevanz, die sich auf das gesam-
te Staatsgebiet bezogen: Marktstudien über Konsumgüter und Wahlprogno-
sen. In beiden Fällen mußte vorher eine landesweite Standardisierung erfolgen
und eine entsprechende Aufstellung von Äquivalenzen bezüglich der Produkte
durchgeführt werden. Im Falle der Konsumgüter war es notwendig, daß die
Großunternehmen über ein nationales Transportnetz regelmäßig Standardpro-
dukte auf dem gesamten Territorium vertreiben; ferner war es erforderlich,
diese Produkte einwandfrei zu identifizieren (Eymard-Duvernay, 1986, [88]).
So wurde es dann möglich, im Rahmen einer landesweiten Meinungsumfra-
ge festzustellen, ob die Verbraucher lieber Coca-Cola als Pepsi-Cola trinken.
Für die Wahlprognosen war es wichtig, daß die Kandidaten im ganzen Land
die gleichen waren (das war bei den amerikanischen Präsidentschaftswahlen
der Fall, nicht aber bei den Wahlen in den französischen Arrondissements7 ).
Darüber hinaus war es auch von Bedeutung, das Image der Kandidaten relativ
umfassend zu verbreiten und zu vereinheitlichen, wozu das Radio zunehmend
beigetragen hat. Ebenso erwies es sich als notwendig, daß der Stichproben-
rahmen möglichst nahe an der Wählerschaft war. Allgemein bekannt ist das
Mißgeschick der 1936 in den Vereinigten Staaten per Telefon durchgeführ-
ten Meinungsumfragen: es wurden nur wohlhabende Personen interviewt, die
einen solchen Apparat besaßen, und die Umfragen prognostizierten zu Unrecht
einen Sieg der Republikaner.
Aber alle diese Erhebungen hatten etwas Gemeinsames: ihre Ergebnis-
se wurden an Sponsoren geliefert, die sie zu operativen Zwecken benutzten.
Als Sponsoren fungierten Verwaltungen, Großunternehmen, Radiosender oder
Zeitungen. Der Begriff der Repräsentativität machte die Kostenbegrenzung
dieses Wissens mit dessen Relevanz kompatibel – eine technische Frage, die
gleichzeitig gesellschaftlich anerkannt war. In allen diesen Fällen ging es um
Individuen (Hilfsbedürftige, Verbraucher und Wähler) und nicht mehr um Ge-
samtheiten wie die göttliche Ordnung (Quetelet), die Abstammung (Le Play)
oder das Arbeiterbewußtsein (Halbwachs).
Wir haben hier versucht, das um die Wende zum 20. Jahrhundert neu auf-
tretende Konzept der Repräsentativität zu interpretieren, das im Gefolge des
Übergangs von einer Denkweise zu einer anderen in Erscheinung trat. Dieser
Übergang war in der Vergangenheit mehrfach dargestellt worden. Eine dieser
Darstellungen wird von Louis Dumont in dessen Essai sur l’individualisme
wiedergegeben. Dumont vergleicht nationale Kulturen“, die man für unver-

gleichbar hielt (deutsche Tradition), mit einer universellen oder zumindest
universalistischen Zivilisation“ (englische Tradition für die ökonomistische

Version und französische Tradition für die politische Version). Er wies darauf
7
Unter arrondissement“ versteht man einen Unterbezirk eines Departements oder

einen Stadtbezirk einer Großstadt.
260 7 Pars pro toto: Monographien oder Umfragen

hin, daß Leibniz zur Lösung dieses Widerspruchs ein Monadensystem8“ er-

sonnen hatte, in dem jede Kultur das Universelle auf ihre Art ausdrückte –
eine geschickte Verallgemeinerungsweise:

Ein deutscher Denker bietet uns ein Modell an, das unseren Bedürf-
nissen entspricht: ich spreche vom Leibnizschen Monadensystem. Jede
Kultur (oder Gesellschaft) drückt das Universelle auf ihre Weise aus,
so wie jede der Leibnizschen Monaden. Und es ist nicht unmöglich, ein
(zugegebenermaßen schwieriges und mühsames) Verfahren zu konzi-
pieren, das den Übergang von einer Monade oder Kultur zu einer an-
deren vermittels des Universellen ermöglicht, wobei dieses sozusagen
als Integral aller bekannten Kulturen, als die Monade der Monaden
aufgefaßt wird, die am Horizont einer jeden Monade zugegen ist. Ent-
bieten wir dem Genie im Vorübergehen unseren Gruß: von der Mitte
des 17. Jahrhunderts erben wir den wahrscheinlich einzigen ernsthaf-
ten Versuch der Versöhnung des Individualismus mit dem Holismus.
Die Leibnizsche Monade ist gleichzeitig ein Ganzes an sich und ein
Individuum in einem System, das selbst in seinen Unterschieden ein-
heitlich ist: sozusagen das universelle Ganze. (Dumont, 1983, [73].)

Der Vergleich zwischen der monographische Methode und der statistischen


Methode wirft mit anderen Worten die Frage nach der Versöhnung der Er-
kenntnisweisen auf, die aus der holistischen oder der individualistischen Sicht-
weise hervorgehen. Die Geschichte des Begriffs der Repräsentativität hat uns
auf den Begriff der Verallgemeinerung zurückverwiesen: Was ist ein Teil? Was
ist das Ganze? Wir hatten gesehen, daß die beiden Tätigkeiten – das heißt
die politische und die kognitive Tätigkeit – der Begrenzung eines relevanten
Ganzen (zum Beispiel der Nation oder des Marktes) sowie die Definition der
Einheiten dieses Ganzen und die Aufstellung von Äquivalenzen zwischen den
Einheiten unerläßlich dafür waren, daß der moderne Begriff und das Werkzeug
der Repräsentativität in Erscheinung treten konnten.
Das durch die Transformationen des Begriffs der Repräsentativität und
insbesondere durch die Diskussionen des im Zeitraum 1895–1935 aufgeworfe-
nen Problems bestand darin, wie man die aus unterschiedlichen Aufzeichnun-
gen gewonnenen Erkenntnisse miteinander verbindet. Das war das Problem,
dessen Beantwortung nacheinander durch die kontrollierten Variablen“ von

Kiaer, die bewußte Auswahl“ von Jensen und Gini und durch die Schich-
” ”
tung“ von Neyman in Angriff genommen wurde (O’Muircheartaigh und Wong,
1981, [215]). Gleichzeitig handelte es sich aber auch um einen Rückverweis
auf ein theoretisches Problem, das so alt wie die Wahrscheinlichkeitsrech-
nung war – nämlich das Problem der Akzeptanz oder der Ablehnung von
8
Das Wort Monade“ leitet sich vom altgriechischen monás“ (Einheit) ab. Für
” ”
Leibniz sind Monaden in sich geschlossene und vollendete, letzte und beseelte
Einheiten, die in ihrer Gesamtheit das geordnete System der Welt ausmachen.
Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen 261

A-priori -Gesetzen“, das heißt das Problem der Wahl zwischen subjektiver

Wahrscheinlichkeit und objektiver Wahrscheinlichkeit (vgl. Kapitel 2).
Im Verlauf der Diskussion von 1925 drückte Lucien March – der damals 66
Jahre alt war und die Richtungsänderung des gesamten statistischen Denkens
beobachtet hatte – dieses Problem mit Hilfe von Begriffen aus, die gleichzeitig
subtil und archaisch erschienen, denn alle diese Dinge sind seither formalisiert
worden, das heißt sie wurden auf eine gewisse Art und Weise eingefroren“:

Das System, das darin besteht, sich der Zufallsauswahl der Erhebungs-
einheiten so gut wie möglich anzunähern, ist nicht notwendigerweise
dasjenige, das dem Begriff der Repräsentation am besten entspricht.
Wie wir bemerkt hatten, setzt dieser Begriff voraus, daß die Einheiten
untereinander keine Unterschiede aufweisen. Die repräsentative Me-
thode verfolgt nun aber das Ziel, die Unterschiede hervorzuheben. Die
Hypothese scheint also in einem gewissen Widerspruch zum verfolgten
Ziel zu stehen. Das erklärt die Bevorzugung einer besser verstandenen
und intelligenteren Auswahl. Beispielsweise lassen manche Leute die
als abnormal geltenden Extremfälle weg oder führen eine Stichpro-
be durch, indem sie sich auf ein für wesentlich gehaltenes Kriterium
stützen. (March, 1925, [190].)
Wenn March den scheinbaren Widerspruch betont, der zwischen der Not-
wendigkeit des Aufstellens von Äquivalenzen für die Einheiten und der Suche
nach ihren Unterschieden besteht, dann könnte man darauf hinweisen, daß
spätere Formalisierungen dieses Problem vollkommen gelöst haben. Aber sei-
ne Unschlüssigkeit, ob man eine besser verstandene, intelligentere“ Auswahl

treffen solle oder ob man die abnormalen Fälle“ vielleicht doch eher elimi-

niert, spiegelte ein Problem wider, dem jeder Statistiker begegnet, der sein
Gebiet gut kennt. Dieses frühere Wissen“ wird oft durch direkten Kontakt

erworben und entsteht aus einer Vertrautheit mit dem Gegenstand (aber nicht
immer mit Hilfe der allgemeinen Statistik, wie man im Falle der kontrollier-

ten Variablen“ sieht). Damit steht March also in der Nähe der Kultur“ von

Dumont oder der Gemeinschaft“ von Tönnies. Der Beobachter hat stets die

Intuition eines Gesamtwissens, der Totalität einer Situation, einer Person, ei-
ner sozialen Gruppe oder sogar einer Nation.
Nach Abschluß ihrer analytischen Arbeit sagen die Forscher mitunter:
Nun müssen wir wieder zusammensetzen, was wir auseinandergenommen

haben“. Einmal mehr tritt hier das Problem der Verallgemeinerung auf: die
Rekonstruktion des Ganzen in seiner Einheit. Die Erzeugung der Gesamt-
heit aus einem ihrer Bestandteile. Dieses Wunschbild ist es, das die Wissen-
schaftler ständig in Unruhe versetzt. Und die allerneuesten Entwicklungen
auf dem Gebiet der Stichprobenerhebungen ermöglichen eine Rekonstruktion
durch Simulationstechniken auf Großrechnern. Diese Simulation erfolgt – aus-
gehend von der betreffenden Stichprobe – durch die Erzeugung einer großen
Anzahl von Teilstichproben und mit Hilfe einer Untersuchung der dadurch
262 7 Pars pro toto: Monographien oder Umfragen

entstehenden statistischen Verteilung. Man hat dieses Verfahren als Bootstrap-


Verfahren9 bezeichnet, denn es erinnert an den Traum, sich an der eigenen
Stiefelschlaufe10 hochzuziehen. Dieser Traum der Rekonstruktion des Univer-
sums aus einem seiner Bestandteile ähnelt dem von Leibniz vorgeschlagenen
komplizierten und mühsamen Verfahren“ des Übergangs von einer einzelnen

Kultur zur universellen Kultur. Das, was sich geändert hat, ist der kognitive
und politische Mechanismus.

9
Das Bootstrap-Verfahren dient zur Schätzung von Kenngrößen, insbesondere
zur nichtparametrischen Schätzung von Standardfehlern: zunächst werden die
n Stichprobenwerte vervielfacht und dann werden hieraus Stichproben gezogen.
Das Verfahren setzt einen leistungsfähigen Computer voraus.
10
Das Wort bootstrap ist die englische Bezeichnung für Stiefelschlaufe“; to pull

oneself up by one’s own bootstraps bedeutet sich aus eigener Kraft hocharbeiten“.

8
Klassifizierung und Kodierung

Das Ziel der statistischen Arbeit besteht darin, einen Zusammenhalt zwischen
a priori singulären Dingen herzustellen und dadurch den Objekten eine kom-
plexere und umfassendere Realität und Konsistenz zu verleihen. Diese Ob-
jekte können – nachdem sie von der grenzenlosen Überfülle der wahrnehm-
baren Manifestationen der Einzelfälle bereinigt worden sind – einen Platz
in anderen kognitiven oder politischen Konstrukten finden. Wir machen hier
den Versuch, die Schaffung der Formalismen und Institutionen zu verfolgen,
die gesellschaftlich und technisch eine massive Verwendung dieser Objekte
ermöglicht haben. Zwar waren die mathematischen Werkzeuge und die sta-
tistischen Verwaltungen insbesondere in den 1980er Jahren Gegenstand der
oben häufig erwähnten historischen Untersuchungen. Weniger oft wurden je-
doch die Konventionen untersucht, die mit der Äquivalenzklassenbildung, der
Kodierung und der Klassifizierung zusammenhängen – Konventionen, die der
statistischen Objektivierung vorausgehen. Die Fragen zur Taxonomie fallen
in den Bereich intellektueller und theoretischer Traditionen, die sich wesent-
lich voneinander unterscheiden und kaum miteinander in Verbindung stehen.
Wir erinnern hier an einige dieser Fragen, bevor wir auf signifikante Beispie-
le für historische Arbeiten über diese Klassifikationen eingehen, die sich auf
natürliche Arten, Industriezweige, Armut und Arbeitslosigkeit, auf soziale Ka-
tegorien und auf Todesursachen beziehen. Nicht nur die Objekte dieser Unter-
suchungen unterscheiden sich voneinander, sondern auch die Untersuchungs-
standpunkte. Die Taxonomie ist in gewisser Weise das unbekannte Gesicht
der wissenschaftlichen und der politischen Arbeit. Aber das Studium der Ta-
xonomie läßt sich nicht darauf reduzieren, verborgene Beziehungen zwischen
diesen beiden Aspekten des Wissens und des Handelns aufzudecken, wie es
mitunter in der wissenschaftskritischen Soziologie gehandhabt wird, die un-
mittelbar von einer rein internalistischen Position – ausgedrückt durch den
Wissensfortschritt – auf eine entgegengesetzte externalistische Position um-
schwenkt, die sich durch Begriffe wie Machtverhältnisse und soziale Kontrolle
ausdrückt. Das Problem besteht jedoch darin, im Detail die Beschaffenheit
derjenigen Zusammenhänge zu untersuchen, die den Objekten und den Per-
264 8 Klassifizierung und Kodierung

sonen Zusammenhalt verleihen. Das schließt in der Tat die Gegensätzlichkeit


von Analysen aus, die als technisch oder als sozial bezeichnet werden.

Statistik und Klassifikation

Zu den intellektuellen Traditionen, die eine theoretische oder eine empirische


Reflexion der Taxonomie einschließen, gehören die Statistik (von der deut-
schen Schule und Quetelet bis hin zu Benzécri), die Wissenschaftsphilosophie
(Foucault), die Naturgeschichte, die Linguistik, die Soziologie und die Anthro-
pologie (Durkheim und Mauss), aber auch die kognitive Psychologie (Piaget
und Rosch), die Rechtswissenschaften und sogar die Medizin. Dagegen ist die
Wirtschaftswissenschaft – zumindest in ihren theoretischen Aspekten – eine
Wissenschaft, in der die taxonomische Arbeit als solche kaum berücksichtigt
worden ist. Allgemeiner gesagt, hängt das relative Schweigen gewisser Human-
wissenschaften zu Klassifikationsproblemen und erst recht zu Kodierungspro-
blemen (das heißt zu der Entscheidung, einen Fall einer Klasse zuzuordnen)
mit der Teilung in reine Wissenschaften und angewandte Wissenschaften zu-
sammen. Die Taxonomie und vor allem die Kodierung werden in den betref-
fenden Humanwissenschaften als technische und praktische Probleme wahrge-
nommen, die häufig von einem Tag zum anderen durch ausführende Personen
und nicht durch Theoretiker gelöst werden. Das ist auch der Grund dafür,
warum die originellsten und fruchtbarsten Überlegungen zu diesen Fragen
auf Gebieten wie zum Beispiel Recht oder Medizin realisiert werden können,
das heißt auf Gebieten, in denen die Behandlung von Einzelfällen eine der
Hauptfragen ist. Der Übergang vom Einzelfall zum Allgemeinen und die Kon-
struktion von konsistenten Äquivalenzklassen stellen jedoch für die meisten
Humanwissenschaften ganz wesentliche theoretische und praktische Probleme
dar und sind der Ursprung für äußerst unterschiedliche kognitive und sozia-
le Werkzeuge. Die Statistik ist eines dieser Werkzeuge, aber keineswegs das
einzige. Die vorliegende Arbeit möchte dazu beitragen, das historische Gefüge
dieser verschiedenen Hilfsmittel zu beleuchten.
Von ihren Ursprüngen an stellte sich die deutsche Statistik des 18. Jahr-
hunderts als umfassende Nomenklatur dar, deren Ziel darin bestand, eine
allgemeine Beschreibung des Staates zu geben – eine Beschreibung, die sich
in Worten ausdrückte und nicht in Zahlen (vgl. Kapitel 1). Im 19. Jahrhun-
dert bestanden die Abhandlungen über Statistik im Wesentlichen oft noch
aus Klassifizierungsplänen für Informationen, die fortan hauptsächlich quan-
titativer Natur waren und als eine Art Nebenprodukt der Verwaltungsprak-
tiken entstanden (Armatte, 1991, [5]). Aus diesem Grund war die Statistik
eine neue Sprache, die dazu beitrug, den Staat zu vereinheitlichen und seine
Rolle zu transformieren (Kapitel 5 und 6). Aber gleichzeitig mit der Hygie-
nikerbewegung (in Frankreich) und der Public Health Movement (in Eng-
land) entwickelte sich eine Moralstatistik“, die von der Tradition der politi-

schen Arithmetiker beeinflußt war und sich teilweise von der Staatsstatistik
Statistik und Klassifikation 265

der deutschen Schule unterschied. Die von Quetelet symbolisierte Kombinati-


on von Traditionen, die früher einander fremd gegenüberstanden, führte zur
Bildung einer Gesellschaftslehre“ (das heißt Soziologie“), die sich auf die
” ”
Aufzeichnungen der Verwaltungsstatistik stützte (Personenstand, Todesursa-
chen, Rechtswesen), um die Gesetzmäßigkeiten herauszuarbeiten, nach denen
Heiraten, Selbstmorde oder Verbrechen stattfanden (vgl. Kapitel 3).
Seitdem stand dieser doppelte Aspekt der Statistik – der administrati-
ve und der moralische“ Aspekt – am Ursprung der beiden Tendenzen der

taxonomischen Arbeit der späteren Statistiker. Einerseits waren diese Stati-
stiker auf Verwaltungsaufzeichnungen angewiesen und arbeiteten sowohl an
der Bildung und Definition von Kategorien als auch an der Kodierung von
Einzelfällen – aus einem Blickwinkel, der eine gewisse Ähnlichkeit mit der
Arbeit der Rechts- und Verwaltungsfachleute hatte (das Wort Kategorie“

leitet sich vom griechischen Begriff kategoria ab, der ursprünglich mit einer
1
in der Öffentlichkeit verkündeten Beschuldigung“ zusammenhängt). Ande-

rerseits versuchten die Statistiker jedoch, als Interpreten ihrer eigenen Pro-
dukte – ausgehend von immer komplexeren mathematischen Konstruktionen
– die Existenz von zugrundeliegenden Kategorien zu schlußfolgern, die sich
in statistischen Regelmäßigkeiten oder in besonderen Verteilungsformen of-
fenbaren, vor allem in der Fehlerverteilung, in der Binomialverteilung und in
der Normalverteilung. Später wiesen die Faktorenanalyse der Psychometriker,
die eine allgemeine Intelligenz“ herausarbeiteten, und die auf der Grundla-

ge von Datenanalysen entwickelten Klassifikationsmethoden (Benzécri, 1973,
[11]) die gleiche Tendenz auf.
Diese beiden Standpunkte in Bezug auf die Untersuchungen zur Taxono-
mie standen sich teilweise fremd gegenüber. Sie drehten sich gegenseitig den
Rücken zu und ignorierten einander oftmals. Die erstgenannte Sichtweise, die
eher vom Nominalismus inspiriert war, hielt den Begriff der Kategorie für eine
Konvention, die sich auf eine durch stabile Routineverfahren vorschriftsmäßig
kodifizierte Praxis stützte – zum Beispiel auf Personenstandserhebungen, auf
medizinische Berichte über Todesursachen, auf die Tätigkeit der Polizei und
der Gerichte und später auf die Erhebungstechniken mit Hilfe von mehr oder
weniger standardisierten Fragebögen. Die zweite, durch und durch realistische
Sichtweise ging aus der Gründungsalchimie“ von Quetelet hervor und trans-

formierte mit Hilfe seines Durchschnittsmenschen“ die subjektiven Durch-

schnitte in objektive Durchschnitte. Im Gegensatz zur erstgenannten vertritt
diese zweite Sichtweise die Meinung, daß sich der Begriff der Kategorie in der
statistischen Analyse offenbart. Für Adolphe Bertillon war die Zweigipfligkeit
1
Auch Vorwurf, Anklage“ und Prädikat“. Das zugrundeliegende altgriechische
” ”
Verb agoreuein“ bedeutet reden, sagen“ und hängt seinerseits mit agora“
” ” ”
(Markt) zusammen; das Verb bedeutet also eigentlich auf dem Markt öffent-

lich reden“. In der Zusammensetzung katagoreuein“ steht katá“ für gegen“;
” ” ”
das Wort bedeutet anzeigen“ ( gegen jemanden reden“). Der allgemeine Ge-
” ”
brauch des Wortes Kategorie“ im Sinne von Klasse, Gattung“ kam erst im 19.
” ”
Jahrhundert auf.
266 8 Klassifizierung und Kodierung

der Größenverteilung der Rekruten von Doubs der Beweis dafür, daß die dor-
tige Bevölkerung zwei verschiedene ethnische Ursprünge hatte. Die Psychome-
trie und ihre Rotationen der Faktorenachsen ordnen sich in diese Sichtweise
ebenso ein, wie die mathematischen Methoden der absteigenden oder aufstei-
genden Klassifikation. Es geht mir hier nicht darum, die beiden Standpunkte
einander gegenüberzustellen und einen Standpunkt zu Ungunsten des ande-
ren zu denunzieren. Vielmehr versuche ich, beide Standpunkte gemeinsam zu
betrachten, ihre Genese und die Entwicklung ihrer relativen Autonomisierung
zu rekonstruieren und dabei die taxonomischen Überlegungen der Statistiker
mit den Überlegungen anderer Fachleute zu vergleichen.

Die Taxonomien der Lebewesen


Unter dem Titel Les mots et les choses 2 legte Michel Foucault (1966, [94])
eine persönliche Version der Genese der Taxonomie im klassischen Zeitalter“

(17. und 18. Jahrhundert) vor, wobei er die Sprachwissenschaften (allgemeine
Grammatik), die Biologie (Naturgeschichte) und den Warenaustausch (Reich-
tum) untersuchte. Gemäß Foucault trifft für diese Zeit folgendes zu:
Die Wissenschaften tragen in sich jederzeit das Projekt – in welcher
Ferne es auch immer liegen mag – die Dinge umfassend zu ordnen: sie
weisen auch stets auf die Entdeckung einfacher Elemente und deren
fortschreitende Zusammensetzung hin; und in deren Mitte stellen sie
ein Tableau3 dar, eine Ausbreitung der Erkenntnisse in einem mit sich
selbst zeitgleichen System. Das Zentrum des Wissens im 17. und 18.
Jahrhundert, das ist das Tableau. (Foucault, 1966, [94].)
Dieses wissenschaftliche Projekt entsprach dem Vorhaben der deutschen
Statistik mit ihren ineinandergeschachtelten und koordinierten Nomenklatu-
ren und später dem Vorhaben der Verwaltungsstatistik des 19. Jahrhunderts,
wie es namentlich von Moreau de Jonnès zum Ausdruck gebracht wurde. Fou-
cault spielt in seiner Archäologie der Taxonomie an keiner Stelle auf die Tra-
dition der Statistik an. Dennoch gibt seine Analyse des Gegensatzes zwischen
Linné, für den die ganze Natur Bestandteil einer Taxonomie sein kann“, und

Buffon, für den sie zu verschiedenartig und zu vielfältig ist, um sich an einen

so starren Rahmen anzupassen“, eine Einführung in die Debatten, die in der
gesamten Geschichte der statistischen Klassifizierungen immer wieder auftra-
ten: Die Kodierung als Opferung unwesentlicher Wahrnehmungen, die Wahl
der richtigen Variablen, die Technik der Konstruktion von Äquivalenzklassen,
der Realismus der Kategorien und schließlich die Historizität der Diskonti-
nuitäten.
2
In deutscher Übersetzung 1971 unter dem Titel Die Ordnung der Dinge. Eine
Archäologie der Humanwissenschaften in Frankfurt a.M. erschienen.
3
Unter Tableau“ ist in diesem Zusammenhang eine zusammenhängende Übersicht

zu verstehen.
Die Taxonomien der Lebewesen 267

Der Naturforscher des 18. Jahrhunderts beobachtete Pflanzen und Tiere


weit mehr, als man es zuvor getan hatte, aber gleichzeitig schränkte er seinen

Erfahrungsbereich freiwillig ein“. Er eliminierte das Gehör, den Geschmack,
den Geruch, ja auch die Berührung zugunsten des Sehvermögens, aus dem er
sogar die Farben ausschloß. Seine Objekte waren als Überbleibsel dieser Aus-
schließungen gleichsam filtriert und auf Größen, Linien, Formen und relative
Positionen reduziert. Folglich opferte man diejenigen Sinne, die nichts mit dem
Gesichtssinn zu tun hatten, und auch die Farben wurden geopfert. Als Gegen-
leistung für diesen Verlust ergab sich jedoch die Möglichkeit, die Ordnung der
Natur aufzudecken (Linné) oder zu konstruieren (Buffon). Beide wählten die
gleichen vier Variablen, um die Struktur der Arten zu charakterisieren – eine
gemeinsame elementare Kodierung, die anschließend auf zwei unterschiedliche
Weisen verwendet wurde, um eine Kartographie des Lebens aufzustellen. Zwei
dieser Variablen resultierten aus Zählungen bzw. Messungen: die Anzahlen
(der Staubblätter, der Fruchtknoten usw.) und die Größe (der verschiedenen
Pflanzenteile). Dagegen müssen die beiden übrigen Variablen, die sich auf die
Form und die relative Anordnung beziehen, mit Hilfe anderer Verfahren be-
schrieben werden: durch Identifikation mit geometrischen Formen oder durch
etwaige Ähnlichkeiten mit Teilen des menschlichen Körpers. Diese Gesamt-
heit von Variablen ermöglicht die Bezeichnung einer Art, die Zuordnung eines
entsprechenden Eigennamens und die Einordnung der Art in den Raum der
so konstruierten Variablen.
Diese Vorgehensweise unterscheidet den Naturwissenschaftler des 18. Jahr-
hunderts sowohl von seinem Vorgänger im 17. Jahrhundert als auch von seinem
Nachfolger im 19. Jahrhundert. Die Identität einer Art wurde vorher durch
ein auf seine Weise einmaliges Kennzeichen gewährleistet, als ein Wappen,
das mit den Wappen aller anderen Arten inkommensurabel war: Der und der
Vogel jagt seine Beute in der Nacht, lebt auf dem Wasser und ernährt sich
von lebendigen Tieren. Jede Art war einzigartig aufgrund der Beschaffenheit
der Merkmale, durch die sie sich aus der Masse der anderen Arten heraushob.
Dagegen konstruierte der Naturwissenschaftler des 18. Jahrhunderts einen
Äquivalenz- und Komparabilitätsraum, in dem die Arten entsprechend den
Variablen relativ zueinander angeordnet waren. Von nun an konnten die Ar-
ten auf der Grundlage der betrachteten Gemeinsamkeiten und Unterschiede
zu Familien zusammengefaßt und mit einem Sammelbegriff versehen werden.
Die betreffenden Unterschiede wurden auf eher äußerliche Weise (mit Hilfe
des Sehvermögens) und analytisch (durch detaillierte Angabe der Bestandtei-
le) beschrieben. Seit Cuvier behielten die Zoologen des 19. Jahrhunderts diese
allgemeine Vergleichsmethode bei, wendeten sie aber fortan in einer syntheti-
scheren Weise auf organische Einheiten mit internen Abhängigkeitssystemen
an (Skelett, Atmung, Blutkreislauf). Die analytischen Klassifikationen des 18.
Jahrhunderts, die sich vor allem in der Botanik auf Netze von beobachte-
ten Unterschieden stützten, liegen folglich zwischen dem eindeutigen Erken-
nungszeichen des 16. Jahrhunderts und den im 19. Jahrhundert entwickelten
Theorien der tierischen Organismen (Foucault, 1966, [94]).
268 8 Klassifizierung und Kodierung

Bei den Zusammenfassungen zu Familien von Arten wurden auf der


Grundlage von Eigennamen Gattungsbegriffe geschaffen. Die Zusammenfas-
sungen stützten sich auf Beschreibungen, die mit Hilfe der vier Variablentypen
kodifiziert wurden. Aber sogar innerhalb dieses bereits eingeschränkten Be-
schreibungsuniversums ließen sich die Techniken zur Konstruktion von Fami-
lien – ausgehend vom Netz der Unterschiede – auf gegensätzlichen Prinzipien
aufbauen. Dem System von Linné stand die Methode von Buffon gegenüber.
Jeder Statistiker, der die Konstruktion einer Nomenklatur und deren prak-
tische Anwendung anstrebt, stößt auf einen prinzipiellen Gegensatz, wie er
durch die Kontroverse zwischen Linné und Buffon symbolisiert wird (auch
wenn sich die Modalitäten aufgrund der Verfügbarkeit elaborierter Forma-
lismen geändert haben). Linné wählte unter den verfügbaren Eigenschaften
gewisse Eigenschaften aus, die Merkmale, und baute seine Klassifikation auf
diesen Kriterien auf, wobei er die anderen Eigenschaften ausschloß. Die Rele-
vanz einer solchen a priori willkürlichen Auswahl kann nur a posteriori offen-
sichtlich werden, aber für Linné stellte diese Auswahl eine Notwendigkeit dar,
die sich aus der Tatsache ergab, daß die Gattungen“ (Familien von Arten)

real waren und die relevanten Merkmale bestimmten. Man muß wissen, daß

nicht das Merkmal die Gattung bildet, sondern die Gattung das Merkmal,
daß das Merkmal aus der Gattung hervorgeht, nicht die Gattung aus dem
Merkmal“ (zitiert von Foucault, 1966, [94]). Es gab also gute“, natürliche

Kriterien zu entdecken, indem man systematisch Verfahren mit dem gleichen
Analyseschema auf den gesamten untersuchten Raum anwendete. Die guten
Kriterien waren real, natürlich und universell. Sie bildeten ein System.
Für Buffon war es dagegen wenig plausibel, daß die relevanten Kriterien
immer die gleichen sein sollten. Es war also notwendig, a priori alle verfügba-
ren Unterscheidungsmerkmale zu betrachten. Aber es gab sehr viele dieser
Merkmale und seine Methode ließ sich nicht sofort auf alle in Betracht ge-
zogenen Arten gleichzeitig anwenden. Die Methode ließ sich nur auf große
offensichtliche“ Familien anwenden, die a priori gebildet wurden. Von die-

sem Punkt an ging man so vor, daß man eine beliebige Art nahm und sie
mit einer anderen verglich. Die ähnlichen und die unähnlichen Eigenschaften
wurden festgestellt und man behielt nur die letzteren bei. Danach verglich
man eine dritte Art mit den ersten beiden und so ging es immerfort der-
art weiter, daß die Unterscheidungsmerkmale einmal und nur einmal erwähnt
wurden. Dadurch wurde es möglich, neue Zusammenfassungen zu bilden und
allmählich einen Überblick über die Verwandtschaftsverhältnisse herauszuar-
beiten. Die Betonung dieser Methode lag auf lokalen Logiken, die für jeden
Bereich des Raumes der Lebewesen typisch waren. Dabei wurde nicht a priori
vorausgesetzt, daß eine gleiche kleine Anzahl von Kriterien für den gesamten
Raum relevant ist. Darüber hinaus gab es aus dieser Sicht ein kontinuierliches
Hinübergleiten von einer Art zur anderen. Jede Unterbrechung war in gewisser
Weise irreal und jegliche Allgemeinheit nominell. Für Buffon galt also:
Die Taxonomien der Lebewesen 269

Unsere allgemeinen Begriffe, die insgesamt nur aus besonderen Begrif-


fen zusammengesetzt sind, beziehen sich auf eine kontinuierliche Skala
von Objekten und von dieser Skala erkennen wir nur die Mitte deut-
lich, während die äußersten Enden immer weiter zurückweichen und
sich unserer Betrachtung entziehen ... Je mehr man die Anzahl der
Einteilungen der Naturgeschöpfe vergrößert, desto näher kommt man
der Wahrheit, denn in der Natur gibt es in Wirklichkeit nur Individu-
en und die Gattungen, Ordnungen und Klassen existieren lediglich in
unserer Phantasie. (Buffon, zitiert von Foucault, 1966, [94].)

Buffon vertrat also einen eher nominalistischen Standpunkt, während der


Standpunkt von Linné realistisch war. Darüber hinaus schlug Buffon vor, die
Objekte durch ihre Typizität zu konstruieren, das heißt durch ihre Grup-
pierung um eine deutlich wahrnehmbare Mitte“ einer Skala, deren Enden
” ”
zurückweichen und sich unserer Betrachtung entziehen“. Diese Methode stand
der Linnéschen kriteriellen Technik gegenüber, bei der allgemeine Merkmale
berücksichtigt wurden, deren universelle Gültigkeit man voraussetzte. Diese
beiden Klassifizierungsweisen sind später von kognitiven Psychologen analy-
siert worden (Rosch und Lloyd, 1978, [245]) und wurden zum Beispiel dazu
verwendet, die Konstruktion und den Gebrauch berufssoziologischer Nomen-
klaturen zu beschreiben (Boltanski und Thévenot, 1983, [20]; Desrosières und
Thévenot, 1988, [68]).
Adanson, der Buffon nahestand, faßte den Unterschied zwischen der (Buf-
fonschen) Methode und dem (Linnéschen) System zusammen, indem er den
absoluten oder den variablen Charakter der angewendeten Klassifikationsprin-
zipien hervorhob und betonte, daß die Methode immer bereit sein muß, sich
selbst zu korrigieren:

Die Methode ist ein beliebiges Arrangement von Dingen oder Tatsa-
chen, die auf der Grundlage von Entsprechungen oder beliebigen Ähn-
lichkeiten aneinandergerückt sind; dabei drückt man sich durch einen
allgemeinen und auf alle diese Objekte anwendbaren Begriff aus, ohne
jedoch diesen fundamentalen Begriff oder dieses Prinzip als absolut,
unveränderlich oder so allgemein anzusehen, daß es keine Ausnah-
me zulassen könnte. Die Methode unterscheidet sich vom System nur
durch die Vorstellung, die der Autor mit seinen Prinzipien verbindet:
in der Methode betrachtet er diese Prinzipien als variabel und im
System als absolut. (Adanson, zitiert von Foucault, 1966, [94].)

Die theoretischen Taxonomen“ fühlen sich spontan von der Vorgehenswei-



se Linnés angezogen und mißtrauten der Buffonschen Methode: Was kann eine
Methode schon wert sein, deren Prinzipien in Abhängigkeit von den Schwie-
rigkeiten differieren, auf die man stößt? Und dennoch hat jeder Statistiker –
der sich nicht damit begnügt, ein logisches und kohärentes Schema zu kon-
struieren, sondern auch versucht, dieses Schema zur Kodierung eines Stapels
von Fragebögen zu verwenden – in vielen Fällen gespürt, daß er nur mit Hilfe
270 8 Klassifizierung und Kodierung

von Vergleichen weiterkommt, das heißt durch die Nähe zu bereits behandel-
ten Fällen. Darüber hinaus folgt er bei dieser Vorgehensweise Logiken, die in
der Nomenklatur nicht vorgesehenen waren. Diese lokalen Praktiken werden
häufig von Angestellten in Arbeitsgruppen angewendet, die für die Erfassung
und Kodierung zuständig sind. Dabei kommt es zu einer Arbeitsteilung, bei
der sich die Chefs von den Linnéschen Prinzipien leiten lassen, während die
Ausführenden – ohne es zu wissen – eher die Methode von Buffon anwenden.
Die beiden beschriebenen Vorgehensweisen ermuntern auch dazu, Fragen
zur Beschaffenheit und zum Ursprung der Diskontinuitäten bzw. zu den Gren-
zen zwischen den Klassen zu stellen. Der Standpunkt von Linné, der sich auf
die Kombination einer kleinen Zahl von Kriterien stützt, definiert theoreti-
sche Orte in einem potentiellen Raum. Diese Orte werden mehr oder weniger
besetzt, aber man weiß nicht a priori, warum das geschieht. Die Methode
von Buffon führt dagegen zu einem mehrdimensionalen Kontinuum, in dem
die Unterbrechungen nominell sind: Die Klassen existieren nur in unserer

Phantasie ...“ Weder Linné noch Buffon konnten so die Existenz von Ro-
sen, Karotten, Hunden oder Löwen erklären. Die Diskontinuitäten konnten
für die Naturforscher des 18. Jahrhunderts nur aus der Historizität der Na-
tur hervorgehen, aus einer Verkettung von zufällig eintretenden Ereignissen,
Veränderungen und Unbilden der Witterung – unabhängig von den inter-
nen Logiken der lebendigen Welt, die sowohl von Linné als auch von Buffon
beschrieben wurden. Derartige historische Erklärungen zufällig eintretender
Ereignisse findet man zum Beispiel erneut nach 1970 in einem von manchen
Anthropologen vorgeschlagenen Szenario. Dieses Szenario beschreibt das Auf-
treten der Diskontinuität zwischen Affe und Mensch (aufrechter Gang) durch
Änderungen der Oberflächengestalt der Erde, des Klimas und der Vegetation
in einer ganz bestimmten Region in Ostafrika vor einigen Millionen Jahren.
Wir können nun diese Herangehensweise mit derjenigen vergleichen, die das
Auftreten von sozialen Gruppen unter besonderen historischen Umständen
beschreibt. In beiden Fällen findet zwar eine Debatte zwischen Realisten und
Nominalisten statt, aber diese Debatte nimmt unterschiedliche Formen an.
Eine Analyse des Sachverhaltes führt zu folgendem Ergebnis: neuartig ist die
Untersuchung derjenigen Nomenklaturen, die zum Zweck der Konstruktion
von Sozialstatistiken und Wirtschaftsstatistiken verwendet wurden – nun ging
es nicht mehr nur um die Nutzung von Nomenklaturen zur Klassifikation von
Pflanzen- oder Tierarten.

Die Durkheimsche Tradition:


sozio-logische Klassifizierungen
Die Naturwissenschaftler hatten durch ihre Debatten im 18. Jahrhundert
gleichzeitig den Begriff des Systems und des Kriteriums (Linné), die Kri-
tik der Systematizität und die Intuition bezüglich unterschiedlicher lokaler
Logiken (Buffon) eingebracht. Diese Diskussion verlieh den taxonomischen
Die Durkheimsche Tradition: sozio-logische Klassifizierungen 271

Überlegungen eine Breite, die durch eine rein logische Spekulation nicht hätte
erreicht werden können. Die Diskussion entfaltete sich im 19. Jahrhundert
durch die Debatten über die Entwicklung der Arten, die Debatten über Fixis-
mus und Transformismus und durch die Debatten über Cuvier, Lamarck und
Darwin. Diese Strömung gab schließlich dem statistische Denken Nahrung
und spiegelte sich in den Bemühungen Galtons und Pearsons wider, die Dar-
winschen Analysen der Lebewesen auf die menschliche Spezies zu übertragen
und dadurch biologisch begründete Klassifikationen mit hereditaristischen und
eugenistischen Zielen zu entwickeln. Das war ein Beitrag zur physikalischen
Anthropologie, die auf das Studium des menschlichen Körpers und seiner Va-
riationen gerichtet war (vgl. Kapitel 4).
Aber die Anthropologie war auch der Ursprung einer ganz anderen Tra-
dition der Analyse und Interpretation von Klassifikationen, die sich auf den
sozialen Bereich und auf die entsprechenden Wesensverwandtschaften mit den
elementarsten logischen Handlungen beziehen. Die Durkheimsche Soziologie
hat mit besonderem Nachdruck auf die engen Verbindungen zwischen den so-
zialen Gruppen und den logischen Gruppen hingewiesen – ja sie vertrat sogar
die Meinung, daß die Struktur der sozialen Gruppen die Mechanismen der
logischen Gruppen steuert. Durkheim und Mauss hatten diesen Standpunkt
mit Nachdruck in ihrem grundlegenden Text von 1903 vertreten: De quelques
formes primitives de classification, contribution à l’étude des représentations
collectives.4 Die Überlegungen der beiden Autoren unterschieden sich wesent-
lich von der Herangehensweise der Naturwissenschaftler. Durkheim und Mauss
strebten nicht danach, elementare Beobachtungen der Welt zu ordnen; ihr Ziel
bestand vielmehr darin, die von den primitiven Gesellschaften verwendeten
Klassifikationen zu beschreiben und zu interpretieren. Diese Ethno-Taxonomie
führte dazu, die Klassifikationen von Außen – als bereits konstituierte Objek-
te – zu betrachten und sie nicht mehr zu konstruieren und zu verwenden, wie
es Linné und Buffon getan hatten. Die Ethno-Taxonomie lenkte die Aufmerk-
samkeit auf die Zusammenhänge zwischen den indigenen Klassifikationen und
den wissenschaftlichen Klassifikationen, indem sie das soziale Fundament der
in den primitiven Gesellschaften verwendeten Klassifikationen hervorhob.

Nicht nur entspricht die Einteilung der Dinge in Gebiete exakt der
Einteilung der Gesellschaft in Klans, sondern beide Einteilungen sind
auch unentwirrbar miteinander verschlungen und werden miteinander
vermengt ... Die ersten logischen Kategorien waren soziale Kategorien;
die ersten Klassen von Dingen waren Klassen von Menschen, in die
diese Dinge integriert worden sind. Weil die Menschen in Gruppen
auftraten und über sich selbst in Form von Gruppen dachten, faßten
sie in ihrer Vorstellung auch die anderen Wesen in Gruppen zusammen
und die beiden Gruppierungsweisen begannen sich so zu vermischen,
4
In deutscher Übersetzung unter dem Titel Über einige primitive Formen von Klas-
sifikation erschienen. In: Durkheim, E., Schriften zur Soziologie der Erkenntnis.
Frankfurt a.M. (1987).
272 8 Klassifizierung und Kodierung

daß sie ununterscheidbar wurden. Die Totemgruppen waren die ersten


Gattungen, die Klans die ersten Arten. Man nahm an, daß die Dinge
ein integraler Bestandteil der Gesellschaft sind und daß ihr Platz in
der Gesellschaft ihren Platz in der Natur bestimmte. (Durkheim und
Mauss, 1903, [79].)

Diese Hypothese hat den großen Vorteil, die Klassifikationen als Studienob-
jekte per se ins Auge zu fassen und nicht mehr nur als Schema, als Werkzeug,
mit dessen Hilfe man über die Welt diskutiert. Aber Durkheim und Mauss
benutzten diese Hypothese dazu, Begriff für Begriff exakte Entsprechungen
für die von primitiven Gesellschaften verwendeten sozialen und symbolischen
Klassifikationen aufzustellen. Sie benutzten die Hypothese nicht für die –
hauptsächlich statistischen – Werkzeuge zur Beschreibung von urbanen Ge-
sellschaften und Industriegesellschaften. Einen derartigen strukturalistischen
Standpunkt nahm die moderne französische Soziologie ein (Bourdieu, 1979,
[25]), die sich auf die statistischen Techniken der Faktorenanalyse von Korre-
spondenzen stützte. Diese Techniken ermöglichten die Konstruktion und die
Darstellung mehrdimensionaler Räume durch eine Kombination unterschied-
licher sozialer Praktiken. Die soziale Klasse diente also als Leitfaden und als
Invariante bei der Interpretation der Regelmäßigkeit der strukturellen Ge-
gensätze, die mit Hilfe dieser Schemata beschrieben wurden – in dem Maße
wie die Klassen in einer stabilen Topologie (dem Feld) aufgezeichnet wurden,
das exakt auf der Grundlage dieser Gegensätze definiert war.
Zwar bemühten sich Durkheim und Mauss intensiv, die Wesensverwandt-
schaft zwischen sozialen, symbolischen und logischen Klassifikationen nach-
zuweisen. Jedoch schlossen sie explizit die technologischen Klassifikationen“

und die im engeren Sinne praxisbezogenen Unterscheidungen“ aus, denn ih-

rer Meinung nach standen die symbolischen Klassifikationen in keinem Zusam-
menhang zum Handeln. Diese unglückliche Kluft zwischen Gesellschaft und
Wissenschaft einerseits und Technik andererseits setzte ihrer Analyse Gren-
zen. Dadurch war es nämlich unmöglich, die Gesamtheit derjenigen Operatio-
nen mit einem Blick zu erfassen, mit denen man Dinge und Personen ordnen
und ihnen einen Zusammenhalt für die Bereiche des Denkens und des Han-
delns verleihen konnte, die nur schwer voneinander zu unterscheiden waren:
Genau wie die Wissenschaft verfolgen diese Systeme ein gänzlich spe-
kulatives Ziel. Ihr Ziel besteht nicht darin, das Handeln zu erleichtern,
sondern vielmehr darin, die zwischen den Wesen existierenden Bezie-
hungen einsichtig zu machen ... Diese Klassifikationen sollen Ideen
miteinander verbinden und das Wissen vereinheitlichen; in dieser Hin-
sicht sind Klassifikationen ein Werk der Wissenschaft und stellen eine
erste Naturphilosophie dar (87). Der Australier teilt die Welt weder
deswegen unter den Totems seines Stammes auf, um sein Verhalten
zu regulieren, noch um seine Bräuche zu rechtfertigen; vielmehr ist es
so, daß der Totem für ihn ein Kardinalbegriff ist, weswegen es sich
Die Durkheimsche Tradition: sozio-logische Klassifizierungen 273

als notwendig erweist, alle anderen Kenntnisse unter Bezugnahme auf


diesen Begriff einzuordnen.
(Anmerkung 87). Dadurch unterscheiden sie sich deutlich von dem,
was man als technologische Klassifikationen bezeichnen könnte. Es
ist wahrscheinlich, daß der Mensch zu allen Zeiten mehr oder weni-
ger deutlich die Dinge klassifiziert hat, von denen er sich ernährte,
und daß er dieser Klassifizierung diejenigen Verfahren zugrunde leg-
te, mit deren Hilfe er sich die betreffenden Dinge beschafft hat: zum
Beispiel Tiere, die im Wasser oder in der Luft oder auf dem Lande le-
ben. Aber die so gebildeten Gruppen waren zunächst weder miteinan-
der verbunden noch systematisiert. Es handelte sich um Einteilungen,
um Begriffsunterscheidungen, nicht aber um Klassifizierungstabellen.
Darüber hinaus ist es offensichtlich, daß diese Unterscheidungen eng
mit der Praxis verknüpft waren, von der sie nur gewisse Aspekte aus-
drückten. Das ist der Grund dafür, warum wir in dieser Arbeit nicht
darüber gesprochen haben, in der wir vielmehr versuchen, die Ur-
sprünge des logischen Verfahrens zu erhellen, das die Grundlage für
wissenschaftliche Klassifizierungen ist. (Durkheim und Mauss, 1903,
[79].)

Da Durkheim und Mauss sorgfältig die Sphäre, in der die sozialen, symbo-
lischen und kognitiven Aspekte unentwirrbar ineinander verschlungen und

miteinander vermengt“ sind, von der Welt unterschieden, in der man sein

Verhalten regelt“ und seine Praktiken rechtfertigt“, versäumten sie die Ge-

legenheit, ihre Theorie auf diejenigen Kategorien anzuwenden, die das Han-
deln durchdringen. Von diesen Kategorien sind zum Beispiel Taxonomien, die
der Verwaltungsarbeit vor allem bei Produktionen statistischer Art zugrun-
deliegen, nichts anderes als Werkzeuge zur Klassifizierung und Kodierung,
die mit Handlungen und Entscheidungsfindungen zusammenhängen und sich
nicht von dem sozialen Netz trennen lassen, in das sie eingebunden sind.
Als Durkheim (1897, [78]) die Selbstmordstatistiken verwendete, um seine
makrosoziologische Theorie aufzustellen, stellte er sich also nicht die Frage
nach eventuellen sozialen Schwankungen bezüglich der Selbstmordmeldungen.
Das war ein Umstand, der im Hinblick auf die religiöse Stigmatisierung des
Selbstmords hätte relevant sein können. (Besnard, 1976, [15]; Merllié, 1987,
[194].) Die beiden erwähnten Teile seines Werks waren disjunkt zueinander.
Gleichzeitig – aber gesondert – schuf er eine objektive Soziologie, die sich
auf statistische Regelmäßigkeiten stützte, und eine Soziologie der kollekti-

ven Darstellungen“, die weder für die Erkenntniswerkzeuge galt, noch auf
die der statistischen Objektivierung zugrundeliegenden Darstellungen zutraf.
Aus dieser Sicht handelte es sich nicht nur um eine Kritik der statistischen
Verzerrungen ( Bias“), die aus einer etwaigen partiellen Angabe bezüglich

der Selbstmorde folgt, sondern allgemeiner um eine Analyse der Konstruk-
tion des Objekts, wie es sich in seiner administrativen Kodierung offenbart.
Die von Durkheim und Mauss gezeichnete starre Dichotomie – zwischen den
274 8 Klassifizierung und Kodierung

dem reinen Wissen zugrundeliegenden Schemata einerseits und den pejorativ


als nicht systematisiert“ und eng mit der Praxis verbunden“ beschriebenen
” ”
Unterscheidungen andererseits – stärkt nämlich letztlich eine realistische Po-
sition, bei der das Objekt unabhängig von seiner Konstruktion existiert. Diese
Konstruktion wird deshalb zu einer Operation des Messens“ reduziert, die

der Konzeptualisierungsarbeit untergeordnet ist.
Die theoretische und praktische Überprüfung der in den Sozialwissenschaf-
ten verwendeten Definitionen, Nomenklaturen und Kodierungen war also fast
unvorstellbar. Das lag einerseits an der obengenannten Arbeitsteilung, ande-
rerseits aber auch an der Unterscheidung zwischen dem nach Wahrheit stre-
benden, wissenschaftlichen Wissensideal und dem alltäglichen Handeln, das
von Kategorien abhängt, die für unrein“ und approximativ, wenn nicht gar

für verzerrt gehalten werden. Diese Aufgabenteilung bietet sowohl den Wis-
senschaftlern als auch den Handlungs- und Entscheidungsträgern Vorteile, und
sei es nur deswegen, daß dadurch ein Expertiseraum erschlossen wird, der sich
für alle Beteiligten als nützlich erweist. Dieser Raum läßt sich nur über einen
Umweg erreichen: Man bettet die Arbeit zur Produktion und Nutzung des
sogenannten Verwaltungswissens (durch den Staat, durch die Unternehmen
oder durch andere soziale Akteure) in den umfassenderen Raum der Produk-
tion beliebigen Wissens ein. Diese Wissensproduktion wird dann als Formie-
rung und Stabilisierung von Kategorien betrachtet, die hinreichend konsistent
sind, um sich transportieren zu lassen oder von Hand zu Hand weitergereicht
zu werden. Darüber hinaus bewahren diese Kategorien in den Augen einer
bestimmten Anzahl von Personen ihre Identität. Die Aufmerksamkeit wird
dabei insbesondere auf die soziale Alchimie“ der Qualifikation gelenkt, die

einen Fall zusammen mit dessen Komplexität und Undurchsichtigkeit auf eine
Äquivalenzklasse abbildet, welche sich ihrerseits durch einen Gattungsbegriff
bezeichnen läßt, der in umfassendere Mechanismen eingebunden werden kann.

Die Zirkularität von Wissen und Handeln


Das Moment der Kodierung, das häufig unauffällig in routinemäßigen stati-
stischen Produktionsketten verborgen ist, läßt sich leichter erkennen, wenn es
als Aspekt einer Entscheidung auftritt, die ihrerseits gravierende Konsequen-
zen hat. Der Kodierungsvorgang zieht dann als Prozeß die Aufmerksamkeit
stärker auf sich. Das ist in drei Fällen bemerkenswert, in denen Statistiken
seit langer Zeit produziert und verwendet werden: im Recht, in der Medizin
und im Bildungswesen.
Der Richter wendet das Gesetz und das Strafgesetzbuch an, aber diese
Anwendung ist nur möglich, nachdem eine strafrechtliche Voruntersuchung
und ein öffentliches Verfahren stattgefunden haben, in deren Verlauf mit Hil-
fe verschiedener Argumente über die Charakterisierung der begangenen Tat
debattiert wird. Das Urteil impliziert eine Interpretation der Vorschriften, die
ihrerseits auf dem Gesetz und auf der – bei früheren Rechtsangelegenheiten
Die Zirkularität von Wissen und Handeln 275

akkumulierten – Rechtsprechung fußen (Serverin, 1985, [256]). Die Rechtswis-


senschaft ist ein altes und unerschöpfliches Reservoir an Quellen zur Identi-
fizierung, Diskussion und Charakterisierung von Rechtsangelegenheiten und
deren Zusammenfassung in Kategorien. Dabei unterliegen diese Kategorien
einer allgemeinen Aufbereitung, die ihrerseits wiederum mehr oder weniger
einfach definiert ist. Die Gesamtheit dieser Sachverhalte eignet sich gut zur
statistischen Aufzeichnung: der seit 1827 in Frankreich bestehende Compte
général de l’administration de la justice criminelle ist eine der ältesten Ver-
waltungsstatistiken (Michelle Perrot, 1977, [229]).
Ärzte und Mitarbeiter des öffentliches Gesundheitswesen charakterisieren
Krankheiten und Todesursachen zu klinischen Zwecken (Diagnose) mit dem
Ziel der Prävention (Epidemiologie) oder auch zur Verwaltung von Gesund-
heitsfürsorgesystemen (Krankenhausbudget) und zur sozialen Sicherung (Lei-
stungserstattungen). Die in den 1830er Jahren beginnende Einführung nu-

merischer Methoden“ in der Medizin – sei es aus Anlaß von Epidemien oder
zum Studium der Effizienz von Behandlungen – hat zu lebhafte Kontroversen
geführt, bei denen es um die Singularität der Patienten und der Krankheiten
sowie um die angewendeten Äquivalenzkonventionen ging (vgl. Kapitel 3).
Und schließlich ist die Schule eine Einrichtung, die eine Qualifizierung der
Individuen anstrebt, welche diese Einrichtung besuchen. Die Qualifizierung
erfolgt mit Hilfe von Prüfungen, die eine dauerhafte Einteilung der geprüften
Individuen in Kategorien ermöglicht, die ihrerseits spezifische Eigenschaf-
ten haben und mit anderen stellenrelevanten Kategorien verglichen werden
können. Die Definitionen der stellenrelevanten Kategorien stützen sich häufig
auf Schulqualifikationen, Diplome, Studiengänge und auf die Studiendauer.
In jedem dieser drei Fälle wird die Taxonomie gleichzeitig mit der Kon-
struktion und Stabilisierung einer gesellschaftlichen Ordnung, mit der Erzeu-
gung einer gemeinsamen Sprache zur Koordinierung individueller Handlungen
und schließlich mit einem spezifischen und übertragbaren Wissen assoziiert,
das diese Sprache in deskriptiven und explikativen (vor allem statistischen)
Systemen anwendet. Dabei sind diese Systeme dazu fähig, Handlungen zu
steuern und neu auszulösen. Aus dieser Sicht lassen sich die Wechselwirkun-
gen zwischen Wissen und Handeln in zirkulärer Form darstellen, bei der man
zwei häufig verwendete (und mitunter diskutierte) Kategorien einbezieht: Da-

ten“ und Information“. Die Daten“ erscheinen als Folge einer organisierten
” ”
Handlung, das heißt der Wortsinn ist in diesem Zusammenhang doppeldeu-
tig.5 Information“ entsteht im Ergebnis einer Aufbereitung und Strukturie-

rung dieser Daten durch Nomenklaturen. Das Wissen“ oder die Kenntnisse“
” ”
sind das Produkt einer vernunftgeleiteten Akkumulation früherer Informa-
tionen. Die Klassifikationskategorien gewährleisten zunächst die Äquivalenz
5
Das Wort Daten“ leitet sich aus dem lateinischen data“ ab und bedeutet die
” ” ”
gegebenen (Werte)“. Es besteht jedoch heute ein weitgehender Konsens, daß Da-

ten“ nicht gegeben sind, sondern vielmehr im Ergebnis einer sozialen und mate-
riellen Produktion entstehen, die zudem noch ziemlich aufwendig ist.
276 8 Klassifizierung und Kodierung

von Einzelfällen und die zeitliche Permanenz dieser Äquivalenzen ermöglicht


es dann, die betreffende Handlung erneut auszulösen. Auf diese Weise kann
sich der Kreis Handlung - Daten - Information - Wissen - Handlung“ nun-

mehr wieder schließen – nicht nur logisch, sondern auch historisch, wobei die
Nomenklaturen die Funktion haben, das akkumulierte Wissen zu bewahren.
Um dieses Schema – vor allem auf die statistischen Produktionen – präzi-
ser anzuwenden, muß man die Allgemeinheitsgrade und die Gültigkeitsberei-
che gewisser Forminvestitionen analysieren, wobei es um Formen des akku-
mulierten Wissens geht, das durch mehr oder weniger stabile Taxonomien
strukturiert ist. Insbesondere unterscheiden sich die direkt von statistischen
Einrichtungen registrierten Daten (Umfragen, Zählungen) von denjenigen Da-
ten, die offenkundig als Nebenprodukte von Verwaltungstätigkeiten entstehen
und andere Ziele als die Produktion von Informationen verfolgen. Diese bei-
den Datenkategorien werden in Bezug auf epistemische Projekte oft einander
gegenübergestellt, wobei die als Nebenprodukte von Verwaltungstätigkeiten
entstehenden Daten einen weniger guten Ruf haben. Darüber hinaus sind die
letztgenannten Daten bei Fehlen der direkt registrierten Daten nur ein Not-
behelf, dessen Erstellungskosten viel zu hoch wären. Aber die vergleichende
Geschichte der statistischen Dienststellen zeigt, daß sogar im erstgenannten
Fall die Umfragethemen, die gestellten Fragen und die verwendeten Nomen-
klaturen von denjenigen Formen des öffentlichen Handelns bestimmt werden,
die in einem gegebenen Land und zu einer gegebenen Zeit vorherrschen. Die
dynamischen Zeiten im Leben dieser Dienststellen spielten sich genau dann
ab, wenn es ihnen gelang, ihre Untersuchungen eng mit aktuellen Problemen
(vgl. Kapitel 5 und 6) zu verbinden. Das war der Fall, wenn die statistischen
Dienststellen gleichzeitig die Handlungskategorien und die Mittel zu deren Be-
wertung produzierten: im England der 1840er Jahre mit Farr und der Public
Health Movement, im Preußen der 1860er und 1870er Jahre mit Engel und
dem Verein für Socialpolitik , in den Vereinigten Staaten der 1930er Jahre mit
der Krise und der Arbeitslosigkeit und im Frankreich der 1950er und 1960er
Jahre mit der Planifikation und dem Wachstum.
Die Interaktionen zwischen Wissen und Handeln sind im Falle der direkt
von statistischen Dienststellen durchgeführten Untersuchungen umfassender
und weniger unmittelbar als in den Fällen, bei denen die Daten Nebenpro-
dukte der Verwaltungstätigkeit sind. Verwaltungsdaten waren übrigens bis
in die 1930er Jahre das Hauptmaterial der amtlichen Statistiken, wobei die
Volkszählungen eine wichtige Ausnahme darstellten – auch wenn es sich bei
diesen Zählungen ursprünglich um Verwaltungsoperationen zu militärischen
und steuerlichen Zwecken handelte. Aber in jedem Fall hing bei dieser Spra-
che und diesen Wissens- und Handlungsformen die Fähigkeit, verbindliche
Übergangspunkte für die anderen Akteure zu schaffen, von der Möglichkeit
ab, die sukzessiven Bestandteile des obengenannten Kreises mit Nachdruck zu
artikulieren. Man erkennt das a contrario bei einem Blick auf die Zeiten, in
denen diese Verbindungen verebbten: in Deutschland nach 1880, in Frankreich
Gewerbliche Tätigkeiten: instabile Verbindungen 277

zwischen 1920 und 1940, in den Vereinigten Staaten, Großbritannien und in


geringerem Maße in Frankreich seit 1980.
Im Rahmen der hier skizzierten Sichtweise erwähnen wir – auf der Grund-
lage einiger Arbeiten zur Geschichte der Taxonomien und der statistischen
Variablen – die Klassifizierungen der gewerblichen Sektoren, die Definition der
Arbeitnehmerschaft und der Arbeitslosigkeit, die berufssoziologischen Nomen-
klaturen und die Nomenklaturen der Krankheiten und Todesursachen. Die Art
und Weise, in der die Statistiker Objekte wahrgenommen und identifiziert ha-
ben, diese Objekte zwecks Verarbeitung in Kategorien klassifiziert haben, sie
in Tabellen gesammelt und weitergereicht haben, aber auch die Mißverständ-
nisse und Kritiken, denen die Statistiker dabei begegnet sind – all das liefert
Informationen über gesellschaftliche Umgestaltungen, wobei diese Informatio-
nen anders beschaffen sind, als die langen, auf prinzipiell stabilen Verfahren
basierenden Zeitreihen in Bezug auf Preise, Produktionsindizes und Außen-
handel. Historiker, die diese statistischen Reihen verwenden, bedauern häufig
die Änderungen im Aufzeichnungs- und Klassifizierungsmodus der Objekte,
da diese Änderungen zu einer Kontinuitätsunterbrechung der betreffenden
Modi führen. Mitunter suchen die Historiker nach Rezepten, um mit Hilfe
von Schätzungen fiktive Reihen zu rekonstruieren, die sich aus konstanten
Konstruktions- und Klassifikationsverfahren der Daten ergeben würden. Da-
durch riskieren sie die Anwendung anachronistischer Wahrnehmungsschemata
und unterbrechen den für ein Land oder eine Zeit spezifischen Kreis aus Wis-
sen und Handeln (dasselbe gilt auch für internationale Vergleiche). Wir bieten
hier keine Methoden der Reihenfortsetzung an (die nur in der Umgebung einer
taxonomischen Diskontinuität denkbar wäre) – stattdessen werfen wir einen
Blick auf einige dieser Diskontinuitäten und schlagen hierfür historische In-
terpretationen vor.

Gewerbliche Tätigkeiten: instabile Verbindungen


Der Zusammenhang zwischen den Formen des administrativen oder ökonomi-
schen Handelns und dem Wissen über diesen Zusammenhang ist wechselsei-

tig“, denn dieses Wissen resultiert aus Eintragungen (in Verzeichnisse, Regi-
ster, Geschäftsbücher, amtliche Marktpreislisten u.a.), die anläßlich der be-
treffenden Handlungen vorgenommen wurden, und die Eintragungen sind zur
Stabilisierung dieser Handlungen notwendig. Die Existenz von mehr oder we-
niger robusten und permanenten Äquivalenzklassen hängt mit den spezifischen
Randbedingungen der allgemeinen Verarbeitung der singulären Operationen
und mit der Standardisierungsarbeit zusammen, die durch diese Zwänge im-
pliziert wird. In den vorhergehenden Kapiteln hatten wir den Akzent auf die
allgemeine Behandlung der Tätigkeit des Staates und seiner Verwaltung ge-
setzt, da der historische (und etymologische) Zusammenhang zwischen Staat
und Statistik eng war – beginnend mit der Beziehung zwischen Personenstand
(obligatorische Registrierung der Geburten, Heiraten und Todesfälle) und der
278 8 Klassifizierung und Kodierung

Berechnung der Bevölkerungsbewegung“ im 18. Jahrhundert. Aber andere



allgemeine Verarbeitungsformen rührten von den Veränderungen der Wirt-
schaftswelt her und entwickelten sich zunächst mit der Ausdehnung der Han-
delsbeziehungen seit Ende des Mittelalters (Banken, Zahlungsmittel, Preise
auf erweiterten Märkten) und dann im 19. Jahrhundert mit der industriellen
Standardisierung und dem Auftreten von Großunternehmen.
Quantitative Wissensbereiche (wie zum Beispiel die Buchführung) gab es
also anläßlich des Warenaustausches bereits – und zwar unabhängig vom Staat
und noch bevor derartige Wissensbereiche von staatlichen Dienststellen ge-
nutzt wurden. Die komplexen Beziehungen zwischen diesen beiden Wissens-
universen führten gegen 1750 zur Entstehung der politischen Ökonomie (Jean-
Claude Perrot, 1992, [227]), welche die Art und Weise diskutierte, in der ein
Staat auf den Bereich der Wirtschaft einwirken konnte, um dadurch gleich-
zeitig seine eigenen Einnahmen zu erhöhen und die Macht des Königreichs zu
stärken. Der Merkantilismus und die Physiokratie waren mehr oder weniger
globale Antworten auf diese Fragen. Aus dieser Sicht versuchte der monarchi-
sche Staat schon seit Colbert, eine Bestandsaufnahme der Wirtschaftstätig-
keit des Landes vorzunehmen. Das leitete – vor allem im Gewerbe – eine lange
Reihe von statistischen Untersuchungen ein. Aber die Formen der Produktion
und der Wirtschaftstätigkeit des Staates entwickelten sich in einem Maße, daß
die – seit mehr als drei Jahrhunderten in Abständen durchgeführten – Ver-
suche zur Beschreibung der Gewerbe im Laufe der Zeit vollkommen andere
Kategorien verwendeten. Diese Kategorien wurden von Guibert, Laganier und
Volle (1971, [114]) vorgestellt; die Autoren gehörten zu den Ersten, die dar-
an gedacht hatten, Nomenklaturänderungen als an sich signifikante Objekte
zu betrachten und nicht nur als mißliche Ereignisse anzusehen, die ein Hin-
dernis bei der Konstruktion langer statistischer Reihen darstellen – Reihen,
die darüber hinaus noch durch verschiedene Wirtschaftsmodelle miteinander
verknüpft sind.
Der Bereich der Produktionstätigkeiten erwies sich für eine solche Art von
nachdenklichem Ausflug als günstiger im Vergleich zu Untersuchungen über
die Bevölkerung. Denn die Verwaltungsmaßnahmen zur Registratur von Ge-
burten, Heiraten und Sterbefällen, aber auch Rekrutenaushebungen in gut
erkundeten Gebieten waren hinreichend stabile Vorgänge, die zu einfachen
und robusten Taxonomien führten (Alter, Geschlecht, familiäre Rechtsstel-
lung, Kirchengemeinde, Departement). Dagegen waren die Bereiche der Pro-
duktion und des Handelsverkehrs nicht in derartigen staatlichen Registrierun-
gen erfaßt und die Beziehungen dieser Bereiche zum Staat wurden in ständig
wiederkehrenden Kontroversen diskutiert. Aus diesem Grund befanden sich
die staatlichen Aktionsformen und die Formen der staatlichen Kontrolle in
ständiger Entwicklung und waren auf unterschiedliche Aspekte dieser Tätig-
keit in den verschiedensten kognitiven Registern ausgerichtet. Die Kriterien
für die Einteilung der Gewerbe änderten sich mehrmals und trotz einer schein-
baren Stabilität kam es sogar bei den verwendeten Wörtern zu tiefgreifenden
inhaltlichen Änderungen.
Gewerbliche Tätigkeiten: instabile Verbindungen 279

Am Ende des 18. Jahrhunderts, kurz vor der Revolution, versuchten die
Physiokraten mit ihrem politischen und intellektuellen Projekt eine neue Auf-
fassung der Beziehungen zwischen dem Staat und den sich frei entfaltenden
Wirtschaftstätigkeiten zu fördern, bei denen die Natur – die Quelle allen
Reichtums – gewinnbringend genutzt wird. Aber die Freiheit des Handels,
die für den allgemeinen Wohlstand und die Steuereinnahmen vorteilhaft war,
schloß nicht aus, daß der Staat über diese Tätigkeiten Bescheid wissen wollte.
Bereits Colbert hatte 1669 angeordnet die Situation der Fabriken des König-

reichs zahlenmäßig zu ermitteln“ – es handelte sich damals im Wesentlichen
um Textilfabriken. Im Jahre 1788 stellte Tolosan, der Generalintendant für
Handel, eine Tabelle der wichtigsten Gewerbe Frankreichs auf und fügte der

Tabelle eine Schätzung der von jedem dieser Gewerbe hergestellten Produkte
an“ (SGF, 1847, [258]). Die von Tolosan vorgeschlagene Nomenklatur lieferte
bis 1847 den Rahmen für Gewerbestatistiken. Die Hauptteile bezogen sich auf
den Ursprung der verwendeten Rohstoffe: anorganische Produkte, pflanzliche
Produkte und tierische Produkte. Das führte dazu, die Textilien in zwei ver-
schiedene Teile zu unterteilen: Baumwolle, Leinen und Hanf als pflanzliche
Produkte, Wolle und Seide als tierische Produkte. Unter den tierischen Pro-
dukten waren Webteppiche“ und Mobiliar“ aufgeführt. Hierbei bezeichnete
” ”
der Begriff Mobiliar“ keine Möbel (aus Holz), sondern im Wesentlichen Tep-

piche (aus Wolle), was deren Einordnung in der Rubrik tierische Produkte“

rechtfertigte. Diese Nomenklatur, die aus den ökonomischen Beschreibungen
der Physiokraten hervorgegangen war, inspirierte noch die von Chaptal im
Jahre 1812 veröffentlichte Gewerbeschätzung.
Im 19. Jahrhundert wurden Erhebungen zur Industrie noch nicht re-
gelmäßig durchgeführt, obwohl es 1841 und 1861 Zählungsversuche gegeben
hat. Später, von 1896 bis 1936, wurden die im Abstand von fünf Jahren durch-
geführten Volkszählungen dazu verwendet, auf indirektem Wege Informatio-
nen über die Geschäftstätigkeiten einzuholen. In den 1830er und 1840er Jah-
ren kam es zu einer schnellen Änderung der industriellen Techniken und neue
Maschinen wurden eingesetzt. Das Problem bestand damals darin, neue Ob-
jekte zu identifizieren, die weder definiert noch erfaßt waren. Diese Entitäten
gingen aus der alten Welt der Künste und Gewerbe“ (das heißt des Hand-

werks) hervor und führten zu den Manufakturen“. Die Enquete von 1841

zielte also weniger darauf ab, die noch nicht sehr zahlreichen gewerblichen
Betriebe zu zählen, sondern vielmehr darauf, sie überhaupt erst einmal aus-
findig zu machen und zu beschreiben. Das Aufstellen von Statistiken begann
mit der Anfertigung einer Liste (eines Status 6 ), einer Kartei, eines Verzeich-
nisses, das heißt mit der Erstellung materieller Formen der logischen Kategorie
der Äquivalenzklasse“:

6
Hier spielt der Verfasser auf die Mehrdeutigkeit des französischen Wortes état“

an, das u.a. Zustand“ (Status) und Staat“ bedeutet und in diesem Sinne eine
” ”
Zustandsbeschreibung des Staates durch seine Statistik widerspiegelt.
280 8 Klassifizierung und Kodierung

Man muß die allgemeine Tabelle der Gewerbesteuerpflichtigen eines


jeden Departements einer aufmerksamen Prüfung unterziehen und
daraus eine Liste der Fabrikanten, Unternehmer und Hersteller ex-
trahieren, deren Betriebe aus der Klasse der Handwerker hervorgehen
und die aufgrund ihrer Beschaffenheit, ihrer Größe oder wegen des
Wertes ihrer Produkte zum verarbeitenden Gewerbe gehören ... In
jedem Arrondissement ist auf der Grundlage der in den Unterlagen
bereitgestellten Begriffe eine detaillierte Enquete durchzuführen, de-
ren Ziel es ist, zahlenmäßig die jährliche gewerbliche Produktion aller
Fabriken, Manufakturen oder Betriebe zu ermitteln. Zu berücksichti-
gen sind jedoch nur Betriebe, die mindestens zehn Arbeiter beschäfti-
gen; auszuschließen sind alle Betriebe mit einer geringeren Zahl von
Beschäftigten, wie es im Allgemeinen im Handwerk der Fall ist, das an
späterer Stelle untersucht wird. Man muß die statistischen Daten der
gewerblichen Betriebe sammeln, entweder durch Befragung der Eigen-
tümer oder Direktoren oder – falls von denen keine Auskünfte einge-
holt werden können – durch von Amts wegen erfolgende Schätzungen
entsprechend dem öffentlichen Bekanntheitsgrad der betreffenden Be-
triebe oder durch beliebige andere Untersuchungsmittel. Zu diesem
Zweck sind alle informierten Männer zu befragen, welche die notwen-
digen Auskünfte erteilen oder bestätigen, überprüfen und berichtigen
können (SGF, (1847, [258]), zitiert von Guibert, Laganier, Volle, 1971,
[114]).
Die Industrie rebellierte in ihrer Innovationsphase gegen die Statistik, denn
per definitionem unterscheidet, differenziert und kombiniert eine Innovation
die Ressourcen auf unerwartete Weise. Der Statistiker wußte nicht, wie er
mit diesen Anomalien“ umgehen sollte, die sich den in der Landwirtschafts-

statistik bereits gesammelten Erfahrungen entzogen, bei der die Produkte

mühelos auf entsprechende Ausdrücke bezogen werden können“:
Man verwendet in gewissen Fabriken nur eine Sorte Rohstoff, aus dem
man zehn unterschiedliche maschinell verarbeitete Produkte gewinnt,
während andere Fabriken im Gegensatz hierzu ein einziges maschinell
verarbeitetes Produkt aus zehn Rohstoffen oder unterschiedlich be-
arbeiteten Materialien erzeugen. Diese Anomalien führen zu großen
Schwierigkeiten bei der Aufstellung statistischer Tabellen, die im We-
sentlichen auf der Analogie von Typen, auf der Symmetrie von Zif-
ferngruppierungen und auf der Gleichartigkeit ihrer Intervalle beruhen
und sich nicht für diese riesigen Disproportionen eignen. Nichts der-
gleichen fand sich in der Landwirtschaftsstatistik, da sich die Boden-
produkte mühelos zu entsprechenden Ausdrücken in Beziehung setzen
lassen; der obengenannte Nachteil trat auch nicht bei den früheren
Versuchen zur Aufstellung von Gewerbestatistiken auf, da man man
sich ständig von Hindernissen ferngehalten hatte und an der Ober-
fläche der Dinge geblieben war. (SGF, 1847, [258]).
Gewerbliche Tätigkeiten: instabile Verbindungen 281

Anstelle von Statistiken präsentierte die Enquete von 1841 eine Reihe von
Monographien über Betriebe, wobei die Betonung vor allem auf den Tech-
niken und den Maschinen lag. Für Historiker der Makroökonomie ist diese
Erhebung frustrierend; dagegen erweist sie sich für Wissenschafts- und Tech-
nikhistoriker als wertvoll, da man darin den Zusammenhang zwischen wis-
senschaftlichen Entdeckungen und ihren industriellen Umsetzungen erkennen
kann. Diese Statistik“, die in gewisser Weise noch der des 18. Jahrhunderts

nahestand, war mehr an Leistungen als an Durchschnitten und Aggregaten
interessiert. Sie behielt den von Tolosan vorgegebenen allgemeinen Rahmen
bei und hob die großen Kategorien nicht hervor. Die Bergbaustatistik, für
die 1848 Le Play – der Begründer der Monographien über Arbeiterhaushal-
te (vgl. Kapitel 7) – verantwortlich zeichnete, war ebenfalls überwiegend von
dieser ins Einzelne gehenden deskriptiven Auffassung inspiriert, und nicht von
nationalen Totalisierungen.
Im Jahre 1861 teilte eine neuen Gewerbe-Enquete die Tätigkeiten nicht
mehr entsprechend den Ursprüngen der Produkte ein, sondern gemäß ihren
Bestimmungen. Die Industrialisierung war nun so richtig in Fahrt gekommen
und es fand ein starker Wettbewerb mit den europäischen Ländern statt, vor
allem mit England. Die Betriebsinhaber hatten sich auf der Grundlage der
Produktfamilien in Fachverbänden organisiert, um ihre Positionen zu vertei-
digen; sie verhielten sich protektionistisch, wenn es um den Verkauf konkur-
rierender Produkte ging, aber sie waren Anhänger des Freihandels, wenn sie
sich in dominierender Position befanden oder ihre Rohstoffe einkauften. Der
französisch-englische Handelsvertrag von 1860 eröffnete eine Zeit des Frei-
handels und die Debatten strukturierten sich von nun an um die Einteilung
der Berufsgruppen auf der Grundlage von Produktzweigen (ein Unternehmen
konnte mehreren Verbänden beitreten, wenn es mehrere Produkte herstellte).
Dieses System von Branchenverbänden blieb bestehen – es war in der Zeit
der Knappheit der 1940er Jahre sogar noch stärker geworden und existiert bis
heute. Die Wirtschaftstätigkeit wurde auf der Grundlage der entsprechenden
Produkte identifiziert.
Mit Beginn der 1870er Jahre änderte sich die Struktur erneut. Die Wirt-
schaftspolitik der Dritten Republik kehrte zum Protektionismus zurück und
die Verwaltung fühlte sich gegenüber den Unternehmen nicht mehr hinrei-
chend sicher, um direkte Enqueten zu deren Tätigkeiten durchzuführen. Die
Informationen über die Industrie und die anderen Wirtschaftssektoren nah-
men – aufgrund der im Jahre 1891 durchgeführten Eingliederung der Statisti-
que générale de la France (SGF) in das neue Arbeitsamt (Office du travail ,
vgl. Kapitel 5) – einen Umweg. Die Betonung lag von nun an auf der Beschäfti-
gung, der Arbeitslosigkeit und den Berufen, mit deren Untersuchung dieses
Amt beauftragt war. Die Volkszählung von 1896 enthielt Fragen zur Wirt-
schaftstätigkeit und zur Anschrift des Betriebes, in dem die befragte Person
arbeitete, sowie Fragen zu deren Beruf. Die Aufbereitung dieser etwa zwan-
zig Millionen individuellen Berichte über erwerbstätige Personen war – dank
der neuen Lochkartenmaschinen von Hollerith – in Paris zentralisiert. Das
282 8 Klassifizierung und Kodierung

ermöglichte die Aufstellung einer Statistik der Industrie- und Handelsbetrie-


be, wobei die erwerbstätige Bevölkerung gemäß Tätigkeit und Größe des Be-
triebes sowie nach Geschlecht und Beschäftigungstyp der befragten Personen
aufgeschlüsselt wurde. Aber die Neugliederung der Tätigkeiten warf auch ein
neues Problem auf, da sich die Informationen nicht mehr auf die Produkte,
ihren Ursprung oder ihre Bestimmung bezogen, sondern auf die Berufe der
beschäftigten Personen. Dieser Umstand legte eine Neugliederung der Tätig-
keiten und der Betriebe nahe:
... um so wenig wie nur möglich diejenigen Berufe zu trennen, die in
der Praxis am häufigsten zusammengefaßt oder nebeneinander gesetzt
werden ... Benachbarte Industriezweige verwenden ähnliche industri-
elle Verfahren und diese Ähnlichkeit bestimmt im Allgemeinen die
Verbindung mehrerer Individuen im gleichen Betrieb oder im gleichen
gewerblichen Zentrum (SGF, (1896, [260]), zitiert von Guibert, Laga-
nier, Volle, 1971, [114]).
Das Kriterium der Neugliederung war also jetzt die Produktionstechnik, die
sich in einer gewissen Kombination von Gewerben und in einer Ähnlichkeit

der Verfahren“ ausdrückte. Die Verwendung des französischen Wortes pro-
7 ”
fession“ zur Bezeichnung einer individuellen Tätigkeit und zur Bezeichnung
einer Gruppe von Betrieben, die eine Familie von Techniken und Kenntnis-
sen anwenden, ist bedeutsam für eine der Tendenzen in der Taxonomie der
gewerblichen Tätigkeiten. Diese Taxonomie blieb in einer bemerkenswert sta-
bilen Reihe von Volkszählungen in der Zeit von 1896 bis 1936 vorherrschend,
in denen die Betriebsstatistik ausgewiesen wurde. Nach 1940 traten erneut
die Produktkriterien und sogar die Rohstoffkriterien auf, und zwar gleich-
zeitig mit Branchen-Enqueten“, die von den Berufsverbänden durchgeführt

wurden. Die späteren Nomenklaturen kombinierten diese unterschiedlichen
Ansätze und stützten sich vor allem auf ein Assoziationskriterium“, das dar-

auf abzielte, diejenigen Tätigkeiten in einem Aggregat zusammenzufassen,
die häufig innerhalb ein und desselben Unternehmens zueinander in Verbin-
dung gebracht wurden. Die Anwendung dieses empirischen Kriteriums führte
zu Neugliederungen in Bezug auf das fragliche Produkt oder die betreffende
Technik – je nachdem, ob die Identität des Unternehmens durch den Markt ei-
nes aus unterschiedlichen Techniken resultierenden Endprodukts definiert war,
oder ob die Unternehmensidentität durch spezifische industrielle Ausrüstun-
gen und Know-hows definiert war, die zu unterschiedlichen Produkten führten
(Volle, 1982, [284]).

7
Das Wort wird u.a. in folgenden Bedeutungen verwendet: Beruf, Berufstätigkeit,
Erwerbstätigkeit, Berufsstand, Berufsgruppe, Berufszweig.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 283

Vom Armen zum Arbeitslosen:


Die Entstehung einer Variablen

Die in den 1890er Jahren erfolgende Verschiebung des Kriteriums zur Tätig-
keitsklassifizierung – von einer marktorientierten Logik zu einer Wirtschafts-
und Berufslogik – läßt sich mit der Änderung der Art und Weise in Zusam-
menhang bringen, in der das Gesetz und der Staat das Wirtschaftsleben kodi-
fizierten. Um diese Zeit fing man nämlich damit an, die Beziehungen zwischen
Betriebsinhabern und Lohnempfängern durch ein spezifisches Arbeitsrecht zu
regeln und nicht mehr nur durch das Bürgerliche Gesetzbuch, welches den Ar-
beitsvertrag als einen Dienstvertrag“ behandelte, das heißt als einen Tausch-

vertrag zwischen zwei Individuen. Früher bezogen sich die Eingriffe des Staates
in das Geschäftsleben vor allem auf die Zolltarife. Die Kontroversen zwischen
den Anhängern des Freihandels und den Protektionisten beeinflußten zum
großen Teil die statistische Aufbereitung der Wirtschaftstätigkeit. Von jetzt
an waren es jedoch die Probleme der Arbeit und der Arbeitnehmerschaft, die
als treibende Kraft der neuartigen, statistisch orientierten Einrichtungen zum
Tragen kamen. In der Mehrzahl der Industrieländer wurden zu diesem Zeit-
punkt Arbeitsämter“ gegründet, deren Funktion darin bestand, sowohl die

neuen Gesetze vorzubereiten als auch die Sprache und die statistischen Werk-
zeuge zu schaffen, die über diese gesetzgeberische und administrative Praxis
informiert (vgl. Kapitel 5 und 6). Zum Beispiel war das die Entschädigung
bei Arbeitsunfällen regelnde Gesetz, das sich auf den Begriff eines statistisch
ermittelten Berufsrisikos stützte, einer der ersten Texte, in denen ein Betrieb
explizit als kollektive Person definiert wird, die von der individuellen Person
des Betriebsinhabers verschieden ist (Ewald, 1986, [87]). Einer der hervor-
stechendsten Aspekte dieser Entwicklung war die soziale, institutionelle und
schließlich statistische Konstruktion eines neuen Objekts, das allmählich den
Begriff der Armut ersetzen sollte: die Arbeitslosigkeit. Diese war ohne den
Status des Lohnempfängers unvorstellbar, der den Arbeiter mit dem Betrieb
verband und ihn diesem unterordnete.
Die Geschichte der in Großbritannien im 19. und 20. Jahrhundert ent-
wickelten und verwendeten sozialen Klassifikationen unterscheidet sich grund-
legend von der Geschichte der entsprechenden Klassifikationen in Frankreich.
Beide trafen sich jedoch in den 1890er Jahren an einem Punkt, an dem man
über neue soziale Beziehungen und über eine neue Sprache zur Behandlung der
einschlägigen Probleme diskutierte – eine Sprache, zu der auch der Begriff der
Arbeitslosigkeit gehörte. Die historischen Abfolgen unterschieden sich vonein-
ander. In Großbritannien setzte die Industrialisierung bereits im 18. Jahrhun-
dert ein. Die Menschen verließen das Land und im gesamten 19. Jahrhundert
wuchsen die Städte rasch und unter dramatischen Bedingungen. Der soziale
Graben zwischen den Klassen wurde mit Hilfe der Begriffe der Armut, der Ar-
mutsursachen und der Mittel wahrgenommen und analysiert, durch die sich
die Auswirkungen der Armut abmildern ließen. Die Wirtschaftskrise von 1875
hatte verheerende Auswirkungen. Es kam sogar in den bürgerlichen Kreisen
284 8 Klassifizierung und Kodierung

inmitten von London zu Unruhen. Die typisch britischen Debatten zum Sozi-
alreformismus und zur Eugenik lassen sich nur in diesem Kontext verstehen.
In Frankreich dagegen verliefen die Industrialisierung und Verstädterung viel
langsamer. Das alte berufliche und soziale Gefüge, das sich häufig rund um
den beruflichen Gemeinschaftsgeist organisierte, hat den sozialen Taxonomien
auch weiterhin lange Zeit hindurch seinen Stempel aufgedrückt. Die neuen,
in den Jahren 1890 erarbeiteten Gesetzgebungen resultierten eher aus dem
politischen Kompromiß, den die Dritte Republik nach der Pariser Kommu-
ne geschlossen hatte, und waren weniger auf unmittelbare Erschütterungen
zurückzuführen, wie es in Großbritannien der Fall war. Aber trotz dieser Nu-
ancen des historischen Kontextes zwischen den beiden Ländern kristallisierte
sich zur gleichen Zeit der Begriff der Arbeitslosigkeit heraus, der fortan als
Verlust einer lohnabhängigen Beschäftigung definiert wurde, die von speziali-
sierten Einrichtungen übernommen und als Risiko entschädigt werden konn-
te.8
Vor diesem wichtigen Wendepunkt war der Armutsbegriff in Großbritanni-
en Gegenstand von Debatten, die aus der Sicht der Konstruktion statistischer
Werkzeuge signifikant waren. Zwei Arten der Konstruktion des Begriffes der
Armut und ihrer Ermittlung wurden damals miteinander verglichen: die eine
(von Yule 1895 benutzte) Konstruktion ging von den Aktivitäten der seit 1835
bestehenden Fürsorgeeinrichtungen aus, die andere dagegen von speziellen Er-
hebungen, deren berühmteste die von Booth durchgeführten Untersuchungen
waren. In jedem dieser Fälle trat der aus Beschreibung und Handlung gebilde-
te Kreis auf, wenn auch in unterschiedlicher Art und Weise. Im erstgenannten
Fall war er fast unsichtbar in die früheren, bereits geschaffenen Kategorien
der Institutionen eingegliedert. Im zweiten Fall dagegen strukturierte dieser
Kreis eine komplexe taxonomische Konstruktion, die im Entstehen begriffen
war und darauf abzielte, Maßnahmen zur Beseitigung der fatalen Folgen der
Armut vorzuschlagen.
Das Armengesetz von 1835 war der Ursprung eines doppelten Fürsorge-
systems. Einerseits verband das Arbeitshaus (workhouse) die anstaltsinterne
Unterstützung (indoor relief ), die gesunden Männern gewährt wurde, mit ob-
ligatorischer Arbeit und mit besonders abschreckenden Lebensbedingungen
(Prinzip der geringsten Qualifikation“). Andererseits wurden auch Fürsorge-

unterstützungen außerhalb der Arbeitshäuser gewährt (daher der Name out-
door relief ). Diese Unterstützungen gingen an Frauen, Alte oder Kranke. Die
Kosten und die Effizienz dieser Systeme wurden jahrzehntelang diskutiert.
Yule griff 1895 in die Debatte ein, bei der er eine Gelegenheit sah, die neuen
statistischen Werkzeuge von Karl Pearson vom Gebiet der Biometrie auf den
Bereich der sozialen und wirtschaftlichen Probleme zu übertragen. Yule stütz-
te sich auf Korrelations- und Regressionsrechnungen mit Hilfe der Methode
der kleinsten Quadrate und versuchte zu beweisen, daß eine Erhöhung der
8
In Bezug auf Frankreich verweisen wir insbesondere auf Salais, Baverez, Reynaud,
1986, [247]; in Bezug auf Großbritannien vgl. Mansfield, 1988, [187].
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 285

Fürsorgeunterstützung zu keiner Verringerung der Armut führen würde (vgl.


Kapitel 4). Aber die Daten, die zur Ermittlung der Gesamtarmut und zur
Schätzung der – im Prinzip zur Senkung der Armut – eingesetzten Mittel ver-
wendet wurden, kamen alle von den Leitungen der örtlichen Büros der Fürsor-
geverbände (poor law unions), welche die Unterstützung verwalteten. Diese
Zirkularität schien weder Yule noch diejenigen beunruhigt zu haben, denen
er seine Studie vorlegte. In diesem Fall war die Identifikation der Armut mit
der Inanspruchnahme verschiedener Bereiche der öffentlichen Unterstützung
hinreichend gesichert, um das Objekt mit der Handlung gleichzusetzen, die es
bekämpfen sollte. Diese Gleichsetzung ist nichts außergewöhnliches: man kann
sie bei Krankheiten feststellen (Arztberuf und Krankenhaus), bei Kriminalität
(Polizei und Justiz) oder in jüngerer Vergangenheit bei der Arbeitslosigkeit
(Arbeitsämter). Der bereits geschlossene Kreis war nicht mehr erkennbar.
Die in den Jahren nach 1880 begonnenen Untersuchungen von Booth spiel-
ten eine andere Rolle (Booth, 1889, [22]). Sie trugen zur Kritik der vorgefer-
tigten Taxonomien bei, gerade weil die alten Handlungsformen nicht mehr an-
gemessen waren. Die Untersuchungen von Booth lenkten die Aufmerksamkeit
auf die Merkmale der Familieneinkommen (Höhe und vor allem Regelmäßig-
keit) und erweiterten dadurch den Bereich derjenigen Objekte beträchtlich,
die bei der Identifikation verschiedener Armutsformen berücksichtigt werden
konnten. Diese unterschiedlichen Formen hingen – entsprechend der komple-
xen sozio-ökonomischen Argumentation – von den verschiedenen Verarbei-
tungsformen ab, weil dabei individuelle und moralische Bezugspunkte mit
anderen Bezugspunkten vermengt wurden, die mehr auf der makrosozialen
Ebene lagen (Hennock, 1976 ([127]) und 1987 ([128]); Topalov, 1991, [278]).
Die vorgeschlagene Nomenklatur war detailliert (acht hierarchisch gegliederte
Kategorien, die mit den Buchstaben A bis H bezeichnet wurden und praktisch
den gesamten städtischen sozialen Raum abdeckten), denn sie zielte darauf ab,
die häufig vermutete Äquivalenz dreier unterschiedlicher Gesamtheiten zu be-
seitigen: hierbei handelte es sich um die Kategorie der gefährlichen Personen,
die Kategorie der Armen und die Kategorie der Arbeiter im Allgemeinen. Die
Hierarchie war nicht nur durch die Einkommenshöhe festgelegt, sondern auch
durch die Regelmäßigkeit des Einkommens. Dadurch wurde der Übergang vom
alten Armutsbegriff zum künftigen Begriff der Arbeitslosigkeit vorbereitet,
das heißt des zeitweiligen Verlustes einer Beschäftigung im Lohnverhältnis,
die ein regelmäßiges Einkommen sichert. Die Zuordnung der befragten Fami-
lien zu diesen Kategorien (die Kodierung) erfolgte durch Schulinspektoren“,

das heißt durch Sozialfürsorger, die von der Stadt London besoldet wurden,
um den Schulbesuch der Kinder zu kontrollieren. Die Inspektoren berücksich-
tigten eine Gesamtheit von Merkmalen, die sie in den Wohnungen beobachtet
hatten. Auf diese Weise wurde die prozentuale Aufteilung der Bevölkerung
auf acht Kategorien ermittelt, zunächst für das East End von London, das als
ärmster Stadtteil galt, und dann für die ganze Stadt (wobei die Nomenklatur
im letzteren Fall weniger detailliert war).
286 8 Klassifizierung und Kodierung

Die Kategorie A war die unterste: sie bestand aus einer kleinen Minder-
heit von vollständig stigmatisierten Personen, deren Einkommensquellen un-
bekannt oder unredlich waren – Nichtstuer, Verbrecher, Barbaren und Alko-
holiker. Diese Personen schufen keinerlei Wohlstand und waren der Auslöser
für den schlimmsten Unfrieden. Glücklicherweise waren diese Personen nicht
sehr zahlreich: 1,2% im Stadtteil East End und 0,9% in der ganzen Stadt.
Aber in der Nähe der zuerst genannten Kategorie und deutlich zahlreicher
waren die Personen der Kategorie B, in der sehr arme Familien mit gelegent-
lichem Einkommen zusammengefaßt wurden, die sich im Zustand chronischer
Not befanden. Sie bildeten 11,2% der Bevölkerung von East End und 7,5%
der Bevölkerung von London. Die Gesamtheit A ∪ B der sehr Armen“ warf

die größten Probleme auf9 : diese Personen schienen kaum dazu in der Lage zu
sein, Nutzen aus der örtlich gewährten öffentlichen Unterstützung zu ziehen.
Anders verhielt es sich jedoch mit der Gruppe der Armen“, die ihrer-

seits in Abhängigkeit von der Regelmäßigkeit der betreffenden Einkommen in
die beiden Untergruppen C und D unterteilt war. Die Personen der Grup-
pe C verfügten nur über unregelmäßige Einkünfte; sie waren eher Opfer des
Konkurrenzkampfes und erwiesen sich als anfällig gegenüber dem Auf und
Ab der saisonbedingten Arbeitslosigkeit. Sie würden ja regelmäßig arbeiten,
wenn sie es könnten, und an sie mußte sich die Unterstützung richten, denn
es handelte sich um diejenige Personengruppe, die nahe dran war, sich zu sta-
bilisieren. Diese Personen bildeten 8,3% der Familien im Stadtteil East End
von London. Die Personen der Kategorie D schlossen sich dicht an die vorher-
gehende Kategorie an; sie verfügten über kleine und regelmäßige Einkommen,
die aber nicht ausreichten, der Armut zu entkommen. Sie stellten 14,5% der
Bevölkerung von East End. Die Gesamtheit C ∪ D bildeten die Armen“, die

sich sowohl von den sehr Armen“ A ∪ B als auch von den Wohlhabenderen

(Kategorien E, F, G und H) unterschieden.
Die letztgenannten vier Kategorien waren in jeweils zwei Gruppen zusam-
mengefaßt: Die Gruppe E ∪F bestand aus den wohlhabenden Arbeitern (com-
fortable working class) und die Gruppe G ∪ H bildete den Mittelstand (lower
middle class und upper middle class). Von diesen Personen waren die Personen
der Übergangskategorie E, das heißt Arbeiter mit regelmäßigem Normalein-

kommen“ über der Armutslinie“, bei weitem die zahlreichsten: 42,3% in East

End. Die Gruppe F (13,6% in East End) repräsentierte die Arbeiterelite. Die
Gesamtheit E ∪ F der wohlhabenden oder sehr wohlhabenden Arbeiter mach-
te 55,9% in East End und 51,9% in der ganzen Stadt aus. Die Personen der
Kategorie G bildete die untere Mittelklasse (Angestellte, freie Berufe zweiter
Ordnung). Und schließlich bezeichnete H die obere Mittelklasse, das heißt
Personen, die sich Diener halten konnten“. Die Gesamtheit G ∪ H bildete

8,9% der Bevölkerung in den Vierteln von East End, aber 17,8% für ganz
London.
9
Das Symbol ∪ steht für die mengentheoretische Vereinigung.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 287

Die so definierte detaillierte Taxonomie und die sie begleitenden prozen-


tualen Anteile für East End und für die ganze Stadt waren wichtig, weil sie
eine präzise Aktionslinie unterstützten und weil jede der nachfolgend definier-
ten Unterteilungen eine Bedeutung hatte und ein Argument untermauerte. Die
Grenze zwischen A und den Kategorien B, C, D isolierte eine wirklich gefähr-

liche“ Gruppe, nämlich die Barbaren“, die aber nicht sonderlich zahlreich

waren und kaum 1% der Bevölkerung darstellten. Damit konnten die Reden
widerlegt werden, die am meisten Unruhe und Angst verbreiteten. Dann kam
die Kluft zwischen A ∪ B und C ∪ D, durch die man die sehr Armen“, die so-

gar in London gleichsam nicht mehr resozialisierbar waren, von den Armen“

unterschied, die sich, wenn sie ein regelmäßiges und ausreichendes Einkommen
hatten, der großen Gruppe E anschließen konnten, das heißt der gefestigten
Arbeiterklasse. Wenn sich bei näherer Betrachtung die Grenze zwischen den
zu B gehörenden Personen (mit gelegentlichem“ Einkommen) und den zu C

gehörenden Personen (mit unregelmäßigem“ Einkommen) als wenig deutlich

darstellt, dann liegt das daran, daß der einzige Unterschied zwischen diesen
beiden Gruppen exakt in der Wette bestand, ob es die betreffenden Personen
bei gegebener Unterstützung schaffen würden oder nicht, sich der Gruppe E
anzuschließen. Und schließlich bildete die Grenze zwischen den beiden großen
Gruppen A, B, C, D und E, F die Armutslinie“. Diese hatte den Vorteil, die

Gleichsetzung von Armen“ und Arbeitern“ aufzuheben: diejenigen Arbei-
” ”
ter, die sich oberhalb der Armutslinie befanden, machten mehr als die Hälfte
der Bevölkerung Londons aus.
Der Umstand, daß in den gleichen Stadtvierteln von London sehr Ar-

me“, die als nicht resozialisierbar in die Gruppe A ∪ B eingestuft wurden,
neben Armen“ der Gruppe C ∪ D wohnten, denen möglicherweise geholfen

werden konnte, erwies sich als nachteilig. Dieses Zusammenwohnen schaffte
nicht nur ein schlechtes Beispiel, sondern führte auch zu einem unerfreulichen
Konkurrenzkampf um etwaige Arbeitsplätze und die entsprechenden Löhne.
Eine mögliche Lösung bestand also darin, die sehr Armen“ aus London zu

entfernen, um East End zu entlasten und den Arbeitsmarkt für die Armen“

günstiger zu gestalten. Dieser Vorschlag von Booth, der seiner Meinung nach
aus den Ergebnissen seiner Untersuchung folgte, war später der Anlaß für die
Untersuchungen, die zunächst von Rowntree und dann von Bowley in ande-
ren englischen Städten durchgeführt wurden. Das Ziel dieser Untersuchungen
bestand darin, das Armutsniveau der verschiedenen Städte miteinander zu
vergleichen und damit den Weg für eine nationale Politik frei zu machen – für
eine Politik, die nicht mehr lokal angesiedelt war und sich nicht auf Barmher-
zigkeit, sondern auf Sozialgesetze stützte (vgl. Kapitel 7).
288 8 Klassifizierung und Kodierung

Ein hierarchischer, eindimensionaler


und stetiger sozialer Raum

Durch die vollständigen Ausführung einer Operation, in der taxonomische


Konstruktionen, Felderhebungen, Kodierungen, numerische Berechnungen und
die Definition einer Handlung miteinander kombiniert waren, versuchte Booth,
objektive Dinge in Bewegung zu setzen, die entsprechend einem Modell abge-
grenzt und ineinandergefügt waren, das gleichzeitig ein moralisches, psycho-
logisches, soziologisches und ökonomisches, kognitives und politisches Modell
war. Zwar wurde die hierarchische und eindimensionale Kategorisierung die-
ses Modells von den Regierungen kaum übernommen und – wenn überhaupt –
nicht derart rücksichtslos umgesetzt. Aber die allgemeine Tendenz des Modells
hat bis heute einen starken Einfluß auf die britischen empirischen Sozialwis-
senschaften. Galton kombinierte die prozentualen Anteile der acht Kategorien
von Booth mit der zusätzlichen (bei Booth nicht auftretenden) Hypothese,
daß diese Klassifikation eine stetige, normalverteilte Variable widerspiegelte
– den Bürgersinn (civic worth) bzw. die Eignung (ability). Dadurch konnte
Galton diese Skala eichen und sie in eine meßbare Größe transformieren. Er
teilte die auf diese Weise naturalisierten“ Kategorien von Booth auf die auf-

einanderfolgenden Intervalle einer stetigen Ziffernskala auf. Jedes Individuum
hatte theoretisch einen Platz auf dieser Skala. Ebenso wie die Körpergröße
war das betreffende individuelle Merkmal normalverteilt – es ließ sich durch
Eignungstests messen und wurde später von Spearman (1903) als allgemei-

ner Intelligenzfaktor“ g konstruiert. Die Vererbung dieses Faktors wurde auf
dieselbe Weise untersucht, wie man es auch bei körperlichen Merkmalen ge-
tan hatte. Und so kam es, daß zwei taxonomische Standpunkte miteinander
vereinigt wurden. Obgleich Booth – ebenso wie die Mehrzahl seiner Zeitge-
nossen – den Eugenikern nahe stand, wurde seine Klassifizierung in ein eher
ökonomisches und soziales Konstrukt eingeordnet. Dagegen beruhte das Pro-
jekt von Galton auf einer biologischen Eignung der Personen und zielte darauf
ab, das Problem der Armut durch eine Einschränkung der Fertilität der aus
untauglichen“ Personen bestehenden Kategorien zu lösen.

Der besondere Kontext der politischen und wissenschaftlichen Kontrover-
sen der Jahre von 1890 bis 1914 in Großbritannien führte zu einem sozia-
len Klassifikationsmodell, das sich vom französischen Modell unterschied. Die
Darstellung des sozialen Raumes erfolgte im britischen Modell durch eine
eindimensionale stetige Skala, auf der die Situation der Individuen in einem
einzigen quantifizierbaren Indikator zusammengefaßt wurde. Die Kategorien
waren Bereiche, die auf dieser Skala aufeinander folgten. Der eher politischen
und juristischen Logik der Einteilung in Äquivalenzklassen – in denen Perso-
nen mit gleichen Rechten oder Fälle zusammengefaßt wurden, die eine gleiche
allgemeine Behandlung rechtfertigten – stand eine andere Logik gegenüber,
die ihren Ursprung in der Biologie und Medizin hatte und bei der die be-
treffenden Eigenschaften den Individuen innewohnten, stetig verteilt waren
und durch Messungen festgehalten wurden. Eine Kodierung bedeutet immer
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum 289

auch eine Reduktion, ein Opfer, das auf verschiedene Weise gebracht wurde.
Ein Einzelfall ließ sich entweder auf eine diskrete Klasse reduzieren (das heißt
auf eine Äquivalenzklasse einer disjunkten Klasseneinteilung), oder auf eine
Position auf einer stetigen Skala (oder möglicherweise mehreren derartigen
Skalen).
Man interpretierte den Unterschied zwischen diesen beiden elementaren
mathematischen Formalismen mitunter als Gegensatz zwischen einer holisti-
schen Soziologie – bei der die Existenz sozialer Gruppen vorausgesetzt wird,
die sich wesentlich von den Individuen unterscheiden – und einer anderen, in-
dividualistischen und eher anglo-amerikanischen Soziologie, die sich weigerte,
den Klassen eine derartige Exteriorität zu gewähren. Aber diese Interpreta-
tion verschleiert mehr, als sie offenbart. Einerseits war der Formalismus –
ganz gleich ob stetig oder diskret – der Träger von persönlichen Eignungen,
die unterschiedlichen Prinzipien entsprachen: angeborenes Genie, bescheinig-
te Schulkenntnisse, Wohlstand, Nachkommenschaft, Kreativität ... (bezüglich
der Unterschiede zwischen diesen Eigenschaften vgl. Boltanski und Thévenot,
1991, [20]). Andererseits existierten die Äquivalenzklassen von dem Zeitpunkt
an, als sich Einzelpersonen auf dieses oder jenes Eignungsprinzip stützten,
Zusammenhänge (zum Beispiel juristischer Art) herstellten und verfestigten
und allgemeine Objekte erzeugten, um einem kollektiven Ding Zusammenhalt
zu verleihen, das – falls es nicht doch noch zerstört wird – als Klasse bezeich-
net werden kann. Aber die Realität und die Konsistenz dieser Klassen blieben
selbstverständlich auch weiterhin der Gegenstand von Kontroversen, deren
Analyse ein Forschungsobjekt darstellte. Aus dieser Sicht spielten die hier
analysierten Formalismen in Gestalt von diskreten Klassen und stetigen ein-
oder mehrdimensionalen Räumen bei den genannten Debatten eine Rolle. Die
Betonung lag daher auf dem Zusammenhang zwischen diesen Beschreibungs-
schemata, den Eignungsprinzipien und den politischen Handlungskategorien,
die darauf aufbauten. Dabei bildete die Gesamtheit ein mehr oder weniger
kohärentes System, und jeder Teil dieses Systems stützte die anderen Teile.
Die Debatten über die Armut und ihre Abhilfe, über die Arbeitslosig-
keit, das Funktionieren des Arbeitsmarktes und über die Mittel, diesen zu
regulieren – all diese Debatten, die Großbritannien zwischen 1890 und 1914
bewegten, sind reichhaltige Beispiele für den obengenannten Zusammenhang,
weil dort mehrere wissenschaftliche und politische Werkzeuge in statu nascen-
di vorhanden waren, diskutiert wurden und miteinander konkurrierten. Diese
Werkzeuge waren noch nicht in den Tiefen von verschlossenen Black Boxes“

vergraben, deren Inhalt längst in Vergessenheit geraten war. In den zu dieser
Zeit stattfindenden britischen Kontroversen über die sozialen Fragen stellte
man zwei große Typen von Beschreibungs-, Erklärungs- und Handlungsmo-
dellen einander gegenüber. Bei dem aufgeworfenen Problem handelte es sich
um die Frage von Not und Elend bzw. allgemeiner um das, was später als
soziale Ungleichheit bezeichnet wurde.
Für die Erben der Reformer von der Public Health Mouvement waren die
Ursachen der Armut in der anarchischen Verstädterung und in der Entwur-
290 8 Klassifizierung und Kodierung

zelung der Bevölkerung zu suchen, die in Elendsquartieren – den Brutstätten


von Krankheit, Alkoholismus und Prostitution – zusammengepfercht war. Das
städtische Umfeld, das Habitat, die Hygiene und moralische Werte konn-
ten sich unter diesen Bedingungen nur verschlechtern und das erklärte die
Häufung von Notstandssituationen. Die Beschreibung der Zustände stützte
sich auf lokale Erhebungen und auf Informationen, die von den Fürsorge-
verbänden gesammelt wurden. Diese kommunalen Dienststellen waren nicht
nur mit der Unterstützung beauftragt, sondern auch mit dem Personenstands-
register, mit Volkszählungen und mit lokalen Gesundheits- und Epidemie-
Statistiken (vgl. Kapitel 5). Die Leiter des General Register Office (GRO),
welche die kommunalen Dienststellen von London aus koordinierten, standen
dem Environmentalismus nahe – einer Strömung, die ihr Vorgehen auf lokale
Bevölkerungsstatistiken und medizinische Statistiken stützte, welche ihrerseits
aus den Volkszählungen, aus dem Personenstandsregister und der Auswertung
der Todesursachen hervorgegangen waren (Szreter, 1984, [270]). Für sie war
die Vorstellung vom sozialen Milieu“ an die geographische Umgebung, an

das Stadtviertel oder an die Landgemeinde, an die Ballung von Fabriken und
ungesunden Wohnungen, nicht aber an den allgemeineren Begriff der sozialen

Schicht“ gebunden, der durch äquivalente Bedingungen – vor allem in Bezug
auf die berufliche Situation – auf dem gesamten Territorium definiert war. Da-
gegen trat der Begriff der sozialen Schicht bei den Gegnern der Environmenta-
listen, den Hereditaristen und Eugenikern, in einem Gesamtkonstrukt auf, das
ein Jahrhundert später seltsam anmutet. Heute setzt man nämlich voraus, daß
die auf der Grundlage des Berufes definierte soziale Gruppe den Begriff des
Milieus“ am besten ausdrückt – ganz im Gegensatz zu etwaigen individuel-

len Merkmalen erblichen Ursprungs. Der Vergleich dieser beiden kontroversen
Kontexte, die zeitlich einige Jahrzehnte voneinander entfernt sind, zeigt, bis
zu welchem Punkt wissenschaftliche und politische Praktiken verschiedene,
wenn nicht gar entgegengesetzte Formen haben können.
Für die Eugeniker waren es biologische und erbliche Merkmale, welche
die Ungleichheit der Zustände erklärten, in denen sich die Menschen befan-
den. Der Bürgersinn oder Gemeinsinn (civic worth) und die Eignung drück-
ten sich durch die berufliche und soziale Stellung der betreffenden Person
aus. Aus diesem Grund konnte die Ordinalskala der Kategorien von Booth als
Basis zur Eichung der Messung dienen. Die Vererbung dieser von der Stati-
stik bezeugten gesellschaftlichen Rangordnung wird heute durch den Begriff
des ökonomischen und kulturellen Einflusses des Ursprungsmilieus interpre-
tiert. Aber um 1900 sah man darin einen Beweis für den angeborenen und
erblichen Charakter dieser Stellung. Die Zugehörigkeit zu einem Beruf er-
schien folglich in den gerade entstehenden empirischen Sozialwissenschaften
als Indikator für eine dem Individuum, seiner biologischen Nachkommenschaft
und seiner Rasse inhärente Eignung. Dieses Interpretationsschema hat auf die
Forschungsarbeit in den Humanwissenschaften mindestens bis in die 1950er
Jahre einen starken Einfluß ausgeübt, vor allem bei der sogenannten Matrix-
Interpretation: in Abhängigkeit vom eingenommenen Standpunkt sprach man
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum 291

von der Matrix der sozialen Vererbung oder von der Matrix der sozialen Mo-
bilität (Thévenot, 1990, [274]). Diese politische Strömung stand den Maßnah-
men der Sozialfürsorge und der Unterstützung der Ärmsten insofern feindselig
gegenüber, als daß diese Maßnahmen den am wenigsten geeigneten“ Teil der

Bevölkerung vergrößern und stärken würden. Man ging sogar so weit, die Ste-
rilisierung gewisser behinderter oder ungeeigneter Personen zu befürworten –
was sogar außerhalb von Nazideutschland in manchen anderen Ländern legal
praktiziert wurde (Sutter, 1950, [269]).
Die Kontroverse zwischen den beiden Strömungen war komplex und ihre
Fachbegriffe änderten sich im Laufe der Zeit. Die Auseinandersetzung äußer-
te sich vor allem in einem anderen Gebrauch der statistischen Werkzeuge
und Nomenklaturen. Vor der Zeit um 1905 verwendeten die mit den Sta-
tistikern des General Register Office verbündeten Sozialreformer vor allem
geographische Daten, die sie zum Zweck einer Feinaufteilung des Territoriums
in Beziehung zu Bevölkerungs-, Wirtschafts- und Sozialstatistiken sowie zu
medizinische Statistiken setzten. Durch diese räumlichen Korrelationen zeig-
ten sie die Verkettungen der verschiedenen Armutskomponenten auf. Statisti-
ken, die eine Feinabdeckung des Territoriums beinhalteten und eine beträcht-
liche Verwaltungsinfrastruktur voraussetzten (nämlich die Infrastruktur der
Fürsorgeämter und der Standesämter), ermöglichten die Aufstellung dieser
Beziehungen, die sich gut für die damals noch lokal umgesetzten und von den
Gemeinden oder Grafschaften verwalteten Praktiken eigneten. Die Eugeniker
nutzten dagegen das statistische Argument auf eine ganz andere Weise. Sie
versuchten in ihren Labors, mit Hilfe der neuen mathematischen Methoden
allgemeine Vererbungsgesetze zu formulieren. Daraus zogen sie Schlußfolge-
rungen, die sich nicht spezifisch auf diesen oder jenen Ort bezogen, sondern
für die englische Nation in ihrer Gesamtheit brauchbar waren. Sie schmiedeten
politische Allianzen auf höchster Ebene und ihre Behauptungen hatten das
Prestige der modernen Wissenschaft, während ihre Gegner ein altmodisches
Image hatten: Sozialfürsorge hing immer noch mit Barmherzigkeit, Kirchen
und der konservativen Tradition des Widerstands gegen Wissenschaft und
Fortschritt zusammen.
Aber die Debatte nahm in den Jahren 1900–1910 eine andere Form an. Eine
neue Generation von Sozialreformern, oft Angehörige der kurz zuvor gegründe-
ten Labour Party, drückte von nun an die Armutsprobleme nicht mehr durch
lokal geübte Barmherzigkeit, sondern durch den Begriff der Arbeitsmarktre-
gulierung und durch Gesetze zur sozialen Sicherung aus. Ein Beispiel für diese
Entwicklung war die Diskussion über das sweating system 10 , bei dem es sich
um eine damals häufige Form der Produktionsorganisation handelte. Die zu
verrichtende Arbeit wurde von den Arbeitgebern an Vermittler (Subunterneh-
mer ) weitervergeben, die ihrerseits die erforderlichen Arbeitskräfte selbst re-
krutierten. Dieses System wurde oft denunziert und die Vermittler als scham-
lose Ausbeuter betrachtet. Parlamentarische Enquete-Kommissionen unter-
10
Ausbeutungssystem, Akkordmeistersystem.
292 8 Klassifizierung und Kodierung

suchten das Problem und kamen zu dem Schluß, daß man den Subunterneh-
mern keine Mängel anlasten könne, die in der Arbeitsgesetzgebung zu su-
chen sind. So, wie es in Frankreich auf anderen Wegen geschehen ist, erfolgte
per Gesetz eine exaktere Definition der Arbeitnehmerschaft, der Arbeitge-
berpflichten sowie des Status der Arbeitslosigkeit als Bruch der Verbindung
zwischen dem Lohnempfänger und seinem Arbeitgeber – einer Verbindung,
die früher durch das System der Auftragsvergabe an Subunternehmer ver-
schleiert wurde. Auf diese Weise erhielten die Statistiken zur erwerbstätigen
Bevölkerung und zur Arbeitnehmerschaft ebenso wie die Arbeitslosenstatistik
eine Konsistenz, die sich erheblich von den Statistiken des 19. Jahrhunderts
unterschied.
Die Entwicklung der Kategorien der sozialen Debatte, die sich von nun an
mehr um die nationale als um die lokale Politik drehte, hatte auch Konse-
quenzen für die Kategorien der statistischen Beschreibung, die von den Envi-
ronmentalisten des GRO ausgearbeitet wurden. Ihre Gegner aus dem Lager
der Eugeniker setzten den Akzent auf Analysen mit Hilfe des Begriffes der
sozialen Schichten und bezogen sich beispielsweise auf die Fertilität und die
Kindersterblichkeit, die für das ganze Land gemessen wurden. Diese Diskus-
sionsweise bezüglich der nationalen Statistiken stand gegen 1910 in größerer
Übereinstimmung zur Gesamtheit der öffentlichen Debatten, als es noch gegen
1890 der Fall war. Die Nationalisierung des Beschreibungs- und Handlungsrau-
mes ermunterte die Statistiker des GRO dazu, ihrerseits eine Nomenklatur der
sozialen Schichten zu konstruieren, die für die Volkszählung 1911 verwendet
wurde. Diese Nomenklatur war hierarchisch gegliedert wie die Nomenklatur
von Booth. Sie umfaßte fünf Klassen, die um die Trennlinie zwischen middle
class (Mittelklasse) und working class (Arbeiterklasse) angeordnet waren. In
der Mittelklasse wurde zwischen den professionals (gehobene Berufe) (I) und
der intermediary group (Mittelgruppe) (II) unterschieden. Bei den manuell
tätigen Arbeitern traten Facharbeiter (skilled workers) (III), angelernte Ar-
beiter (semi-skilled workers) (IV) und ungelernte Arbeiter (unskilled workers)
(V) auf.
Die aus fünf Klassen bestehende Skala wurde von der typisch britischen
(später typisch amerikanischen) Gruppe von Personen dominiert, die einen
gehobenen Beruf (profession) im englischen Sinne des Wortes ausübten: diese
Personen hatten eine spezifische Universitätsausbildung und eine gemeinsa-
me Kultur, die auf dem Bewußtsein der Nützlichkeit für die Gemeinschaft
beruhte. Die diese Einteilung ordnende hierarchische Gliederung stützte sich
auf eine Eigenschaft, die der Auffassung der Eugeniker in Bezug auf Eignung
und Bürgersinn (civic worth) näher stand, als Merkmale des Vermögens oder
der Macht, die eher einer ökonomischen oder soziologischen Klassifikation zu-
grundeliegen. Die eindimensionale und (im englischen Sinn) professionelle“

Struktur dieser Nomenklatur hat den überwiegenden Teil der sozialen Klas-
sifikationen geprägt, die in der Folgezeit in den englischsprachigen Ländern
verwendet wurden und bis zum heutigen Tage in Gebrauch sind. Die Gruppe
der manager wurde später unter Position II aufgenommen, aber bis in die
Vom Gewerbe zur qualifizierten Tätigkeit 293

jüngste Vergangenheit hinein (1990) kamen die Arbeitgeber nach den profes-
sionals. Zwar ist dieser Umstand nun teilweise in Vergessenheit geraten, aber
die betreffende Taxonomie hat in ihrer Gesamtheit von Merkmalen (Eindi-
mensionalität, Hierarchie, Stetigkeit, implizite Bezugnahme auf einen sozia-
len Wert des Individuums) die Spuren der wissenschaftlichen und politischen
Konstrukte der Eugeniker vom Beginn des 20. Jahrhunderts und die Spuren
der damaligen Debatten hinterlassen. Das unterscheidet sie von den französi-
schen und den deutschen Klassifikationen, die in ganz anderen politischen und
kulturellen Universen entstanden sind.

Vom Gewerbe zur qualifizierten Tätigkeit


Die französische berufssoziologische Nomenklatur trägt weniger die Spuren
einer besonderen Sozialphilosophie – wie es bei der englischen Nomenklatur
der Fall ist – als vielmehr die Spuren der verschiedenen Stufen der Geschichte
der Arbeitsorganisation des 19. und des 20. Jahrhunderts. Die Aufeinander-
folge und teilweise Konservierung dieser Schichten der Vergangenheit liefern
zum Teil eine Erklärung für die scheinbare Vielfalt der angewendeten Kri-
terien. Darüber hinaus hat es gerade diese Heterogenität möglich gemacht,
einen mehrdimensionalen sozialen Raum zu entwerfen und zu beschreiben,
der komplexer als die anglo-amerikanische Eignungsskala ist und auch der
Buffonschen Methode näher steht, als dem System von Linné. Die lange Ge-
schichte dieser Nomenklatur kann in drei Phasen zusammengefaßt werden,
von denen jede für sich die gegenwärtigen Merkmale erklärt. Die erste Phase
war noch durch die Struktur der Berufe im alten Sinne gekennzeichnet. In
der zweiten Phase begann sich der Unterschied zwischen Arbeitnehmer und
Nicht-Arbeitnehmer abzuzeichnen. Die dritte Phase nach den 1930er Jahren
war durch eine Arbeitnehmerhierarchie gekennzeichnet, die auf der Grundla-
ge der mit dem Bildungssystem zusammenhängenden konventionellen Skalen
kodifiziert wurde (Desrosières, 1977, [59]; Desrosières und Thévenot, 1988,
[68]).
Die soziale Organisation und die Terminologie der Berufe (métiers) blie-
ben trotz der 1791 erfolgten Abschaffung der Berufsstände im 19. Jahrhun-
dert prägnant (Sewell, 1983, [257]). Der von Chaptal im Jahre 1800 an die
Präfekten versendete Fragebogen (Bourguet, 1988, [27]; vgl. Kapitel 1 des
vorliegenden Buches) wies ebenso wie der Fragebogen, den Tolosan zum pro-
duzierenden Gewerbe verfaßt hatte, Spuren physiokratischen Denkens auf; der
Fragebogen unterschied die Personen gemäß dem Ursprung ihrer Einkünfte:
Boden, Staat, mechanische und gewerbliche Betätigung“ und alle anderen

Manöver“ (manœuvres). Die sehr große dritte Kategorie schloß alle dieje-

nigen ein – Meister und Gesellen, Ärzte und Juristen – deren gemeinsames
Merkmal in der Ausübung eines Berufes bestand, der sich auf ein im Rahmen
einer Lehre oder Ausbildung erworbenes Wissen stützte, auf dessen Grundla-
ge der Betreffende die Spezifität seines Einkommen und seiner Stelle erwarb.
294 8 Klassifizierung und Kodierung

Die anderen – Hilfsarbeiter, Diener oder Bettler – bildeten eine Schicht für

sich“. Die Trennung zwischen Meistern und Gesellen – aus der später die Un-
terscheidung zwischen Nicht-Arbeitnehmern und Arbeitnehmern hervorging
– war noch nicht erfolgt, auch nicht die Aggregation einer Arbeiterklasse“:

diese wurde erst nach den Aufständen von 1832 und 1834 als eine Gesamt-
heit wahrgenommen. Die Annäherung zwischen Gesellen und Hilfsarbeitern,
den fernen Vorfahren der Facharbeiter“ und der ungelernten Arbeiter“, war
” ”
noch nicht relevant. Die Gruppe derjenigen, die vom Staat angestellt sind“

verschwand in Frankreich gelegentlich in der Versenkung, blieb aber dennoch
weiter bestehen.
Die berufsbezogene Organisation formte ein soziales Weltbild, das einen
ständigen Hintergrund darstellte, auf dem sich die beruflichen Taxonomien an-
siedelten. Auf der Grundlage einer familiären Übergabe der Kenntnisse und
des ererbten Vermögens war die Unterscheidung zwischen Meister und Gesel-
len lange dem Vater-Sohn-Modell angepaßt und wandelte sich nur langsam in
die Beziehung Arbeitgeber-Arbeitnehmer des Arbeitsrechts des 20. Jahrhun-
derts um. Die im 19. Jahrhundert aus der Analyse der kapitalistischen Be-
ziehungen hervorgegangenen Theorien der sozialen Klassen – der Marxismus
ist eine systematische Entwicklung dieser Theorien – ignorierten das Modell
der familiären Übergabe: die Theorien waren zum Teil so angelegt, daß sie
sich gegen dieses Modell richteten. Das Modell bestand jedoch auf mehrfache
Weise fort – sei es in der Apologie, zu der es von den christlich-konservativen
Schülern Le Plays gemacht wurde (Kalaora und Savoye, 1987, [143]), oder sei
es – im Gegensatz hierzu – in der kritischen Soziologie der 1960er und 1970er
Jahre, in der die Ungerechtigkeit der im Rahmen von Familien stattfindenden
wirtschaftlichen und kulturellen Reproduktion denunziert wurde. Diese Form
der sozialen Bindung ist auch jetzt noch bei den Merkmalen wichtig, die der
gegenwärtigen Nomenklatur zugrunde liegen. Im 19. Jahrhundert handelte es
sich im Wesentlichen um eine Liste von Berufen“ (professions) im Sinne der

alten Handwerker- und Kaufmannsberufe. Diese Liste diente zum Beispiel bei
den Volkszählungen 1866 und 1872 zur Ermittlung der Anzahl der Individu-

en, die jeder Beruf direkt oder indirekt ernährte“. Die Berufe waren in den
Zeilen der Tabellen aufgeführt, in den Spalten standen dagegen die Perso-

nen, die diese Berufe tatsächlich ausübten, ihre Familien (Verwandte, die von
der Arbeit oder dem Vermögen dieser Personen lebten) und Diener (die zum
Dienstpersonal gehörten)“. Jedoch trat 1872 eine dritte Unterscheidung auf,
die sich mit den vorhergehenden überschnitt: die Unterscheidung zwischen
Chefs oder Arbeitgebern, Handlungsgehilfen oder Angestellten, Arbeitern,

Tagelöhnern“. Drei Gesichtspunkte waren miteinander kombiniert. Die ersten
beiden hingen mit der familiären Struktur der Berufe zusammen. Die dritte
stand dem Gegensatz Meister-Geselle nahe. Aber die Unterscheidung zwischen
Arbeitern“ und Tagelöhnern und Hausknechten“ trat noch 1872 und 1876
” ”
auf; das Konstrukt einer Arbeiterklasse, einschließlich der künftigen unge-

lernten Arbeiter“ war noch nicht offensichtlich.
Vom Gewerbe zur qualifizierten Tätigkeit 295

Die Bedeutung dieser Berufsstruktur manifestierte sich auch in der Tat-


sache, daß die beiden Nomenklaturen, die heute als individuelle Tätigkeit
und als kollektive Tätigkeit bezeichnet werden, bis in die 1940er Jahre un-
verändert blieben, obwohl die eine Nomenklatur im Prinzip Personen klassi-
fizierte, die andere dagegen Unternehmen: die Gleichsetzung Bäcker-Bäckerei
oder Mediziner-Medizin war typisch für die Welt der Berufe. Jedoch waren
die unternehmensinternen Einteilungen in Arbeitgeber und Arbeitnehmer“

und in Arbeiter und Angestellte“ bereits früher aufgetreten, aber sie bilde-

ten eine andere – transversale – Einteilung: die Einteilung der Stellungen

innerhalb des Berufes“. Die Unterscheidung zwischen individuellen und kol-
lektiven Tätigkeiten hing nicht mit der Logik der Berufe zusammen und dieser
Umstand führte zu einer Vermengung der Taxonomien bis zu dem Zeitpunkt,
an dem sich eine klare Definition der Lohnarbeit durchsetzte – strukturiert in
Kategorien, die ihrerseits durch Rechtsvorschriften und Tarifverträge kodifi-
ziert waren. Das erfolgte zu zwei Zeiten: mit dem Auftreten eines autonomen
Lohnarbeitsrechtes gegen Ende des 19. Jahrhunderts und mit der zwischen
1936 und 1950 erfolgten Erweiterung der hierarchischen Schemata von qua-
lifizierten Arbeiten, die auf der Grundlage der entsprechenden Ausbildung
definiert waren.
Zuvor war die Trennung zwischen Arbeitgebern und Arbeitern nicht im-
mer klar. Wie in Großbritannien arbeiteten viele der kleinen Produzenten als
Subunternehmer: sie waren also von Auftraggebern abhängig, aber gleichzei-
tig fungierten sie auch als Arbeitgeber von Gesellen. Die Lyoner Seidenar-
beiter bildeten eine soziale Gruppe, die sich von den reichen Fabrikanten“

wesentlich unterschied, die ihnen das Material lieferten und die Endprodukte
verkauften. Im Gebäude erhielten die Arbeiter eine Beschäftigung und re-
krutierten ihrerseits andere Arbeiter. Die Volkszählung von 1872 wies sogar
innerhalb der Stellung im Beruf“ der Arbeitgeber eine Kategorie leitende
” ”
Arbeiter im Handwerk und Kleingewerbe“ auf, die sich von den eigentlichen
Arbeitern und Tagelöhnern unterschied. Diese Zwischenstellungen spiegelten
sich auch im Vorhandensein der wichtigen Kategorie der sogenannten Iso-

lierten“ (isolés) wider, die in der sehr homogenen Reihe der Volkszählungen
von 1896 bis 1936 auftraten. Diese sowohl von den Arbeitgebern als auch von
den Arbeitern verschiedene Kategorie umfaßte sehr kleine Warenproduzenten
(ohne Lohnempfänger), die in den Bereichen der Landwirtschaft, des Hand-
werks und des Handels tätig waren, und Heimarbeiter, die Rohstoffe erhielten
und im Akkord arbeiteten. Die Kommentatoren der Volkszählungen drück-
ten ihre Zweifel darüber aus, ob diese Isolierten“ (deren Anteil an der im

Jahre 1896 erwerbstätigen Bevölkerung 23% betrug und 1936 immerhin noch
14% ausmachte) den Lohnempfängern oder den Arbeitgebern näher standen.
Aber allmählich nahmen die Zwischenzustände“ zwischen Lohnempfängern

und Nicht-Lohnempfängern ab, da das Arbeitsgesetz und die Steuerverwal-
tung einen deutlichen Unterschied zwischen den betreffenden Beschäftigungs-
und Einkommensarten machte.
296 8 Klassifizierung und Kodierung

Folglich schlüsselten die Volkszählungen von 1896 bis 1936 transversal zu


einer in Zeilen angeordneten Berufsliste fünf Stellungen im Beruf“ auf, die in

Spalten angeordnet waren. Das waren die Vorläufer der gegenwärtigen berufs-
soziologischen Kategorien: Betriebsleiter, Angestellte, Arbeiter, beschäfti-

gungslose Angestellte und Arbeiter“ und Isolierte“. Die letzte wichtige Ent-

wicklung zwischen 1936 und 1950 implizierte die Definition der Beschäfti-
gungsniveaus für lohnabhängige Beschäftigungen. Diese Niveaus waren gemäß
Dauer und Typ der Ausbildung geordnet und wurden in diversen Dokumenten
festgehalten: zum Beispiel in den Branchentarifverträgen bzw. – für den Un-
ternehmenssektor – in den sogenannten Parodi–Kategorien“ von 1946 (Par-

odi war der damalige Arbeitsminister) bzw. – für Verwaltungen – sogar im
französischen Beamtenrechtsrahmengesetz. Das neue Kriterium führte teilwei-
se eine eindimensionale Hierarchie ein; diese fehlte in den früheren Taxonomi-
en, die bei den Lohnempfängern nur zwischen Arbeitern und Angestellten un-
terschieden. Bei den Arbeitern gab es vorher nur einen indirekten Unterschied
zwischen Facharbeitern und anderen Arbeitern, da bei den zeilenmäßig auf-
tretenden Berufen zuerst im Detail Berufsbezeichnungen angegeben wurden,
die mitunter archaisch waren, und danach folgten – in einer einzigen Zeile –
Hilfsarbeiter, Tagelöhner, Hausknechte“. Zu den Angestellten gehörten auch

die Ingenieure, die Techniker und die Buchhalter. Der Kategorie der cadres
(Führungskräfte, Leitungskräfte, leitende Angestellte) war keine spezifische
Gruppierung zugeordnet; diese Gruppe verfestigte sich sozial, verbandsmäßig
und statistisch zwischen 1936 und 1950 und ist heute ein wesentlicher Be-
standteil der französischen sozialen Taxonomie (Boltanski, 1982, [19]).
Mit den von dieser Zeit an abgefaßten Tarifverträgen und indexierten Ska-
len war beabsichtigt, Standardkategorien für die Beschäftigung zu definieren,
indem man die durch landesweit gültige Diplome garantierte Ausbildung in
Beziehung zu Stellen, Gehältern, Aufstiegsmodalitäten, sozialen Sicherungs-
systemen und Wahlverfahren für Personalvertreter setzte. Die spezifische Ter-
minologie dieser Texte ersetzte in den Branchen der Großindustrie (beginnend
mit der Metallindustrie) zum Teil die alte Berufsterminologie. Aber in den Be-
rufsangaben, die bei der Volkszählung erfaßt wurden, existierten die beiden
Terminologien nebeneinander: man findet dort Facharbeiter (des Niveaus 2),
hochqualifizierte Handwerker (des Niveaus 3), Schmiede und Schreiner (Kra-
marz, 1991, [157]). Die großen Kategorien der Tarifverträge und vor allem
die drei Wählerschaften der Delegierten für die Betriebsräte dienten gegen
1950 als Grundlage für die berufssoziologischen Kategorien des INSEE (Por-
te, 1961, [239]). Bei diesen Wählerschaften handelte es sich um die Arbeiter
(die ihrerseits durch die Tarifverträge in ungelernte Arbeiter, angelernte Ar-
beiter und Facharbeiter unterteilt waren), die Angestellten, Techniker und

Meister“ (employés, techniciens et agents de maı̂trise, ETAM) und schließ-
lich die cadres“ (leitende Angestellte, Führungskräfte, Leitungskräfte). Die-

ses Wahlverfahren und die Wählerschaften haben dazu beigetragen, Grenzen
herauszukristallisieren, die vorher oft verschwommen waren. Wahlverfahren
und Wählerschaften waren auch ein Bestandteil der Konstruktion landeswei-
Vier Spuren der Französischen Revolution 297

ter Äquivalenzen – für Regionen, Sektoren und Stellungen, die früher in spezi-
fischen, lokalen und inkommensurablen Terminologien beschriebenen wurden.
Aber die Standardisierung erstreckte sich nicht auf die Gesamtheit des be-
rufssoziologischen Raumes, da sie für diesen kein eindeutiges Klassifizierungs-
kriterium vorschrieb. Andere Qualifikationsprinzipien, die das Ergebnis einer
langen Geschichte waren, vermischten sich mit dem Beschäftigungsprinzip,
das auf der Ausbildung und auf landesweit geltenden Diplomen beruhte.

Vier Spuren der Französischen Revolution

Die Struktur der Nomenklatur spiegelt die Geschichte der ursprünglichen Art
und Weise wider, in der im Frankreich des 19. und des 20. Jahrhunderts die so-
zialen Bindungen auf der Grundlage beruflicher Solidaritäten und Antagonis-
men geknüpft und gefestigt wurden. Genauer gesagt resultierten viele charak-
teristische Merkmale der untrennbaren Gesamtheit, die sich aus der französi-
schen Sozialstruktur und der sie repräsentierenden Nomenklatur zusammen-
setzt, aus Besonderheiten, die auf die Revolution von 1789 zurückgehen. So
können Identität und Konsistenz der vier gegenwärtigen sozialen Gruppen,
das heißt der Landwirte, der Beamten, der Arbeiter und der Führungskräfte
(cadres) der Reihe nach in Beziehung gesetzt werden zur Aufteilung der land-
wirtschaftlichen Böden, zur Errichtung des einheitlichen Staates, zum Einfluß
der spezifischen Bürgersprache auf die Arbeiterbewegung und schließlich zur
Gründung der Ingenieurschulen, die an den Staat gekoppelt waren, sich aber
von den Universitäten unterschieden.
Die Aufteilung der Böden im Rahmen verschiedener juristischer Formen
– zum Beispiel Verpachtung, Teilpacht oder Eigenbewirtschaftung – hat es
ermöglicht, daß über einen Zeitraum von anderthalb Jahrhunderten ein be-
engtes ländliches Leben und eine Kleinbauernschaft fortbestehen konnte, die
zahlenmäßig größer war als in anderen europäischen Ländern. Die in sehr klei-
nen Gemeinden lebende erwerbstätige Bevölkerung hatte ihren Höhepunkt ge-
gen 1850 erreicht und danach war nur ein langsamer quantitativer Rückgang
zu verzeichnen, während gleichzeitig die ländlichen Gebiete in Großbritannien
– häufig gewaltsam – geräumt wurden. Mit diesem Landleben war eine Wirt-
schaft verbunden, in der das Handwerk, die Kleinindustrie und der Kleinhan-
del überwogen. Die schnelle Industrialisierung und die zügellose Verstädterung
– charakteristisch für England zu Beginn des 19. Jahrhunderts und in gerin-
gerem Maße für Deutschland vor 1914 – waren damals in Frankreich weniger
ausgeprägt. Dadurch war Frankreich mit der Vorstellung von Mäßigung“,

richtigem Milieu“ und angemessenem Fortschritt“ verbunden. Diese Vor-
” ”
stellung wurde von der radikalsozialistischen Dritten Republik übernommen
und danach in der Wachstumsperiode zwischen 1950 und 1975 denunziert.
Das explizite Vorhandensein der Gruppen der Landwirte und der Arbeitge-
ber, die sich von den Lohnempfängern unterschieden, trennte die französische
berufssoziologische Nomenklatur von ihren angelsächsischen Entsprechungen,
298 8 Klassifizierung und Kodierung

die diese Unterscheidung nicht kannten. Sie war das Zeichen einer historischen
Kontinuität, die von spezifischen repräsentativen Organisationen bekräftigt
und geltend gemacht wurde.
Die nationale Einigung und die Errichtung eines Zentralstaates ermöglich-
ten die Schaffung eines öffentlichen Dienstes mit hohem Bürgersinn und
losgelöst von lokalen vetternwirtschaftlichen Netzwerken: Präfekten, Lehrer,
Steuerverwaltung, Armee, Post, staatliche Ingenieure, Richter, Statistiker. Der
nationale Charakter dieses öffentlichen Dienstes, der durch Rekrutierung und
Ausbildung sowie durch geographische Mischung mittels Versetzungen ge-
schaffen wurde, hatte wichtige Konsequenzen für die betreffenden Stellungs-
beurteilungskriterien und laufenden Entscheidungsprozesse. Die Existenz von
Personengruppen, die mit einer starken kulturellen Homogenität ausgestattet
waren, hat zur Errichtung eines statistischen Systems beigetragen, das für die
sozialen Debatten die Elemente einer gemeinsamen Sprache bereitgestellt hat.
Die Nomenklaturen gehören zu den Komponenten dieser Sprache.
Die aus der Revolution hervorgegangene besondere Bürgersprache hat
auch dazu beigetragen, die Besonderheiten der französischen Arbeiterbewe-
gung zu prägen – wobei Gleichheit, Bedeutung der Staatsmacht und revoluti-
onärer Umbruch mit Nachdruck hervorgehoben wurden. Eine Eigentümlich-
keit der französischen sozialen Körperschaften bestand darin, daß die anderen
sozialen Gruppen häufig auf der Grundlage eines gewerkschaftlichen Modells
verstanden und organisiert wurden – eines Modells, das von der Arbeiterbe-
wegung inspiriert war, auch wenn es scheinbar den Zweck verfolgte, sich von
dieser zu unterscheiden. Das hatte zur Folge, daß das Wertesystem ebenso
wie vergleichbare Organisations- und Repräsentationsformen von der Gewerk-
schaftsbewegung auf die anderen Gruppen übertragen wurden. Unter Berück-
sichtigung dieser Hypothese kann man die Geschichte der Berufsverbände
der Führungskräfte (cadres), der Lehrergewerkschaften, ja sogar der Bauern-
verbände, der Arbeitgeberverbände und der Freiberuflerverbände interpretie-
ren. Es waren genau diese Organisations- und Repräsentationsformen, die
das Bild der französischen Gesellschaft durch berufssoziologische Gruppen“

prägten, deren Spuren man sowohl im sozialen und politischen Leben als auch
in den Tabellen der öffentlichen Statistik findet. Die umfassende Verwendung
dieser Taxonomie sowohl in der Gemeinsprache als auch in spezialisierten Ar-
beiten unterschied Frankreich von anderen Ländern wie Großbritannien, den
Vereinigten Staaten und Deutschland, die andere politische Traditionen hat-
ten. Dieser Umstand erklärt vor allem die Distanz zwischen der französischen
heteroklitischen Darstellung und der stetigen und eindimensionalen Skala der
Angelsachsen: die Gruppen existierten mit unterschiedlicher Identitäten, so-
weit die historische – gewerkschaftliche und politische – Konstruktionsarbeit
stattgefunden hatte und auch noch Wirkungen zeigte.
Und schließlich war die Gründung von staatlichen Ingenieurschulen, die
unter dem Ancien Régime mit der École nationale des ponts et chaussées
Vier Spuren der Französischen Revolution 299

(Hochschule zur Ausbildung von Hoch- und Tiefbauingenieuren11 ) begann,


zum Teil die Ursache für ein spezifisches Merkmal des französischen Staates:
die Tatsache nämlich, daß die sozial anerkannten technischen Kompetenzen
mehr als anderswo innerhalb des Staatsgefüges zu finden waren. Im Gegen-
satz hierzu waren in den angelsächsischen Ländern die gleichen Kompetenzen
eher außerhalb des Staates angesiedelt, zum Beispiel bei den professionals12
– ein Begriff, der sich nicht ins Französische übersetzen läßt. Das relative Ge-
wicht des Ingenieurberufes, das in Frankreich auch im Privatsektor größer ist,
erklärt teilweise das Auftreten einer sozialen Gruppe, die sich am Ende der
1930er Jahre um den Kern der Ingenieure formierte: die cadres – ein Begriff,
der sich kaum in äquivalenter Weise in andere Sprachen übertragen läßt.13
Die Nomenklaturen spiegeln die unterschiedlichen Weisen wider, Personen zu
einem Aggregat zusammenzufassen.
In Frankreich wurden die an Kompetenz und Macht gebundenen Funktio-
nen im Modell der cadres zusammengefaßt. Bei den Angelsachsen hingegen
unterteilte man diese Funktionen in zwei wohlunterschiedene Gruppen: die
professionals und die manager . Dagegen unterschied man in Frankreich die
lohnabhängigen Führungskräfte (cadres salariés) von den Arbeitgebern und
den Generaldirektoren (président-directeur général, PDG), während von den
Engländern und den Amerikanern die lohnabhängigen Führungskräfte (exe-
cutives) und die Arbeitgeber in der Kategorie der manager zusammengefaßt
wurden. In Frankreich war die Trennlinie zwischen der Arbeitnehmerschaft
und denjenigen angesiedelt, die nicht den Status eines Lohnempfängers hatten.
In den englischsprachigen Ländern befand sich diese Trennlinie zwischen der
universitären Kompetenz und der Macht, selbst wenn natürlich viele profes-
sionals (vor allem Ingenieure) als Arbeitnehmer in Unternehmen tätig waren.
Ein interessanter Grenzfall in Frankreich waren die freien Berufe (professions
libérales), die den Durchschnitt zweier taxonomischer Prinzipien darstellten:
spezifische Kompetenz und Art des Einkommens. Diese beiden Prinzipien wa-
ren gleichsam die französische Spur des angelsächsischen Modells der profes-
sionals: bis in die 1930er Jahre konnte der Begriff freier Beruf“ auch Gehalts-

empfänger einschließen, etwa Lehrer im öffentlichen Sektor, wie man anhand
der Beispiele auf der Rückseite des Fragebogens der Volkszählungen von 1896
bis 1946 sieht.
11
Die 1747 gegründete Anstalt war zunächst für die Ausbildung von Ingenieuren
des Brücken- und Straßenbaus gedacht, bildet heute jedoch in einem dreijährigen
Studium neben den Führungskadern der staatlichen Baubehörde Spitzenkräfte
für diverse Industriezweige aus.
12
Unter professional classes versteht man die gehobenen Berufe. Diese Berufe (pro-
fessions) setzen das Studium eines speziellen Wissenszweiges voraus, zum Beispiel
das Studium der Medizin oder der Rechtswissenschaften.
13
Im Deutschen wird cadre auch als Führungskraft, Leitungskraft, Angestellter mit

Weisungsbefugnis“ wiedergegeben, im Englischen auch als executive. Hierbei ist
jedoch zu beachten, daß diese Übersetzungen den Sachverhalt nur unvollkommen
beschreiben.
300 8 Klassifizierung und Kodierung

Der mehrdimensionale Charakter der französischen Nomenklatur, der aus


den Schichten ihrer Geschichte“ resultierte, war zu dem Zeitpunkt sicht-

bar gemacht worden, als die entsprechenden Ergebnisse der Faktorenanalyse
(Benzécri, 1973, [11]) angewendet werden konnten. Die Anwendung auf die
Enqueten zu den sozialen Kategorien ermöglichte es nämlich ab 1970, Dar-
stellungen des sozialen Raumes zu konstruieren, dessen Achsen den verschie-
denen taxonomischen Prinzipien entsprachen. Die beiden Forschungsstand-
punkte bezüglich der Klassifizierungen kehrten einander – wie es hieß – häufig
den Rücken zu, aber nun konnten sie sich auf dem oben beschriebenen Um-
weg treffen: die Analyse der zur Berufsangabe verwendeten Wörter und deren
Zusammenfassung in Klassen fällt in den Bereich des ersten Standpunktes,
während die Verteilung der die individuellen Fälle repräsentierenden Punkte
zu typologischen Konstruktionen führen kann – eine Auffassung, die dem zwei-
ten Standpunkt entspricht. Bei diesen Datenanalysen besteht der am deut-
lichsten explikative Faktor (ausgedrückt mit Hilfe der Varianzanalyse) aus
einer Kombination des Einkommens- und des Bildungsniveaus. Dieser Faktor
steht der eindeutigen britischen Skala nahe, wird aber häufig anders interpre-
tiert. Andererseits stellt ein zweiter Faktor, der transversal zum vorgenannten
Faktor verläuft, die Nicht-Arbeitnehmer den Arbeitnehmern gegenüber und
bei den letztgenannten wird zwischen Arbeitnehmern des öffentlichen Sektors
(vor allem Lehrern) und Arbeitnehmern der Unternehmen unterschieden. Das
soziale, religiöse und kulturelle Verhalten sowie das Wahlverhalten und die
entsprechenden Auffassungen der verschiedenen Gruppen lassen sich oft bes-
ser auf der Grundlage dieses zweiten Faktors erkennen als auf der Grundla-
ge der klassischen sozialen Skala des ersten Faktors (Bourdieu, 1979, [25]).
Darüber hinaus ermöglichen diese statistischen Methoden in den Darstellun-
gen eine Beibehaltung der Singularität individueller Fälle, denn diese Fälle
können als solche in denjenigen schematischen Darstellungen auftreten, die
einen mehrdimensionalen Datenraum am besten wiedergeben. Sogar die von
den Personen zur Angabe ihres Berufes verwendeten Wörter lassen sich auf
diesen Grafiken wiedergegeben. Ähnlich wie ein geologischer Schnitt, der die
Schichten der Vergangenheit erkennen läßt, zeigen diese Grafiken unterschied-
liche Sprachräume, die verschiedenen Zeitpunkten der Geschichte der sozialen
Taxonomien entsprechen. In einem der Bereiche des faktoriellen Schemas be-
finden sich somit Tischler, Bäcker, Lokomotivführer und ungelernte Arbeiter,
während im gegenüberliegenden Bereich Bedienungskräfte, hochqualifizierte
Handwerker des Niveaus 3 und Facharbeiter des Niveaus 2 zusammengefaßt
werden (Desrosières und Gollac, 1982, [66]).
In Frankreich läßt sich die Kombination der aus verschiedenen Zeiten stam-
menden taxonomischen Prinzipien in der berufssoziologischen Nomenklatur
erkennen und diese Kombination stellt eine Synthese-Instrument dar, das in
den empirischen Sozialwissenschaften häufig angewendet wird. Die Geschichte
Deutschlands hingegen, die reicher an radikalen Diskontinuitäten ist, hat es
nicht möglich gemacht, die alten Kriterien in auch nur annäherndem Umfang
mit den neuen zu verbinden. Dennoch bestehen die alten Kriterien, die aus
Vier Spuren der Französischen Revolution 301

einer äußerst überlagerten und verdichteten Sozialgeschichte hervorgegangen


sind, als Zeugenberge weiter und es gelingt den deutschen Statistikern, Sozio-
logen und Arbeitsökonomen nicht, diese Kriterien in die soziale Taxonomie an-
gloamerikanischen Typs zu integrieren, die in den empirischen Arbeiten weit-
gehend übernommen wurde. Diese alten Objekte – gleichsam Kuriositäten“

der deutschen Soziologie – sind die Beamten, die Arbeiter und die Ange-
14
stellten. Jede dieser Kategorien hatte eine entsprechende Rechtsstellung,
eigene Formen des sozialrechtlichen Schutzes und der Rente oder der Pension
sowie eigene Vertreterorganisationen. Die Beamten gingen aus dem preußi-
schen öffentlichen Dienst des 18. Jahrhunderts hervor. In der deutschen Stati-
stik sind sie als Personen definiert, die durch eine Ernennungsurkunde in ein
öffentlich-rechtliches Dienstverhältnis berufen worden sind. Als Gegenleistung
für ihre strengen Treue- und Gehorsamkeitspflichten gegenüber dem Staat er-
halten die Beamten hohe Arbeitsplatzgarantien, die in den 1950er Jahren nach
der Gründung der Bundesrepublik bestätigt worden sind. Die Arbeiter sind
manuell tätige Arbeiter, die historisch durch eine starke spezifische Gewerk-
schaftsbewegung und durch die sozialdemokratische Partei vertreten werden.
In der deutschen Statistik sind die Arbeiter als unselbständige Erwerbsperso-
nen definiert, die der Arbeiterrentenversicherung unterliegen. Die Angestellten
sind unselbständige Erwerbspersonen mit Versicherungspflicht bei freier Wahl
des Versicherungsträgers, ohne andere Möglichkeiten zur sozialen Unterglie-
derung als nach Leistungsmerkmalen, Einkommenshöhe und/oder fachlicher
Qualifikation. Diese Gruppe entspricht in Frankreich nicht nur den Angestell-
ten im Sinne von employés, sondern auch den Berufen der mittleren Ebene
und den cadres. Die klare Abgrenzung dieser Gruppe geht auf die 1880er Jahre
zurück, als Bismarck die ersten Gesetze zum sozialrechtlichen Schutz einführ-
te (Kocka, 1989, [155]). Die nicht manuell arbeitenden Erwerbstätigen legten
Wert darauf, sich von den Arbeitern und von ihren gewerkschaftlichen und
politischen Organisationen zu unterscheiden. Sie konstituierten sich demzufol-
ge in einer anderen Gruppe und nahmen sich die alte Gruppe der Beamten als
Modell: ihre Treue zum Unternehmen mußte sich vom revolutionären Geist
der Arbeiter unterscheiden, die soziale Forderungen geltend machten. Aus die-
ser Epoche stammen die verschiedenen Titel, die in den Erhebungsfragebögen
auftreten, von den deutschen Statistikern und Soziologen jedoch offenbar als
Anachronismen angesehen werden.
14
Bereits in der ersten Berufszählung des Deutschen Reiches, die 1882 stattfand,
wurde der Beruf Mathematiker in das Berufsverzeichnis aufgenommen, allerdings
nicht gesondert ausgewiesen und gezählt. Mathematiker wurden in die Abteilung
E (Staats-, Gemeinde-, Kirchen-, sozialer Dienst, auch sogenannte freie Berufe)
aufgenommen, und zwar in die Gruppe E6 (Schriftsteller, Zeitungsredakteure,
Korrespondenten, Privatgelehrte, Schreiber etc.). Wie einige andere Berufe war
Mathematiker mit dem Hinweis versehen, daß diese Berufsart auch als öffentliche

Stellung“ vorkomme, also auch in den anderen Gruppen wie etwa in E4 (Bildung,
Erziehung und Unterricht) (vgl. Böttcher et. al., 1994, [352]).
302 8 Klassifizierung und Kodierung

Eine Urne oder mehrere Urnen:


Taxonomie und Wahrscheinlichkeit

Im Jahre 1893 stellt der Franzose Jacques Bertillon auf dem in Chicago ab-
gehaltenen Kongreß des Internationalen Instituts für Statistik (IIS) (Inter-
national Statistical Institute, ISI) zwei internationale Klassifizierungsprojekte
vor, mit denen man eine Harmonisierung der Definitionen und der Konventio-
nen der statistischen Kodierung auf zwei verschiedenen Bereichen anstrebte:
Berufe und Krankheiten. Die Berechtigung einer solchen Harmonisierung im
Bereich der Berufe war nicht nur auf Probleme zurückzuführen, die mit der Ar-
beitsgesetzgebung zusammenhingen, sondern hatte auch mit demographischen
Fragen zu tun. Die Sterblichkeit wies in Abhängigkeit von den ausgeübten
Berufen Unterschiede auf. Darüber hinaus traten gewisse Todesursachen bei
manchen Berufen häufiger auf. Die erhöhte Sterblichkeit der Druckereiarbeiter
hatte Aufmerksamkeit erregt. In Frankreich waren einige durch Saturnismus15
hervorgerufene Todesfälle gemeldet worden. Jedoch bestätigten die statisti-
schen Tabellen der entsprechend den Berufen aufgeschlüsselten Todesursachen
dieses Ergebnis nicht: die Anzahl der auf Saturnismus zurückzuführenden To-
desfälle von Druckereiarbeitern war nicht signifikant, dagegen trat bei ihnen
die Schwindsucht zweimal häufiger auf als es durchschnittlich der Fall war.16
Das zweite, in Chicago im Jahre 1893 vorgestellte internationale Klassi-
fizierungsvorhaben trug die Überschrift Drei Projekte zur Nomenklatur von
Krankheiten (Todesursachen – Ursachen für Berufsunfähigkeit). In der Dis-
kussion über beruflich bedingte Sterblichkeit stellte der Arzt und Statistiker
Jacques Bertillon (Enkel des Botanikers und Demographen Achille Guillard
und Sohn des Arztes und Statistikers Adolphe Bertillon) einen Zusammen-
hang zwischen den beiden äußerst unterschiedlichen Taxonomien her, die sich
auf die Berufe und die Krankheiten bezogen. Genauer gesagt trat der Beruf
hier als Risikofaktor auf, das heißt als Abgrenzung einer Teilmenge, innerhalb
der ein zufälliges Ereignis (Krankheit, Arbeitsunfähigkeit, Tod) wahrschein-
licher ist, als für den Durchschnittsmenschen“. Diese Auffassung stimmte

mit dem Standpunkt der Optimierung einer Klassifikation in Bezug auf ge-
wisse deskriptive Kriterien überein: die beste Klasseneinteilung war diejenige,
welche die Unterschiede zwischen den Klassen erhöhte und die internen Un-
terschiede innerhalb der jeweiligen Klassen verringerte. Aber Jacques Bertil-
lon spezifizierte den Sachverhalt auf den Fall, in dem das Analysekriterium
als Risiko, das heißt als ein wahrscheinlichkeitstheoretisch formulierbares Er-
eignis betrachtet wurde, und griff somit eine statistische Denktradition auf,
deren Wegbereiter bereits Laplace, Poisson und Cournot waren (vgl. Kapi-
tel 3), obwohl sich Bertillon – ein Mann der Tat und Verwaltungsbeamter –
nicht übertrieben häufig auf deren philosophische Spekulationen berief. Die-
15
Bleivergiftung.
16
Wir stützen uns in diesem Teil auf das Nachschlagewerk von Anne Fagot-
Largeault (1989, [90]).
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit 303

se Herangehensweise hing direkt mit der medizinischen Praxis zusammen –


mit der klinischen (therapeutischen) Praxis oder mit dem öffentlichen Ge-
sundheitswesen (Prävention) – und lenkte deswegen die Aufmerksamkeit auf
die Konventionen bei der Konstruktion von Äquivalenzklassen, die durch die
Risikofaktoren gebildet wurden. Auf diese Weise konnten nicht nur Beruf,
Alter und Geschlecht als Risikofaktoren angesehen werden – als Kategorien,
mit deren Hilfe man Unterschiede in Bezug auf die Wahrscheinlichkeiten von
Todesfällen machen konnte – sondern es ließ sich auch die Krankheit selbst
betrachten, die ja nicht immer zum Tod führte. Die Identifizierung einer To-
desursache lieferte Informationen, die sich als nützlich für das Handeln er-
wiesen, und die Schwierigkeit des Problems bestand darin, unter allen dem
Tod vorangehenden Ereignissen dasjenige auszuwählen, das als die Todesur-
sache angesehen wurde. Die Kodierung von Totenscheinen ist ein durch die
Vorschriften der Weltgesundheitsorganisation (WHO)17 standardisiertes Ver-
fahren, das im Ergebnis einer langen Geschichte und komplexer Kontroversen
entwickelt wurde.
Die Internationale Klassifikation der Krankheiten, Verletzungen und To-
desursachen18 wurde damals vom Internationalen Institut für Statistik (IIS)
unter der Bezeichnung Klassifikation von Bertillon“ übernommen und wird

nach regelmäßigen Überarbeitungen immer noch verwendet. Diese Überarbei-
tungen erfolgten alle zehn Jahre bis in die 1940er Jahre unter der Verant-
wortung Frankreichs (über das IIS) und steht seit 1955 unter der Verantwor-
tung der WHO in Genf.19 Sogar schon vierzig Jahre vor der Annahme des
Bertillon-Projekts im Jahre 1893 war diese Nomenklatur auf dem ersten In-
ternationalen Statistischen Kongreß diskutiert worden, der 1853 in Brüssel
auf Initiative Quetelets stattfand. Zwei Auffassungen standen sich in Bezug
auf die Frage gegenüber, ob man dem ätiologischen Prinzip“ (Suche nach

der Anfangsursache) oder dem topographischen Prinzip“ (Feststellung der

Symptome und deren Lokalisierung) die Priorität zubilligen solle. Die erste
Auffassung, die der Engländer William Farr (der Gründer des GRO) vertrat,
war natürlich für die Epidemiologen von Interesse. Aber die zweite Auffassung,
die von dem Genfer Marc d’Espine verfochten wurde, lag denjenigen Ärzten
näher, die Totenscheine auszufüllen hatten. Beide Auffassungen waren nicht
vollkommen gegensätzlich, denn jede von ihnen berücksichtigte bewußt die
folgenden beiden Randbedingungen: Nützlichkeit und Anwendungsmöglich-
keit. Es ging darum, die Kriterien hierarchisch anzuordnen: Farr wendete

zuerst das ätiologische und danach das topographische Prinzip an, während
17
World Health Organisation, WHO.
18
International Classification of Diseases, Injuries and Causes of Death, ICD.
19
Der ICD-Schlüssel zur Klassifikation von Diagnosen wird vorrangig bei der Ab-
rechnung von Gesundheitsleistungen verwendet. Mit dem ICD-Schlüssel wurde
eine alphanumerische Kodierung eingeführt, die sich aus einem Buchstaben und
drei Ziffern zusammensetzt. Der Buchstabe und die ersten beiden Ziffern bestim-
men dabei die Kategorie der Diagnose, die dritte Ziffer ermöglicht die Angabe
von Unterkategorien, die allerdings keinen bindenden Charakter haben.
304 8 Klassifizierung und Kodierung

d’Espine die ätiologische Einteilung der topographischen Einteilung und diese


wiederum der Einteilung nach dem Entwicklungsmodus unterordnete“ (An-
ne Fagot-Largeault). Achille Guillard (der Großvater von Jacques Bertillon)
legte 1853 in Brüssel eine Entschließung vor, in der Farr und d’Espine aufge-
fordert wurden, sich zu einigen, aber beide sahen sich dazu außerstande. Den-
noch blieb das Problem in der Familie Bertillon. Zunächst arbeitete Adolphe
daran, danach sein Sohn Jacques – beide in ihrer Eigenschaft als aufeinan-
derfolgende Leiter des Statistischen Bureaus der Stadt Paris. Die im Jahre
1893 vorgeschlagene Lösung war zweideutig. Obwohl sich Bertillon auf die
Tradition von Farr berief (womöglich um das Wohlwollen der Engländer zu
gewinnen), lehnte er in Wirklichkeit die ätiologische Klassifikation (gemäß den
Anfangsursachen) ab. Bezieht man sich nämlich auf diese Klassifikation – so
argumentierte Bertillon –, dann geht man das Risiko ein, sich auf unsichere
Theorien zu stützen, die auf vorläufigen Hypothesen aufbauen und zu statisti-
schen Aufstellungen führen, die in einigen Jahren unbrauchbar sein werden

oder die man gar belächeln wird“. Er wiederholte dieses Argument ständig,
so auch im Jahre 1900:
Eine ätiologische Klassifikation ist sicherlich für einen Wissenschaftler
befriedigender, aber zumindest gegenwärtig scheint es unmöglich zu
sein, eine derartige Klassifikation zu übernehmen, denn gewiß würde
sie binnen ganz kurzer Zeit aufhören, akzeptabel zu sein. (Bertillon,
1900.)
Die Starrheit seines Standpunktes veranlaßte ihn noch 1920 dazu – vor
der in Paris versammelten und mit der Überarbeitung beauftragten interna-
tionalen Kommission –, die Bakteriologie fünfundzwanzig Jahre nach dem Tod
Pasteurs (1895) als Modeerscheinung abzutun, die ebenso vorübergehen wird
wie die anderen:
Es erweist sich als umso notwendiger, den anatomischen Sitz der
Krankheiten als Rahmen für die Nomenklatur zu nehmen, denn das
ist die einzige Klassifikation, die sich nicht ändert. Vor fünfzig Jahren
teilte man die Krankheiten in Fieberkrankheiten, Entzündungskrank-
heiten, Tropenkrankheiten, Ernährungskrankheiten ein ... Einteilun-
gen, die seit langem überholt sind. Heute ist es die Bakteriologie, die
sich dem Pathologen aufdrängt; wir sehen bereits eine Zeit kommen,
in der ein Überschuß oder Mangel an endokrinen Sekretionen unsere
Aufmerksamkeit auf sich ziehen wird. Werden wir unsere Nomenklatur
dann jedes Mal grundlegend verändern müssen? (Bertillon, 1920).
Dennoch nahm die gleiche Kommission, nachdem sie Bertillon (der 1922
starb) für dessen dreißigjährige Einsatzbereitsschaft langanhaltenden Beifall
gezollt hatte, einen Vorschlag an, die allgemeinen Krankheiten nach dem ätio-
logischen Prinzip zu klassifizieren. Dabei argumentierte die Kommission, daß
selbst wenn man den kausalen Erreger noch nicht in allen Fällen identifi-

ziert hat, sind gewisse Krankheiten doch von einer so offensichtlich infektiösen
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit 305

Natur, daß man sie ohne Mißbrauch mit denjenigen Krankheiten in Verbin-
dung bringen kann, deren Infektionserreger bekannt ist“. Nachdem das auf der
Anfangsursache basierende Kodierungsprinzip wenigstens theoretisch berück-
sichtigt wurde, stellte sich die Frage nach den Modalitäten der Registrierung
und der Kodierung dieser Ursache. Dieses Problem wurde in den 1920er und
1930er Jahren diskutiert. Es stellten sich gleich mehrere Fragen. Wie sollte
der Totenschein abgefaßt werden? Wer muß die Auswahl der Todesursache
unter den Ursachen treffen, die auf dem Totenschein angegeben sind? Wel-
ches Verfahren soll man dabei anwenden? Und wie kann man dafür sorgen,
daß die Gesamtheit der genannten Dinge in allen Ländern identisch abläuft?
Michel Huber, Direktor der SGF, erstattete im Hinblick auf die vierte
Überarbeitung der internationalen Nomenklatur im Jahre 1927 Bericht über
diese Punkte. Wieviele Fragen sollte man dem bescheinigenden Arzt stel-
len? In welcher Reihenfolge (chronologisch oder von der Gegenwart ausge-
hend rückwärts)? Wie weit sollte man in die Vergangenheit des Verstorbenen
zurückgehen? Eine chronologische Reihenfolge würde mit der Gefahr einher-
gehen den Arzt zur Bestätigung alter Fakten zu verleiten, die er nicht beob-

achtet hat ... Fragt man ihn, was seiner Meinung nach die Hauptursache war,
dann ersucht man ihn um Auskunft darüber, welche Ursache als statistische
Grundlage genommen werden soll.“ Diese Debatte drehte sich um die Fra-
ge, wer die Kodierungskosten tragen sollte. Wer übernimmt die kognitive und
ökonomische Doppelverantwortung dafür, die Vielfalt und die Unsicherheit zu
reduzieren und Äquivalenzklassen zu konstruieren, auf die sich das Vorgehen
stützen sollte? Im Jahre 1948 wurde ein internationales Muster für Toten-
scheine angenommen, das vier Fragen enthielt: unmittelbare Ursache, Zwi-
schenursache, Anfangsursache und andere pathologische Zustände (Begleit-
ursachen). Das französische Modell enthielt nur drei dieser Fragen, auf die
Zwischenursache“ wurde verzichtet. Abgesehen von expliziten Vorschriften,

die für gewisse Sonderfälle spezifisch waren, diente die Anfangsursache“ als

Verschlüsselungsgrundlage. Diese Wahl war gerechtfertigt, denn hierbei han-
delte es sich um die nützlichste“ Information, das heißt die Information, die

den vom Standpunkt des öffentlichen Gesundheitswesens effizientesten Ein-

griffsort“ benennt: ... für den Kampf gegen den Tod ist es von Bedeutung, die

Abfolge der Ereignisse zu unterbrechen oder die Behandlung in einem gewis-
sen Stadium zu beginnen.“ (International Classification of Diseases, Injuries
and Causes of Death, ICD, 1948.)
In der langen Kette der dem Tod vorhergehenden Ereignisse mußte man al-
so ein Ereignis auswählen. Der Ausdruck Anfangsursache“ ist trügerisch: der

Kranke rauchte, arbeitete in einem Bergwerk, fuhr gerne Motorrad – sind das
Anfangsursachen? Außerdem konnte man die Todesursache nicht mit dem Tod
selbst gleichsetzen (Herzstillstand). Das Auswahlkriterium schien wohl das fol-
gende zu sein: unter den Ereignissen berücksichtigte man dasjenige, das die
Todeswahrscheinlichkeit signifikant und unzweideutig erhöhte, ohne daß diese
Wahrscheinlichkeit jedoch gleich 1 war (sicherer Tod). Das wichtigste war die
Variation der Wahrscheinlichkeit, die sich deutlich von 0 und 1 unterschied.
306 8 Klassifizierung und Kodierung

Die Ursachenanalyse spezifizierte die Urnen, aus denen im Hinblick auf einen
zukünftigen Eingriff Zufallsziehungen durchgeführt wurden: Die Konvention

bei der Bezeichnung der medizinischen Todesursachen besteht darin, daß ...
die Ursache derjenige Faktor ist, den wir beeinflussen können, wenn wir uns
das Ziel gesetzt haben, gegen die Krankheit oder gegen den Tod zu kämpfen“
(Kreweras). Die taxonomische Konvention hängt deutlich mit einem System
bedingter Wahrscheinlichkeiten zusammen, an dem sich die Vorgehensweise im
Vergleich zur durchschnittlichen Sterblichkeit – der Todeswahrscheinlichkeit
bei Fehlen aller Informationen – orientiert. Den Versicherungsgesellschaften ist
diese Spannung zwischen den beiden extremen Positionen wohlbekannt: eine
Urne oder mehrere Urnen? Soll man von allen Personen die gleiche Versiche-
rungsprämie verlangen oder soll man – im Gegensatz hierzu – die Prämien
der Vielfalt vorstellbarer unterschiedlicher Wahrscheinlichkeiten anpassen?
Anläßlich der sechsten Überarbeitung der ICD im Jahre 1948 faßte man
nach lebhaften Debatten den Beschluß, das Alter von der Liste der Todesur-
sachen zu streichen. Diese Entscheidung hing zutiefst mit den oben beschrie-
benen Umständen zusammen. Das Alter ist das Moment, in dem es immer
schwieriger wird, die Todesursachen deutlich zu unterscheiden, das heißt die
bedingten Wahrscheinlichkeiten zu berechnen, die wohlbestimmten Zuständen
zugeordnet sind, von denen spezifische Handlungen abhängen können. Aber
das ist auch der Fall, wenn der bescheinigende Arzt – wie es häufig geschieht –
a posteriori mit einer Abfolge von Ereignissen konfrontiert wird, bei denen die
jeweilige Auswahl schwierig ist. Das Unbehagen rührt daher, daß in den sta-
tistischen Tabellen eine Summation der Todesursachen alter Menschen, Men-
schen reiferen Alters und junger Menschen vorgenommen wird, denn es kann
sein, daß die Vorgehensweise – zumindest von gewissen Standpunkten aus be-
trachtet – nicht in allen Fällen die gleiche Bedeutung hat. Die Aufstellung der
statistischen Äquivalenz führte zu einer unlösbaren Debatte über unterschied-
liche und unvereinbare moralische Prinzipien, obwohl jedes der Prinzipien für
sich genommen kohärent und legitim war (Fagot-Largeault, 1991, [91]). Ei-
nes dieser Prinzipien – das deontologische Prinzip – besagt, daß jeder Mensch
einen einzigartigen, einmaligen Wert hat, der mit keinem anderen verglichen
werden kann. Man kann das Leben eines alten Menschen nicht mit dem eines
jungen Menschen vergleichen. Einem anderen Prinzip – dem teleologischen
Prinzip – zufolge gibt es ein über den Individuen stehendes gemeinsames Gut,
welches der Gemeinschaft die Rechtfertigung für Schiedsverfahren zubilligt,
auf deren Grundlage man insbesondere den potentiell unbegrenzten Maßnah-
men im öffentlichen Gesundheitswesen die ökonomisch begrenzten Ressourcen
zuordnen kann.

Wie man einer Sache Zusammenhalt verleiht

In der Medizin besteht ein kontinuierliches Spannungsverhältnis zwischen Ein-


zelbehandlungen und der Behandlung im Allgemeinen. Deswegen gibt die lan-
Wie man einer Sache Zusammenhalt verleiht 307

ge Geschichte der Medizin – einschließlich der Geschichte der medizinischen


Beobachtungs- und Verallgemeinerungsweisen – Aufschluß über viele Momen-
te der statistischen Praxis: Auswahl relevanter Merkmale, Kategorienbildung
und Modellbildung mit Blick auf die Durchführung von Maßnahmen. Viele
Statistiker des 19. Jahrhunderts (Farr, die Bertillons) waren Ärzte. Bei den
Kontroversen zur numerischen Methode des Doktor Louis oder zur Verwen-
dung von Mittelwerten durch die Hygieniker ging es genau um die Methoden
zur Identifizierung und Benennung der Fälle (Diagnose) und um Eingriffe, de-
ren Berechtigung auf einem Wissen beruhte, das zuvor im Rahmen von Taxo-
nomien akkumuliert worden war (vgl. Kapitel 3). Das ausgehandelte Kon-
strukt einer internationalen Klassifikation der Krankheiten war ein Schritt
bei der Aufbereitung dieses gemeinsamen Wissens. Die hierüber von Anne
Fagot-Largeault vorgelegte detaillierte Analyse verbindet die beiden Schrit-
te der Klassifikation (Diskussion über die ätiologischen und topographischen
Prinzipien) und der Kodierung (Form und Verarbeitung des Totenscheins) in
enger Weise miteinander. Die Analyse kann aus einer Perspektive fortgesetzt
werden, die für die statistische Methode charakteristisch ist: Systematisierung
der beiden genannten Momente, das heißt Systematisierung der Nomenklatur
(das Ziel von Linné) und Systematisierung der Kodierung (durch mehr oder
weniger automatische Algorithmen).
In der sogenannten traditionellen medizinischen Praxis, für welche die

Medizin eine Kunst ist“, erkennt und benennt der Arzt eine Krankheit auf
der Grundlage seiner eigenen Erfahrung und der Erfahrungen seiner Vorgänger
(d’Amador): Das ist ein Fall von Typhus“. Er stellt die beobachteten Sym-

ptome und die Situation, deren Zeuge er ist, in einem Wort zusammen. Dieses
Wort verleiht der betreffenden Sache dadurch Konsistenz und Zusammenhalt,
daß der Arzt es mit anderen identischen Krankengeschichten vergleicht, de-
ren Kohärenz er bereits kennt. Dieser fundamentale Akt der Erkennung und
Benennung ( Das ist ein Fall von ...“) mobilisiert früheres Wissen und läßt

es durch Reaktivierung einer Kategorie wieder aufleben – so wie ein Pfad nur
dann bestehen bleibt, wenn man ihn regelmäßig entlanggeht. Aber die taxo-
nomischen Prinzipien dieses durch Anwendung akkumulierten Wissens waren
oft von lokaler und heterogener Natur, und das sogar in einem doppelten Sin-
ne. Die Beobachtungs- und Verallgemeinerungskriterien hingen nicht nur von
den Krankheitstypen ab (Kritik nach Art von Linné), sondern auch von den
Ärzten und den medizinischen Schulen. Die im 19. Jahrhundert geführten Dis-
kussionen – vor allem die Diskussionen zur Klassifikation der Krankheiten –
ließen das doppelte Streben nach einer Einteilungssystematisierung und nach
der Ausarbeitung einer Sprache erkennen, die von der Medizin auf der ganzen
Welt benutzt werden kann. So erweiterte sich das Netz, das den Einzelfällen
Zusammenhalt verlieh und in der Folgezeit wurden die Knotenpunkte dieses
Netzes immer robuster. Aber das hatte seinen Preis: ein Teil des Wissens,
das auf das praktische Gespür und die Intuition des Arzt-Künstlers“ zurück-

zuführen war und im Verlauf eines Einzelkolloquiums praktiziert wurde, kann
als verloren angesehen werden – dieses Wissen wurde geopfert, damit sich der
308 8 Klassifizierung und Kodierung

spezielle Fall in das Netz der allgemeinen und dauerhaften Kategorien, der
Meß- und Analysegeräte einordnen läßt, mit denen sich die Medizin ausge-
stattet hat (Dodier, 1993, [69]). Dieser Spannungszustand besteht nicht nur
in der Medizin. In der Rechts- und Gerichtspraxis und in der Praxis gericht-
licher Gutachten strebt man ebenfalls an, den Angelegenheiten und Situatio-
nen einen Zusammenhalt zu verleihen, indem man sie identifiziert und ihnen
Bezeichnungen gibt, um sie in einen allgemeineren Rahmen zu stellen (ein
Beispiel ist der Begriff des in Ausübung des Berufes begangenen Fehlers“:

(Chateauraynaud, 1991, [44]).
Liegt die Betonung jedoch auf dem, was eine Form – vor allem durch
die Anwendung standardisierter Werkzeuge und systematischer Taxonomien
– verfestigt, dann kann man universelle und wissenschaftliche Kenntnisse, die
Bestandteil eines Erkenntnisprojekts sind, nicht mehr anderen Wissensfor-
men gegenüberstellen, die als indigen, lokal, partiell, nicht systematisch und
handlungsorientiert bezeichnet werden. Für eine derartige Gegenüberstellung
hatten sich gelegentlich Autoren (vor allem Durkheim) ausgesprochen. Ganz
im Gegenteil müssen jedoch die verschiedenen Erkenntnisweisen symmetrisch
behandelt werden, das heißt keine von ihnen darf a priori privilegiert werden,
denn sie werden abwechselnd in den alltäglichen Wortgefechten verwendet,
um eine besondere Einsicht in den Gang der Dinge offensichtlich und unbe-
streitbar zu machen. Diese methodologische Entscheidung hat nichts mit einer
Denunziation der Illusion der Wissenschaft (oder der Statistik) im Namen an-
derer Wissensformen zu tun, die zu Unrecht abgewertet und verkannt werden.
Vielmehr strebt diese Methode lediglich eine Erklärung komplexer Situatio-
nen an, in denen wissenschaftliche und statistische Hilfsmittel in Konkurrenz
oder in Ergänzung zu anderen Hilfsmitteln mit dem Ziel mobilisiert werden,
die Konsistenz von Äquivalenzen und die Schlußfolgerungen zu verstehen, die
einen Beweis ausmachen können. Wie läßt sich ein Konsens erzielen, ein Ein-
vernehmen in Bezug auf die Art und Weise, eine Situation zu erklären? Oder
wie stellt man fest, daß kein Konsens vorliegt? Welche Rolle spielen die sta-
tistischen Formalismen im Werkzeugkasten der Beweisinstrumente und der
überzeugenden Argumente?
Die Systematisierung und Automatisierung der Verfahren bietet nicht nur
vom wirtschaftlichen Standpunkt – zum Beispiel bei den Kodierungskosten –
große Vorteile, sondern auch vom Standpunkt der Suche nach einer Überein-
kunft, nach der Objektivierung eines Bedeutungsinhalts, dem die verschiede-
nen Akteure gemeinsam Ausdruck verleihen. Die maschinelle Abarbeitung der
betreffenden Verfahren führt zu einer Elimination der Eingriffe, die früher von
Menschen vorgenommen wurden. Die Feststellung einer Übereinkunft wird so-
mit auf den Zeitpunkt der ausgehandelten Konstruktion eines Mechanismus
verschoben. Aber in diesem Fall kann die Kontroverse in Bezug auf diesen
Mechanismus immer wieder neu in Gang gesetzt werden. Ein Beispiel hierfür
sind die aus medizinischen Expertensystemen hervorgegangenen Diagnostik-
Algorithmen. Die Frage nach der Gültigkeit und der Leistungsfähigkeit die-
ser Algorithmen bleibt offen, wie folgender Auszug aus dem Buch von Anne
Wie man einer Sache Zusammenhalt verleiht 309

Fagot-Largeault zeigt – es gibt wirklich keinen besseren Abschluß für dieses


Kapitel:

Wie steht es mit der Leistungsfähigkeit dieser Imputationsalgorith-


men? Um das zu beurteilen, muß man wissen, auf welcher Grundla-
ge die Leistungen bewertet werden sollen. Auf den ersten Blick ist
derjenige Algorithmus der beste, der die Wahrheit am häufigsten ap-
proximiert, das heißt in jedem Fall denjenigen Kausalitätsgrad als
zugeordneten Wert liefert, welcher der Realität am besten entspricht.
Aber wir kennen die Wahrheit nicht, denn wir suchen sie ja. Der beste
Algorithmus ist also derjenige, dessen Imputationen mit denen des be-
sten Experten zusammenfallen. Aber wer ist der beste Experte? Also
gut: der beste Algorithmus ist derjenige, der im Ergebnis des Konsens
der Experten angewendet wird. Und was ist, wenn die Experten kei-
nen Konsens erzielen? Der beste Algorithmus ist derjenige, der einen
Konsens dadurch schafft, daß er die Standpunkte derjenigen Experten
approximiert, die diesen Algorithmus gelten lassen und sich ihm beu-
gen. Gut, aber was ist, wenn alle Algorithmen dieses leisten – jeder auf
seine Weise? Dann ist der beste Algorithmus derjenige, dessen Werte
am wenigsten von denen der anderen Algorithmen abweichen. Außer
wenn es keinen besseren Algorithmus gibt, oder? (Fagot-Largeault,
1989, [90].)
9
Modellbildung und Anpassung

Die Geschichte der Wirtschaftsanalyse tendiert mitunter dazu, drei dies-


bezügliche Entwicklungsrichtungen durcheinanderzubringen: die Mathemati-
sierung, die Quantifizierung und die Anwendung der Sprache der Wahrschein-
lichkeitsrechnung. Alle drei Entwicklungen scheinen auf eine Annäherung der
Wirtschaftswissenschaft an die sogenannten harten“ Wissenschaften (zu de-

nen vor allem die Physik zählt) sowie auf einen Bruch mit der politischen Phi-
losophie und den geisteswissenschaftlichen Disziplinen hinzudeuten, aus denen
die politische Ökonomie hervorgegangen ist. Jedoch sind die drei genannten
Werkzeuge nicht nur voneinander verschieden – sie wurden sogar lange Zeit
hindurch für unvereinbar gehalten. Die Verknüpfung dieser Werkzeuge stieß
in den aufeinanderfolgenden Abschnitten des Aufbaus der Ökonometrie zwi-
schen 1900 und 1950 auf Schwierigkeiten. Diese Schwierigkeiten zeigen das
Ausmaß der Arbeit, die erforderlich war, um denjenigen Formen Zusammen-
halt zu verleihen, die aus zueinander zutiefst fremden Traditionen hervorge-
gangen waren. Das nachstehende Schema faßt einige dieser Zusammenhänge
in genealogischer Form zusammen, wobei wir insbesondere die Zeiten her-
vorheben, in denen es zu einer Synthese unterschiedlicher – wenn nicht gar
gegensätzlicher – Arbeiten kam. Um 1900 ließen sich vier derartige Synthesen
identifizieren: die mathematische Ökonomie1 , die historizistische deskriptive
Statistik, die Statistik als Analysetechnik (wie sie damals von der englischen
Biometrie entwickelt wurde) und die Wahrscheinlichkeitsrechnung als Sprache,
1
Einer der Begründer der mathematischen Ökonomie“ (auch als mathematische
” ”
Nationalökonomie“ oder mathematische Volkswirtschaft“ bezeichnet, vgl. [383])

war der Nationalökonom Léon Walras (1834–1910), der unter dem Einfluß von
Cournot mathematische Methoden auf die Wirtschaftswissenschaften anwandte.
Walras hat eine synthetische Darstellung der Volkswirtschaft in seinen Büchern
Éléments d’économie pure und Théorie mathématique de la richesse sociale gege-
ben. Die mathematische Nationalökonomie begnügt sich nicht damit, gegenseitige
Abhängigkeiten zwischen vereinzelten Tatsachen zu suchen: sie behauptet, diese
Tatsachen alle in einer Gesamtanschauung zusammenzufassen.
312 9 Modellbildung und Anpassung

mit der man die Konsistenz der Induktion prüfen kann (in den vorhergehenden
Kapiteln hatten wir lediglich die zweite und die dritte Synthese beschrieben).
Jede dieser vier Nachkommenschaften kann Gegenstand einer anderen hi-
storischen Schilderung sein, indem man jeweils unterschiedliche Fakten kon-
struiert und Episoden hervorhebt, die nicht miteinander zusammenhängen.

Eine Genealogie der Ökonometrie vor 1940

18. Jahrhundert

Mathematik: Klassische Deutsche Englische Astronomie: Wahrscheinlich-


Geometrie Politische Statistik: politische Mittelwerte; keitsrechnung:
Analysis ¨
Okonomie: Staatsbe- Arithmetik: Methode der Grade der Sicherheit,
Algebra Adam Smith schreibung Populationen kleinsten Bernoulli, 1713
Quadrate, De Moivre, 1731
Legendre, 1805 Bayes, 1764

19. Jahrhundert

Ricardo Verwaltungsstatistik und Synthese von Gauß


J. B. Say deskriptive Statistik und Laplace (1810)
Zählungen
Normalverteilung

Synthese von Poisson,1837


Darwinsche Quetelet, 1846: Bravais, 1846:
Biologie: Mittelwerte und zweidimensionale
Vererbung Regelmäßigkeiten Normalverteilung Cournot, 1843

¨
Mathematische Okonomie Deutsche Biometrie Venn 1866
Allgemeines Gleichgewicht, historische Englische mathematische Statistik,
Schule Regression, Korrelation
Cournot, Walras, Engel
Pareto, Marshall, Galton, 1889 Edgeworth, 1885
Lexis
Edgeworth, Jevons K. Pearson, 1896
Yuke 1897: Rückkehr
Zyklen: der kleinsten Quadrate
Jevons, Juglar
Barometer Amerikanische
Institutionalisten Keynes, 1921
20. Jahrhundert Mitchell, 1913

Wahrscheinlich-
keitstheorie

¨
Anfänge der Okonometrie (1910-1940) Inferentielle Statistik
R. Fisher, 1925
Lenoir, 1913; Moore, 1914; Schultz, 1928;
Maximum-Likelihood
Econometrica,1933; Tinbergen, 1939 Neyman-Pearson-Tests, 1928

Nationaleinkommen
Kuznets-Clark
Keynessche Indeterministische Random Shocks
Makroökonomie Physik Yule, 1927;
Slutsky, 1927;
Frisch, 1933

¨
Zweite Phase der Okonometrie (nach 1940)
Cowles Commission - Frisch
Haavelmo - Koopmans - Marschak
Wahrscheinlichkeitstheoretischer Ansatz
9 Modellbildung und Anpassung 313

Zum Beispiel folgt die Geschichte des Modells der linearen Regression dem
Weg (im Schema durch Textboxen gekennzeichnet), der die Formulierungen
der Methode der kleinsten Quadrate, der Normalverteilung, der Mittelwer-
te, der Regression, der multiplen Korrelation und der Maximum-Likelihood-
Methode beschreibt. Die Bücher von Stigler (1986, [267]) und Gigerenzer
et al. (1989, [107]) ermöglichen eine Rekonstruktion dieser Formulierungen,
während das Buch von Mary Morgan (1990, [204]) aufzeigt, wie dieses Modell
von den ersten Wirtschaftsstatistikern genutzt wurde. Man kann die Auf-
merksamkeit auch auf die Berührungspunkte lenken, die bereits in einer Zeit
existierten, als die – zur Verknüpfung von a priori heteroklitischen Dingen –
erforderlichen Übersetzungen weder routinemäßig gegeben waren und noch in
Standardboxen zur Verfügung standen. Die Genese der Ökonometrie ist reich
an derartigen Momenten.
Zu Beginn des 20. Jahrhunderts warfen die ersten, von Marcel Lenoir
(1913, [177]) und Henry Moore (1914, [202]) unterbreiteten Vorschläge zur
Abschätzung der Gesetze von Angebot und Nachfrage ein neues Problem auf,
das später als Identifikationsproblem bezeichnet wurde: Welche Beziehung
kann man zwischen den theoretischen Gesetzen und den beobachteten Daten
herstellen? Der polnische Mathematiker Jerzy Neyman kannte die Arbeiten
von Borel und Lebesgue. In den 1920er Jahren markierte die Begegnung Ney-
mans mit Egon Pearson, dem Sohn von Karl Pearson, das nicht spannungsfreie
Wiederauftreten der Wahrscheinlichkeitsrechnung und der Statistik, nachdem
ein Jahrhundert vergangen war. Und schließlich führte in den 1940er Jahren
die Übernahme der Werkzeuge von Neyman und Pearson durch die Cowles
Commission zur Vollendung der Synthese der vier Traditionen. Diese Syn-
these löste neue Debatten aus, wie die Kontroverse zwischen Koopmans und
Vining (1949) erkennen läßt. In der Folgezeit setzte sich diese Synthese je-
doch als wichtigste Lösung der Widersprüche durch, die früher in Bezug auf
die Sprachen der Wirtschaftswissenschaft, der Statistik und der Wahrschein-
lichkeitsrechnung diskutiert worden waren. Im vorliegenden Kapitel erinnern
wir an einige dieser Gegensätze und an die Art und Weise, in der sie behan-
delt worden sind. Wir folgen zwei zueinander entgegengesetzten Bewegungen.
Die eine Bewegung geht von den Daten in Richtung Theorie: Konstruktion
von Indizes, Konjunkturanalyse und Berechnung des Nationaleinkommens.
Die andere Bewegung geht von der Theorie aus und versucht, diese mit den
Daten zu verknüpfen – entweder um mit Hilfe der für gesichert gehaltenen
Theorie Parameter zu schätzen oder um die betreffende Theorie zu verifizie-
ren. Folglich kann man die Beziehung zwischen Theorie und Daten auf drei
sehr unterschiedlichen Wegen in Angriff nehmen: beim Aufstellen neuer Ge-
setze, bei der Messung der Parameter eines als wahr angenommenen Gesetzes
und bei der Annahme oder Ablehnung einer Theorie mit Hilfe statistischer
Tests, die auf Wahrscheinlichkeitsmodellen beruhen.2
2
In diesem Kapitel verwenden wir vor allem die bemerkenswerte Synthese von
Mary Morgan, 1990, [204].
314 9 Modellbildung und Anpassung

Wirtschaftstheorie und statistische Beschreibung

Die im 19. Jahrhundert entstehende mathematische Ökonomie strebte danach,


die unerschöpfliche Komplexität der Produktion und des Güteraustausches
auf eine kleine Anzahl von einfachen Hypothesen zu reduzieren – vergleichbar
mit den Gesetzen der Physik – und danach unter der Führung der energi-
schen Hand der mathematischen Deduktion ein Gebäude zu rekonstruieren,
dessen Verdienst sowohl in der logische Kohärenz als auch in der Möglichkeit
besteht, sich durch Hinzunahme weiterer Anfangshypothesen unbegrenzt ver-
bessern und erweitern zu lassen. Aber diese Art und Weise, Komplexität zu
reduzieren, wurde mindestens bis in die 1920er Jahre so wahrgenommen, daß
eine weitgehende Unvereinbarkeit mit der – in den vorhergehenden Kapiteln
beschriebenen – anderen Reduktionsform besteht, die im Ergebnis von Auf-
zeichnungen, Kodierungen und statistischen Aggregatbildungen entstanden
war. Nichts schien zu garantieren, daß diese Begriffe unter Voraussetzungen
konstruiert worden waren, die auf den Grundhypothesen der mathematischen
Ökonomie aufbauten. Die Schwierigkeit der Verknüpfung dieser beiden Reduk-
tionsformen läßt sich auf unterschiedliche Weise ausdrücken: Unmöglichkeit
der Anwendung einer im strengen Sinne experimentellen Methode, a priori
unbeschränkte Anzahl der explikativen Faktoren, Veränderlichkeit der Indi-
viduen, Meßfehler. Viele dieser Widerstände hingen mit Bedenken gegenüber
der Möglichkeit zusammen, Formalismen aus Wissenschaften wie der Phy-
sik auf die Sozialwissenschaften zu übertragen – Formalismen also, die eine
Homogenität der Natur“ voraussetzen, das heißt die räumliche und zeitliche

Permanenz allgemeiner Gesetze, die sich auf einfache Ausdrücke reduzieren
lassen. Die Historizität und Diversität der Situationen und Kulturen wurden
von der Tradition der deutschen deskriptiven Statistik ins Feld geführt, um die
hypothetisch-deduktive mathematische Ökonomie der österreichischen Schu-
le ebenso zu bekämpfen wie die Lehren von Léon Walras (Wegbereiter der
allgemeinen Gleichgewichtstheorie) und Alfred Marshall. Die Ökonomen der
historischen Schule, die den Leitern der statistischen Bureaus der deutschen
Staaten im Rahmen des wissenschaftlich und politisch aktiven Vereins für
Socialpolitik nahestanden, akkumulierten zwar statistische Datenerfassungen,
versagten es sich aber, daraus allgemeine Gesetze abzuleiten.
Die mathematischen Ökonomen“ hatten ihrerseits Vorbehalte gegenüber

den Statistiken und schöpften den Verdacht, daß in ihnen kunterbunt durch-
einandergewürfelte Fakten gesammelt werden, die aus komplexen, unbekann-
ten und vor allem unkontrollierbaren Wechselwirkungen resultieren (Ménard,
1977, [193]). Vor 1900 lag ein tiefer Graben zwischen diesen beiden Kate-
gorien von Ökonomen, das heißt zwischen Statistikern und Mathematikern.
Die Statistiker verwarfen nicht nur die deduktiven Konstruktionen, die auf
a priori postulierten allgemeinen Gesetzen beruhten – die radikalsten dieser
Statistiker wiesen sogar die Möglichkeit zurück, auf der Grundlage von Daten
Gesetze abzuleiten. Mit wenigen Ausnahmen (Lexis zum Beispiel) ignorier-
ten sie die Entwicklungen der im Entstehen begriffenen mathematischen Sta-
Wirtschaftstheorie und statistische Beschreibung 315

tistik und denunzierten sogar den Durchschnittsmenschen von Quetelet als


eine Abstraktion ohne Bedeutung. Aber als Ausgleich für diese Ablehnung
der Verallgemeinerung und der Abstraktion entwickelte sich eine Tendenz zur
Akkumulation von empirischen und wissenschaftlichen Forschungen sowie zur
Durchführung von monographischen Untersuchungen und statistischen Erhe-
bungen. Diese Tradition der Beobachtung und Beschreibung beeinflußte die
französischen Soziologen (Simiand, Halbwachs), aber auch die amerikanischen
institutionalistischen Ökonomen, die in den 1880er Jahren in Deutschland stu-
diert hatten. Spuren hiervon findet man bei Mitchell, dem Gründer des Natio-
nal Bureau for Economic Research (NBER) im Jahre 1920 oder bei den Öko-
nomen, die in den 1930er Jahren als Berater des Bureau of the Census tätig
waren. Wenn es also zur Jahrhundertwende einen Gegensatz zwischen einer
hypothetisch-deduktiven mathematisierten Wirtschaftswissenschaft und einer
anderen, historischen, deskriptiven, eher induktiven und mitunter als gei-

steswissenschaftlich“ charakterisierten Wirtschaftswissenschaft gegeben hat,
dann war die Verwendung von Statistiken eher die Tat derjenigen, die die-
se geisteswissenschaftliche Ausrichtung praktizierten, und nicht so sehr das
Verdienst der Verfechter der erstgenannten Richtung. Der Amerikaner Henry
Moore (1869–1958) war einer der ersten Ökonomen, die sich auf das Gebiet
stürzten, das später zur Ökonometrie werden sollte. Moore ging dabei so vor,
daß er gegen Wirtschaftstheorien polemisierte, die auf der Grundlage von A-
priori- Hypothesen formalisiert worden waren; er schloß sich folglich auf seine
Weise der Tradition an, die eine Prüfung und Analyse der empirischen Daten
bevorzugte.
Aber Moore unterschied sich von den deutschen Wirtschaftsstatistikern da-
durch, daß er in seiner 1914 veröffentlichten Studie über Konjunkturzyklen die
aus der englischen Biometrie hervorgegangenen Werkzeuge der multiplen Kor-
relation in umfassender Weise verwendete. Der bedeutsame Moment für die
Verbreitung dieser Werkzeuge im Bereich der Wirtschafts- und Sozialstatistik
war der Kongreß des Internationalen Instituts für Statistik (IIS) 1909 in Paris.
Auf dem Kongreß sprachen insbesondere Yule, Bowley und Lucien March, der
Leiter der Statistique générale de la France (SGF), zu diesen Themen. Es war
deutlich zu erkennen, wie sich die Bedeutung des Wortes Statistik“ verscho-

ben hatte: von der Verwaltungs- oder Moralstatistik des 19. Jahrhunderts hin
zur mathematischen Statistik des 20. Jahrhunderts. Die Korrelation und die
Regression ermöglichten es, Objekten einen Zusammenhalt zu verleihen, die
zuvor getrennt voneinander existierten“. Man konstruierte Äquivalenz- und

Komparabilitätsräume neuen Typs und höherer Ordnung, als es bei den im
vorhergehenden Kapitel beschriebenen taxonomischen Räumen der Fall war.
Bei den tastenden Versuchen zur Erforschung dieses unbekannten Kontinents
experimentierte man mit gewissen Verbindungen, die sich später als nicht sta-
bil erwiesen. So analysierte etwa Hooker (1901) die Korrelation zwischen den
Schwankungen der Anzahl der Eheschließungen und den Konjunkturzyklen.
Bei der SGF führte Henry Bunle (1884–1986) im Jahre 1911 eine ähnliche
Studie durch, indem er die von den Engländern angeregten Techniken anwen-
316 9 Modellbildung und Anpassung

dete, die Lucien March 1905 und 1910 im Journal de la société statistique de
Paris dargelegt hatte (Desrosières, 1985, [60]).
Dagegen führte die Aufstellung anderer Äquivalenzen, die damals dank
der neuen Methoden getestet werden konnten, zu den ersten Entwicklun-
gen der Ökonometrie. Zum einen nahm der Vergleich der Schwankungen der
verschiedenen Konjunkturindikatoren die Konstruktion der dynamischen ma-
kroökonomischen Modelle vorweg. Zum anderen kündigten die Versuche zur
Abschätzung der Angebots- und Nachfragekurven auf der Grundlage der Prei-
se und der ausgetauschten Mengen eine Lösung der auf simultanen Gleichun-
gen basierenden Modelle an. Auf Anregung von March publizierte zum Bei-
spiel Marcel Lenoir (1881–1927), ein weiteres Mitglied der SGF, im Jahre
1913 eine bemerkenswerte Dissertation, die damals weitgehend unbeachtet
blieb: Études sur la formation et le mouvement des prix. Die Struktur dieser
in zwei deutlich unterschiedliche Teile gegliederten Arbeit ist signifikant. Der
erste Teil Preisbildung (theoretische Untersuchung)“ gibt eine Darstellung

der mathematischen Theorie der Indifferenzkurven und der Bestimmung von
Mengen und Gleichgewichtspreisen durch die Schnittmenge von Angebots-
und Nachfragekurven. Dieser erste Teil gehört klarerweise zu der im Entste-
hen begriffenen mathematischen Ökonomie. Der zweite Teil Preisbewegung

(statistische Untersuchungen)“ stellt dagegen eine große Anzahl von statisti-
schen Reihen aus den Bereichen Wirtschaft, Währung und Finanzen bereit.
Dieser Teil verfolgt die Absicht, die Preisschwankungen verschiedener Güter
durch Produktionsschwankungen und durch andere Variable (im Sinne der
multiplen Regression) zu erklären“. Diese Arbeit fand in Frankreich so gut

wie keinen Anklang. Lenoir war kein Universitätslehrer. Er starb 1927 vorzei-
tig in Hanoi, wo er einen statistischen Dienst für Indochina gegründet hatte.
Er gehörte zu den allerersten (und war in Frankreich vor langer Zeit der Er-
ste), der die drei Traditionen der mathematischen Ökonomie, der deskriptiven
Statistik verwaltungstechnischen Ursprungs und der mathematischen Statistik
miteinander verknüpfte.
Um die gleiche Zeit hatte Moore auch die Konjunkturzyklen und den Zu-
sammenhang zwischen Preisen und Mengen analysiert, wobei er sich auf em-
pirische Beobachtungen stützte. Aber wenn er den Eindruck hatte, daß diese
Beobachtungen im Widerspruch zur allgemein anerkannten Theorie standen,
dann verwarf er die Theorie und ließ sich auf keinerlei Diskussion der Methode
ein, mit der man eine beobachtete Regelmäßigkeit identifizieren konnte. Nach-
dem er also eine positive Korrelation zwischen den Mengen und Preisen für
Rohgußeisen registriert hatte, war er – entgegen den theoretischen Hypothesen
– der Meinung, eine wachsende Nachfragekurve gefunden zu haben. Die späte-
re Kritik dieser Interpretation führte zur Analyse simultaner Schwankungen
der Angebots- und Nachfragekurven, die Lenoir seinerseits zwar theoretisch
gut beschrieben hatte, für die er aber keine statistische Methode vorgeschla-
gen hat, mit deren Hilfe man ein solches System von strukturellen Relationen
lösen konnte. In den 1920er Jahren diskutierten und erläuterten einige ameri-
kanische Ökonomen (aber nur wenige Europäer und keine Franzosen) die Ar-
Glaubensgrad oder Langzeithäufigkeit 317

beiten von Moore, vor allem in Bezug auf die Landwirtschaft (Fox, 1989, [96]).
Jedoch gab es auch weiterhin zahlreiche kritische Bemerkungen hinsichtlich
der Möglichkeit, die Gesetze der Wirtschaftstheorie auf der Grundlage von
empirischen Daten wiederzuentdecken. Zu den Kritikpunkten gehörten die
Nichteinhaltung der Ceteris-paribus-Klausel3 , die Weglassung von Variablen
und Meßfehler. Die Hauptkritik bezog sich jedoch auf die Nichthomogenität

der Natur“ und verwies auf den früheren historizistischen Standpunkt.
Mit Beginn der 1930er Jahre bot die Sprache der Wahrscheinlichkeits-
rechnung einen Rahmen zum Überdenken mehrerer Hindernisse, die es bis zu
diesem Zeitpunkt verhindert hatten, einen Zusammenhalt zwischen den em-
pirischen Beobachtungen und den Formalismen der Theorie zu finden. Falls
es a posteriori den Anschein hat, daß diese mehr als zwei Jahrhunderte alte
Sprache effiziente Werkzeuge zur Behandlung der genannten Schwierigkeiten
geliefert hat, dann hat diese Verbindung verspätet stattgefunden. Die proba-
bilistische Denkweise hat ein unabhängiges Leben geführt, und zwar sowohl
in Bezug auf die Wirtschaftstheorie als auch – was noch weitaus überraschen-
der ist – in Bezug auf die Statistik, nachdem die Laplace-Gauß-Synthese von
Quetelet in abgereicherter“ Form weitergeführt wurde. Die Ursachen für die-

se Widerstände, die einerseits von der Wirtschaftswissenschaft und anderer-
seits von der Statistik kamen, überlagerten sich nicht und waren auch nicht
auf das wechselseitige Mißtrauen zurückzuführen, das zwischen Ökonomen
und Statistikern herrschte (jedoch werden die verschiedenen Kritiken häufig
verwechselt und auch mit der Ablehnung der Mathematisierung in Zusam-
menhang gebracht, was wiederum eine ganz andere Sache ist). Es ist wichtig,
diese Argumente sorgfältig voneinander zu unterscheiden.

Glaubensgrad oder Langzeithäufigkeit


Bereits im Kapitel 7 hatten wir bezüglich der representativen Stichproben
erwähnt, daß im 19. Jahrhundert wahrscheinlichkeitstheoretische Formulie-
rungen weder von Ökonomen noch von Statistikern jeglicher Couleur in er-
heblichem Umfang verwendet wurden. Allerdings hatte bereits Laplace im 18.
Jahrhundert diese Zusammenhänge benutzt, um den zu befürchtenden Feh-
ler zu schätzen, der bei der stichprobenartigen Messung der französischen
Bevölkerung entstand. Aber diese Methode war im Anschluß an die von Ke-
verberg (1827, [148]) vorgebrachte Kritik von Quetelet und dessen Schülern
abgelehnt worden: nichts garantierte eine hinreichende Homogenität des Ter-
ritoriums und daher gab es auch keine Garantie für die eindeutige Vorgabe
3
Bei einer Partialanalyse handelt es sich um die Analyse des Verhaltens einzel-
ner Wirtschaftssubjekte bzw. des Geschehens auf einzelnen Märkten. Dabei wird
unterstellt, daß der Rest der Volkswirtschaft von Änderungen im untersuchten
Sektor nicht oder nur unwesentlich beeinflußt wird und sich deshalb auch kei-
ne Rückwirkungen auf diesen Sektor ergeben; es wird also die Ceteris-paribus-

Klausel“ ( der Rest bleibt gleich“) vorausgesetzt (vgl. Söllner, 2001, [442]).

318 9 Modellbildung und Anpassung

und Konstanz der Wahrscheinlichkeitsurne“, aus der eine Stichprobe gezo-



gen wurde. Quetelet brachte die Statistik mit den Vorstellungen von Exhau-
stivität und strikter Genauigkeit in Verbindung. Das war notwendig, damit
die Statistik von einem breiten Publikum und vor allem von der Verwaltung
akzeptiert wurde. Er lehnte die Verfahren der Stichprobenerhebung ab, die an
die gewagten und akrobatischen Berechnungen der nach englischer Art vorge-
henden politischen Arithmetiker erinnerten. Die Errichtung einer das gesamte
Territorium abdeckenden und soliden Verwaltungsinfrastruktur schien Hand
in Hand mit der Fähigkeit zu gehen, diesen Methoden – die als Notlösungen
empfunden wurden – den Weg zu versperren.
Aber Quetelets Standpunkt spiegelte auch die Verschiebung wider, die zwi-
schen den 1820er und 1840er Jahren in Bezug auf die Art und Weise vonstat-
ten ging, in der man die Sprache der Wahrscheinlichkeitsrechnung verstand
und anwendete. Diese Sprache erstreckte sich seit ihren Anfängen über dem
Spannungsbogen“ zwischen zwei Interpretationen (Shafer, 1990, [261]). Die

erste, als subjektiv bezeichnete Interpretation dominierte im 18. Jahrhundert,
vor allem bei Bayes und Laplace: Wahrscheinlichkeit wurde als Verfassung

des Verstandes“ aufgefaßt, als Grad des Vertrauens“, als Glaubensgrund“,
” ”
den man einer unsicheren Behauptung entgegenbringt, die sich ebenso gut auf
die Vergangenheit (zum Beispiel die Schuld eines Angeklagten), als auch auf
die Zukunft beziehen konnte. Diese Interpretation konnte also Bezug auf ein
einmaliges oder seltenes Ereignis nehmen. Die zweite – als objektiv oder fre-
quentistisch bezeichnete – Interpretation sah dagegen in der Wahrscheinlich-
keit einen Zustand der Natur, beobachtbar nur durch eine große Anzahl von
Wiederholungen ein und desselben Ereignisses und vergleichbar mit der Zie-
hung von Kugeln aus einer Urne unveränderlicher, aber unbekannter Füllung.
Gewiß können diese beiden Interpretationen seit Bernoulli (1713: Gesetz der
großen Zahlen) und de Moivre (1738: Normalverteilung als Grenzverteilung
einer Folge von Binomialverteilungen) formal miteinander verknüpft werden
– zumindest in Fällen wie Werfen von Münzen ( Kopf oder Zahl“) oder bei

Würfelspielen. Ebenso hatte es zwei Jahrhunderte später den Anschein, daß
die Axiomatisierung von Kolmogorow (1903–1987) diesen Gegensatz endgültig
zum Verschwinden bringen würde. Aber dennoch bewahrten beide Interpreta-
tionen vom Standpunkt ihrer Verwendung als argumentative Werkzeuge eine
große Autonomie – vor allem wenn es darum ging, eine Auswahl zu unter-
mauern und Entscheidungen zu erhärten. Das zeigt sich etwa darin, daß seit
den 1930er Jahren die subjektiven Wahrscheinlichkeiten und die Bayessche
Statistik wieder in die Argumentation zurückkehrten.
Quetelets Rhetorik hatte die Vorstellungen vom Durchschnittsmenschen
und von der statistischen Regelmäßigkeit zum Gegenstand – Grundlage hierfür
waren Beobachtungen, die sich auf die Sammlung großer Datenmengen durch
die Bureaus für Verwaltungsstatistik bezogen. Diese Bureaus entwickelten sich
in den 1830er und 1840er Jahren unter dem Einfluß Quetelets. Quetelets Rhe-
torik trug dazu bei, der frequentistischen Vision zum Sieg zu verhelfen und
dem subjektiven Standpunkt einen Schlag zu versetzen: Dieser Standpunkt

Glaubensgrad oder Langzeithäufigkeit 319

ist eine auf Sand gebaute Spekulation“. Insbesondere wurde die Idee einer
A-priori -Wahrscheinlichkeit“ als willkürlich und ungerechtfertigt verworfen –

diese Idee war Bestandteil der Bayesschen Argumentation zur Bestimmung der
Wahrscheinlichkeit einer Ursache anhand einer beobachteten Wirkung. Aber
der Erfolg, zu dem Quetelet der wahrscheinlichkeitstheoretischen Sprache in
ihrer frequentistischen Form scheinbar verholfen hatte, führte dazu, daß diese
Sprache für ein ganzes Jahrhundert fast vollständig aus der Welt der Statisti-
ker verschwand – bis zu der Zeit, als Gosset ( Student“), Fisher und Neyman

auf den Plan traten. Die routinemäßige Verwendung der Gaußschen Verteilung
als Grenzverteilung einer Binomialverteilung schloß weitgehend Fragen aus,
welche sich in Form von Glaubensgründen“ oder Stichhaltigkeitsgraden“
” ”
ausdrücken lassen, die man einer Aussage zuordnen kann. Diese Fragen, die
an den philosophischen Nerv und die Spezifität der wahrscheinlichkeitstheore-
tischen Sprache rührten, verschwanden aus dem Blickfeld der Statistiker, die
Zahlen produzierten und verwendeten. Fortan befaßten sich Philosophen und
Logiker mit diesen Fragen. Falls sich berühmte Nationalökonomen (Cournot,
Edgeworth, Keynes) überhaupt für die Wahrscheinlichkeitsrechnung interes-
sierten, dann hatte dieser Teil ihrer Arbeit so gut wie nichts mit der Verar-
beitung statistischer Daten und mit den Konstrukten dieser Autoren auf dem
Gebiet der Wirtschaftstheorie zu tun. Diese scheinbar paradoxen Fälle waren
im Gegenteil ein Hinweis auf die Schwierigkeit der Arbeit und das Ausmaß
der Kontroversen in den Jahren von 1920 bis 1940, bevor die drei Sprachen
zu einer einzigen Sprache kombiniert werden konnten – zur Sprache der Öko-
nometrie.
Jedoch trug der frequentistische Standpunkt, der von Quetelet mit der
Erzeugung und der erfolgreichen Verwendung von immer ausgiebigeren stati-
stischen Daten in Verbindung gebracht wurde, über den Umweg der Physik
und insbesondere der kinetischen Gastheorie dazu bei, den neuen – als sta-

tistisch“ bezeichneten – Objekten einen Zusammenhalt zu verleihen. Die Un-
kenntnis der mikroskopischen Parameter von Position und Geschwindigkeit
der Elementarteilchen war kein Hinderungsgrund dafür, die Gase auf makro-
skopischer Ebene deterministisch zu beschreiben (was Maxwell und später
Boltzmann taten). Die neue Formulierung der Determinismusfrage, der zu-
folge Ordnung aus Chaos entstehen kann, lag in der Nähe des Standpunkts,
für den Quetelet in den Sozialwissenschaften warb. Vermutlich verhielt es sich
sogar so, daß Quetelets Standpunkt durch den Astronomen Herschel beein-
flußt wurde (Porter, 1986, [240]). Damals (Mitte des 19. Jahrhunderts) wurde
die Ungewißheit bezüglich der mikroskopischen Parameter noch durch die
Unmöglichkeit einer direkten Erfassung ausgedrückt. Ab Beginn der 1920er
Jahre drückte sich diese Auffassung in einem sehr viel radikaleren Probabilis-
mus aus, nämlich in der Ablehnung der Existenz von gleichzeitig determinier-
ten (obwohl unbekannten) Messungen der Position und der Geschwindigkeit
320 9 Modellbildung und Anpassung

eines Teilchens (Heisenbergsche Unschärferelation4 ). Seit dieser Zeit war der


frequentistische Standpunkt nicht mehr nur eine praktisch gewählte Methode,
die mit der Unvollkommenheit der Beobachtungsinstrumente zusammenhing.
Vielmehr erhob dieser Standpunkt auch den Anspruch, die tatsächliche Na-
tur der zu beschreibenden Phänomene widerzuspiegeln. Fernab also von der
Statistik der Statistiker setzte sich die probabilistische Denkweise bei den Phy-
sikern durch und führte in den 1930er Jahren zu Formulierungen, von denen
die Gründer der neuen Ökonometrie beeinflußt wurden, die genau auf die-
ser Denkweise aufbaute. Tinbergen und Koopmans hatten eine physikalische
Ausbildung und waren darauf vorbereitet, probabilistische Schemata in die
Sozialwissenschaften zu reimportieren“ – natürlich in einer komplizierteren

Form, als es diese Wissenschaften für die Physik des 19. Jahrhunderts getan
hatten (Mirowski, 1989, [197]).
Die aus der Schule der Biometrie hervorgegangenen Statistiker, welche die
von Karl Pearson stammenden Formulierungen der Regression und der mul-
tiplen Korrelation verwendeten (Yule, March, Lenoir), hatten diese Schemata
zumindest vor den 1920er Jahren nicht als notwendig erkannt. Die Wissen-
schaftsphilosophie Pearsons, die den Begriff der Kausalität ausschloß oder ihn
auf empirisch beobachtete Korrelationen reduzierte (vgl. Kapitel 4), war we-
der direkt auf die Untersuchung der Frage vorbereitet, wie man empirische
Daten an ein außerhalb dieser Daten liegendes theoretisches Modell anpaßt,
noch auf eine etwaige probabilistische Formulierung dieser Anpassung. Die
damals von Yule oder Lenoir berechneten Regressionen enthielten keine ex-
plizit dargestellten Residuen und deswegen erst recht keine Hypothesen über
deren Wahrscheinlichkeitsverteilungen. Es ist signifikant, daß die probabilisti-
schen Formulierungen innerhalb der von Pearson begründeten Schule erst zu
dem Zeitpunkt auftraten, als die dem frequentistischen Standpunkt zugrun-
deliegenden Hypothesen (das heißt die großen Zahlen“) durch die Arbeiten

von Gosset (alias Student) und Fisher offensichtlich unrealistisch wurden, weil
beide an Problemen arbeiteten, die eine begrenzte Anzahl von Beobachtungen
implizierten.
William S. Gosset (1876–1936) war bei einer großen Brauerei beschäftigt.
Er entwickelte Techniken zur Produktionskontrolle, wobei er von einer klei-
nen Anzahl von Proben ausging. Er hatte also die Varianzen und die Ver-
teilungsgesetze für Parameter zu schätzen, welche auf der Grundlage von
Beobachtungen berechnet wurden, die ihrerseits offensichtlich dem voraus-
gesetzten Gesetz der großen Zahlen“ nicht genügten. Ebenso konnte auch

Fisher, der in einem landwirtschaftlichen Versuchszentrum arbeitete, nur auf
4
Heisenberg stellte fest, daß es nicht möglich ist, den Ort und die Geschwindig-
keit eines atomaren Teilchens gleichzeitig mit beliebiger Genauigkeit anzugeben.
Man kann entweder den Ort sehr genau messen, dann verwischt sich dabei durch
den Eingriff des Beobachtungsinstruments die Kenntnis der Geschwindigkeit bis
zu einem gewissen Grad; umgekehrt verwischt sich die Ortskenntnis durch eine
genaue Geschwindigkeitsmessung, so daß für das Produkt der beiden Ungenauig-
keiten durch die Plancksche Konstante eine untere Grenze gegeben wird.
Glaubensgrad oder Langzeithäufigkeit 321

der Grundlage einer beschränkten Anzahl von Kontrollversuchen vorgehen.


Er milderte diese Einschränkung dadurch ab, daß er auf künstliche Weise ei-
ne ihrerseits kontrollierte Zufälligkeit für diejenigen Variablen schuf, die nicht
zu den Variablen gehörten, deren Wirkung er messen wollte. Diese Technik
der Randomisierung“ führte also die probabilistische Zufälligkeit“ direkt
” ”
in die experimentelle Methode ein. Im Unterschied zu Karl Pearson sahen
sich also Gosset und Fisher dazu veranlaßt, unterschiedliche mathematische
Notationen zu verwenden, um einerseits den theoretischen Parameter einer
Wahrscheinlichkeitsverteilung (eines Mittelwertes, einer Varianz, einer Korre-
lation) und andererseits die Schätzung dieses Parameters zu bezeichnen, der
auf der Grundlage von Beobachtungen berechnet wurde, deren Anzahl jedoch
nicht ausreichte, um die Abweichung zwischen den beiden Werten – das heißt
zwischen dem theoretischen Wert und dem Schätzwert – vernachlässigen zu
können.
Diese Innovation hinsichtlich der Bezeichnungsweise markierte den ent-
scheidenden Wendepunkt, der eine inferentielle (das heißt schließende) Sta-
tistik auf der Grundlage von Wahrscheinlichkeitsmodellen ermöglichte. Die
inferentielle Statistik entwickelte sich in zwei Richtungen. Die Parameter-
schätzung unter Berücksichtigung einer gegebenen Datenmenge setzte voraus,
daß das Modell wahr ist. Dabei wurde der Begriff der wiederholten Stichpro-
bennahme nicht vorausgesetzt und man konnte sich entweder auf eine Bayes-
sche Formulierung oder auf eine Likelihood-Funktion“ stützen, von der man

ein Maximum suchte. Die aus dem Modell abgeleiteten Informationen wur-
den mit Daten kombiniert, aber man machte keinerlei Aussage darüber, ob
Modell und Daten gut“ übereinstimmen. Dagegen ermöglichten es die Hypo-

thesentests, diese Übereinstimmung zu prüfen und das Modell gegebenenfalls
zu ändern: das war der schöpferische Teil der inferentiellen Statistik. Durch
die Frage nach der Plausibilität dessen, ob eine Ereignismenge unter der Vor-
aussetzung der Wahrheit eines Modells hätte eintreten können, verglich man
diese Menge explizit oder implizit mit derjenigen Ereignismenge, die unter der
Voraussetzung der Wahrheit des Modells eingetreten wäre, und fällte – von
einem typisch frequentistischen Standpunkt aus – ein Urteil über den Unter-
schied zwischen diesen beiden Mengen.5 Folglich hatte die Schätzung eher mit
einem subjektiven (wenn nicht gar Bayesschen) Standpunkt zu tun, während
sich die Hypothesentests auf eine frequentistische Auffassung stützten (Box,
1980, [33]).
5
Dieses Urteil kann seinerseits von unterschiedlichen Standpunkten aus gefällt wer-
den, die zu lebhaften Kontroversen zwischen Fisher auf der einen Seite und Ney-
man und Pearson auf der anderen Seite führten. Der Test von Fisher ist auf Wahr-
heit und Wissenschaftlichkeit ausgerichtet: eine theoretische Hypothese wird als
plausibel beurteilt oder sie wird angesichts der beobachteten Daten verworfen.
Im Gegensatz hierzu ist der Test von Neyman und Pearson auf Entscheidung und
Handeln ausgerichtet: man schätzt die Kosten der Annahme einer falschen Hy-
pothese bzw. der Ablehnung einer wahren Hypothese in Form von Risiken erster
und zweiter Art (Gigerenzer und Murray, 1987, [106]).
322 9 Modellbildung und Anpassung

Die Dualität der Standpunkte in Bezug auf die Wahrscheinlichkeitsrech-


nung ließ sich auch in Beziehung zu den Situationen setzen, bei denen die-
se Sprache ein Hilfsmittel bildete, um eine Auswahl oder Entscheidung zu
befürworten. Der Frequentismus hing damit zusammen, daß ein kollektiver
Entscheidungsträger im Allgemeinen Probleme behandelte, für welche die
Schaffung von Äquivalenzen und Aggregationen politisch und sozial plausibel
waren. Die Urne mußte konstruiert werden und die Farben der Kugeln durf-
ten nicht länger Gegenstand von Debatten sein. Taxonomische Fragen wurden
gelöst und in gut verschlossenen Black Boxes“ vergraben. Statistische Auf-

bereitungen im Sinne des Gesetzes der großen Zahlen waren möglich. Diese
statistischen Aufbereitungen unterstützten Entscheidungen, die vom Staat zur
Optimierung eines kollektiven Gutes oder von einer Versicherungsgesellschaft
getroffen wurden. Im letzteren Fall konnten die taxonomischen Konventionen
wieder infrage gestellt werden, wenn man den Wunsch nach Hervorhebung
einer Unterkategorie hatte, die einem besonderen Risiko ausgesetzt war – was
zu einer Änderung des Prämiensystems führte. Die taxonomischen Konven-
tionen konnten auch dann infrage gestellt werden, wenn die von Unfällen am
wenigsten betroffenen Personen auf ihre Versicherung verzichteten und da-
durch die Kosten für diejenigen erhöhten, die in der Versicherung geblieben
waren.
Die subjektiven Wahrscheinlichkeiten wurden dagegen für Entscheidungen
mobilisiert, bei denen man keine Wiederholung voraussetzte. Dabei könnte es
sich selbstverständlich um eine persönliche Entscheidung handeln, aber es
könnte auch um Entscheidungen eines Staates gehen: Soll ein Krieg erklärt
werden? Soll man einen umstrittenen Vertrag ratifizieren? Und wie sollte man
dabei unter Berücksichtigung der subjektiven Einschätzung der Risiken der
beiden möglichen Entscheidungen vorgehen? Das setzte eine wenigstens ap-
proximative Ermittlung der A-priori -Wahrscheinlichkeit eines unbekannten
vergangenen oder zukünftigen Ereignisses voraus. Diese Messung eines Glau-

bensgrades“ – die im 18. Jahrhundert allgemein verwendet und im 19. Jahr-
hundert abgelehnt worden war – wurde in den 1920er und 1930er Jahren von
den Engländern Keynes und Ramsey6 , vom italienischen Versicherungsmathe-
matiker De Finetti und von den durch Savage7 (1954) inspirierten Bayesianern
wieder ernst genommen und formalisiert. Die Probleme von Gerichtsentschei-
dungen (einen Angeklagten verurteilen oder nicht) oder medizinischen Ent-
scheidungen (diagnostizieren und behandeln) fielen in die Zuständigkeit dieser
Methode. Die im vorhergehenden Kapitel beschriebene Kodierung befand sich
an der Nahtstelle zwischen den beiden Standpunkten. Man konnte die Kodie-
6
Frank Plumpton Ramsey (1903–1930); Mathematiker, Logiker und Wissenschafts-
theoretiker. In der Wahrscheinlichkeitstheorie erzielte Ramsey interessante Er-
gebnisse bezüglich der Logik des partiellen Glaubens. Ferner erkannte er, daß
die optimalen Verbrauchersteuersätze entscheidend von den Preiselastizitäten der
Nachfrage nach den zu besteuernden Gütern abhängen.
7
Leonard Jimmie Savage (1917–1971) entwickelte den Begriff der persönlichen oder
subjektiven Wahrscheinlichkeit weiter.
Zufälligkeiten und Regelmäßigkeiten: Frisch und der Schaukelstuhl 323

rung hinsichtlich ihrer Wirkung auf die statistische Totalisierung betrachten


(in diesem Fall sprach man von unscharfer Kodierung“) oder aber man stellte

sich auf den Standpunkt des Individuums und der dieses Individuum betref-
fenden Entscheidung.

Zufälligkeiten und Regelmäßigkeiten:


Frisch und der Schaukelstuhl
Die Originalität der Sprache der Wahrscheinlichkeitsrechnung war nicht nur
darauf zurückzuführen, daß es sich um ein nunmehr axiomatisiertes Gebiet der
Mathematik handelte. Diese Sprache war jetzt auch ein flexibles Hilfsmittel bei
Argumentationen und Entscheidungsfindungen – ein Hilfsmittel, das sich für
überaus verschiedenartige Anwendungen in ganz unterschiedlichen Konstruk-
tionen eignete. Die Schnittstellensprache“ der Wahrscheinlichkeitsrechnung

war in vielfacher Weise in den 1930er und 1940er Jahren an der Entwicklung
der Ökonometrie beteiligt. Mit Hilfe dieser Sprache hatte man die Möglichkeit,
zufällige Störungen, Meßfehler, weggelassene Variable und die nicht reduzier-
bare Variabilität ökonomischer Zustände zu behandeln. Um aber derartige
Fragen mit Hilfe von Wahrscheinlichkeitsmodellen zu beherrschen, durfte das
Problem, empirische Daten in Beziehung zu einer Wirtschaftstheorie zu set-
zen, nicht mehr nur als Argument in einer Polemik betrachtet werden, die sich
entweder auf den Realismus der Theorie oder auf die Relevanz und Bedeutung
der Daten bezog. Vielmehr mußte man überhaupt erst einmal in Erwägung
ziehen, daß dieses Problem einer formalisierten Antwort fähig war. Die Werk-
zeuge, die eine Interpretation der zwischen Theorien und Daten bestehenden
Spannung durch wahrscheinlichkeitstheoretische Begriffe ermöglichten, wur-
den in diesen Jahren konzipiert und geschaffen. Diese Werkzeuge stellten im
Rahmen einer einheitlichen Theorie Formalismen zusammen, die aus verschie-
denen Bereichen stammten. Die ersten Ökonomen hatten partielle Korrelatio-
nen und multiple Regressionen berechnet, nicht aber – zum Beispiel durch
die Erklärung eines Residuums der linearen Regressionen – die Abweichung
zwischen den Daten und dem Modell behandelt. Zudem war die Analyse der
Konjunkturzyklen durch die a priori überraschende Idee transformiert wor-
den, daß zufällige Störungen regelmäßige Schwankungen haben können. Und
schließlich führte die inferentielle Statistik von Ronald Fisher (1890–1962),
Jerzy Neyman (1894–1981) und Egon Pearson (1895–1980) zur Konstruktion
von Werkzeugen, die ein Messen und Prüfen der Relationen zwischen Daten
und Modellen ermöglichten. Die Schätztheorien und Hypothesentests liefer-
ten eine standardisierte Sprache dafür, wie man einen Beweis ausdrückt, der
– zumindest in den Experimentalwissenschaften – zur Untermauerung der
wissenschaftlichen Aussagen notwendig war (Gigerenzer et al. 1989, [107]).
Das, was die ansonsten verschiedenartigen Anwendungen der wahrschein-
lichkeitstheoretischen Argumentation gemeinsam haben, wurde von Hacking
324 9 Modellbildung und Anpassung

(1990, [117]) in der bezeichnenden Formulierung Zähmung des Zufalls“ (ta-



ming the chance) zusammengefaßt. Eine typische Episode aus dieser Geschich-
te der Rationalisierung des Zufalls“ war die Entwicklung der Theorie der

Zufallsstörungen“ (random shocks 8 ), bei der eine Reihe von unvorhersehba-

ren, zufälligen“ Ereignissen in Beziehung zu relativ regelmäßigen Konjunk-

turzyklen gesetzt wurde (Morgan, 1990, [204], Kap. 3). Diese Auffassung vom
Zufall, bei der die Intuitionen von Yule (1927, [294]), Slutksy (1927, [263]) und
Frisch (1933, [99]) miteinander kombiniert wurden, führte zu einer vollständi-
gen Transformation der Frage nach der Wiederholung von Konjunkturzyklen –
einer Frage also, die seit Mitte des 19. Jahrhunderts immer wieder gestellt wur-
de. Bis dahin standen sich zwei Auffassungen bezüglich der Zyklen gegenüber.
Es gab Versuche, Zusammenhänge mit periodischen Phänomenen zutage zu
fördern, die nicht zur Ökonomie gehörten, zum Beispiel Zusammenhänge mit
den Sonnenflecken (Jevons, 1884) oder den Venusphasen (Moore, 1914, [202])
– wobei vermutet wurde, daß die Übertragung dieser Phänomene durch me-
teorologische Zyklen erfolgt sein könnte, die ihrerseits wieder mit der Astro-
nomie zusammenhingen.9 Andere Autoren wiederum hatten Abstand davon
genommen, allgemeine Gesetze für Konjunkturzyklen (insbesondere für deren
Periodizität) zu entwickeln und behandelten jeden einzelnen dieser Zyklen als
einmaliges Ereignis (Juglar, 1862, [141]; Mitchell, 1913, [199]). Diese beiden
Interpretationen ließen sich mit zwei Familien“ von Wissenschaften verbin-

den, die imstande waren, der Wirtschaft Modelle und Metaphern anzubieten:
Mechanik, Astronomie und Physik zum einen und die biologischen Wissen-
schaften zum anderen.
Dieser Gegensatz zwischen einer auf externe Faktoren zurückzuführen-
den Erklärung und der Ablehnung einer Erklärung überhaupt wurde von der
Idee der Selbstreproduktion quasiregulärer Zyklen überbrückt, die von unre-
gelmäßigen und unvorhersehbaren äußeren Impulsen ausgelöst werden. Hierzu
reichte die Annahme aus, daß der zur Zeit t beobachtete Zustand eine linea-
re Funktion derjenigen Zustände ist, die zu früheren Zeitpunkten beobachtet
worden sind: t − 1, t − 2, . . . , t − k. Unter Rückgriff auf bereits ausgearbeitete
mathematische Theorien wie zum Beispiel Differenzengleichungen (für Folgen)
und Differentialgleichungen (für stetige Funktionen) zeigten Yule und Frisch,
daß unter gewissen Voraussetzungen Gleichungssysteme, bei denen die be-
schriebenen Zustände in linearer Weise mit Zeitverschiebungen in Verbindung
gebracht werden, Lösungen liefern, die regelmäßige und gedämpfte Schwingun-
gen implizieren. In diesem Fall hatten die random shocks lediglich die Aufgabe,
8
Man verwendet auch die Bezeichnung stochastischer Schock“.
9 ”
Modelle dieses Typs wurden als sunspot-Modelle bekannt. Dabei werden die Er-
wartungen von einem zufälligen exogenen und ökonomisch irrelevanten Ereignis
bestimmt, den sunspots“, das von allen beobachtet wird, und von dem die be-

treffenden Verfasser glauben, daß es die endogenen Variablen (in diesem Falle die
Preise) bestimme: Treten Sonnenflecken“ auf, dann gäbe es hohe Preise, anson-

sten niedrige. Grundsätzlich handelt es sich bei den sunspot-Modellen um Modelle
sich selbst erfüllender Erwartungen (vgl. Tichy [447]).
Zufälligkeiten und Regelmäßigkeiten: Frisch und der Schaukelstuhl 325

erneut die Schwingungen in Gang zu setzen, deren Periode durch Eigenschaf-


ten bestimmt war, die dem System innewohnten (eine Auffassung, die dem in
der physikalischen Resonanztheorie verwendeten Begriff der eigentlichen Pe-
riode nahe steht). Durch Unterscheidung der (zufälligen) Impulsmechanismen
von den Mechanismen mit (periodischer) Ausbreitung war es also möglich,
die Regelmäßigkeit von Konjunkturzyklen zu berücksichtigen, ohne sich auf
externe Regelmäßigkeiten wie zum Beispiel Sonnenflecken oder Venusphasen
zu berufen.
Die ursprüngliche Idee zu diesem genialen Formalismus ging in indirekter
Weise auf eine einfache, aber überraschende Beobachtung des russischen Sta-
tistikers Slutsky (1880–1948) zurück, die er 1927 (in Russisch mit einer engli-
schen Zusammenfassung) in der Zeitschrift des Moskauer Instituts zur Erfor-
schung von Wirtschaftszyklen veröffentlichte. Er untersuchte die Wirkung der
Substitution einer Zeitreihe durch deren gleitendes Mittel , das zum Beispiel
über einen Zeitraum von zehn Monaten berechnet wurde. Dabei machte er
folgende Feststellung: der übliche Kalkül der Reihenglättung – wodurch lang-
fristige Trends sichtbar gemacht werden sollten – erzeugt seinerseits Zyklen
mit einer Periodizität von zehn Monaten. Durch Berechnung der gleitenden
Mittel der Reihe der Ziehungen der Moskauer Lotterie stellte er eine Kurve
auf, die in merkwürdiger Weise den Schwankungen der Londoner Börse ähnel-
te. Diese beunruhigende Entdeckung machte einen starken Eindruck auf einige
Analysten von Konjunkturzyklen: plötzlich war eine mögliche Erklärung vor-
geschlagen worden, an die vorher niemand gedacht hatte. Dieser Fall leitete
sich exakt aus dem oben angegebenen Modell ab: das gleitenden Mittel war
ein linearer Operator, der auf eine Folge von zehn Beobachtungen angewen-
det wurde. Slutskys Lösung hatte eine stabile periodische Komponente. Sein
Geistesblitz wies einen Weg, wie man die Ausbreitung stabiler Zyklen auf der
Basis einer zufälligen Ausgangslage analysieren kann.
Im gleichen Jahr (1927) analysierte Yule die Art und Weise, in der zufällige
Fehler künstlich erzeugte harmonische Reihen stören und verdecken können
– zum Beispiel Reihen, die durch ein Pendel erzeugt werden. Dabei beobach-
tete er, daß bei Stößen, die in unregelmäßiger Weise auf das Pendel ausgeübt
werden, sich dessen Amplitude und Schwingungsphase stetig ändern, nicht
aber die Schwingungsperiode. Er stellte sich ein Kind vor, das in zufälliger
Weise das Pendel mit Erbsen bombardiert. Zufällige Störungen setzten al-
so die Bewegung wieder in Gang, änderten aber nicht die Periode, die mit
den eigentlichen physikalischen Eigenschaften des Pendels zusammenhing. Das
Gemeinsame dieser beiden einfachen Beweisführungen von Slutsky und Yule
bestand darin, daß sie mit Hilfe einer Simulation arbeiteten, wobei sie mit ei-
ner Reihe von vollständig zufälligen Ereignissen (Lotterie-Ziehungen, Werfen
von Projektilen) begannen und dann auf der Grundlage dieses reinen Zufalls
Regelmäßigkeiten zutage förderten. Zur gleichen Zeit (in den 1920er Jahren)
verwendete Fisher für landwirtschaftliche Experimente die als kontrollierte

Randomisierung“ bezeichneten Methoden. Auf dem Gebiet der Stichprobener-
326 9 Modellbildung und Anpassung

hebung siegte die Zufallsstichprobe endgültig über die bewußte Auswahl“ 10



(vgl. Kapitel 7). Und schließlich begann man systematisch damit, im industri-
ellen Herstellungsprozeß zufällig ausgewählte Warenposten bei der Kontrolle
von Standardproduktserien zu verwenden (Bayart, 1992, [9]). Auf diese Weise
war es nicht nur möglich, zufällige Phänomene mit Hilfe von Hypothesen über
ihre Verteilungen zu zähmen. Die besagten Phänomene konnten vielmehr in
positiver Weise auch zur Erzeugung von experimentellen Bedingungen ver-
wendet werden, unter denen sich wissenschaftliche Tatsachen herausarbeiten
und konsolidieren ließen. Das stellte eine entscheidende Transformation der
Art und Weise dar, in der die wahrscheinlichkeitstheoretische Argumentati-
on verwendet wurde. Diese Denkweise hing früher (sogar in ihrer frequen-
tistischen Version) mit der Vorstellung von einem unvollständigen Wissen,
vom Ungewissen oder vom Unvorhersehbaren zusammen. Nun aber setzte sich
die Auffassung durch, daß diese Denkweise eine Erzeugung anerkannter Fak-
ten ermöglicht. Diese grundlegende Wandlung des Standpunkts fand parallel
zur radikal wahrscheinlichkeitstheoretischen Entwicklung der Physik statt, die
sich insbesondere auch auf die Elementarteilchen bezog.
Die neue Auffassung vom Zufall und seinen Wirkungen wurde von Rag-
nar Frisch (1895–1973) und Jan Tinbergen (1903–1994) aufgegriffen, um mit
den alten Interpretationsweisen von Konjunkturzyklen zu brechen. Diese In-
terpretationen wiesen ein breites Spektrum auf – einerseits suchte man nach
strengen Regelmäßigkeiten, die mit außerökonomischen Ursachen zusammen-
hingen (Jevons, Moore) und andererseits wurden monographische Analysen
verfaßt, die jeden Zyklus isoliert betrachteten (Mitchell). Ausgangspunkt die-
ser Geschichte war die von Frisch (1928 und 1931) vorgeschlagene Methode
zur Analyse von Zeitreihen. Techniken zur Zerlegung dieser Reihen in super-
ponierte zyklische Komponenten mit konstanten Perioden wurden bereits seit
langem angewendet – vor allem von Moore (Periodogramm-Methode). Aber
der durch und durch deterministische Charakter dieser Anpassungsmethode
konnte zu Interpretationen führen, die für absurd gehalten wurden (wie im
Fall von Moore) oder aber jedenfalls für ungerechtfertigt. Zudem erlaubte es
diese Methode nicht, beobachtete Unregelmäßigkeiten – vor allem bezüglich
der Periodizität – zu berücksichtigen. Ausgehend von der (in der Nähe der
Gedankengänge von Mitchell stehenden) Idee, daß jeder Zyklus lokale Eigen-
schaften hat, arbeitete Frisch ein Verfahren zur Sichtbarmachung superpo-
nierter Schwingungen aus, ohne jedoch a priori der Konstanz ihrer Perioden
und Amplituden vorzugreifen.
Der Kernpunkt seiner Methode bestand darin, nach und nach Schwin-
gungen mit immer längeren approximativen Perioden zu eliminieren. Frisch
ging so vor, daß er bei jedem Schritt eine Kurve anpaßte, die durch die
Wendepunkte der vorhergehenden Kurve ging. Dieses Verfahren erzeugt im-
mer glattere Kurven und führt schließlich zu einem langfristigen Trend. Auf
diese Weise konnten zunächst saisonbedingte Zyklen und danach kurzfristi-
10
Auch als gezielte Auswahl“ bezeichnet.

Zufälligkeiten und Regelmäßigkeiten: Frisch und der Schaukelstuhl 327

ge Zyklen (drei bis vier Jahre), mittelfristige Zyklen (acht bis neun Jahre)
usw. sichtbar gemacht werden. Analytisch lief die Methode darauf hinaus,
zunächst die ersten Differenzen (Xt − Xt−1 ), danach die zweiten Differenzen
[(Xt − Xt−1 ) − (Xt−1 − Xt−2 )] und dann immer komplexere Linearkombina-
tionen zeitlich verschobener Variabler zu berechnen. Ein System von linea-
ren Operatoren ermöglichte es also, eine Zeitreihe in eine Menge von zeitlich
veränderlichen harmonischen Reihen zu zerlegen, die nicht mehr streng peri-
odisch wie im Periodogramm von Moore verlaufen. Frisch (1931, [98]) verglich
diese Methode mit dem Ergebnis von Slutsky und untersuchte die Wirkung der
linearen Operatoren in Kombination mit rein zufälligen Störungen. Dabei er-
hielt er unregelmäßige periodische Schwingungen, die an tatsächlich beobach-
tete Reihen erinnerten. Das war der Ursprung des Schaukelstuhlmodells“ 11 ,

das er 1933 [99] in einem Artikel vorstellte. Die Überschrift dieses Artikels
spiegelte die wesentliche Intuition recht gut wider: Propagation problems

and impulse problems in dynamic economics“.
Frisch schrieb Wicksell die Metapher vom Schaukelpferd und auch die Idee
zu, zwischen zwei Fragen zu unterscheiden – nämlich zwischen der Frage nach
der Ausbreitung der Schwingungen durch systemimmanente lineare Operato-
ren und der Frage nach der Initialauslösung und der Wiederauslösung dieser
Schwingungen durch zufällige äußere Störungen:

Wicksell scheint der Erste zu sein, der die beiden Typen von Proble-
men der Zyklenanalyse definitiv erkannt hat, nämlich das Ausbrei-
tungsproblem und das Impulsproblem. Auch scheint er der Erste ge-
wesen zu sein, der die Theorie formuliert hat, gemäß der die Energie
zur Aufrechterhaltung der Zyklen durch zufällige Störungen geliefert
wird. Er vertrat die Auffassung, daß das Wirtschaftssystem auf unre-
gelmäßige und ruckartige Weise vorwärtsgetrieben wird ... Diese un-
regelmäßigen Rucke führen zu mehr oder weniger regelmäßigen zykli-
schen Bewegungen. Er illustriert das durch ein einfaches und dennoch
tiefsinniges Bild: wird ein hölzernes Schaukelpferd mit einem Stock
geschlagen, dann bewegt es sich ganz anders als der Stock (Frisch,
(1933, [99]), zitiert von Morgan, 1990, [204]).
Bereits Jevons hatte sich eine vergleichbare Metapher zur Beschreibung der
Zyklen ausgedacht: die Wogen des Meeres, die das Stampfen und Schlingern
eines Schiffes verursachen. Die wesentliche Idee dabei ist, daß mehr oder we-

niger regelmäßige Schwankungen von einer unregelmäßig wirkenden Ursache
ausgelöst werden können; dies impliziert keinerlei Synchronismus zwischen
11
Das Schaukelstuhlmodell (Frisch-Modell) erklärt den Konjunkturzyklus in einem
gewissen Bereich in Analogie zu einem Schaukelstuhl, der nach einem Anstoß
langsam ausschwingt, wenn er nicht immer wieder durch neue Anstöße, die un-
regelmäßig und unterschiedlich stark sein können, stets am Schwingen gehalten
wird. Anstelle des Schaukelstuhls spricht man auch vom Schaukelpferd (rocking
horse).
328 9 Modellbildung und Anpassung

der Anfangsursache und den Schwingungen des Systems“. Diese Sichtweise


disqualifizierte die zuvor durchgeführte Suche nach Korrelationen zwischen
Phänomenen der Astronomie und der Ökonomie. Mit der neuen Auffassung
wurde auch folgende Idee eingeführt: tritt ein Schock, das heißt ein unerwar-
tetes Ereignis, erst einmal ein, dann breitet sich seine Wirkung in progressiv
gedämpfter Form aus und diese Ausbreitung läßt sich durch lineare Opera-
toren modellieren, mit denen zeitlich verschobene Variable verknüpft werden.
Auf diese Weise entwarf Frisch eine Formulierung, die auf zufälligen Simulati-
onsverfahren und nicht auf einer effektiven Analyse von realen Reihen beruhte.
Diese Formulierung inspirierte die ersten dynamischen makroökonometrischen
Modelle von Tinbergen (1937 [275] und 1939 [276]), bei denen die verschobe-
nen Variablen angewendet wurden, die man zuerst in den Niederlanden und
später in den Vereinigten Staaten beobachtet hatte. Der Artikel von Frisch
(1933, [99]) hat großes Aufsehen erregt. Samuelson (1947, [248]) bekräftigte,
daß dieser Beitrag in der Wirtschaft eine Revolution ausgelöst hat, die mit
dem Übergang von der klassischen Mechanik zur Quantenmechanik vergleich-
bar sei. Dieser Vergleich ist für den Einfluß der neuen Physik bezeichnend,
die den Determinismus des 19. Jahrhunderts zugunsten wahrscheinlichkeits-
theoretischer Konstruktionen aufgegeben hat – nicht nur vom makroskopi-
schen und frequentistischen Standpunkt aus, sondern auch vom Standpunkt
der elementaren Mechanismen (Quanten). Frisch war sich dessen bewußt, daß
sein Beitrag in der Verknüpfung zweier unterschiedlicher Ideen bestand, deren
Vereinigung die Originalität des Modells ausmachte:

So erhalten wir durch die Verknüpfung zweier Ideen – nämlich 1.) ste-
tige Lösung eines determinierten dynamischen Systems, und 2.) un-
stetige zufällige Störungen zur Lieferung der die Schwingungen auf-
rechterhaltenden Energie – eine theoretische Konstruktion für eine
rationale Interpretation der bei statistischen Reihen häufig beobach-
teten Bewegungen. Aber die Lösung des determinierten dynamischen
Systems liefert nur einen Teil der Erklärung: diese Lösung bestimmt
das System der Gewichtungen, die bei der Kumulation der zufälligen
Störungen verwendet werden müssen. Der andere und ebenso wichtige
Teil der Erklärung liegt in der Aufhellung der allgemeinen Gesetze der
Wirkung linearer Operatoren, die auf zufällige Störungen angewendet
werden. (Ibid.)

Mittel gegen die Krise: Das Modell von Tinbergen

Frisch machte einen klaren Unterschied zwischen der systeminternen determi-


nistischen Dynamik und der Wirkung externer zufälliger Störungen (random
shocks) auf ein solches System. Indem er diesen Unterschied auch deutlich
aussprach, bahnte er den Weg für Operatormodelle in Bezug auf die Wirt-
schaftspolitik. Im Gegensatz zu den Modellbildungen der theoretischen Wirt-
Mittel gegen die Krise: Das Modell von Tinbergen 329

schaftswissenschaftler waren diese Modelle nicht mehr spekulativ. In der Kri-


sensituation der 1930er Jahre kam die zuvor unbekannte Idee auf, daß die
Regierungen auf die Gesamtbewegung der Wirtschaft und vor allem auf die
regelmäßig wiederkehrenden zyklischen Krisen und das in deren Gefolge ent-
stehende Unglück einwirken könnten. Sind die Zyklen nicht vollständig deter-
ministisch und können sie durch random shocks gestört werden, dann ist es
denkbar, entsprechend den beiden Aspekten des Modells von Frisch auf zwei
unterschiedliche Weisen vorzugehen. Einerseits kann eine Regierung punktuell
intervenieren, indem sie einen gewollten Schock ausübt, dessen Auswirkungen
im Voraus im Modell analysiert worden sind. Andererseits können die internen
Relationen im dynamischen System ebenfalls modifiziert werden – und zwar
durch sogenannte strukturelle Umformungen“ mit Langzeitwirkung. Tinber-

gen konzipierte und erarbeitete seine ersten ökonometrischen Modelle, um ein
Werkzeug zu konstruieren, das aus der Verknüpfung theoretischer Formalis-
men mit den verfügbaren statistischen Daten und aus der dringenden Not-
wendigkeit einer Wirtschaftspolitik resultierte, die sich von der vor der Krise
praktizierten Politik unterschied. Diese Situation brachte ihn auf eine pragma-
tische Methode, eine Art theoretisch-empirischer Bastelarbeit, die sich sowohl
von den formalen Gebäuden der reinen Wirtschaftswissenschaft als auch von
der deskriptiven Statistik der historizistischen Tradition unterschied, wie sie
durch Mitchell oder durch die Technik der Wirtschaftsbarometer“ von Har-

vard repräsentiert wurde (Armatte, 1992, [6]).
Als Tinbergen 1936 vom niederländischen Wirtschaftsverband darum ge-
beten wurde, politische Lösungen zur Bekämpfung des Konjunkturtiefs zu
untersuchen, kam er dieser Bitte nach und antwortete, daß er die Physik,

sein ursprüngliches Spezialgebiet zugunsten der Ökonomie aufgegeben habe,
da er der Meinung sei, daß diese Wissenschaft für die Gesellschaft nützli-
cher ist“. Seine Hauptidee bestand darin, die gesamte Wirtschaft dadurch
vereinfacht darzustellen, daß man sie auf eine kleine Anzahl von Variablen
und Relationen reduziert, um ein Modell zu bilden. Dieses Modell läßt sich
dann experimentellen Versuchen unterziehen, so wie man es mit einem ver-
kleinerten Flugzeugmodell im Windkanal macht. Aber der willkürliche Cha-
rakter der Vereinfachung konnte nur im Laufe des eigentlichen Anwendungs-
prozesses in Frage gestellt werden und dieser Prozeß beinhaltete ein iteratives
Hin- und Hergehen zwischen Hypothesen theoretischen Ursprungs und stati-
stischen Schätzungen. Tinbergen faßte diese Praxis als eine Kunst“ auf, eine

Art Kochkunst“ – und dieser Umstand sollte dem Publikum gegenüber nicht

verschleiert werden:

Ich muß auf der Vereinfachung bestehen. Die Mathematik ist ein lei-
stungsstarkes Werkzeug, darf aber nur verwendet werden, falls die
Anzahl der Elemente des Systems nicht allzu groß ist. Die ganze
Gemeinschaft muß schematisch in einem Modell“ dargestellt wer-

den, bevor man irgendetwas Nützliches machen kann. Der Schema-
tisierungsprozeß ist mehr oder weniger willkürlich und hätte auch
330 9 Modellbildung und Anpassung

anders durchgeführt werden können. In gewissem Sinne handelt es


sich um die Kunst“ der wirtschaftswissenschaftlichen Forschung ...

Die Beschreibung des vereinfachten Modells – das zur Erklärung der
Zyklen und zur Erarbeitung politischer Maßnahmen mit dem Ziel
der Abschwächung dieser Zyklen verwendet wird – beginnt mit ei-
ner Aufzählung der eingeführten Variablen und setzt sich dann in
der Aufzählung der Gleichungen fort, von denen man annimmt, daß
sie die besagten Variablen miteinander verknüpfen. In Wirklichkeit
entspricht diese Reihenfolge nicht dem angewendeten Verfahren. Man
kann nicht a priori wissen, welche Variablen erforderlich sind und wel-
che bei der Erklärung des zentralen Phänomens vernachlässigt werden
können. Das kann man erst im Verlauf der tatsächlichen Arbeit und
vor allem nach der statistischen Überprüfung der Hypothesen feststel-
len. In Wirklichkeit finden beide Phasen gleichzeitig statt; sie werden
nur um der Klarheit willen in zwei Schritten dargestellt. Nichtsdesto-
weniger wirft man von Zeit zu Zeit einen Blick in die Küche“, um

den Eindruck zu vermeiden, daß Magie im Spiel ist. (Tinbergen (1937,
[275]), zitiert von Morgan, 1990, [204]).
Der gleichzeitig künstlerische und handwerkliche Aspekt der Arbeit Tin-
bergens – das heißt der Blick mit den Augen und die erforderliche Vertrautheit
mit den statistischen Reihen und ihren Merkwürdigkeiten – traten aufgrund
des Fehlens von schnellen automatischen Rechenwerkzeugen verstärkt in den
Vordergrund. Man konnte sich nicht den Luxus leisten, unzählige Regressio-
nen zu überprüfen. Tinbergen verwendete die grafische Methode der aufein-

andergeschichteten Teller“: die übereinander gezeichneten statistischen Rei-
hen machen die Relationen sichtbar und das wiederum erleichtert die Aus-
wahl der relevanten multiplen Regressionen und senkt den Rechenaufwand.
Aber die besagte Auswahl war nicht rein empirisch, sondern richtete sich
auch nach den Empfehlungen der verfügbaren Wirtschaftstheorien. Die Glei-
chungsabschätzungen wurden gesondert mit Hilfe der üblichen Methode der
kleinsten Quadrate durchgeführt (der Begriff Simultan-Bias“ existierte noch

nicht), aber mitunter fügte man Parameter, die bereits in einer anderen Glei-
chung geschätzt worden waren, in eine neue Gleichung ein. Die Abweichungen
zwischen den beobachteten Variablen und den durch das Modell rekonstruier-
ten Variablen wurden in die Grafiken übertragen und in Form von Residuen
in den Gleichungen angegeben. Die statistische Verifikation“ beruhte nicht

auf wahrscheinlichkeitstheoretischen Tests, sondern auf der Prüfung der Ab-
weichung zwischen den Daten und dem Modell.
Ein wesentliches Merkmal dieser Modellbildung bestand darin, daß die
geschätzten Relationen zu einer Verknüpfung der zeitlich verschobenen Va-
riablen führten, wobei die Auswahl dieser Verschiebungen ein wesentlicher
Bestandteil der von Tinbergen entwickelten Kochkunst“ war. Nach der Fest-

legung eines Systems von 22 Gleichungen, das die gesamte niederländische
Wirtschaft zusammenfassen sollte, analysierte er das System, um eine mögli-
Mittel gegen die Krise: Das Modell von Tinbergen 331

che zyklische Struktur seiner Lösung herauszuarbeiten. Zu diesem Zweck führ-


te Tinbergen eine Linearkombination der Relationen durch, um schrittweise
sämtliche Variablen bis auf eine zu eliminieren. Das Endresultat war eine li-
neare Funktion, die eine Variable Zt mit ihren vorangehenden Werten Zt−1
und Zt−2 verknüpfte. Diese Gleichung der zweiten Differenzen, die der im
Schaukelstuhlmodell von Frisch analysierten Gleichung entsprach, führte un-
ter gewissen Voraussetzungen zu gedämpften periodischen Schwingungen. Die-
se bildeten den Hintergrund der Konjunkturschwankungen, denen sich zufälli-
ge Störungen oder bewußte Eingriffe der Wirtschaftspolitik überlagerten. Von
der so erhaltenen zentralen Gleichung, in der die Koeffizienten der 22 Glei-
chungen berücksichtigt und kombiniert waren, nahm man an, daß sie die ge-
samte Wirtschaftsstruktur zusammenfaßte; jedoch hatte diese Gleichung keine
offensichtliche Bedeutung für die Ökonomie. Diese Technik ist als Nachtzug-

analyse“ bezeichnet worden, denn sie scheint den Leser durch die Dunkelheit
zu geleiten: ausgehend von ökonomisch interpretierbaren Relationen gelangt
man zu einer zyklischen Struktur, die sich aus der Gleichung der zweiten
Differenzen ergibt, durch welche ihrerseits Zt , Zt−1 und Zt−2 miteinander
verknüpft werden.
Das zyklische Modell kann gestört werden – entweder durch externe Ereig-
nisse oder durch Regierungsentscheidungen. Im ersten Fall untersuchte Tin-
bergen die Wirkungen eines übernommenen internationalen Zyklus. Im zwei-
ten Fall unterschied er zwischen zwei Typen von Entscheidungen: zum einen
ging es um Entscheidungen, die sich nur auf externe Schocks bezogen (Kon-
junkturpolitik); zum anderen handelte es sich um tieferliegende Erscheinun-
gen, von denen die Koeffizienten des zentralen Systems der Relationen bein-
flußt wurden (Strukturpolitik). Vom Standpunkt der makroökonomischen Re-
gulierung (vor allem zur Senkung der Arbeitslosigkeit) untersuchte er sechs
mögliche Formen des Eingreifens durch die Regierung: Programme für ge-
meinnützige Bauarbeiten, protektionistische Maßnahmen, industrielle Ratio-
nalisierungspolitik, Senkung der Monopolpreise und schließlich Lohnsenkun-
gen und Geldabwertung. Ebenso untersuchte er Ausgleichsmaßnahmen für
einen übernommenen Zyklus durch Manipulationen des Wechselkurses oder
durch öffentliche Investitionen. Mit Hilfe dieser Modellbildung durch ein Sy-
stem von Gleichungen, in denen die zeitlich verschobenen Variablen mitein-
ander verknüpft wurden, führte Tinbergen starke Randbedingungen in die
Debatten ein: dabei ging es um die Zusammenhänge zwischen den Wirt-
schaftstheorien und deren Anwendungen auf Maßnahmen gegen die Krisen-
zyklen. Die theoretischen Hypothesen mußten ebenso wie die Regierungsmaß-
nahmen exakt formuliert sein, wenn man präzise Schlußfolgerungen ziehen
wollte. Darüber hinaus (aber das hatte Tinbergen nicht eindeutig formuliert)
mußten die Wirtschaftstheorie, die statistischen Daten und die Instrumente
der Wirtschaftspolitik von nun an in einer gemeinsamen Sprache formuliert
werden – in einer Sprache, die ein müheloses Zirkulieren der Ideen zwischen
theorieproduzierenden Wissenschaftszentren, statistischen Ämtern und Regie-
rungskommissionen ermöglichte, welche die politischen Maßnahmen vorberei-
332 9 Modellbildung und Anpassung

teten. Die volkswirtschaftliche Gesamtrechnung spielte nach dem Krieg eine


wesentliche Rolle bei der Koordinierung – wenn nicht gar bei der Vereinheit-
lichung – dieses Dreiecks aus Wissenschaft, Information und Aktion.
Das niederländische Modell von 1936 fand außerhalb der Niederlande keine
große Resonanz. Aber kurze Zeit später wurde Tinbergen vom Völkerbund ge-
beten, die von Haberler (1937) – ebenfalls auf Ersuchen des Völkerbundes – ge-
sammelte und veröffentlichte große Auswahl von Zyklentheorien zu testen. Die
beiden aufeinanderfolgenden Berichte, die 1939 veröffentlicht wurden, präsen-
tierten einerseits eine detaillierte Diskussion der Methode und andererseits die
Ergebnisse des Modells für die Vereinigten Staaten. Die Berichte hatten eine
nachhaltige Wirkung und lösten so manche wohlwollenden, aber auch kriti-
schen Kommentare aus. Außerdem waren die Berichte der Ausgangspunkt für
die Tradition der makroökonomischen Modelle, die ihren Höhepunkt in den
1960er und 1970er Jahren erreichte. Der erste Bericht testete die von Haberler
gesammelten verbalen Theorien“ (das heißt die nicht durch Gleichungen for-

malisierten Theorien) vom Standpunkt ihrer Übersetzbarkeit in Relationen,
die sich unter Umständen durch statistische Verfahren prüfen und schätzen
lassen. Besser gesagt: es handelte sich weniger darum, eine Theorie zu verifi-
zieren, was der Statistiker laut Tinbergen gar nicht tun kann. Vielmehr ging
es darum, die Gültigkeitsgrenzen der betreffenden Theorie zu suchen und die-
jenigen Fälle aufzudecken, in denen sich die betreffende Theorie nicht anwen-
den läßt. Tinbergen vertrat also den Popperschen Standpunkt, gemäß dem
die Wahrheit wissenschaftlicher Fakten mit deren Nichtfalsifikation zusam-
menhängt, das heißt mit der Stichhaltigkeit der Einarbeitung dieser Fakten
in ein Netz anderer Fakten. Tinbergen präzisierte also die Aufgaben des Öko-
nomen und des Statistikers. Ferner präzisierte er die Rolle der Korrelation,
mit der die Relationen getestet werden, und die Rolle der Regression, mit der
die Stärke dieser Relationen gemessen wird.
Die einer Prüfung unterzogenen Theorien werden vom Ökonomen ge-
liefert, der dafür auch weiterhin die Verantwortung trägt. Ein statisti-
scher Test kann nicht beweisen, daß eine Theorie korrekt ist – er kann
lediglich beweisen, daß sie unkorrekt oder zumindest unvollständig
ist, indem er zeigt, daß durch diese Theorie eine spezielle Tatsachen-
menge nicht abgedeckt wird. Und selbst dann, wenn eine Theorie mit
den Tatsachen übereinzustimmen scheint, kann es sein, daß sich eine
andere Theorie, die ebenfalls mit den Tatsachen übereinstimmt, vom
Standpunkt neuer Tatsachen oder späterer theoretischer Entwicklun-
gen als die wahre“ Theorie erweist. Folglich ist der Sinn begrenzt,

in dem der Statistiker die Verifikation“ einer Theorie liefern kann.

Aber andererseits beschränkt sich die Rolle des Statistikers nicht auf
diese Verifikation“. Die gesuchten direkten kausalen Beziehungen ver-

knüpfen im Allgemeinen nicht nur zwei Reihen (eine Ursache und ei-
ne Wirkung) miteinander, sondern eine abhängige Reihe und mehrere
Ursachen. Wir suchen nicht nur danach, welche Ursachen wirken, son-
Ingenieure und Logiker 333

dern auch, mit welcher Stärke jede von ihnen wirkt; andernfalls wäre
es nicht möglich, die Endresultante der in entgegengesetzten Rich-
tungen wirkenden Ursachen ans Licht zu bringen. (Tinbergen, (1939,
[276]), zitiert von Morgan, 1990, [204]).

Die Robustheit der Gesamtkonstruktion wird auf mehrere Weisen gewähr-


leistet und getestet. Das Modell kann auf andere Länder oder auf andere Zeiten
angewendet werden. Die für mehrere Teil-Zeiträume berechneten Strukturko-
effizienten werden miteinander verglichen. Tinbergen testete auch die Nor-

malität“ (das heißt die Übereinstimmung mit einer Normalverteilung) und
die zeitliche Korrelation der Residuen, um zu überprüfen, ob diese mit Zie-
hungen in einer normalverteilten Grundgesamtheit vergleichbar sind und ob
die sogenannten zufälligen Störungen wirklich zufällig sind. Darüber hinaus
berechnete er auch die Varianz der Koeffizientenabschätzungen, um sich von
deren Bedeutung zu vergewissern. Aber in anderen Fällen erfolgte die Verifi-
kation – oder vielmehr die Nichtfalsifikation im obengenannten Sinne – durch
die Begriffe der ökonomischen Likelihood“ und der Fähigkeit des Modells,

beobachtete historische Entwicklungen zu berücksichtigen. So wurde etwa ei-
ne marginale Konsumneigung verworfen, wenn sie größer als 1 war oder wenn
sie für Haushalte mit geringem Einkommen niedriger war als für Haushalte
mit hohem Einkommen.

Ingenieure und Logiker

Die voluminösen Berichte von Tinbergen an den Völkerbund riefen lebhaf-


te Kontroversen hervor. Der berühmteste Einwand stammte von Keynes und
wurde in einer 1939 veröffentlichten Rezension des ersten Berichts erhoben
(damals kannte Keynes den zweiten Bericht noch nicht, der einige seine Kritik-
punkte im Voraus beantwortetet hatte). Zwar hatte es einerseits den Anschein,
daß Keynes die neuesten Entwicklungen zu den dynamischen Zyklenmodellen
(vor allem das Modell von Frisch zu den random shocks) nicht kannte. Dennoch
stellte er grundlegende Fragen zur statistischen Induktion und zur ökonome-
trischen Methode.12 Die beiden sich gegenüberstehenden Positionen waren
für zwei Auffassungen von den Beziehungen zwischen Theorie, Beobachtung
und Handeln charakteristisch – Auffassungen, die aus unterschiedlichen in-
tellektuellen und fachlichen Traditionen hervorgegangen waren. Die Position
Tinbergens ähnelte der eines Ingenieurs, der Prototypen entwirft und testet,
indem er zunächst reduzierte Modelle und dann Modelle wahrer Größe verwen-
det. Seine Epistemologie kann mit der Auffassung Karl Pearsons und dessen
Grammatik der Wissenschaft in Verbindung gebracht werden. Die wahren

12
Ein für Keynes ziemlich ungünstig ausfallender Kommentar zu diesem Streit
stammt von Morgan, 1990, [204]. Patinkin (1976, [218]) und Bateman (1990,
[8]) betonten und kommentierten die epistemologischen Probleme, die der Streit
aufgeworfen hatte.
334 9 Modellbildung und Anpassung

Ursachen“ sind nicht erkennbar oder sie sind lediglich Hypothesen, die stets
falsifizierbar sind. Ein Modell ist gut“, wenn es den Dingen einen stabilen

Zusammenhalt verleiht, das Prüfen von wirtschaftspolitischen Alternativen
und das Messen der entsprechenden Wirkungen ermöglicht.
Keynes vertrat einen ganz anderen Standpunkt, der mit seinem Werde-
gang zusammenhing. Dieser Standpunkt ging aus einer (vor allem von seinem
Vater vertretenen) universitären Tradition der politischen Ökonomie und ei-
ner Erkenntnisphilosophie hervor, wie sie in Cambridge zu Beginn des 20.
Jahrhunderts diskutiert worden war. Keynes verfolgte mit seinem Treatise on
Probability (1921) das Ziel, eine Induktionslogik zu begründen. Seine Auffas-
sung von der Wahrscheinlichkeitsrechnung war antifrequentistisch und stand
in der Nähe der Idee vom Glaubensgrad“. Für ihn war die Wahrscheinlichkeit

eine logische Beziehung zwischen einer Behauptung und der sie stützenden
Information. Die Abhandlung von Keynes fällt in den Bereich der Wissen-
schaftsphilosophie, genauer gesagt in den Bereich der Logik. Keynes hatte
bereits 1910 in jungen Jahren seine Ideen zur Wahrscheinlichkeitsrechnung
und zur statistischen Induktion anläßlich einer Kontroverse zum Ausdruck
gebracht, die ihn zum Gegner von Karl Pearson gemacht hatte. Dieser hatte
eine Studie geleitet, in der nachgewiesen werden sollte, daß der Alkoholismus
von Eltern keinen Einfluß auf die körperlichen und geistigen Fähigkeiten ih-
rer Kinder hat.13 In einer Reihe von Artikeln, die 1910 und 1911 im Journal
of the Royal Statistical Society veröffentlicht wurden, kritisierte Keynes die
Pearsonsche Verfahrensweise der statistischen Induktion: Pearson extrapoliert
auf der Grundlage kleiner Stichproben und vor allem vergewissert er sich beim
Vergleich zweier Stichproben nicht davon, daß Ursachen, die vom Alkoholis-
mus verschieden sind, möglicherweise keine Erklärung für die aufgezeichneten
Ergebnisse liefern (Bateman, 1990, [8]). Keynes hatte die theoretischen Argu-
mente, die er gegen Pearson vorbrachte, im Treatise von 1921 entwickelt und
systematisiert und 1939 in der Diskussion mit Tinbergen noch einmal aufge-
griffen. Die Werkzeuge der statistischen Inferenz wurden in den 1930er Jahren
transformiert (vor allem durch Egon Pearson, den Sohn von Karl Pearson),
aber Keynes stellte – hinsichtlich der von nun an von den Ökonometrikern
und insbesondere von Tinbergen verwendeten Methoden der Korrelation und
der Regression – auch weiterhin seine bereits 1910 aufgeworfene Frage nach
der vollständigen Aufzählung der Ursachen:
Die Analysemethode der multiplen Korrelationen ist nur dann stich-
haltig, wenn der Ökonom nicht nur eine Liste der wirkenden Ursachen
geliefert hat – was auf den ersten Blick korrekt ist – sondern auch eine
vollständige Liste. Nehmen wir beispielsweise an, daß drei Faktoren
berücksichtigt wurden; es reicht nicht aus, daß diese zu den wahren
Ursachen gehören. Zusätzlich muß noch gewährleistet sein, daß es kei-
13
Das war eines der typischen Themen, die im Mittelpunkt der Interessen von Karl
Pearson standen: er wollte zeigen, daß diese Faktoren erblich sind und nichts mit
der Lebensweise der Eltern zu tun haben.
Ingenieure und Logiker 335

nen anderen wirkenden Faktor gibt. Gibt es doch noch einen weiteren,
unberücksichtigten Faktor, dann kann man auch nicht die relative Be-
deutung der drei ersten Faktoren messen. Folglich ist die Methode
nur dann anwendbar, wenn der Ökonom im Voraus eine zweifelsfrei
vollständige Analyse der wirkenden Ursachen liefern kann (Keynes
(1939, [151]), zitiert von Patinkin, 1976, [218]).

Beim Zitieren dieser Stelle aus der Kritik, die Keynes an Tinbergen übte,
fügt Patinkin hinzu: Was könnte den Spezifikationsbias besser beschreiben?“

Anschließend wollte Patinkin zeigen, daß Keynes auf seine Weise die Haupt-
probleme der entstehenden Ökonometrie bereits intuitiv erfaßt hatte und legte
den Gedanken nahe, daß Keynes durch seine Kritik der zeitlich verschobenen
Variablen – die im Modell von Tinbergen eine zentrale Rolle spielen – auch
die Idee des Simultan-Bias vorweggenommen hatte:
Tinbergen wendet eine sequentielle Analyse mit nicht gleichzeitigen
Ereignissen und Zeitverschiebungen an. Was geschieht, wenn das un-
tersuchte Phänomen seinerseits auf die Faktoren reagiert, durch die
man es erklärt? Zum Beispiel läßt Tinbergen bei der Untersuchung von
Investitionsschwankungen diese Schwankungen von Gewinnschwan-
kungen abhängen. Aber was geschieht, wenn diese Schwankungen
teilweise (wie es tatsächlich der Fall ist) von den Investitionsschwan-
kungen abhängen? (Keynes (1939, [151]), zitiert von Patinkin, 1976,
[218]).
Von den wirkenden Ursachen, die der Ökonom nicht in die einklagba-

re“ vollständige Liste aufnehmen kann, erwähnt Keynes explizit die folgen-
den: nicht meßbare Faktoren wie zum Beispiel psychologische, politische oder
soziale Variable, gedankliche Vorwegnahmen und Vertrauenszustände. Aber
Keynes müßte seine Terminologie nur geringfügig ändern – indem er nicht

meßbarer Faktor“ durch nicht gemessenen Faktor“ ersetzt – um von dem

kategoriellen Realismus abzuweichen, der seine Äußerungen durchdringt, und
um die Konventionen zur Bezeichnungsweise, zur Aufstellung von Äquiva-
lenzen und zur Kodierung der Objekte als integrierenden Bestandteil des Er-
kenntnisprozesses in Betracht zu ziehen. Der Treatise on Probability verknüpft
das induktive Argument nicht nur eng mit der Anzahl der Fälle, in denen eine
Aussage verifiziert wird, sondern auch mit der Idee einer positiven oder ne-
gativen Analogie. Die Wahrscheinlichkeit einer Aussage wird durch eine neue
Beobachtung nur in dem Maß erhöht, in dem sich diese Beobachtung von den
vorhergehenden in Bezug auf Faktoren unterscheidet, die vom untersuchten
Faktor abweichen. Der Begriff der negativen Analogie ermöglicht es, etwaige
Ursachen aus der Liste zu eliminieren. Aber diese rein logische Vorstellung,
die Keynes von der Analogie hatte, setzte voraus, daß die Konstruktion der
ihr zugrundeliegenden Äquivalenz außerhalb des zu untersuchenden Bereiches
liegt – das war der Standpunkt eines Philosophen.
336 9 Modellbildung und Anpassung

Der methodologische Realismus von Keynes ist auch bei einer anderen Kri-
tik erkennbar, die er dreißig Jahre später gegenüber den Methoden von Pear-
son und Tinbergen formulierte. Die Hauptidee dieser Kritik war das Thema
der Inhomogenität der Natur in Raum und Zeit. Die Wahrscheinlichkeitsur-

nen“ waren von veränderlicher Füllung – nichts garantierte die Stabilität der
von Tinbergen berechneten Strukturkoeffizienten. Keynes weigerte sich, die
konventionelle und praktische Seite des Tinbergen-Modells zu sehen, die nach
der Prüfresistenz und Fähigkeit dieses Modells beurteilt wurde, Varianten der
Wirtschaftspolitik zu testen, und nicht darauf beruhte, ob das Modell die
wahre Realität“ ausdrückte. Diese Kritik veranlaßte ihn, die intrinsische Va-

riabilität der Natur hervorzuheben und deswegen die Äquivalenzkonventionen
abzulehnen, auf die Tinbergen in seinem Modell nicht verzichten konnte. Als
Keynes jedoch in seinem Treatise on Probability die logischen Voraussetzungen
für eine legitime Induktion analysierte, bemerkte er anhand fiktiver Beispiele
zur Farbe der Vögel, daß seine Überlegung nur unter der Voraussetzung gültig
ist, daß man eine endliche Anzahl von Vogelarten und Farben annimmt. Das
impliziert jedoch, daß eine taxonomische Reduktion stattgefunden hat. Er
rechtfertigte diese wesentliche Hypothese einer endlichen Zahl von Arten“

durch die zutreffenden Ergebnisse, die er in der Vergangenheit erzielt hatte,
aber dies bleibt eine Hypothese und kann nicht bewiesen werden“ (zitiert

von Bateman, 1990, [8]). Er war also sehr nahe daran, die taxonomischen
Konventionen ernst zu nehmen. Aber der von ihm vertretene Standpunkt zur
Behandlung der Induktion hinderte ihn an der Erkenntnis, daß eine Äquiva-
lenz nicht (logisch) bewiesen, sondern – bisweilen mit großem Aufwand – kon-
struiert werden muß und sich anschließend auch noch als resistent gegenüber
Zerstörungsprüfungen erweisen muß.

Über den richtigen Gebrauch der Anpassung


Die Diskussionen über die Modelle von Frisch und Tinbergen gaben einer alten
und ständig wiederkehrenden Debatte einen neuen Inhalt – der Debatte zur re-
lativen Rolle von Theorie und Beobachtungen, von Deduktion und Induktion
in der Wirtschaftswissenschaft. Die Entwicklung der inferentiellen Statistik,
die Parameter schätzt und Modelle testet, ermöglichte die Herstellung enger
Verbindungen zwischen zwei Welten – zwischen der Welt der Theorie und der
Welt der Beschreibung, die zuvor nichts voneinander wußten. In den 1930er
Jahren setzte die Diversifizierung des Angebots der möglichen Diskurse über
diese Fragen ein. Zu diesem Zeitpunkt ließen sich die Möglichkeiten, diese
beiden Universen miteinander zu verbinden, in drei Schwerpunkten zusam-
menfassen: die Theorie ist primär und kann nicht falsifiziert werden; nichts
Allgemeines kann behauptet werden und man kann nichts anderes tun, als die
Vielfalt zu beschreiben; vorläufige Modelle können durch Tests geprüft wer-
den. Außerdem konnten die Abweichungen zwischen den Beobachtungen und
den Verallgemeinerungen (ganz gleich, ob man diese als Theorien, Gesetze,
Über den richtigen Gebrauch der Anpassung 337

Regelmäßigkeiten oder Modelle bezeichnete) entsprechend den verschiedenen


Rhetoriken interpretiert werden. Diese beiden unterschiedlichen, aber mit-
einander zusammenhängenden Probleme standen im Mittelpunkt der Frage
nach dem Realismus der statistischen Konstruktionen. In Ermangelung ei-
ner guten“ Antwort, wie sie vom Urteil der Geschichte gefällt worden wäre,

können wir die Entwicklung der Wege beschreiben, auf denen Antworten for-
muliert worden sind. Vor allem aber können wir davon abkommen, Theorien
und Beobachtungen einander gegenüberzustellen. Wir können von dieser Ge-
genüberstellung abkommen, indem wir die Frage nach der Anwendung und
Registrierung der Formalisierungen in die uns interessierenden Netze verla-
gern, nämlich in die Netze der Messungen und der Maßnahmen.14 Es handelt
sich also sowohl um eine metrologische als auch um eine politische Frage. Die
Art und Weise, in der Tinbergen sein Modell konstruierte, anwendete und
rechtfertigte, ist eine gute Illustration dieses Standpunkts. Von diesem Stand-
punkt aus waren die 1930er und 1940er Jahre entscheidend, denn in dieser
Zeit wurden neue Verbindungen hergestellt – Verbindungen, auf die sich noch
heute die Sprache einer ökonomischen Rationalität stützt, die operativ ist und
nicht nur spekulativ, wie sie es früher war.
Bis zu dieser Zeit waren die Verbindungen zwischen Wirtschaftstheorie
und statistischen Aufzeichnungen nur geringfügig, da beide Methoden kon-
trär zueinander ausgerichtet waren. Die eine Verfahrensweise beruhte auf
dem Modell der physikalischen Wissenschaften und setzte a priori voraus,
daß sich das individuelle Verhalten nach den allgemeinen Prinzipien der Ma-
ximierung und Optimierung richtet; hieraus wurde (zumindest theoretisch)
eine deterministische Darstellung des Wirtschaftslebens abgeleitet. Die ande-
re Verfahrensweise, die zunächst von Quetelet und später von Karl Pearson
und Yule angeregt worden war, sah in den beobachteten Regelmäßigkeiten
und Korrelationen die einzigen Gesetze“ oder Ursachen“, von denen man
” ”
als Wissenschaftler berechtigterweise sprechen konnte. Im erstgenannten Fall
konnte man bestenfalls die Parameter eines theoretischen Modells messen, das
a priori als wahr vorausgesetzt wurde. Im zweiten Fall konnten die Gesetze
nur bei einer Überfülle von Daten zutage treten. Eine dritte Herangehensweise
war möglich, nämlich das Testen einer Theorie, die einer Kritik unterzogen
wird und dann auf der Grundlage von Beobachtungen bestätigt oder abge-
lehnt wird. Diese Haltung war im 19. Jahrhundert selten: Lexis vertrat diesen
Standpunkt, als er die von Quetelet vorgestellten Regelmäßigkeiten kritisierte
(vgl. Kapitel 3). In den drei genannten Fällen waren es unterschiedliche Rhe-
toriken, die eine Kombination der Sprache der Gesetze und der Sprache der
statistischen Tafeln ermöglichten.
Für diejenigen, die allgemeine theoretische Prinzipien postulierten, schien
die Vorstellung, diese Prinzipien im Wirrwarr der statistischen Aufzeichnun-
14
Im Französischen ist von der doppelten Bedeutung des Wortes mesure“ die Rede,

das in diesem Zusammenhang einerseits Messung“ (metrologischer Aspekt) und

andererseits Maßnahme“ (politischer Aspekt) bedeutet.

338 9 Modellbildung und Anpassung

gen wiederzufinden, lange Zeit fast utopisch und hoffnungslos zu sein. Diese
Auffassung deckte sich nahezu vollständig mit dem, was Cournot und Edge-
worth sagten. Beide stellten fundierte Überlegungen über die Bedeutung der
Wahrscheinlichkeitsrechnung zur Begründung und Untermauerung des Wis-
sens an, verwendeten aber diese Werkzeuge in ihren Arbeiten zur Wirtschafts-
theorie nicht. Keynes machte sich mit großer Energie daran, die Rolle der
Wahrscheinlichkeitsrechnung bei der Induktion zu analysieren, aber er ver-
hielt sich reserviert und skeptisch gegenüber den Tinbergenschen Versuchen
zur globalen Modellierung der Wirtschaft.15 Auf einer tieferliegenden Ebe-
ne war das Modell der Physik – das auf der Homogenität der Natur, der
Objekte und der sie verbindenden Kräfte beruhte – kaum dazu geeignet,
die Veränderlichkeit der Gesellschaften zu berücksichtigen. Das Fehlen einer
kontrollierten experimentellen Situation und die Nichteinhaltung der Ceteris-
paribus-Klausel waren ein ständig wiederkehrendes Thema in den wiederhol-
ten Debatten über die Möglichkeit, die in den Naturwissenschaften so erfolg-
reichen empirischen Techniken auf die Wirtschaftswissenschaft anzuwenden.
Die von den Statistikern sukzessiv entworfenen Verfahren stellten alle zu ei-
nem gewissen Zeitpunkt eine Antwort auf die Frage dar, ob es unmöglich
ist, die experimentelle Methode auf die Sozialwissenschaften anzuwenden: die
Regelmäßigkeiten und subjektiven Mittelwerte von Quetelet, der Eindeutig-
keitstest der Wahrscheinlichkeitsurne“ von Lexis, die partielle Korrelation

und die multiple Regression von Yule, sowie die Varianzanalyse und die Ran-
domisierungstechnik von Fisher. Aber diese wiederholten Bemühungen reich-
ten – zumindest bis in die 1920er Jahre – nicht dazu aus, die Ökonomen in
Versuchung zu führen. In seinem 1913 erschienenen Buch behandelte Lenoir
bezüglich der Angebots- und Nachfrageelastizität die deduktive Methode und
die Regressionsschätzung nebeneinander, ohne sie jedoch miteinander zu ver-
mengen (aber das Bestreben, beide Verfahren miteinander zu vergleichen, war
dennoch klar erkennbar). Und schließlich war Keynes, als er Tinbergen 1939
kritisierte, ganz offensichtlich der Meinung, daß ein ökonometrisches Modell
nicht der Ursprung neuer Ideen zur Ökonomie sein konnte: empirische Arbeit
bewirkt keine Entdeckungen; sie kann lediglich Theorien illustrieren oder de-
ren Parameter schätzen. Steht das Modell im Widerspruch zur Theorie, dann
sind die Daten falsch, nicht aber die Theorie.
Am anderen Ende des erkenntnistheoretischen Spektrums kann man als
radikalstes aller Verfahren die rein deskriptive Methode und die induktive Me-
thode ausmachen, bei der die Regelmäßigkeiten und Gesetze auf der Grund-
lage von Beobachtungen zum Vorschein gebracht werden sollten. Die erst-
genannte Methode war für die deutsche historische Schule und für gewisse
amerikanische Institutionalisten typisch. Diese Methode war durch die Auf-
fassung charakterisiert, daß die jeweiligen Situationen inkommensurabel sind
15
Zumindest ist Keynes so anspruchsvoll hinsichtlich der Voraussetzungen für eine
legitime Induktion, daß er die ersten makroökonometrischen Konstruktionsversu-
che zu diskreditieren scheint.
Über den richtigen Gebrauch der Anpassung 339

und daß sich keine ahistorische allgemeine Regelmäßigkeit ohne irgendeinen


Kunstgriff herausarbeiten läßt. Die Analyse der Konjunkturzyklen war ein
paradoxes Gebiet, um eine derartige Konzeption anzuwenden: Juglar (1819–
1905) und später Mitchell (1878–1948) versuchten, die Zyklen zu beschreiben
und zu analysieren, indem sie die Auffassung vertraten, daß jeder dieser Zyk-
len in seiner Art einmalig ist und auf unterschiedliche Weise erklärt werden
muß. Das schränkte selbstverständlich die Anwendung dieser Untersuchungen
auf Prognosen ein. Die zweite Methode, die in umfassenderer Weise induk-
tiv angelegt war, akzeptierte die Existenz von Regelmäßigkeiten, die einer
makroskopischen Ordnung zugrunde liegen, welche ihrerseits aus dem mikro-
skopischen Chaos entsteht. Karl Pearson formulierte in seiner Grammatik der
Wissenschaft diese mitunter als instrumentalistisch bezeichnete Betrachtungs-
weise explizit durch seine Weigerung, sich mit der letztlichen Realität der
Dinge und mit kausalen Beziehungen zu befassen. Dieser Antirealismus hatte
mit Mach, den Pearson bewunderte, auch in den Naturwissenschaften sein
entsprechendes Gegenstück. Von diesem Standpunkt aus reduzierten sich die
Abweichungen zwischen den Beobachtungen und dem aus ihnen extrahierten
Verteilungsgesetz“ auf die Residuen (die bei diesem besonderen Kausalitäts-

typ nicht erklärt“ sind). Diese Residuen ließen sich ebenso gut als Meßfehler

wie auch als Abbild weggelassener Variabler“ oder als veränderliche Größe

unbekannten Ursprungs interpretieren (was fast auf dasselbe hinausläuft). Es
war kein Wahrscheinlichkeitsmodell erforderlich, da die Regelmäßigkeiten kei-
nen logischen Status hatten, der sich vom Beobachtungsstatus unterschied,
während später die inferentielle Statistik sorgfältig zwischen dem theoreti-
schen Zufallsraum (Urne) und der Stichprobe der beobachteten Daten (gezo-
gene Kugeln) unterscheidet.
Eine dritte mögliche Auffassung bezüglich der Wechselwirkung zwischen
Theorien und Beobachtungen bestand darin, die Konsistenz der Modelle im
Hinblick auf die Daten zu testen, oder besser noch, sich die Kostenfunktio-
nen für die Konsequenzen der Annahme oder der Ablehnung einer Hypothese
vorzugeben, was vor allem Neyman und Egon Pearson taten. In diesem Fall
entzog sich die Realismusfrage der traditionellen Alternative, welche diejeni-
gen philosophischen Positionen gegeneinander aufgebracht hatte, die den bei-
den vorher genannten Auffassungen zugrunde lagen. Diese dritte Auffassung
bereitete den Boden für die rhetorische Trennung vor, die für die modernen
Anwendungen von Argumenten charakteristisch ist, welche sich ihrerseits auf
empirische Beobachtungen stützen. Der linguistische Operator dieser Tren-
nung ist der Ausdruck alles geschieht so, als ob“, der eine parallele For-

mulierung zweier Ausdruckstypen – des realistischen Typs einerseits und des
instrumentalistischen Typs andererseits – ermöglicht (Lawson, 1989, [169]).
Die mit der Annahme oder Ablehnung des Modells assoziierten Kostenfunk-
tionen ermöglichen es zumindest virtuell, die Wahrheit einer Behauptung mit
einem umfassenderen Netz von Aussagen zu verknüpfen – die Beurteilung der
Konsistenz erfolgt dann nicht mehr in Bezug auf isolierte Behauptungen, son-
dern in Bezug auf das betreffende Netz. Die Erweiterung dieses Netzes und die
340 9 Modellbildung und Anpassung

Liste der dabei einbezogenen Menschen und Aussagen sind dann also sehr va-
riabel. Die Kontroverse änderte sich ihrem Wesen nach und bezog sich fortan
auf diese Liste. Die Begriffe Paradigma“ oder Argumentationsstil“ verwei-
” ”
sen auf eine ähnliche Auffassung: ein Test bezieht sich auf die Kohärenz, die
Solidität und die Ergiebigkeit einer Gesamtheit von Aussagen, die aus einem
System von Aufzeichnungen, Definitionen und Kodierungen hervorgehen, wel-
che ihrerseits miteinander durch das verknüpft sind, was sie bedeuten und was
sie veranlassen (Crombie, 1981, [52]; Hacking, 1991, [120]). Diese Auffassung
ermöglicht es, die im Kapitel 8 aufgeworfenen Fragen (zu den Taxonomien
und zur Kodierung) sowie die im vorliegenden Kapitel genannten Fragen (zur
Modellbildung und Anpassung zwischen Theorien und Daten) im Rahmen ein
und derselben Problematik zusammenzufassen, während diese Themen häufig
in zueinander disjunkten Kontexten und Registern behandelt werden.
Die Sprache der Wahrscheinlichkeitsrechnung ermöglichte es ab Beginn
der 1930er Jahre, das Netz der Aufzeichnungen und die A-priori -Modellbil-
dungen in einer vollkommen neuen Art und Weise zur Geltung kommen zu
lassen – ganz anders als bei dem früheren manichäischen Gegensatz zwischen
dem Ganzen in der Theorie“ und dem Ganzen in den Beobachtungen“.
” ”
Der Begriff Likelihood 16 wurde von Fisher als Alternative zur alten inversen

Wahrscheinlichkeit“ von Laplace vorgelegt. Diese Alternative ermöglichte es,
über den Gegensatz zwischen subjektiver und objektiver Wahrscheinlichkeit
hinauszugehen. Die Hauptidee bestand darin, im Rahmen einer präzise defi-
nierten und umschriebenen Familie von Wahrscheinlichkeitsverteilungen die-
jenige herauszufinden, die einer Beobachtungsmenge die größte Plausibilität“
verleiht (das heißt diejenige dieser Verteilungen, für welche die Wahrschein-
lichkeit des Auftretens der betreffenden Beobachtungen am größten ist). Un-
ter diesem Gesichtspunkt griff die Wirtschaftstheorie ein, um die Familie der
Verteilungen zu definieren und zu umreißen, in deren Rahmen die Maximum-

Likelihood-Methode“ angewendet wird. Diese Synthese wurde in ihrer allge-
meinsten Form von Haavelmo (1944, [116]) vorgelegt und gab den Arbeiten
der Cowles Commission eine bestimmte Richtung. Das in den 1940er Jahren
entwickelte Programm dieser Kommission begründete die moderne Ökonome-
trie (Epstein, 1987, [85]). Die Ökonometrie ermöglichte zumindest im Prinzip,
die Mehrzahl der früher gegen die Verbindung von Wirtschaftstheorie und
deskriptiver Statistik erhobenen Einwände in ein und denselben Formalismus
einzubinden. Die neue Religion“ der inferentiellen Statistik erlaubte es, diese

Verbindung fortan willkommen zu heißen und ihr den Segen zu geben.
Aus dieser Sicht lassen sich die verschiedenen Formen möglicher Abwei-
chungen zwischen den beobachteten Werten einer zu erklärenden“ Variablen

und ihren – mit Hilfe des optimierten Modells – berechneten (oder rekon-

struierten“) Werten auf verschiedene Weise interpretieren, indem man Spezi-
fikationsfehler von Meßfehlern unterschied. Die erstgenannten Fehler haben
16
Für eine ausführliche Darstellung der Geschichte des Begriffes Likelihood vgl.
Edwards, 1992, [371].
Über den richtigen Gebrauch der Anpassung 341

mit der Übersetzung der Theorie in Begriffe der virtuellen Kausalbeziehungen


zu tun (bei denen es sich im allgemeinen um lineare Beziehungen handelt).
Die Auswahl der explikativen“ Variablen und der zwischen diesen Variablen

beibehaltene Verkettungstyp“ – all das bildet die Spezifikation des Modells

und führt zur Eingrenzung einer Familie von Wahrscheinlichkeitsverteilun-
gen. Die Anpassungsabweichungen (oder Residuen) lassen sich als Ergebnis
der Vernachlässigung gewisser Relationen oder gewisser Variablen interpre-
tieren. Insbesondere kann ein Simultan-Bias dadurch entstehen, daß mehre-
re Relationen gleichzeitig einige Variablen miteinander verknüpfen und daß
die Vernachlässigung einer dieser Variablen die Eingrenzung des Raumes der
möglichen Verteilungen verfälscht, innerhalb dessen die plausibelste Vertei-
lung gesucht wird. Dieser Spezialfall wird durch die Geschichte der Versu-
che illustriert, die man zwischen 1910 und 1940 mit dem Ziel durchführte,
Angebots- und Nachfragegesetze auf der Grundlage derjenigen Angaben zu
schätzen, die für die Preise und die eingetauschten Mengen festgestellt wurden
(Christ, 1985, [46]). Die Tatsache, daß sich die beiden theoretischen Kurven
unter der Einwirkung anderer Variabler (zum Beispiel: Ertrag für die Nach-
frage und Produktionskosten für das Angebot) gleichzeitig verschoben, war
der Ursprung des Puzzles, das schließlich zur Formulierung des sogenannten
Modells der simultanen Gleichungen“ führte.

Aber die Residuen (das heißt die Abweichungen zwischen den beobach-
teten und den vom Modell rekonstruierten Variablen) ließen sich durch die
Begriffe der irreduziblen Variabilität oder der Meßfehler interpretieren. Der
erste Fall unterschied sich nicht sehr vom Fall der vernachlässigten Variablen
– abgesehen davon, daß man darauf verzichtete, sich Faktoren“ auszudenken,

die diese Restvariabilität rechtfertigten und erklärten. Die Liste der relevan-
ten Entitäten, welche die Fähigkeit zum Auftreten in dem Netz besaßen, um
dessen Zusammenhalt man bemüht war, ließ sich aus Gründen der Ökonomie
der eigentlichen Aufbereitungsarbeit nicht unbegrenzt verlängern. Der Zweck
der Modellbildung war, die Komplexität durch eine Investition in die Auswahl
und in die Standardisierung der beschriebenen Entitäten zu reduzieren, wobei
der erwartete Nutzen darin bestand, diese partielle Modellbildung mit einer
größeren Menge von Darstellungen und Handlungen zu verbinden. Diese In-
vestition setzte ein Opfer voraus, bei dem es sich hier um eine Restvariabilität
handelte – vergleichbar mit der internen Variabilität, die der Taxonom“ bei

der Konstruktion einer Äquivalenzklasse verliert. Aber selbstverständlich ist
es immer möglich, von dieser nichterklärten Variabilität auf die Formulierung
neuer explikativer Variabler zurückzugehen und dadurch die Restvarianz zu
reduzieren – so wie auch der Taxonom seine Klasseneinteilung stets verfei-
nern17 kann.
17
In der Mathematik werden die Bezeichnungen Verfeinerung“ und Vergröbe-
” ”
rung“ in Bezug auf Zerlegungen verwendet. Man verfeinert eine durch eine
Äquivalenzrelation induzierte Klasseneinteilung dadurch, daß man die gegebenen
Äquivalenzklassen ihrerseits weiter zerlegt.
342 9 Modellbildung und Anpassung

Und schließlich können die Residuen als Ergebnisse von Meßfehlern be-
trachtet werden. In diesem Fall wird vorausgesetzt, daß die im vorherge-
henden Kapitel beschriebene Aufzeichnungs- und Kodierungsarbeit in einer
Black Box“ eingeschlossen und isoliert ist, die sich von dem Netz unter-

scheidet, über welches das Modell Rechenschaft geben möchte. Sogar die
Wahl des Ausdrucks Meßfehler“ impliziert eine realistische Epistemologie,

gemäß der die Objekte wenigstens theoretisch bereits vor der oben analy-
sierten Identifikations-, Definitions- und Begrenzungsarbeit existieren. Oder
zumindest wird von dieser Sequenz von Handlungen und den Entitäten, die
sie implizieren, vorausgesetzt, daß sie sich außerhalb der Liste der Objekte
und Aussagen befinden, die als relevant beibehalten werden. Diese außerhalb
der Liste befindlichen Entitäten lassen sich auch nicht durch den rhetori-
schen Operator alles geschieht so, als ob“ retten. Jedoch ist die Position,

welche die genannte Eingrenzung und die Konstruktion dieser Liste denun-
ziert, unhaltbar – es sei denn, man befürwortet eine andere Liste, von der
man eine größere Vollständigkeit voraussetzt. Es ist besser, die Tatsache zur
Kenntnis zu nehmen, daß eine realistische Definition der relevanten Objekte
sowohl ökonomisch als auch kognitiv tiefgründige Rechtfertigungen hat, die
in der Finalität der Modellbildung und in deren Registrierung im Rahmen
von Beschreibungs- und Entscheidungsnetzen zum Ausdruck kommt. Die Hy-
pothese, daß Objekte zeitlich vor ihrer kognitiven Konstruktion existieren,
ermöglicht es, diese Objekte als Bezugskonventionen zu verwenden – als An-
satzpunkte oder Elemente, um Ordnung in das Chaos zu bringen und um als
objektive“ Markierungen zu dienen. Diese objektiven“ Markierungen sind
” ”
nichts anderes, als gemeinsame Eigenschaften von intrinsisch verschiedenen
Subjekten (Individuen). Aus dieser Sicht ist eine Gesellschaft unvorstellbar,
in der die Menschen auf eine derartige realistische Haltung verzichten können.
Die begriffliche Trennung zwischen dem Inneren der Black Box (das heißt
den im Kapitel 8 beschriebenen Aufzeichnungsverfahren) und ihrem Äuße-
ren (Aufstellung von Beziehungen zwischen Ausgängen geschlossener Boxen,
um Boxen höherer Ordnung zu bilden) spiegelt sich in der Sprache der Öko-
nometrie dadurch wider, daß man einerseits zwischen den Meßfehlern und
andererseits zwischen der Restvariabilität und den vernachlässigten Varia-
blen unterscheidet. Diese Unterscheidung mag willkürlich erscheinen, aber sie
steht in einem tiefgründigen Zusammenhang zu den Institutionen, zu den Be-
schreibungsroutinen und zu den impliziten Erkenntnistheorien, ohne die keine
Rhetorik vorstellbar wäre, die Wissenschaft und Handlung miteinander ver-
bindet. Nichtsdestoweniger lösen sich diese Kodierungs- und Taxonomierouti-
nen in Krisen- und Innovationszeiten auf und es werden andere Aktionsweisen
eingeführt, die mit anderen Indikatoren ausgestattet sind. Genau das geschah
in den 1930er Jahren, einem Jahrzehnt, das besonders fruchtbar an Innova-
tionen dieses Typs war. Zu diesen Innovationen kann man die von Frisch und
Haavelmo geprägte Formulierung einer Rhetorik zählen, welche die beiden
früher einander gegenübergestellten Begriffe des Fundamentalgesetzes“ und

Autonomie und Realismus von Strukturen 343

der beobachteten Regelmäßigkeit umfaßte und diese Begriffe fortan durch den
Begriff der Autonomie einer Relation miteinander vereinigte.

Autonomie und Realismus von Strukturen


Das oben vorgestellte makrodynamische Modell von Tinbergen war explizit
durch das Modell von Frisch (1933, [99]) inspiriert worden, vor allem durch
die Verwendung einer Endgleichung“, die zweite Differenzen und eine einzi-

ge, zeitverschobene Variable enthielt. Man vermutete, daß diese Nachtzug“-

Gleichung die gesamte strukturelle Dynamik des Modells in sich vereinte. Aber
dennoch übte Frisch (1938, [100]) Kritik an Tinbergen: die Relationen, die Tin-
bergen auf der Grundlage von Beobachtungen schätzte, seien nicht struktu-

rell“, sondern konfluent“ in dem Sinne, daß sie aus einer mehr oder weniger

komplexen Kombination der Basisrelationen resultierten, die unmöglich direkt
zu beobachten sind, sondern das Wesen der Phänomene widerspiegeln. Der
Konfluenzbegriff war von Frisch 1934 geprägt worden. Nachdem er 1933 sein
Schaukelstuhlmodell auf der Grundlage fiktiver Parameter konstruiert hatte,
welche die Struktur“ des zentralen Kerns dieses Modells charakterisierten,

suchte er nach Mitteln, um diese Parameter zu schätzen. Aber während er an
einem System mit mehreren Gleichungen arbeitete, stolperte er über die Frage
der Multikollinearität“: einige Relationen ließen sich zur Beschreibung ande-

rer Relationen linear kombinieren und deswegen gab es keine Garantie für die
Stabilität der Anpassungen, die mit den Ausgangsgleichungen oder mit den
kombinierten Gleichungen durchgeführt wurden.18 Nun sind die beobachtba-
ren Relationen, deren Koeffizienten geschätzt werden können, im Allgemeinen
derartige Linearkombinationen von wesentlichen, aber nicht beobachtbaren
strukturellen“ Relationen. In dieser Terminologie nimmt der Strukturbegriff

die Stelle der Realität“ ein, die den Beobachtungen logisch vorausgeht –

ähnlich wie bei Quetelet, bei dem der unsichtbare Durchschnittsmensch ei-
ne tieferliegende Realität hatte als dessen Manifestationen, die kontingent,
aber sichtbar waren. Von nun an wurde diese Realität höherer Ordnung je-
doch explizit mit einem anderweitig ausgearbeiteten Konstrukt verbunden –
nämlich mit der Wirtschaftstheorie, was bei Quetelet nicht der Fall war. Aber
auch wenn die konfluenten Relationen beobachtbar waren, hatten sie einen
großen Nachteil: sie waren voneinander abhängig. Genauer gesagt führte ei-
ne Änderung der Parameter einer Relation zu einer Änderung der Parameter
der anderen Relationen. Das heißt diese Relationen waren nur geringfügig
autonom“, während die strukturellen Beziehungen in größerem Maße auto-

nom waren. Frisch brachte diese Idee in seinem Kommentar zum Modell von
Tinbergen klar zum Ausdruck:
18
Der von Frisch und Haavelmo verwendete Begriff der Multikollinearität umfaßte
den Begriff der simultanen Gleichungen und den Begriff der Multikollinearität
im heutigen Sinne. Multikollinearität im heutigen Sinne bedeutet, daß gewisse
Variable ihrerseits Kombinationen von anderen Variablen sein können.
344 9 Modellbildung und Anpassung

Die autonomen Merkmale eines Systems sind in dem Sinne autonom,


daß sie sich nicht verändern, wenn die anderen Strukturmerkmale
geändert werden. Die Suche nach diesen Merkmalen darf nicht nur em-
pirisch erfolgen, sondern muß auch abstrakte Methoden nutzen. Wir
werden dazu veranlaßt, eine Art Superstruktur zu konstruieren, die
uns dabei hilft, diese speziellen Gleichungen aufzuspüren, denen wir
im obengenannten Sinne einen hohen Grad an Autonomie zuschrei-
ben. Je höher dieser Grad an Autonomie ist, desto fundamentaler ist
die Gleichung und desto tiefgründiger ist die Einsicht, die wir in die
Funktionsweise des Systems haben, kurz gesagt: desto näher sind wir
einer wirklichen Erklärung. Derartige Relationen sind das Wesen der
Theorie. (Frisch (1938, [100]), zitiert von Aldrich, 1989, [3]).

Folglich gesteht der Ökonom, der nach einer neuen Formulierung der de-
duktiven Wirtschaftswissenschaft mit Hilfe von empirischen Beobachtungen
sucht, der Autonomie bei der Identifizierung der relevanten Relationen einen
privilegierten Status zu. Dennoch äußerte Frisch zehn Jahre später einigen
Pessimismus in Bezug auf die Möglichkeit, autonome Relationen zu finden.
Er hatte sogar beabsichtigt, durch direkte Befragungen zum Verhalten von
Individuen nach diesen Beziehungen zu suchen:
Es ist selten, daß die Daten eine autonome Strukturgleichung tatsäch-
lich numerisch bestimmen können. Am häufigsten erhalten wir eine
Gleichung, die schwach autonome Kovariationen widerspiegelt. Man
muß nach anderen Mitteln suchen, um Informationen über die numeri-
schen Parameter unserer Strukturgleichungen zu bekommen. Der ein-
zige mögliche Weg scheint darin zu bestehen, daß wir die Methode der
Befragungen mehr nutzen, als wir es bisher tun: wir müssen Personen
oder Gruppen befragen, was sie unter diesen oder jenen Umständen
tun würden. (Frisch, (1948, [101]), zitiert von Aldrich, 1989, [3]).

In diesem Fall sind wir nicht mehr sehr weit von Quetelet und seinem
Durchschnittsmenschen entfernt. Die Verbindung der beiden Methoden, das
heißt der theoretischen hypothetisch-deduktiven Methode einerseits und der
empirischen statistisch-induktiven Methode andererseits, bleibt auch weiter-
hin der Gegenstand epistemologischer Kontroversen, die weder Anfang noch
Ende haben (in dem Sinne, daß man nicht weiß, ob man mit der theoretischen
Seite oder der empirischen Seite beginnen soll) – es sei denn, man koppelt die-
ses repetitive Gegenüber an einen dritten Pol an, der aus der Verwendung der
betreffenden Konstruktionen und ihrer Eintragung in ein Netz von Handlun-
gen besteht, die sich auf Messungen stützen. Haavelmo ging in seinem 1944
veröffentlichten programmatischen Text The probability approach in econo-

metrics“ in diese Richtung. Er gab drei Gründe an, die für die Suche nach
autonomen Relationen sprechen: sie sind stabiler, sie sind verständlich (in-
terpretierbar) und vor allem sind sie nützlich für die Wirtschaftspolitik. Zur
Illustration seiner Überlegung verwies er darauf, wie ein Auto funktioniert:
Autonomie und Realismus von Strukturen 345

Führen wir mit einem Wagen Geschwindigkeitstests auf einer flachen


und trockenen Straße durch, dann stellen wir eine präzise funktionale
Beziehung zwischen dem Druck auf das Gaspedal (oder dem Abstand
zwischen Pedal und Fußboden) und der entsprechenden Geschwindig-
keit des Wagens her. Es reicht aus, diese Beziehung zu kennen, um
mit einer gegebenen Geschwindigkeit zu fahren. Möchte aber jemand
wissen, wie ein Kraftwagen funktioniert, so werden wir ihm nicht ra-
ten, seine Zeit mit der Messung dieser Beziehung zu verschwenden, die
den inneren Mechanismus mit dem Schleier eines undurchdringlichen
Geheimnisses zudeckt; außerdem könnte eine derartige Beziehung je-
derzeit aufhören zu wirken, sobald in einem Teil des Wagens irgendein
Durcheinander auftritt oder eine Änderung durchgeführt wird. Wir sa-
gen, daß eine solche Beziehung eine geringe Autonomie hat, denn ihr
Vorhandensein hängt vom gleichzeitigen Wirken einer großen Anzahl
anderer Beziehungen ab, von denen manche vorübergehend auftreten.
Andererseits sind die allgemeinen Gesetze der Thermodynamik und
die Reibungsgesetze in hohem Grade autonom in Bezug auf den Kraft-
wagenmechanismus, denn sie beschreiben das Funktionieren gewisser
Teile dieses Mechanismus unabhängig davon, was in den anderen Tei-
len geschieht (Haavelmo, 1944, [116]).
Diese Auffassung von der Autonomie ist direkt mit der Möglichkeit ver-
bunden, das Modell zu verwenden, um die Konsequenzen wirtschaftspoliti-
scher Entscheidungen zu testen, indem man analytisch die Wirkungen der
verschiedenen Aktionen voneinander trennt:
Hat das System in der Vergangenheit funktioniert, dann hilft das ent-
sprechende Wissen dem Ökonomen bei der Beurteilung der Auswir-
kungen eines künftigen Aktionsplans, falls er denkt, daß sich gewisse
Elemente des alten Systems nicht ändern. Nehmen wir beispielsweise
an, daß die Verbraucher ihre Einkünfte unabhängig von deren Ur-
sprung in derselben Art und Weise verwenden. Selbst wenn der künf-
tige Plan die Investitionsfunktion ändert, könnte doch die Verbrauchs-
funktion weiterhin zutreffen. (Haavelmo, 1943, [115]).
Der Begriff der Autonomie spiegelt die Idee wider, daß man zumindest
in Form einer intellektuellen Hypothese einen elementaren Wirtschaftsmecha-
nismus isolieren kann, indem man die Werte der anderen Faktoren festhält.
Haavelmo spricht von hypothetischen freien Variationen“, die er den durch
” ”
ein System simultaner Relationen beschränkten Variationen“ gegenüberstellt.
Diese Idee war – obwohl es den Anschein hatte – keine einfache Wiederholung
der alten Ceteris-paribus-Klausel. Die Idee ist subtiler, da sie sich zum Begriff
der Gleichzeitigkeit – auch als Simultaneität“ bezeichnet – komplementär

verhält. In dem Maße, wie mehrere strukturelle (und somit autonome) Be-
ziehungen unabhängig voneinander auf stochastische Weise wirken, wird die
Wahrscheinlichkeitsverteilung der beobachteten Daten durch dieses System
346 9 Modellbildung und Anpassung

simultaner Relationen beschränkt. Die bedingten Relationen, welche die Va-


riablen in dem auf diese Weise eingeschränkten Raum verknüpfen, unterschei-
den sich von den autonomen Beziehungen: die letzteren beschreiben hypothe-
tische Relationen, die vom Gesamtsystem abstrahieren. Die Schätzungen (mit
Hilfe der Maximum-Likelihood-Methode) müssen in diesem eingeschränkten
Teilraum durchgeführt werden, da sie andernfalls ein Simultan-Bias erleiden
würden. Die beiden für die Konstruktion von Haavelmo charakteristischen Be-
griffe der Autonomie und der Gleichzeitigkeit hängen also untrennbar zusam-
men. In den günstigsten Fällen kann ein System von simultanen Gleichungen
mit Hilfe der Matrizenalgebra19 gelöst werden. Das ermöglicht die Formulie-
rung reduzierter Gleichungen durch eine Linearkombination autonomer Re-
lationen, woraus sich dann unverzerrte Schätzungen der Strukturparameter
ableiten lassen. Aber diese reduzierten – im Sinne von Frisch konfluenten“ –

Gleichungen haben den Nachteil, daß sie nicht autonom sind. Ihre Parameter
hängen vom gesamten System ab und können nicht direkt dazu verwendet
werden, eine Wirtschaftspolitik zu testen. Die Tests implizieren, daß man das
gesamte Modell laufen läßt, das entsprechend der Anzahl der üblicherweise als
relevant beibehaltenen Relationen und Variablen mehr oder weniger komplex
sein kann.
So kam es zu Beginn der 1940er Jahre zu einer Synthese von kognitiven
und politischen Elementen, die zuvor disjunkt waren: alte Wirtschaftstheori-
en (Gesetz von Angebot und Nachfrage) und neue Wirtschaftstheorien (Key-
nesianische Makroökonomie), statistische Aufzeichnungen, die von jetzt an
als respektable Partner betrachtet wurden, Schätzungen des Nationaleinkom-
mens, inferentielle Statistik auf der Grundlage der Wahrscheinlichkeitsrech-
nung, lineare Algebra und Matrizendiagonalisierungstechniken und schließlich
eine wirtschaftspolitische Situation, die staatliche Eingriffe vorstellbar machte,
welche ihrerseits auf eine Regulierung des globalen wirtschaftlichen Gleichge-
wichts gerichtet sind. Dieses neuartige Gemisch ermöglichte den Erfolg der
vom Tinbergenschen Modell inspirierten makroökonometrischen Modelle (De
Marchi, 1991, [57]), die anschließend durch die Arbeit der Mitglieder der
amerikanischen Cowles Commission untermauert wurden: Haavelmo, Klein,
Koopmans, Marschak und Wald. So zitierten die Letztgenannten häufig zwei
Fälle, in denen es die Schätzung eines Strukturmodells der Regierung ermögli-
chen kann, eine optimale Entscheidung zu treffen: Änderung der Steuersätze
und Preiskontrolle (Epstein, 1987, [85]). Sie ließen sich von Keynesianischen
Überlegungen zur Wirtschaft leiten und betonten die Anreizeffekte etwaiger
Entscheidungen, indem sie sich auf ihre Strukturmodelle stützten. Aber das
in diesem Sinne verwendete Wort Struktur“ hat eine Färbung, die wesentlich

vom Sprachgebrauch anderer, vom Institutionalismus beeinflußter Ökonomen
abweicht, zum Beispiel vom Sprachgebrauch der Ökonomen des National Bu-
reau for Economic Research (NBER). Sprechen diese Ökonomen von Struktur,
dann meinen sie gesetzlich festgelegte, vorgeschriebene oder herkömmliche
19
Auch Matrixalgebra“ genannt.

Drei Methoden zur Berechnung des Nationaleinkommens 347

Verfahren, die das Funktionieren der Märkte bestimmen: Antitrustgesetze,


gewerkschaftliche Vorschriften, Lohnvereinbarungen, Tarifverhandlungen und
Arbeitslosenunterstützung. Für die Ökonometriker dagegen bezieht sich der
Begriff der Struktur auf tiefgründige Wirtschaftsmechanismen, die den sta-
tistisch beobachteten Regelmäßigkeiten zugrundeliegen und sich theoretisch
durch autonome Relationen ausdrücken lassen. Dieser Unterschied in Bezug
auf den Standpunkt wirft Licht auf die Kontroverse, die 1949 in den Personen
von Vining und Koopmans die Orientierungen der beiden Gruppen miteinan-
der konfrontierte.
Ihre Auffassung von Wirtschaftstätigkeit hinderte die Mitglieder der Cow-
les Commission nicht daran, mitunter Vorschläge zu unterbreiten, die sich
– obwohl im Rahmen des Keynesschen Standpunktes der Regulierung durch
öffentliche Nachfrage formuliert – nichtsdestoweniger als überraschend erwei-
sen konnten. So berichtet zum Beispiel Epstein, wie im Jahre 1945 Marschak,
Klein und der Atomphysiker Teller zusammen auf Bitte einer Gruppe von
Wissenschaftlern intervenierten, die wegen der Entwicklung von Kernwaffen
beunruhigt waren. In ihrem gemeinsamen Text unterbreiteten sie folgenden
Vorschlag: zur Minimierung der Auswirkungen eines Atomangriffs auf die Ver-
einigten Staaten sollte die gesamte Bevölkerung in neuen Städten angesiedelt
werden, die sich entlang von Großachsen ausbreiten – daher der Name rib-

bon cities“. Die Wissenschaftler schätzten, daß dieses Projekt bei jährlichen
Ausgaben in Höhe von zwanzig Milliarden Dollar über einen Zeitraum von
fünfzehn Jahren zu realisieren sei. Jedoch würde dieses Projekt dazu führen,
daß viele Gewohnheiten, die sich die Bevölkerung der großen Städte im Lau-

fe des vergangenen Jahrhunderts zu eigen gemacht hat, preisgegeben werden
müßten“. War das ein ernst gemeintes Projekt oder handelte es sich um einen
Ulk von Intellektuellen? In jedem Fall spiegelte das Projekt gewiß eine Auf-
fassung wider, die auf die Kriegszeiten zurückging: eine massive und koor-
dinierte Intervention seitens des Staates war vorstellbar und ließ sich durch
makroökonomische Argumente rechtfertigen, die von einem Beschreibungs-
systems neuen Typs gestützt wurden, nämlich von der volkswirtschaftlichen
Gesamtrechnung.

Drei Methoden zur Berechnung


des Nationaleinkommens
Unter den Ingredienzien, die den Aufbau und Einsatz der ersten ökonometri-
schen Modelle ermöglichten, nahm die volkswirtschaftliche Gesamtrechnung
als kohärentes und exhaustives Definitionssystem einen zentralen Platz ein.
Dieses System diente darüber hinaus auch zur Klassifikation und Aggregation
von wirtschaftsrelevanten Handlungen, da diese mit Hilfe der genannten globa-
len Modelle beschrieben und zueinander in Beziehung gesetzt wurden. Durch
den Umfang der Investitionen bei der Aufbereitung und Zirkulation der dabei
einbezogenen statistischen Aufzeichnungen läßt sich die volkswirtschaftliche
348 9 Modellbildung und Anpassung

Gesamtrechnung mit anderen großen wissenschaftlichen Operationen verglei-


chen, die nur durch einen öffentlichen Willen und eine öffentliche Finanzie-
rung gewährleistet werden konnten – Operationen dieser Art haben seit den
1930er Jahren vor allem für den militärischen Bedarf zugenommen, wie man
anhand der verstärkten Forschungen auf den Gebieten der Kernphysik, Luft-
fahrt, Raumfahrt und Elektronik sieht. Dieser Vergleich ist nicht zufällig, denn
während der beiden Weltkriege und unmittelbar danach unternahmen öffent-
liche Einrichtungen bedeutende Anstrengungen zur Berechnung des Natio-
naleinkommens und zu dessen Zerlegung nach verschiedenen Gesichtspunkten
(in den Vereinigten Staaten erfolgte das nach dem Ersten Weltkrieg, in Groß-
britannien und in Frankreich nach dem Zweiten Weltkrieg). In diesen Zeiten
intensiver und koordinierter Mobilisierung der individuellen Unternehmen im
Rahmen eines vereinheitlichten Vorhabens erwiesen sich die Inventarisierung,
Klassifizierung und Zusammenfassung der Ressourcen – und deren Verwen-
dung in Form von nationalen Aggregaten – als kohärent mit der geplanten
Konzentration von Mitteln unterschiedlichen Ursprungs auf wissenschaftli-
che Großprojekte (Big Science). Aber auch außerhalb der kriegsbedingten
Ausnahmezeiten kam es in Krisensituationen oder bei besonderen politischen
Mobilisierungen zum Aufbau von koordinierten Aufzeichnungsnetzen und No-
menklaturen für wirtschaftsrelevante Handlungen: in den Vereinigten Staaten
in den 1930er Jahren, in Frankreich in den 1950er und 1960er Jahren und in
Osteuropa in den 1990er Jahren (im Falle Osteuropas war das – wenn auch auf
andere Weise – bereits im Rahmen der zentralisierten Planung durchgeführt
worden).
Zwar wurden die ersten Versuche zur Berechnung dieser nationalen Ag-
gregate gegen Ende des 19. Jahrhunderts unternommen (wenn wir die von
William Petty und Gregory King im 17. Jahrhundert durchgeführten Berech-
nungen außer Acht lassen), aber die Bedeutung dieser Berechnungen hatte sich
zwischen 1900 und 1950 vollständig geändert. Sogar das Wort Nationalein-

kommen“, das lange für diese Form der buchhalterischen Erfassung verwendet
wurde, ist signifikant. Zunächst betrachtete man die Einkommensbildung: Ar-
thur Bowley (1919, [31]) konzentrierte sich bei seinen Untersuchungen auf den
Ursprung der Einkommen entsprechend den Tätigkeitsbereichen und auf die
Einkommensverteilung in den sozialen Schichten. In den 1920er und 1930er
Jahren wurden dann Wesley Mitchell und Simon Kuznets (im amerikanischen
NBER) sowie Colin Clark (in Großbritannien) durch die Analyse der Kon-
junkturzyklen angeregt, Zeitreihen zu konstruieren und die Nutzung der pro-
duzierten Güter (Investition, Endverbrauch oder Zwischenverbrauch durch die
Unternehmen) sichtbar zu machen – und nicht mehr nur die Einkünfte, die
von diesen Gütern generiert werden. Die von Keynes in seiner General Theory
(1936) eröffnete Perspektive und die durch die Kriegsfinanzierung aufgewor-
fenen Probleme führten zu einer Verallgemeinerung der Zerlegung des Sozial-
produktes in die drei Komponenten C, I und G der Endnutzung: Verbrauch
(consumption), Investition (investment), öffentliche Ausgaben (government
expenditure) (Patinkin, 1976, [218]).
Drei Methoden zur Berechnung des Nationaleinkommens 349

Diese verschiedenen Stufen entsprachen den unterschiedlichen Auffassun-


gen von der Rolle und Tragweite der öffentlichen Wirtschaftstätigkeit. Da-
her kam es auch zu unterschiedlichen Formulierungen der buchhalterischen
Beschreibungen auf der Grundlage von Quellen, die ihrerseits große Unter-
schiede aufwiesen, da sie an Handlungen unterschiedlicher Finalität gebunden
waren. Man findet hier bereits die drei Sichtweisen zur Berechnung des Na-
tionaleinkommens (oder später des Bruttosozialproduktes): den sektoriellen
Ursprung (Landwirtschaft, Industrie, Dienstleistungen), die Aufteilung der
Produktionsfaktoren (Löhne, Gewinne, Steuern) und schließlich die Nutzung –
ausgedrückt durch die Endnachfrage (Verbrauch, Investition, öffentliche Aus-
gaben).20
Die ersten beiden Sichtweisen waren typisch für die Untersuchungen von
Bowley (1919, [31]) und die allerersten Veröffentlichungen des 1920 gegründe-
ten NBER. In diesen Publikationen ging es um das – sich in der Steigerung
des Nationaleinkommens widerspiegelnde – langfristige Wirtschaftswachstum
und um dessen Verteilung entsprechend unterschiedlichen Einteilungen (Indu-
striearbeiter und Landwirte; Kapital und Arbeit; Größe der Betriebe). Laut
Vorwort zur ersten Arbeit des NBER (1921, [209]) ging es um die Feststellung
dessen ob sich das Nationaleinkommen dazu eignet, allen einen annehmba-

ren Lebensstandard zur Verfügung zu stellen, ob dieses Einkommen ebenso so
schnell wächst wie die Bevölkerung, und ob seine Aufteilung unter den Indi-
viduen mehr oder weniger ungleichmäßig verläuft.“ Bowley nahm bei seiner
Arbeit den Standpunkt der Armutsuntersuchungen ein, wie sie von den Sozial-
reformern des 19. Jahrhunderts durchgeführt worden waren (Booth, Rown-
tree: vgl. Kapitel 7 und 8). Sein 1919 erschienenes Buch verfolgte das Ziel,
den Gesamtbetrag und die Quellen der aggregierten Einkünfte der britischen

Bevölkerung sowie die Anteile dieses Aggregats zu beschreiben, die an die
verschiedenen Schichten gehen“. Er stützte sich vor allem auf Statistiken der
Einkommensteuerbehörde, bei der es nur wenige Steuerbefreiungen gab. Bow-
leys Untersuchungen enthielten keine Schätzungen in Bezug auf Zeiträume
von aufeinanderfolgenden Jahren und gingen auch nicht auf die Frage der
Konjunkturzyklen ein. In einem weiteren Buch (1927) spielte Bowley auf die
Instabilität der Industrie“ an, die seinen Schätzungen des Nationaleinkom-

mens einen angemessenen Grad an Permanenz“ entzog. Das zeigt deutlich,

daß er nicht die Absicht verfolgte, Konjunkturschwankungen zu analysieren,
wie es seine Nachfolger am NBER und vor allem Mitchell und Kuznets taten.
Der Schwerpunkt dieser Fragen, die mit den Schätzungen des Nationalein-
kommens zusammenhängen, verlagerte sich von der Einkommensverteilung
zur Erklärung der Konjunkturzyklen und dadurch änderte sich auch der Auf-
bau der Fragen. Mitchell (1923, [200]) und später Kuznets (1934, [162]) sahen
20
Diese drei Sichtweisen entsprechen teilweise den historisch aufeinanderfolgenden
Handlungsfinalitäten des Staates, die insbesondere von Musgrave (1959, [207])
unter Verwendung der Bezeichnungen Zuteilung, Verteilung und Stabilisierung
(oder Regulierung) beschrieben worden sind.
350 9 Modellbildung und Anpassung

nämlich in der Investitionsvolatilität“ die Haupterklärung für die Zyklenana-



lyse, die ab 1929 zu einer entscheidenden Frage wurde. So erklärte beispiels-
weise Kuznets im NBER-Bulletin des Jahres 1934, daß die jährliche Schätzung
der Nettokapitalbildung nicht nur eine Messung der Wohlstandszunahme dar-
stellt, sondern auch Informationen über die zyklischen Schwankungen bei der

Produktion von Ausrüstungsgütern“ liefert, wobei diese Schwankungen sehr

weit von den Produktionsschwankungen derjenigen Güter entfernt sind, die
innerhalb eines kurzen Zeitraums konsumiert werden“. Die Unterschiede in
den Schwankungsrhythmen dieser beiden Güterkategorien drängten nachge-
rade dazu, das Nationaleinkommen entsprechend diesem Aspekt der Endnut-
zung zu zerlegen, das heißt indem man einen Unterschied zwischen Investiti-
on und Endverbrauch machte. Die genannten Kategorien waren auch in den
Zyklentheorien vorhanden, die vor der Keynesschen General Theory (1936)
publiziert wurden, aber das Buch von Keynes gab diesem Analysetyp einen
starken Impuls. Insbesondere ging diese Theorie mit dem Anreiz einher, die
Komponente G der öffentlichen Ausgaben in der Zerlegung C + I + G des
Nationaleinkommens zu isolieren, was zuvor nicht getan wurde. Diese drit-
te Sichtweise auf die Analyse des Nationaleinkommens konzentrierte sich auf
die Zerlegung der Endnutzungen der Produktion und eignete sich gut für
Präkeynesianische und Keynesianische Zyklentheorien, konnte sich aber – im
Unterschied zu den beiden anderen Sichtweisen – nicht auf bereits existieren-
de statistische Aufzeichnungen stützen. Die in den Vereinigten Staaten schon
seit langem durchgeführten Betriebszählungen ermöglichten eine Schätzung
der von den einzelnen Branchen erzielten Mehrwerte, deren Summierung zu
einem Bruttoprodukt führte – falls die Analyse entsprechend den Sektoren
vorgenommen wurde. Die Einkommensteuerverwaltung stellte ein statistisches
Nebenprodukt dar, das sich aus der Sicht der Produktionsfaktoren“ verwen-

den ließ (zumindest im Fall von Großbritannien, nicht aber in den Vereinigten
Staaten, wo es diese Steuer noch gar nicht gab). Dagegen implizierte der Blick-
winkel Endnutzung“ die Durchführung neuer Untersuchungen in Bezug auf

Haushaltskonsum, Unternehmensinvestitionen und öffentliche Ausgaben.
Die Ausarbeitung und Verwendung entwickelter volkswirtschaftlicher Ge-
samtrechnungen führte zu einer umfassenden Erweiterung der Aufgaben und
der Rolle der Ämter für öffentliche Statistik. Dieser Trend begann in den Ver-
einigten Staaten in den 1930er Jahren, in Großbritannien in den 1940er Jahren
und in Frankreich in den 1950er und 1960er Jahren. Früher führten Univer-
sitätslehrer (Bowley, Clark) oder nichtstaatliche Forschungsabteilungen die
ersten Forschungsarbeiten zum Nationaleinkommen durch, zum Beispiel das
amerikanische NBER. Jedoch organisierte Kuznets ab 1932 eine Zusammenar-
beit zwischen dem NBER und dem Handelsministerium, dem die statistischen
Verwaltungsbehörden unterstanden, die sich in den 1930er Jahren tiefgreifend
veränderten – vor allem mit den ersten Anwendungen der Methode der Stich-
probenerhebungen (vgl. Kapitel 6 und 7). In Europa dagegen begannen die
Entscheidungsträger in Politik und Verwaltung erst während des Krieges (in
Großbritannien) oder nach dem Krieg (in Frankreich), sich die Sprache der
Theorien testen oder Diversität beschreiben? 351

Makroökonomie und der volkswirtschaftlichen Gesamtrechnung anzueignen


und diese Sprache zu sprechen. So kommentierte etwa Richard Stone, der
Gründervater der britischen volkswirtschaftlichen Gesamtrechnung, im Jahre
1976 die Vorkriegssituation folgendermaßen:
In Großbritannien gab es außerhalb der Universitäten vor dem Krieg
keinerlei Interesse für das Nationaleinkommen. Trotz der wirtschaftli-
chen Schwierigkeiten der 1920er und 1930er Jahre existierte der Begriff
der Nachfragesteuerung noch nicht. Die Politiker und die Beamten
dachten ganz einfach nicht in diesen Begriffen. Die Idee, daß Bowley,
Stamp und vor allem Clark eine für die praktischen Ziele der Wirt-
schaftspolitik potentiell nützliche Arbeit geleistet hatten, wäre auf
Unverständnis gestoßen oder hätte gar Spott hervorgerufen. (Stone,
1976, Brief an Patinkin).
Diese neue Sprache mußte jedoch erst verstanden, übernommen und auf
natürliche Weise verwendet werden. Es reichte nicht aus, daß die Idee ihren
Weg ging – zusätzlich mußte sie sich auch auf ein dichtes Netz von Auf-
zeichnungen und gesicherten Werkzeugen stützen, die diese Sprache nicht nur
glaubwürdig machten, sondern sie paradoxerweise auch in Vergessenheit gera-
ten ließen, da sie in Datenbanken, Konjunkturindikatoren und in den alltägli-
chen Argumentationen verankert war. In den 1930er Jahren existierten diese
Netze noch nicht und die Zahlen erweckten noch keinerlei Vertrauen. Wir er-
kennen das beispielsweise an der skeptischen Einstellung, die Keynes sowohl
gegenüber den Schätzungen von Colin Clark als auch gegenüber den Model-
len von Tinbergen hatte. Nach Aussage von Zeitzeugen hatte Keynes mehr
Vertrauen in die eigene Intuition als in die von den Statistikern gelieferten
Zahlen. Paßte ihm eine Zahl nicht, dann änderte er sie; war er aber zufälliger-
weise mit der Zahl zufrieden, dann wunderte er sich: Da schau her, ihr habt

die richtige Zahl gefunden!“ (Bezeugt von Tinbergen, zitiert von Patinkin.)

Theorien testen oder Diversität beschreiben?


Im Jahre 1930 wurde auf Initiative von Irving Fisher und Ragnar Frisch die
Gesellschaft für Ökonometrie (Econometric Society) gegründet. So entstand
das Wort Ökonometrie, das nach dem Vorbild der Begriffe Biometrie und
Psychometrie geprägt wurde. Die Ökonometrie setzte sich das Ziel, Fragen
der Ökonomie durch Einbeziehung der statistischen Methoden und der ma-
thematischen Beweisführung zu behandeln. Ein Jahr später, 1931, zählte die
Gesellschaft 91 Mitglieder, darunter Bowley, Schumpeter, Keynes, Tinbergen,
Sraffa und die Franzosen Darmois, Divisia und Roy. Die Gesellschaft versam-
melte Personen mit ziemlich unterschiedlichen Traditionen, noch bevor das
Wort Ökonometrie“ in den 1940er und 1950er Jahren allmählich allgemein

akzeptiert wurde – hauptsächlich (aber nicht nur) als Bezeichnung für das
Umfeld des Programms der Cowles Commission (Malinvaud, 1988, [185]). Die
352 9 Modellbildung und Anpassung

Kommission war 1932 von dem Geschäftsmann und Investmentberater Alfred


Cowles gegründet worden, der in den Zeiten der schlimmsten Krise die Gesell-
schaft für Ökonometrie finanziell unterstützen wollte, damit sie die Ursachen
der Konjunkturzyklen und Krisen erforscht und Mittel zur Vorbeugung von
Krisen findet. Die von Fisher und Frisch zusammengeführten intellektuellen
und professionellen Traditionen kamen in den Veröffentlichungen der 1933 ge-
gründeten Zeitschrift Econometrica zum Ausdruck. Vereinfacht gesagt lassen
sich drei recht unterschiedliche Traditionen erkennen: die Wirtschaftsstatistik,
die Wirtschaftsrechnung und die mathematische Ökonomie.
Die bereits genannten Wirtschaftsstatistiker benutzten die Statistik in de-
skriptiver Weise. Diese Statistiker waren mit ihren Daten und mit den Ob-
jekten, die sie analysierten, äußerst vertraut – aber sie zögerten, ihre dies-
bezüglichen Beobachtungen in einer Theorie zu verallgemeinern oder zu for-
malisieren. Das war die Tradition von Moore, Mitchell und auch die Tradition
der Konjunkturbarometer“ von Harvard (W. Persons). Diese Richtung, die

sich mit der Aufdeckung von statistischen Regelmäßigkeiten und nicht mit
ökonomischen Gesetzen befaßte, wurde von Frisch und Haavelmo kritisiert:
die aufgestellten Beziehungen seien konfluent“ und nicht hinreichend au-
” ”
tonom“; sie würden nichts über die tiefgründigen Wirtschaftsmechanismen
aussagen. Diese Statistiker waren skeptisch in Bezug auf allzuweit vorangetrie-
bene Modellbildungen und befürchteten, daß man dabei das intuitive Erfassen
der analysierten Situationen aus den Augen verlieren könnte. Dieses intuitive
Erfassen ist seinerseits das Ergebnis der Kombination unterschiedlicher Er-
kenntnisweisen, die der Analytiker in sich aufgenommen hat. Den in Bezug
auf Modellbildungen skeptischen Standpunkt teilten im Amerika der 1930er
und 1940er Jahre eher die Mitglieder des NBER oder – in Frankreich – die
Begründer der Konjunkturanalyse, wie zum Beispiel Alfred Sauvy und später
Jacques Méraud. Aber die Ablehnung von Modellbildungen auf der Grund-
lage theoretischer Hypothesen konnte auch zu einer hohen Komplexität der
rein deskriptiven statistischen Techniken führen: Indexberechnungen, Zerle-
gungen von Zeitreihen und Korrekturen der saisonbedingten Schwankungen
ab Beginn der 1930er Jahre; später, in den 1970er Jahren, die mehrdimen-
sionale Datenanalyse und schließlich, in den 1980er Jahren, die Rückkehr zu
Methoden der Reihenanalyse unter Verzicht auf die Unterscheidung zwischen
explikativen“ (das heißt erklärenden) und explizierten“ (das heißt erklärten)
” ”
Variablen (autoregressive Vektoren). Diese Tradition der deskriptiven Wirt-
schaftsstatistik konnte sich also entweder auf historisches Wissen, Intuition
und Vertrautheit mit den Daten oder auf vorangetriebene Formalisierungen
stützen – stets war sie jedoch darauf bedacht, in Datennähe zu bleiben.
Die Wirtschaftsrechnung ist eine Ingenieurstradition, die in Frankreich seit
dem 19. Jahrhundert gepflegt wird (Dupuit, Cheysson, Colson, Gibrat, Massé,
Boiteux). Hierbei geht es – beispielsweise in den Bereichen der Investition oder
Tarifgestaltung – um die Optimierung von Entscheidungen auf der Grundlage
von Hypothesen der theoretischen Mikroökonomie (Etner, 1987, [86]). Die
mathematische Ökonomie gehörte – im Gefolge von Walras, Pareto und Mar-
Theorien testen oder Diversität beschreiben? 353

shall – zu einer überwiegend universitären Tradition (nicht so in Frankreich:


Allais war ebenfalls Ingenieur). Die Franzosen, die in den 1940er Jahren die
ersten Seminare zur Ökonometrie veranstaltet hatten, waren im Allgemeinen
Vertreter dieser beiden Strömungen und keine Statistiker (Bungener und Joël,
1989, [40]).
Für keine dieser drei Gruppen stellte sich wirklich das Problem, eine Wirt-
schaftstheorie eng mit statistischen Daten zu verbinden, denn die erste Gruppe
lehnte die Theorie ab und die beiden anderen Gruppen verwendeten dagegen
so gut wie keine Statistik. Dennoch war die Frage nach der Identifikation ei-
nes ökonomischen Gesetzes im Wirrwarr der Beobachtungen bereits in den
Jahren nach 1910 und in den 1920er Jahren von denjenigen Forschern aufge-
worfen worden, welche die Gesetze von Angebot und Nachfrage zu bestimmen
versuchten: Lenoir, Lehfeldt, Moore, Elmer Working und amerikanische Land-
wirtschaftsstatistiker (Christ, 1985, [46]). Die frühe Ökonometrie“ – die noch

nicht diesen Namen trug – stützte sich nicht auf wahrscheinlichkeitstheoreti-
sche Hypothesen, um die den Beobachtungen innewohnende Unbeständigkeit
und die Residuen der linearen Anpassungen zu interpretieren, die mit Hilfe der
Methode der kleinsten Quadrate durchgeführt wurden. Eine theoretische Ge-
samtlösung dieser Probleme wurde zu Beginn der 1940er Jahre von der Cowles
Commission und vor allem auch in den programmatischen Texten von Haa-
velmo (1943 [115] und 1944 [116]) vorgeschlagen: hierbei spielten – auf der
Grundlage theoretischer Hypothesen – die Begriffe der Gleichzeitigkeit und
der Eingrenzung des Raumes der zu ermittelnden Gesetze eine Rolle. Malin-
vaud war es, der nach einem Aufenthalt bei der Cowles Commission in den
1950er Jahren in Frankreich das Problem aufwarf und dessen Lösung angab,
die er auf klare und synthetische Weise neu formulierte. Seine ins Englische
übersetzten Handbücher wurden Bestseller der Vermittlung der Ökonometrie
in der Lehrtätigkeit. In einem zeitlichen Abstand von vierzig Jahren hatten
sich in Frankreich Lenoir und Malinvaud ein und dieselbe Frage gestellt: die
Frage nach dem Zusammenhang zwischen Theorien und Beobachtungen. Von
diesem Problem konnten – aus unterschiedlichen Gründen – weder die deskrip-
tiven Statistiker noch die mathematischen Ökonomen eine Vorstellung haben.
Lenoir und Malinvaud waren Beamte der statistischen Verwaltung (der SGF
und später des INSEE) und keine Universitätslehrer. Diese typisch französi-
sche Situation erklärt vielleicht, warum sie die Einzigen waren, die dieses
Problem erkannt hatten.
Die sehr allgemeine und mathematisch elegante Lösung von Haavelmo
stellte nach 1945 den Bezugsrahmen für alle weiteren Kontroversen dar, die
sich zum Beispiel auf den Primat einer speziellen Wirtschaftstheorie (NBER),
auf das Problem der Gleichzeitigkeit (Wold und rekursive Modelle) oder auf
die Unterscheidung zwischen exogenen und endogenen Variablen (Sims) be-
zogen. Die erstgenannte dieser Kontroversen brachte in der Zeit von 1947 bis
1949 die Cowles Commission und das NBER durch den argumentationsbe-
ladenen Meinungsaustausch zwischen Koopmans und Vining gegeneinander
auf. Diese Kontroverse kann auch aus der Sicht des Zusammenhangs zwischen
354 9 Modellbildung und Anpassung

Theorien und Beobachtungen interpretiert werden. Der Ausgangspunkt war


die schonungslose Kritik, die Koopmans in Bezug auf das 1946 erschienene
letzte Buch von Wesley Mitchell, dem Begründer des NBER, geübt hatte.
Dieses Buch (das Mitchell zusammen mit Arthur Burns verfaßt hatte) war
unter dem Titel Measuring Business Cycles erschienen. Der Artikel von Koop-
mans (1947, [156]) hatte den Titel Measurement Without Theory. Koopmans
attackierte die Richtung der deskriptiven Wirtschaftsstatistiker, die in ihren
statistischen Untersuchungen keinerlei Bezug auf irgendeine Theorie nahmen
und daher ihre Beobachtungen nicht prognostisch verallgemeinern konnten.
Er verglich die Position von Mitchell mit der Haltung von Kepler, der – nach
Meinung von Koopmans – Messungen akkumulierte, ohne ein Gesetz bewei-
sen zu können, während Newton in den Beobachtungen von Kepler die uni-
versellen Gravitationsgesetze identifizierte; die Cowles Commission war also
gewissermaßen der kollektive“ Newton der Wirtschaftswissenschaft. In dem

Moment, als dieser Artikel erschien, erkrankte Mitchell und starb im Jahre
1948. Rutledge Vining, ein junges Mitglied des NBER, gab Koopmans im
Jahre 1949 eine Antwort. Man tauschte noch zwei weitere Erwiderungen aus,
die zusammen im Review of Economics and Statistics veröffentlicht wurden.
Das Ganze bot ein gutes Bild der verschiedenen Möglichkeiten, die man da-
mals in Erwägung gezogen hatte, um eine theoretische Konstruktion oder die
historische Analyse einer ökonomischen Situation zu untermauern.
Der genannte Streit ließ sich als Wettbewerb um den Erhalt von Zuschüssen
der Rockefeller-Stiftung oder auch als Gegensatz zwischen zwei erkenntnis-
theoretischen Positionen in Bezug auf den Gegenstand der Sozialwissenschaf-
ten interpretieren: methodologischer Individualismus versus Holismus (Mirow-
ski, 1989, [198]). Es ist richtig, daß sich gewisse Teile des Meinungsaustausches
für die letztgenannte Interpretation eignen. Beispielsweise argumentierte Vi-
ning in einer Art und Weise, die an die Durkheimsche Soziologie erinnerte,
daß das Aggregat eine von seinen Bestandteilen verschiedene Existenz hat

und ein charakteristisches Verhalten aufweist, das sich nicht vom Verhalten
der Bestandteile ableitet“. Hierauf entgegnete ihm Koopmans:
Formuliert eine Theorie (möglicherweise unter Verwendung wahr-
scheinlichkeitstheoretischer Begriffe), wie sich die Entscheidungen ei-
nes jeden Individuums einer Gruppe in Antwort auf die Entschei-
dungen der anderen Individuen und in Reaktion auf die entsprechen-
den Konsequenzen (Preise, Mengen, Erwartungen) bestimmen lassen,
dann ist die Gesamtheit der individuellen Verhaltensweisen logisch
äquivalent zum Gruppenverhalten. Eine solche Theorie läßt keinen
Platz für irgendein neues Merkmal der Gruppe als solcher. Ein deus
ex machina, der das Ergebnis beeinflussen möchte, kann das nur tun,
indem er auf die individuellen Verhaltensweisen einwirkt. Das schließt
nicht die Existenz von sozialen Phänomenen aus, die auf Nachah-
mungen, Modeerscheinungen, flüchtiger Begeisterung oder Panik be-
ruhen; oder auf Machtkämpfen, Preiskriegen, Absprachen oder Lobby-
Theorien testen oder Diversität beschreiben? 355

ing; oder auf einem Sozialkodex, einem Sinn für Verantwortung oder
auf einem persönlichen Opfer für ein gemeinsames Ziel. Aber diese
sozialen Verhaltensweisen können nur von Individuen als Mitgliedern
einer Gruppe gezeigt werden. (Koopmans, 1949, [156]).

Als Koopmans das NBER wegen dessen Messungen ohne Theorie“ kriti-

sierte, erwiderte Vining, daß seine Gruppe in Sachen Theorie nicht weniger
anspruchsvoll sei, ihre Theorie aber eine andere wäre und daß es außer der
Konstruktion, auf die sich die Cowles Commission beruft, auch noch andere
Konstruktionen gibt. Es sind demnach mehrere Darstellungen der Kontro-
verse möglich: eine externalistische Darstellung – formuliert in Begriffen der
Schlacht um die Ergatterung von Zuschüssen – und eine internalistische Dar-
stellung, ausgedrückt in Begriffen eines ständig wiederkehrenden epistemolo-
gischen Streits zwischen Holismus und Individualismus – in Begriffen also,
die für das Problem des Zusammenhangs zwischen Daten und Theorien nicht
spezifisch sind. Zwar sind beide Darstellungen aufschlußreich, aber keine von
ihnen erklärt, was die beiden Gruppen in Bezug auf die Frage des Status
und der Verwendung des statistischen Materials in einem wissenschaftlichen
Konstrukt voneinander trennt.
Koopmans äußerte die Meinung, daß es nicht möglich ist, aus einer Ge-
samtheit von statistischen Reihen verallgemeinerungsfähige Schlußfolgerungen
zu ziehen, falls die Prüfung dieser Reihen nicht durch theoretische Hypothesen
bezüglich der Verhaltensweisen der Individuen untermauert wird. Auf keinen
Fall könne der Zyklus an sich eine für die Analyse relevante Einheit bilden. Bei
Fehlen derartiger Hypothesen sind die Bewegungen der in der Wirtschafts-

wissenschaft verwendeten Variablen gleichsam Eruptionen eines rätselhaften
Vulkans, in dessen kochend heißen Kessel niemand je eindringen kann“. Die
gesammelten Daten müssen in Statistiken“ (im Sinne der inferentiellen Sta-

tistik) zusammengefaßt werden, die anzahlmäßig kleiner sind als die Beob-
achtungen, damit man Parameter schätzen und Hypothesen testen kann. Die
Gesamtheit der Relationen muß durch ein Wahrscheinlichkeitsmodell mit si-
multanen Gleichungen geschätzt werden. Nur diese Methode erlaubt es, über
die Akkumulation von Daten à la Kepler hinauszugehen und – wie Newton –
eine Theorie zu konstruieren, die durch Beobachtungen untermauert ist.
Vining erwiderte, indem er die Phase der Erforschung und Entdeckung der
Phase der Beweisführung und des Beweises gegenüberstellte. Die statistische

Effizienz“, auf die sich Koopmans berief, war mehr ein Attribut der Schätz-
und Testverfahren als ein Merkmal der inventiven Forschung:

Die Entdeckung von neuen Dingen ist nie ein Bereich gewesen, für den
die Eleganz der Gestaltung und Ausstattung von erstrangiger Bedeu-
tung waren; dieser Bereich entspricht schwerlich der Forschungsmetho-
de, bei der man sich auf die Forderung beschränkt, daß ein durch a
priori theoretische Begriffe charakterisiertes Verfahren gewisse vorge-
schriebene Formen hat und Ergebnisse produziert, die sich auf direkte
356 9 Modellbildung und Anpassung

Weise den Tests der Theorie von Neyman und Pearson unterziehen
lassen (Vining, 1949, [283]).

Vining befürchtete, daß eine Betonung der formalen Verfahren der Theo-
rie der inferentiellen Statistik dazu führen könnte, das Interesse für das ei-
gentliche Objekt und dessen vielfältige Aspekte aus den Augen zu verlieren:
Der Nachdruck, mit dem Koopmans die Verteilungshypothesen betont, ist

mehr von seinen Sorgen bezüglich einer Schätzung getragen, als von einem
tatsächlichen Interesse an der eigentlichen Verteilung“. Zur Untermauerung
seiner Verteidigung einer fein-deskriptiven“ Statistik erwähnte Vining eine

(1942 im Journal of the Royal Statistical Society veröffentlichte) Diskussion
über die Zukunft der Statistik“. Diese Diskussion fand zwischen Yule und

Kendall statt, den beiden Autoren des damals am häufigsten verwendeten
Statistikhandbuchs. Kendall hatte die Meinung vertreten, daß die Schätzung

der Eigenschaften einer Population auf der Grundlage einer Stichprobe auf
lange Zeit das wichtigste praktische Problem der Statistik ist“. Yule, der 1942
einundsiebzig Jahre alt war, widersprach, indem er die Bedeutung der inferen-
tiellen Statistik und der Zufallsstichproben herunterspielte, die in den 1930er
Jahren vor allem durch Neyman und Egon Pearson formalisiert worden wa-
ren. Kendall faßte auf seine Weise die Geschichte der Statistik zusammen –
so, wie er sie ein halbes Jahrhundert lang aus eigener Erfahrung erlebt hatte:
Das Hauptproblem des Statistikers besteht einfach darin, Daten zu be-
schreiben und auszusprechen, was diese Daten zeigen. Hierfür ist die
Theorie der Stichprobenauswahl sekundär ... Im Wesentlichen ent-
wickelte sich die Theorie im Laufe meines Lebens, indem sie dieser
Linie folgte. Zuerst wurden neue Methoden konzipiert und erst da-
nach schlossen sich Forschungen zu den möglichen Fehlern“ dieser

Beschreibungen an. In jüngerer Vergangenheit sind diese methoden-
orientieren Forschungen mit wenigen Ausnahmen (Zeitreihen in der
Wirtschaft, Faktorenmethoden in der Psychologie) vernächlässigt wor-
den – demgegenüber kam es zu einer völlig disproportionalen Entwick-
lung (ja zu einem fast bösartigen Wachstum) der Theorie der Stich-
probenauswahl. Ich hoffe, daß es einen Weg zurück zu den eigentli-
chen Beschreibungsmethoden gibt. Da sich diese Methoden nur im
Zusammenhang mit konkreten Problemen entwickeln, impliziert das
eine Rückkehr zur praktischeren Arbeit, und zu einem Weniger an
reiner Theorie ... Ein mit Vorsicht, gesundem Menschenverstand und
Geduld ausgestatteter Forscher hat größere Chancen, Fehlschlüsse zu
vermeiden, als ein unbesonnener Mensch, der sich von einer mecha-
nischen Anwendung der Regeln der Stichprobenauswahl leiten läßt.
Es gibt wichtigere Fehlerquellen als Schwankungen von Stichproben-
nahmen ... Nein, ich kann dieser Theorie nicht den vordersten Platz
zugestehen – einen vorderen Platz vielleicht, aber nicht den vordersten
(Yule (1942, [295]), zitiert von Vining, 1949, [283]).
Theorien testen oder Diversität beschreiben? 357

Über das Unverständnis hinaus, das Yule für die Techniken der Stichpro-
benauswahl und deren entscheidende Vorteile (und sei es auch nur in Bezug
auf die Erhebungskosten) erkennen ließ, ist aber auch noch etwas anderes
zu beachten. Sein Beharren auf der Deskriptionsmethode“, auf die sich Vi-

ning 1949 bezog, lenkte die Aufmerksamkeit auf eine andere Auffassung von
statistischer Arbeit – eine Auffassung, die nicht darauf abzielt, Theorien zu
testen. Diese Auffassung wurde später von den Spezialisten für Stichproben-
erhebungen entwickelt und aus den Erhebungen leiteten sie immer subtilere
Beschreibungen ab.
Yule, Bowley und March stellten 1909 auf dem in Paris veranstalteten
Kongreß des Internationalen Statistischen Instituts diejenigen Methoden der
mathematischen Statistik vor, die aus der Biometrie hervorgegangen waren:
die partielle Korrelation und die multiple Regression. Nationalökonomen, wie
zum Beispiel Lenoir und Moore, griffen diese Methoden auf und versuchten,
auf der Grundlage statistischer Beobachtungen die Gesetze von Angebot und
Nachfrage zu identifizieren und sogar Erklärungen für Konjunkturzyklen zu
finden. Die Wirtschaftstheorie begann, sich mit empirischen Aufzeichnungen
zu beschäftigen. Vierzig Jahre später, im Jahre 1949, wurden die Voraus-
setzungen für die Möglichkeit der genannten Wechselwirkung gründlich un-
tersucht. Das Fundament für diese Untersuchungen war in den 1930er Jahren
vor allem durch die Anwendung einer neuen Art und Weise gelegt worden,
über Statistik zu sprechen, nämlich im Rahmen von Wahrscheinlichkeitsmo-
dellen. Zu diesem Zeitpunkt konnten jedoch – wie die Kontroverse zwischen
Koopmans und Vining zeigt – die statistischen Werkzeuge mit unterschiedli-
chen Rhetoriken verbunden werden und vielfältige intellektuelle, soziale und
politische Ansätze unterstützen. Es gibt nicht nur eine einzige richtige Art
und Weise, die Zahlen sprechen zu lassen und sich in der Argumentation
auf Zahlen zu stützen. Das ist der Grund dafür, warum eine Soziologie der
Statistik unentbehrlich ist, in der jeder dieser Diskurse gleichermaßen ernst
genommen wird und alle Diskurse in dem Netz zur Geltung kommen, das
ihnen Zusammenhalt verleiht und von ihnen zusammengehalten wird.
Schlußfolgerung:
Das Unbestreitbare in Zweifel ziehen

Von den Eigenschaften, durch die sich die – mit der Schule der Annales
d’hygiène publique ab 1930 eingeleitete – Linie der offenen historischen For-
schung auszeichnete, war die Bezugnahme auf die statistischen Objektivie-
rungen bedeutsam. Aus dieser Sicht hat die quantitative Geschichte durch
Vermittlung von Simiand, Halbwachs und Labrousse Teile der Durkheimschen
Schule und – noch näher an der Quelle – Teile der auf Quetelet zurückgehenden
Denkweise geerbt, die sich auf Mittelwerte konzentrierte und die makrosozia-
len Regelmäßigkeiten den unvorhersehbaren und stets andersartigen Zufällig-
keiten der isolierten Ereignisse gegenüberstellte. Mit dieser Technik hat die
quantitative Geschichte versucht, über die individuellen oder konjunkturellen
Kontingenzen hinauszugehen und allgemeinere Dinge zu konstruieren, durch
die man je nach Sachlage soziale Gruppen oder Ereignisse von Langzeitdauer
charakterisieren kann. Das Bemühen, der chaotischen Vielfalt der singulären
Beobachtungen eine Form zu geben, impliziert den Rückgriff auf frühere Quel-
len und auf spezifische Kodierungen, bei denen sich der Historiker zwei Fragen
stellt: Sind diese Quellen verfügbar? Sind sie zuverlässig? Aus dieser Sicht ver-
gleicht man die Frage nach der Realität und nach der Konsistenz der Objekte
mit der Frage nach der Zuverlässigkeit der Messungen dieser Objekte. Die
kognitiven Verallgemeinerungswerkzeuge werden als gesichert und fest kon-
stituiert vorausgesetzt. Das einzige, was zählt, ist das kontrollierte Sammeln
und die technische, gegebenenfalls automatisierte Datenverarbeitung.
In diesem Buch habe ich versucht, diese klassische Beziehung zwischen
Geschichte und Statistik umzukehren, indem ich das rekonstruiert habe, was
Jean-Claude Perrot (1992, [227]) als konkrete Geschichte der Abstraktion“

bezeichnet. Die Denkweisen und die materiellen Techniken, die in den unter-
schiedlichen Etappen der Geschichte der Sozialwissenschaften (und vor allem
der Geschichte) ihren Einfluß geltend machen, stehen ihrerseits in Beziehung
zu den Künsten des Tuns und Sagens, die von der allgemeinen Geschichte
untersucht werden. Darüber hinaus hängen diese Denkweisen und materiel-
len Techniken mit den Debatten zusammen, die zu politischen und wissen-
schaftlichen Totalisierungsverfahren führen. So stehen den statistischen und
360 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

makroökonomischen Konstrukten, die in den Jahren von 1940 bis 1970 domi-
nierten, heute mikrohistorische (Ginzburg, 1980, [110]) und mikrosoziologische
Forschungen gegenüber – so als ob Zweifel hinsichtlich einer allumfassenden
Geschichte oder Sozialwissenschaft aufgekommen wären, die mit Hilfe großer
Mengen argumentieren. Aber ist diese Entwicklung rein epistemologisch? Be-
zieht sie sich nicht auf kognitive Techniken, welche man unabhängig von der
Geschichte konzipieren kann, die mit Hilfe dieser Techniken erklärt werden
soll?
Die Wiedereinführung der statistischen Argumentation als Abstraktions-
weise in einer umfassenderen Sozialgeschichte oder Politikgeschichte wirft ein
spezielles Problem auf, denn diese Technik ist zu einem Synonym für ein
Beweisinstrument und für einen Bezugsrahmen geworden, die kaum noch an-
gefochten werden. Die geistige Kehrtwendung, die eine Berücksichtigung der
Metamorphosen der statistischen Argumentation einschließt, erweist sich für
den Forscher als fast ebenso schwierig wie für den Normalbürger, der nunmehr
daran gewöhnt ist, die soziale Welt durch ein dichtes Netz von Indizes und
Prozentsätzen zu sehen. Sowohl in der wissenschaftlichen als auch in der sozia-
len Debatte drückte man sich fortan in einer selbstsicheren Sprache aus, deren
Transformationen wir in diesem Buch gefolgt sind. Aus der Perspektive des
Studiums der Anfechtbarkeit“ stelle ich hier einige der erzielten Ergebnisse

zusammen und untersuche, wie die statistischen Werkzeuge dazu beigetra-
gen haben, einen öffentlichen Raum – das heißt einen Raum für kollektive
Debatten – zu formen. Außerdem versuche ich, die Analyse der Rolle dieser
Techniken über die 1940er Jahre hinaus – die den Endpunkt der vorhergehen-
den Kapitel darstellen – weiterzuführen, indem ich kurz an die relative Krise
erinnere, die sich seit 1970 abzeichnet.21

Ein zu praktischen Zwecken


konstruierter kognitiver Raum

Der öffentliche Raum als Raum, in dem die Fragen der Gemeinde in einer
öffentlichen Debatte erörtert werden können, hängt mit der Existenz stati-
stischer Informationen zusammen, die allen zugänglich sind. Claude Gruson,
einer der Gründerväter der französischen öffentlichen Statistik, hat das als
eine notwendige Bedingung der Demokratie und der aufgeklärten Debatte
beschrieben und als einen unerläßlichen Bezugsrahmen dafür bezeichnet, die
massiven Trends“ der Gesellschaft herauszuarbeiten (Ladrière und Gruson,

21
Ich greife hier Teile von Darstellungen auf, die ausführlicher in zwei Artikeln
veröffentlicht worden sind. Der erste Artikel wurde im Courrier des statistiques
publiziert und bezieht sich auf die neuere Geschichte der französischen öffentlichen
Statistik (Desrosières, 1989, [64]). Der zweite, in Raisons pratiques erschienene
Artikel, ist Bestandteil einer dem Begriff des öffentlichen Raumes“ gewidmeten

Nummer dieser Zeitschrift (Desrosières, 1992, [65]).
Ein zu praktischen Zwecken konstruierter kognitiver Raum 361

1992, [163]). Aber die Zusammenhänge zwischen dem öffentlichen Raum und
der statistischen Argumentation liegen wahrscheinlich tiefer, als Gruson an-
deutet. Die Konstruktion eines statistischen Systems ist untrennbar mit der
Konstruktion von Äquivalenzräumen verknüpft, welche sowohl die politische
als auch die kognitive Konsistenz und Permanenz der Objekte garantieren,
die einen Bezugsrahmen für die Debatten liefern sollen. Der Repräsentati-
vitätsraum der statistischen Beschreibungen ist nur mit Hilfe eines Raumes
gemeinsamer mentaler Darstellungen möglich geworden, die von einer gemein-
samen Sprache getragen werden und vor allem durch den Staat und durch das
Recht abgegrenzt sind.
Der öffentliche Raum ist von diesem Standpunkt nicht nur eine performa-
tive und mitunter vage Idee, sondern ein historisch und technisch strukturier-
ter und eingegrenzter Raum. Statistische Informationen fallen nicht als rei-
nes Spiegelbild einer zeitlich vor ihnen existierenden Realität“ vom Himmel.

Ganz im Gegenteil: sie können als die vorläufige und zerbrechliche Krönung
einer Reihe von Äquivalenzkonventionen in Bezug auf Entitäten angesehen
werden, wobei eine Vielzahl von ungeordneten Kräften ständig danach trach-
tet, diese Konventionen zu differenzieren und zu trennen. Der Raum der sta-
tistischen Informationen bezieht seine Überzeugungskraft aus der doppelten
Bezugnahme auf Solidifikationsprinzipien, die im Allgemeinen voneinander
unterschieden werden: das Solidifikationsprinzip der Wissenschaft und das So-
lidifikationsprinzip des Staates. Der Raum der statistischen Informationen ist
besonders signifikant, wenn man untersuchen möchte, was einen öffentlichen
Raum gleichzeitig möglich und unmöglich macht. Die Spannung zwischen der
Tatsache, daß statistische Informationen den Anspruch erheben, Bezugspunk-
te einer Debatte zu sein, und dem Umstand, daß man diese Informationen
immer wieder infrage stellen kann und sie dadurch zum Debattengegenstand
macht, ist eine der Hauptschwierigkeiten bei der gedanklichen Formulierung
der Bedingungen, unter denen ein solcher Raum möglich ist.
Man könnte diese Spannung mit der allgemeineren Spannung vergleichen,
die daraus resultiert, daß sich manche Debatten sowohl um substantielle Ob-
jekte als auch um die Regeln und Modalitäten der Debatte drehen können:
um die Verfassung, um den Ablauf von Versammlungen und um den Modus
der Benennung von Vertretern. Jede Verfassung sieht die Regeln ihrer eigenen
Änderung vor. Der springende Punkt ist jedoch, daß statistische Informatio-
nen nicht in der gleichen Weise in Erscheinung treten: unbestreitbare Tat-

bestände“, die von diesen Informationen geliefert werden sollen, beinhalten
keine Modalitäten in Bezug auf eine Diskussion der Informationen (die ihrer-
seits aber zur Beglaubigung der Fakten beigetragen haben). Dieser Umstand
wird oft als unerträglich empfunden – auf jeden Fall scheint er zumindest
unerträglicher zu sein, als die Debatte über die Modalitäten der Debatte. Es
handelt sich also um eine Skala der Debattierbarkeitsniveaus“ der zu behan-

delnden Objekte. Die Trennung zwischen technischen Objekten und sozialen
Objekten, die bis ins 17. Jahrhundert zurückgeht, ist jetzt zu einer tiefen
Kluft geworden. Von dieser Warte aus eignen sich die statistischen Objek-
362 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

te – deren Beständigkeit mit der Konsistenz der genannten technischen oder


sozialen Objekte zusammenhängt – besonders gut für eine erneute Untersu-
chung dieser essentiellen Aufteilung der modernen Welt. Auch eignen sich die
statistischen Objekte für eine Reflexion über die politischen Konsequenzen
der Tatsache, daß es ebenso schwierig wie unerläßlich ist, sich diese Objekte
gleichzeitig als konstruiert und real, als Ergebnisse von Konventionen und als
dauerhaft vorzustellen. Fehlt es an einer derartigen Vorstellungskraft, dann
drohen die statistischen Informationen, endlos zwischen zwei entgegengesetz-
ten und komplementären Zuständen hin und her zu schwanken: zwischen ei-
nem unbestreitbaren Bezugsrahmen, der über den Debatten steht, und einer
Zielscheibe polemischer Denunziationen, von denen die komplexe Pyramide
der Äquivalenzen zerstört wird.
Die Statistik stellt sich in ihrer gegenwärtigen Architektur als Kombina-
tion zweier unterschiedlicher Typen von Werkzeugen dar, deren historische
Bahnen nicht konvergierten und erst gegen die Mitte des 20. Jahrhunderts zu
einem robusten Konstrukt geführt haben. Der erste Werkzeugtyp ist politisch-
administrativer Natur: seit dem 18. Jahrhundert wurden nach und nach Syste-
me zur Registrierung, Kodierung, Tabellierung und zur Publikation von Sta-

tistiken“ installiert – Statistiken im Sinne der zahlenmäßigen Beschreibung
von unterschiedlichen Aspekten der sozialen Welt. Der zweite Werkzeugtyp
ist kognitiver Natur und impliziert die Formalisierung wissenschaftlicher Be-
griffe (Mittelwert, Streuung, Korrelation, Zufallsstichprobe), die vor allem mit
Hilfe mathematischer Werkzeuge eine für unbeherrschbar gehaltene Diversität
zusammenfassen sollten. Von diesem doppelten historischen Ursprung rührt
die Tatsache her, daß der Begriff Statistik“ je nach Kontext unterschiedliche

Konnotationen hat: bald sind es Ergebnisse und quantifizierte Beschreibun-
gen, bald Methoden, mathematische Formalismen und Beweisführungen. Die-
ser doppelte Weg muß beschritten werden, wenn man verstehen möchte, auf
welche Weise ein kognitiver Äquivalenz- und Komparabilitätsraum zu prak-
tischen Zwecken konstruiert werden konnte. Diese praktischen Zwecke und
die Ad-hoc-Mittel sind Gegenstand von öffentlichen Entscheidungen und De-
batten, die sich auf Vergleiche stützen können. Aber diese Vergleiche stellen
keineswegs das einzige verfügbare Hilfsmittel dar: statistische Überlegungen
können immer in Konflikt mit anderen Argumenten geraten, die nichts mit
Statistik zu tun haben und mit der irreduziblen Singularität des Individu-
ums zusammenhängen. Die explizite Darstellung dieser Spannung ist eines
der Hauptprobleme, wenn man den Platz des statistischen Arguments in der
sozialen Debatte untersucht.
Die Ideen des Vergleichs und der Gegenüberstellung zu Entscheidungs-
zwecken ermöglichen es, die Bedeutungsverschiebungen des Begriffes Sta-

tistik“ nachzuverfolgen. Im zersplitterten Deutschland des 18. Jahrhunderts
war die Statistik ein formaler Rahmen zur Beschreibung der Staaten: eine
komplexe Klassifizierung mit dem Ziel, die Tatsachen so aufzubereiten, daß
sie leichter einprägbar und vermittelbar sind und von der Regierung mühe-

loser verwendet werden können“. Diese Statistik beinhaltete keine Quanti-
Mittelwerte und Regelmäßigkeiten, Skalen und Verteilungen 363

fizierungstätigkeit (Zahlen fehlten bei ihr überhaupt) – vielmehr handelte


es sich um Taxonomie. Memorieren, unterweisen, regieren: die Dinge muß-
ten exteriorisiert werden, man mußte sie in Bücher eintragen, um sie später
wiederzuverwenden oder an andere weiterzugeben. Diese Organisations- und
Ordnungstätigkeit schuf eine gemeinsame Sprache. Für die moderne Statistik
war diese Sprache wesentlich: sie war ihre rechnerische Komponente, an die
man heute spontan als Erstes denkt.
Aber das Denkschema der deutschen Statistik trug eine andere Möglichkeit
in sich. Es legte einen Vergleich der Beschreibungen mit Hilfe von Kreuzta-
bellen nahe, in denen die Staaten und die standardisierten Bereiche so in Er-
scheinung traten, daß man die Vielfalt der Situationen und Standpunkte mit
einem einzigen Blick erfassen konnte – mit einem Blick auf die beiden Dimen-
sionen einer Buchseite. Das machte den Unterschied zwischen schriftlichen
Unterlagen und mündlichen Überlieferungen, zwischen grafisch festgehalte-
nen Argumenten und diskursiver Argumentation aus. Aber die Verwendung
von Kreuztabellen stieß auch auf Widerstände. Die Tabellen zwangen dazu,
sich Komparabilitätsräume und allgemeine Kriterien einfallen zu lassen. Da-
mit setzte man sich aber nunmehr dem Vorwurf aus, die Verhältnisse so zu
reduzieren, daß ihre jeweilige Singularität geopfert wird und dadurch ein in-
haltlicher Verlust entsteht. Die Kreuztabellen führten zu weiterer Kritik, da
sie aufgrund ihrer inneren Logik dazu tendierten, fortan auch Zahlen einzube-
ziehen, die man vergleichen, handhaben und in Grafiken übersetzen konnte.
Die Tabellenform löste die Produktion und den Vergleich von Zahlen aus und
schuf dadurch einen Raum für Berechnungen, der nach einer neuen Statistik
rief – nach einer Statistik, die sich mit quantitativen Größen befaßte.
Der Widerstand gegen die Konstruktion eines derartigen Raumes wurde
sowohl politisch als auch kognitiv begründet. Später wurde dieser Widerstand
dadurch überwunden, daß man immer einheitlichere staatliche Räume instal-
lierte und mathematische Formulierungen verwendete, mit deren Hilfe sich
die Singularitäten in standardisierten Relationen abstrahieren ließen, die von
einem Fall auf einen anderen übertragen werden konnten. Die Nomenklatu-
ren und die mathematischen Formulierungen ermöglichten es, die anfängli-
che Arbeit der Reduktion von Einzelfällen einzukapseln“ und neue Dinge zu

schaffen. Diese neuen Dinge waren sowohl Black Boxes“ als auch singuläre

Elemente umfassenderer Mechanismen. Die Realität“ dieser Objekte ist in

Abhängigkeit davon unterschiedlich, ob man sie vom Standpunkt ihrer Genese
oder aber vom Standpunkt ihrer Verwendung aus betrachtet.

Mittelwerte und Regelmäßigkeiten,


Skalen und Verteilungen

Eine Debatte über eine Maßnahme setzt voraus, daß man a priori inkommen-
surable Beziehungen zwischen Objekten oder Ereignissen explizit in einem
364 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

Bezugsrahmen angibt, der eine gleichzeitige gedankliche Erfassung dieser Be-


ziehungen ermöglicht. Die Debatte kann zwischen mehreren Personen ablaufen
oder sich im Falle einer einzigen Person auf unterschiedliche Momente oder
alternative Aktionen beziehen. Die Kohärenz in sich“ wirft Probleme des

gleichen Typs auf, wie die Erzeugung eines für mehrere Themen gemeinsamen
Objektivierungsrahmens. Die Geschichte der Wahrscheinlichkeitsrechnung des
17. und 18. Jahrhunderts illustriert diese Dualität. Wie kann man eine Bezie-
hung zwischen zukünftigen, ungewissen Ereignissen herstellen, wie zum Bei-
spiel: Rückkehr oder Untergang eines Schiffes, Ergebnisse eines Glücksspiels,
Folgen einer Impfung und so weiter? Der Begriff des Erwartungswertes, der
dem Begriff der Wahrscheinlichkeit vorausging, ermöglichte die Konstruktion
von derartigen Bezugsrahmen; er ermöglichte es auch, sowohl die Entschei-
dungen einer Person als auch Schiedsverfahren zwischen mehreren Personen
kohärent und kommensurabel zu gestalten.
Diese Argumentationsweise hat die Besonderheit, daß sie sich an der Naht-
stelle zwischen zwei radikal unterschiedlichen Interpretationen befand. Die ei-
ne – subjektive oder epistemische – Interpretation hing mit den Zuständen des
Verstandes zusammen und behandelte die Wahrscheinlichkeit als ein Maß für
Nichtwissen. Sie kennzeichnete Glaubensgründe“ und war im 19. Jahrhundert

vorherrschend. Die andere – als objektiv oder frequentistisch bezeichnete – Ar-
gumentationsweise hing mit den Zuständen der Welt und den beobachteten
Regelmäßigkeiten des Auftretens dieser Zustände zusammen. Das Gesetz der

großen Zahlen“ und die Zweideutigkeit seiner philosophischen Interpretation
symbolisieren diese frequentistische Seite des im 19. Jahrhundert dominieren-
den probabilistischen Programms.
Das zentrale Instrument dieser Transformation war die von Quetelet um
1830 formulierte Berechnung von Mittelwerten und die Prüfung ihrer Stabi-
lität. Die Fragen der öffentlichen Hygiene, der Epidemiologie und der Krimi-
nalität implizierten administrative und politische Maßnahmen (im Sinne von
Entscheidungen), deren Diskussion und Rechtfertigung sich auf Messungen
(im Sinne von Quantifizierungen) der zu erreichenden Ziele und der hierzu
eingesetzten Mittel stützen konnten. Die Alchimie“, die freie und zufällige

Handlungen in bestimmte und stabile Aggregate transformiert, stellte für die
Debatten Bezugspunkte und übertragbare Objekte bereit, da sich diese Ag-
gregate außerhalb von Personen befanden. Diese Alchimie war der Kern der
statistischen Instrumentierung des öffentlichen Raumes. Das zeigte sich etwa
in der Transformation der Art und Weise, wie man im 19. Jahrhundert mit
Arbeitsunfällen sozial umgegangen ist: es erfolgte eine Verschiebung von der –
durch das Zivilgesetzbuch festgelegten – individuellen Haftung hin zur Versi-
cherungshaftung des Betriebes, wobei sich die Haftung auf die Berechnungen
von Wahrscheinlichkeiten und Mittelwerten stützte. Die Versicherungssysteme
und die sozialen Sicherungssysteme beruhten auf dieser Transformation des
individuellen Zufalls in stabile und kollektive Objekte, welche die Fähigkeit
besaßen, öffentlich ausgewertet und debattiert zu werden. Die Argumentation
von Quetelet maß jedoch den unberechenbaren Individuen keine Bedeutung
Mittelwerte und Regelmäßigkeiten, Skalen und Verteilungen 365

bei, sondern konzentrierte sich auf den Mittelwert als Träger einer beherrsch-
baren Aktion. Diese Argumentation erlaubte keine werkzeugmäßige Ausstat-
tung der Debatten über die Verteilungen und die Ordnungen der Individuen.
Quetelet strebte eine Reduzierung der Heterogenitäten an und zeigte kein
Interesse für deren Objektivierung. Eine solche Objektivierung erwies sich
jedoch gerade dann als notwendig, wenn es in der Debatte um diese Heteroge-
nitäten ging. Diese Objektivierung fand statt, als Galton die hereditaristische
Darwinsche Problematik der Ungleichheiten zwischen den Individuen von der
Tierwelt auf die Menschen übertrug.
Dennoch enthielt das Konstrukt von Quetelet bereits eine adäquate Form
dieser Objektivierung: das Normalgesetz“ der Gaußschen Verteilung der

körperlichen oder psychischen Merkmale der menschlichen Spezies, wie zum
Beispiel Körpergröße oder Intelligenz. Da sich Quetelet aber auf die Beschrei-
bung (und Idealisierung) seines Durchschnittsmenschen orientierte, hat er
diese Form nicht dazu verwendet, um unterschiedliche Individuen anzuord-
nen und zu klassifizieren. Nun eignete sich aber die Normalverteilung gut
zur Bildung von eindimensionalen Ordinalskalen und deswegen auch zur Kon-
struktion von Bezugsräumen, die einen einfachen Vergleich der Individuen
ermöglichen – genau das taten Galton und die seinen Spuren folgenden Eu-
geniker ab 1870. Diese Kehrtwendung der Interpretation der Normalvertei-
lung vom Mittelwert hin zur Streuung der persönlichen Merkmale brachte
Galton darauf, Werkzeuge zur Aufstellung von Äquivalenzen zwischen unter-
schiedlichen Populationen zu ersinnen – Werkzeuge, die teilweise durch eine
statistische (und nicht deterministische) Korrelation miteinander verknüpft
waren: die Körpergröße der Söhne wurde teilweise durch die Körpergröße
der Väter erklärt. Durch die Erschließung eines neuen Kontinents für die
Objektivierung der Kausalität – des Kontinents der partiellen und statisti-
schen Kausalität – lieferten Galton und Pearson den äußerst vielfältigen argu-
mentativen Debattenrhetoriken (bei denen man nicht mehr zwischen sozial“

und technisch“ unterscheiden kann) einen ganz neuen Werkzeugkasten“,
” ”
der von den Entscheidungsträgern des 20. Jahrhunderts und ihren Exper-
ten in umfassender Weise genutzt werden sollte. Allgemeiner gesagt haben
die aus der Biometrie hervorgegangenen Werkzeuge der mathematischen Sta-
tistik (Regression, Korrelation, Verteilungsanpassungstests, Varianzanalyse,
wahrscheinlichkeitstheoretisch-ökonometrische Modelle) zur Instrumentierung
des sozio-technischen Debattenraumes beigetragen, der sich auf die Prognosen
und Entscheidungen bezieht, an denen sich die soziale Welt orientiert. Diese
Werkzeuge stellten verfestigte, ausgehärtete Objekte bereit, in Bezug auf die
sich die Akteure positionieren konnten. Die Werkzeuge lieferten eine allgemei-
ne Sprache, die mit einer elaborierten und komplexen Grammatik ausgestattet
war.
Die Anhänger der Eugenik unter den englischen Biometrikern des späten
19. Jahrhunderts hielten sich als Erfinder dieser zukunftsträchtigen mathe-
matischen Techniken nicht für Statistiker“. Zuallererst waren sie für die po-

litische Sache des Hereditarismus und der Meritokratie aktiv. Gemäß diesen
366 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

Vorstellungen waren die körperlichen und geistigen Merkmale erbbedingt und


es erwies sich als wünschenswert, die Geburtenzahlen der Tauglicheren“ zu

fördern und die Geburtenzahlen der ärmsten Schichten zu beschränken. Die-
se wissenschaftspolitische Kriegsmaschine war einerseits gegen den grundbe-
sitzenden Adel und gegen den Klerus gerichtet, die den modernen Wissen-
schaften und dem Darwinismus gegenüber feindlich eingestellt waren; ande-
rerseits richtete sie sich aber auch gegen die Reformer, für die das Elend mehr
ökonomische und soziale als biologische Ursachen hatte, weswegen sich diese
Reformer für den Aufbau sozialer Sicherungssysteme einsetzten. Für die Euge-
niker waren die sozialen Maßnahmen verhängnisvoll, da sie die Reproduktion
der Untauglichen“ begünstigten. Die Polemik hierzu markierte im England

des frühen 20. Jahrhunderts den Raum der politischen Diskussionen über die
Armut und über die Mittel dagegen.
Für diese Episode der Geschichte der Statistik ist weniger die Tatsache von
Bedeutung, daß die neuen Techniken von den Verfechtern einer absurden poli-
tischen Linie erfunden worden waren – einer Politik, die später sogar in verbre-
cherischer Weise umgesetzt werden sollte. Wichtig ist vielmehr die Tatsache,
daß die neuen Techniken rasch (in den 1920er und 1930er Jahren) zu beina-
he zwangsläufigen Durchgangspunkten für die Verfechter anderer Ansichten
wurden. Dadurch strukturierten diese Techniken sogar die in den Diskussionen
verwendeten Begriffe und die im Raum der politisch-wissenschaftlichen De-
batten gesprochene Sprache, obschon mit Beginn der 1940er Jahre die Proble-
matik der biologischen Ungleichheiten weitgehend durch die Problematik der
ökonomischen Ungleichheiten und der familiären sozio-kulturellen Benachtei-
ligungen ersetzt worden war. Die statistische Kausalität – die werkzeugmäßig
einerseits durch die Erhebungen der seit den 1830er Jahren existierenden sta-
tistischen Büros ausgestattet war und sich andererseits in den 1920er Jahren
der aus der Biometrie importierten mathematischen Formulierungen bediente
– wurde mit Beginn der Krise von 1929 vor allem in den Vereinigten Staaten
zum Bezugsrahmen der Debatten über die Wirtschafts- und Sozialpolitik.
Roosevelt, der 1932 zum Präsidenten gewählt wurde, führte eine umfassen-
de Interventionspolitik ein und gestaltete deswegen die Organisation des ame-
rikanischen statistischen Bundesamtes um, das bis zu diesem Zeitpunkt eine
ziemlich unbedeutende Behörde war. Nicht nur die Volks- und Betriebszählun-
gen wurden weiterentwickelt; die Statistiker und die Ökonomen entschieden
sich nunmehr auch endgültig für die Methoden der mathematischen Statistik.
Vor allem sind die drei wesentlichen Werkzeuge der modernen Sozial- und
Wirtschaftsstatistik geschaffen worden: Umfragen mit Hilfe von repräsentati-
ven Stichprobenerhebungen, volkswirtschaftliche Gesamtrechnung und wenig
später die Computer. Diese Gesamtheit von Techniken und ihren Anwendun-
gen in der sozio-politischen Debatte entstand zwischen 1935 und 1950 in den
Vereinigten Staaten und nahm dort ihre gegenwärtige Gestalt an. Nach 1945
wurden diese Techniken zuerst in Westeuropa und dann vom Rest der Welt
übernommen und mit anderen spezifischen Traditionen kombiniert.
Mittelwerte und Regelmäßigkeiten, Skalen und Verteilungen 367

Die Methode der Zufallsstichproben implizierte die Anwendung mathe-


matischer Werkzeuge, die seit Beginn des 19. Jahrhunderts zur Verfügung
standen. Aber diese Werkzeuge sind erst um 1900 benutzt worden – zunächst
experimentell in Norwegen und in England, um die Lebensbedingungen der
verschiedenen sozialen Schichten zu beschreiben. Später, in den 1930er Jahren
verwendete man die Werkzeuge im großen Maßstab in den Vereinigten Staa-
ten, um die Arbeitslosigkeit zu messen, Marktstudien durchzuführen und um
Wahlprognosen zu erstellen. Diese zeitliche Verschiebung von einem Jahrhun-
dert zwischen der mathematischen Formalisierung und deren Verwendung in
den Sozialwissenschaften läßt sich auf unterschiedliche Weise interpretieren.
Wahrscheinlichkeiten sind lange Zeit mit der Vorstellung von einem unvoll-
ständigen und lückenhaften Wissen in Verbindung gebracht worden, während
die mit der Tätigkeit des Staates zusammenhängende Statistik Vollerhebun-
gen voraussetzte, die das Territorium lückenlos und exakt abdeckten. Die
Verwendung der wahrscheinlichkeitstheoretischen Formeln setzte eine Homo-
genität dieses Territoriums voraus (das heißt der Urne, aus der die Kugeln
zufällig gezogen werden), aber nichts konnte diese Homogenität garantieren;
die potentielle Äquivalenz der verschiedenen Regionen des Landes war nicht
gesichert. Und schließlich verfolgten die Sozialenqueten des 19. Jahrhunderts
die Absicht, die sozialen Beziehungen und die Ursachen der Armut auf der
lokalen Ebene der Kirchengemeinden und der Stadtviertel festzustellen, weil
die politische Behandlung dieser Fragen auf die Initiative der örtlichen Ge-
meinden zurückging.
Zu Beginn des 20. Jahrhunderts ging die Behandlung der sozialen Fragen
allmählich von den Wohltätigkeitseinrichtungen und vom lokalen Paternalis-
mus auf die Zuständigkeit des Gesetzes über, das im Parlament diskutiert
wurde und im ganzen Land gültig war. So wurde ein nationaler Debatten-
raum geschaffen, in dem man über die Ursachen der Armut und über die ju-
ristischen und gesetzlichen Mittel zu deren Abhilfe diskutierte. Man gründete
gleichzeitig Institutionen zur Behandlung dieser Fragen (Arbeitsämter) und
der damit zusammenhängenden Verwaltungsaufzeichnungen (Registrierung in
entsprechenden Listen) und führte Methoden zur Messung dieser neuen Ob-
jekte ein: die Armen wurden durch die Arbeitslosen ersetzt. Diese komplexen
Registrier-, Meß- und Verarbeitungsmechanismen wurden auf der Grundla-
ge von Standards entworfen, diskutiert und verwaltet, die im ganzen Land
einheitlich waren. Die Bezugnahme auf eine landesweit gemessene Arbeitslo-
senquote tauchte gegen 1930 in der amerikanischen öffentlichen Debatte und
gegen 1950 in Frankreich auf. So erlangte der öffentliche Raum, in dem man
soziale Beziehungen behandelte, einen immer ausgeprägter nationalen Cha-
rakter (jedoch mit Nuancen in Abhängigkeit von der Art und den Graden
der Zentralisierung in den einzelnen Ländern). In den Vereinigten Staaten er-
weiterten sich die politischen Repräsentations- und Ausdrucksräume immer
mehr und nationalisierten“ sich (vor allem durch die Verbreitung des Radi-

os), ebenso wie sich die Konsumgütermärkte ausdehnten (was der Eisenbahn
und dem Wachstum der großen Unternehmen zu verdanken war). Das schuf
368 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

einerseits die Voraussetzungen dafür, das Bundesgebiet zu uniformisieren; an-


dererseits führte es aber auch dazu, dieses Gebiet als eine relevante Gesamtheit
aufzufassen – als einen Äquivalenzraum im politischen und logischen Sinne.

Ein Raum für Verhandlungen und Berechnungen

Analoge Transformationen des Raumes für Wirtschaftsinformationen und sei-


ner Verwendung in der öffentlichen Debatte erfolgten in den 1950er Jahren
in Frankreich, auch wenn die alte administrative Zentralisierung diese Ent-
wicklung schon lange in typisch französischer Weise vorbereitet hatte. Diese
Transformationen hingen mit der Einrichtung nationaler Instanzen zur Aus-
handlung der Lohnverhältnisse und ihrer relativen Vereinheitlichung (Definiti-
on des Begriffs Arbeiter“ entsprechend den Parodi-Dekreten“ (1946); Allge-
” ”
meine Bestimmungen für den Öffentlichen Dienst (1947)), mit der Gründung
der Sozialversicherung, der Landeskrankenkassen, der Kindergeldkassen und
der Pensionskassen zusammen. Im Übrigen änderte sich die Natur der staatli-
chen Wirtschaftspolitik. Einerseits vertrat man nunmehr die Auffassung, daß
das mit Hilfe der Keynesianischen Kategorien der volkswirtschaftlichen Ge-
samtrechnung beschriebene kurzfristige makroökonomische Gleichgewicht auf
öffentliche Korrekturmaßnahmen zurückzuführen ist. Andererseits nahm man
an, daß eine lenkende Planung der großen öffentlichen Investitionen und – all-
gemeiner gesprochen – der signifikanteren Tendenzen der mittel- bis langfri-
stigen Entwicklung der Beziehungen zwischen den Wirtschaftssubjekten dazu
führt, diesen Subjekten einen Bezugsrahmen für diejenigen mikroökonomi-
schen Entscheidungen zu liefern, welche die Weichen für die Zukunft stellen
(Gruson, 1968, [113]). Das zwischen 1950 und 1970 errichtete statistische In-
formationssystem hing – sowohl hinsichtlich seiner grundlegenden Registrie-
rungsabläufe und seiner Taxonomien als auch bezüglich seiner Verwendung
in der vor allem auf die Planung ausgerichteten öffentlichen Debatte – we-
sentlich mit den paritätischen Strukturen der sozialen Sicherung, mit dem
Aushandlungsmodus der Lohnverhältnisse (Rolle des nationalen Preisindex)
und mit einer vom Keynesianismus inspirierten makroökonomischen Politik
zusammen.
Die Konstitution eines Raumes, der gegensätzliche Debatten über die Op-
tionen der Gemeinde ermöglicht, setzt für die verschiedenen Akteure ein Mi-
nimum an gemeinsamen Bezugselementen voraus: eine Sprache, um die Dinge
auszusprechen, um die Zwecke und Mittel der Aktion zu formulieren und um
die Ergebnisse der Maßnahme zu diskutieren. Diese Sprache existiert vor der
betreffenden Debatte noch nicht. Sie wird ausgehandelt, festgeschrieben und
aufgezeichnet. Im Laufe der für einen Raum und eine historische Zeitspanne
eigentümlichen Interaktionen wird diese Sprache dann allmählich deformiert
und schließlich zerstört. Es handelte sich dabei nicht mehr nur um ein reines
Zeichensystem zur Widerspiegelung von Dingen, die mit einer Exteriorität
ausgestattet sind: die Geschichte der Arbeitslosigkeit, ihrer Definition und
Ein Raum für Verhandlungen und Berechnungen 369

der Institutionen, die den Arbeitslosen Hilfe leisten und ihre Anzahl verrin-
gern sollten, ist ein Beispiel für die Interaktionen zwischen den statistischen
Messungen und den institutionellen Verfahren zur Identifizierung und zur Ko-
dierung der Objekte. Dieser enge Zusammenhang zwischen der Beschaffenheit
einer Maßnahme und dem Funktionieren des Netzes der Verbindungen und Re-
gistrierungen, die zu diesem Netz geführt haben, kann mit der im Bereich der
Wirtschaftsinformationen verbreiteten realistischen Epistemologie kollidieren
– gerade weil diese Erkenntnistheorie in der sozialen Debatte verwendet wird.
Die Polemik zum Problem der Ermittlung der Arbeitslosigkeit entbrannte seit
den 1970er Jahren regelmäßig alle zwei oder drei Jahre, wobei fast immer die
gleichen Termini verwendet wurden und werden. Diese Polemik zeigt deutlich,
daß der Begriff einer klar abgrenzbaren und meßbaren Arbeitslosigkeit nun-
mehr ebenso fest in das Netz der allgemeinen Darstellungen integriert war, wie
die Begriffe der Inflationsrate und des Bruttoinlandsproduktes der französi-
schen Wirtschaft. Aus dieser Sicht handelte es sich gewiß um Realitäten.
Die Registrierung einer Messung oder einer Maßnahme in einem System
von Verhandlungen und gefestigten Institutionen (zum Beispiel durch Indexie-
rungsregeln) kann Argumente liefern, mit denen die Objektivität und die Kon-
sistenz gewisser statistischer Indikatoren bestritten wird. In Bezug auf die Ar-
beitslosigkeit ist das häufig der Fall. Ebenso verhielt es sich früher mit dem
Einzelhandelspreisindex, der als Bezugspunkt für Lohnverhandlungen diente.
Diese Polemik gegen den Realismus der zu einem gegebenen Zeitpunkt – in
einem institutionellen und kognitiven Netz – verwobenen Äquivalenzen zeigt,
daß diese Netze niemals endgültig bestimmt sind: man kann sie angreifen und
zerstören. Aber die Debatte über die Indikatoren ist mehrdeutig: sie löst nur
dann ein lebhaftes Echo aus, wenn der Realismus des Objekts nicht infrage
gestellt wird, das man für unkorrekt ermittelt hält. Die Polemik erlangt ihre
Bedeutung durch die Bezugnahme auf eine wahre“ Arbeitslosenzahl, die un-

bekannt ist (wenn sie nicht gar wissentlich verborgen wird). Hingegen führt
die Behauptung, gemäß der die Messung einer Größe auf die eine oder andere
Weise stets aus einem konventionellen Verfahren resultiert, zu einer wesent-
lichen Modifizierung des Debattenraumes, das heißt der hierbei verwendeten
Sprache. Die Rückkehr zu den Kodierungsverfahren kann also durch unter-
schiedliche Rhetoriken in Abhängigkeit davon ausgelöst werden, ob der Rea-
lismus des Objekts – und der dieses Objekt ausdrückenden politischen und
kognitiven Sprache – infrage gestellt wird oder nicht.
Tatsächlich hängt die Realität eines Objekts von der Ausdehnung und von
der Robustheit des umfassendsten Netzes ab, in dem dieses Objekt registriert
ist. Dieses Netz besteht aus verfestigten Zusammenhängen, routinemäßigen
Äquivalenzen und den Wörtern, mit denen die Zusammenhänge und Äqui-
valenzen beschrieben werden. Das Netz bildet eine Sprache, das heißt eine
unterscheidbare Gesamtheit von Zusammenhängen, die den durch Begriffe be-
zeichneten Dingen einen Zusammenhalt verleihen. Die Begriffe sind ihrerseits
durch eine spezifische Grammatik miteinander verknüpft. In Bezug auf die
Analyse des Platzes der statistischen Informationen im Raum der öffentlichen
370 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

Debatte formulieren wir folgende Hypothese: Die verwendete Sprache weist in


gewissen Ländern und für gewisse Zeiten eine eigenständige Konsistenz auf,
die ihrerseits mit der Konsistenz der Form zusammenhängt, in der die sozialen
Beziehungen geregelt werden. Genau diese Sprache stellt die Orientierungs-
punkte und den allgemeinen Bedeutungsrahmen bereit, in dem die Akteure
ihre Aktionen charakterisieren und aussprechen können. Aus dieser Sicht gab
es im Zeitraum von ca. 1950–1975 zumindest tendenziell das Bestreben, die
ökonomische und soziale Debatte auf der Basis einer gemeinsamen Sprache
zu vereinheitlichen – in der Sprache des Plans und der Keynesianischen Ma-
kroökonomie, des Wachstums und der volkswirtschaftlichen Gesamtrechnung,
der Soziologie der sozialen Ungleichheiten und ihrer statistischen Indikatoren,
in der Sprache der vom Staat unterstützten Kollektivvertragsverhandlungen
zwischen Arbeitgebern und Gewerkschaften über die in konventionellen Ta-
bellen eingetragenen Löhne und in der Sprache über ein paritätisches Umver-
teilungssystem der sozialen Sicherung (Desrosières, 1989, [64]).
Die Gesamtheit der Akteure, der Verfahren und der diesbezüglichen Wörter
besitzt eine relative Kohärenz, zu der vor allem das Vokabularium und das
Instrumentarium eines statistischen Systems beigetragen haben, das genau
in dieser Zeit errichtet wurde. Die volkswirtschaftliche Gesamtrechnung war
von ihren Autoren in den 1950er und 1960er Jahren explizit als Sprache vor-
gestellt worden, die es den in Plankommissionen und an paritätischen Ver-
handlungstischen versammelten Sozialpartnern ermöglichte, sich auf stabile
und regelmäßig gemessene Objekte zu stützen. Diese Objekte wurden einer-
seits in das kohärente und umfassende Netz der buchhalterischen Beziehungen
eingetragen (Fourquet, 1980, [95]) und andererseits in den ökonometrischen
Beziehungen festgeschrieben, die man ab 1970 in den großen makroökonomi-
schen Modellen verwendete (Malinvaud, 1991, [186]). Diese Sprache wurde
im Rahmen der Lehre durch die École nationale d’administration (ENA), die
École de sciences politiques, durch die Universitäten, aber auch im Oberstufen-
unterricht verbreitet – vor allem in den neuen Programmen der Wirtschafts-
und Sozialwissenschaften, deren Handbücher wesentlich von den Arbeiten und
den Analysekategorien der öffentlichen Statistik inspiriert waren. Es sieht so-
gar so aus, daß die Verbreitung und Akzeptanz dieser Sprache in Frankreich
größer gewesen sind als in anderen Ländern. Frankreich blickte nämlich auf ei-
ne ältere Tradition zurück, die den Staatsingenieuren eine größere Bedeutung
beimaß, denn sie waren die Träger einer Wissenschaft, die auf die Verwal-
tung eines starken und schon seit langem zentralisierten Staates angewendet
wurde. So wurde beispielsweise die mathematische Ökonomie in Frankreich
von Ingenieuren eingeführt und entwickelt, während man in den angelsächsi-
schen Ländern die diesbezüglichen Forschungsarbeiten an den Universitäten
durchführte. Die Keynesianische Makroökonomie und die volkswirtschaftli-
che Gesamtrechnung hatten in Frankreich ein besonderes Kolorit, denn diese
Gebiete wurden nicht von Professoren, sondern von hohen Beamten und Inge-
nieuren eingeführt und propagiert. Die Legitimität und Autorität des Staates
und der Wissenschaft verbanden sich in subtiler Weise.
Ein Raum für Verhandlungen und Berechnungen 371

Über einen Zeitraum von etwa dreißig Jahren existierte also ein kognitiver
Verhandlungs- und Berechnungsraum, der mit einer starken Legitimität aus-
gestattet war – der Legitimität der Wissenschaft und des Staates. In diesem
Raum fanden zahlreiche Debatten statt und es wurden viele technische Studi-
en durchgeführt, die den Entscheidungen der Wirtschaftspolitik vorangingen
oder sie begleiteten. Jedoch geriet dieser relativ kohärente Raum, der sich aus
Institutionen, sozialen Objekten und den diesbezüglichen Debattierbegriffen
zusammensetzte, in den späten 1970er Jahren selbst in die Krise. Die aus
Äquivalenzen bestehenden Netze, die zu politischen und statistischen Totali-
sierungen geführt hatten, lösten sich teilweise auf. Der Plan hatte fortan – als
Ort der Konzertierung und mittelfristigen Prognose der großen öffentlichen
Entscheidungen – weniger Gewicht als früher. Die ökonometrischen Modelle,
welche die Evolution der Beziehungen zwischen den zentralen makroökonomi-
schen und mikroökonomischen Objekten dieses Totalisierungssystems simu-
lierten, werden für die Prognose von Spannungen und Krisen oft als untauglich
beurteilt. Die Debatten über die eigentliche Messung einiger dieser Objekte
und deren Signifikanz wurden mit zunehmender Heftigkeit geführt. Zu den
Objekten dieser Debatten gehörten die Erwerbspersonen, die Geldmenge, die
Armut und die sogenannte informelle“ Ökonomie (das heißt die Ökonomie,

die sich den administrativen Kodierungen entzieht).
Es gibt keine allgemeine“ und eindeutige Erklärung für diese Entwick-

lung, und zwar genau deswegen nicht, weil sich die frühere Sprache kaum
dazu eignet, über ihre eigene Krise Rechenschaft abzulegen. Keine der Er-
klärungen ist demnach allgemeiner, als irgendeine eine andere. Wir nennen
im Folgenden einige dieser Erklärungen. Die Stagnation des Wachstums hat
es schwieriger gemacht, die Sozialpartner in Debatten zusammenzubringen,
bei denen es nicht mehr um die Gewinnverteilung, sondern um die Verteilung
der Krisenauswirkungen geht. Die umfassendere Integration der französischen
Wirtschaft in den globalen Warenaustausch verbot von nun an die Verwen-
dung von Keynesianischen Modellen, die für eine autonome Wirtschaft gelten.
Der Rückgang des repräsentativen Charakters der Gewerkschaftsorganisatio-
nen und der politischen Organisationen, die teilweise für die Totalisierung der
Forderungen und der Projekte in einer einheitlichen und stabilen Sprache ver-
antwortlich waren, führte zu einer Schwächung ihrer Sprecher; diese Sprecher
hatten zuvor für die Funktionstüchtigkeit eines relativ abgegrenzten öffentli-
chen Raumes gesorgt. Der Nationalstaat als Akkumulationsort von Informa-
tionen und als Produktionsort von adäquaten Vertretungen des politischen
Handelns wird zunehmend zwischen zwei Polen hin und her gerissen: zwischen
den Gebietskörperschaften, deren Gewicht durch die Dezentralisierungsgeset-
ze gewachsen ist, und den europäischen Institutionen und Vorschriften. Die
Maßnahmen des Staates sind weniger voluntaristisch und makroökonomisch;
sein Vorgehen ist mehr auf die Produktion von Regeln ausgerichtet, die das
freie Spiel des Marktes und des Wettbewerbs erleichtern. Die heutigen Un-
ternehmensführungen orientieren sich weniger an einer Zentralisierung gemäß
den Prinzipien eines Taylor oder eines Ford. Diese Prinzipien begünstigten
372 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

die Standardisierung der Arbeit und der Produkte im Bereich des Massen-
konsums und eigneten sich gut zum Aufbau von integrierten Systemen der
Industriestatistik. Die nach japanischer Art“ dezentralisierten Management-

praktiken stützen sich auf eine lokale Informationszirkulation durch direkte
horizontale Kontakte zwischen den Personen. Die Kontakte folgen nicht mehr
den hierarchischen Wegen und dieser Umstand verringert die Relevanz der
früheren statistischen Synthesen.
Alle oben angeführten Hypothesen (man könnte noch weitere hinzufügen)
liefern keine Erklärung“ für die Krise, in die das Modell des öffentlichen

Raumes zwischen 1950 und 1970 geraten war. Aber die Tatsache, daß diese
Hypothesen überall zirkulierten und sich gegenseitig verstärkten, trug zur Dis-
kreditierung des Modells bei und gefährdete dessen Status als diskussionslos“

akzeptiertes Bezugssystem. Das alles verhält sich jedoch nur tendenziell so und
große Teile des Modells existieren weiter oder besser gesagt: ein Großteil der
Debatten bezieht sich auf dieses Modell, denn es stellt immer noch einen weit
verbreiteten – wenn nicht gar den einzigen – Denkrahmen dar. Aus diesem
Grund sind die genannten Debatten außerordentlich heterogen. Die Bandbrei-
te erstreckt sich von Debatten, die sich vollständig im Rahmen der – durch
die weite Verbreitung des Modells nahegelegten – realistischen Epistemologie
befinden, bis hin zu den Debatten, in denen die Netze der Äquivalenzklas-
sen denunziert werden – sei es, daß man diese Netze als erkenntnistheoretisch
trügerisch bezeichnet oder daß man sie stigmatisiert, weil sie durch ihr Auf-
treten die persönlichen Freiheiten einschränken.

Statistische Argumentation und soziale Debatten

Die Kontroversen zur Statistik sind eine eigenartige Kombination zweier ge-
gensätzlicher Formen, die im Allgemeinen getrennt voneinander in unter-
schiedlichen Diskussionskontexten behandelt werden. Die erste dieser ge-
gensätzlichen Formen trennt zwei sprachliche Register: das Register der
Deskription und der Wissenschaft (es gibt) vom Register der Präskription
und der Aktion (man muß ). Diese Unterscheidung, die im 17. Jahrhundert
durch die Autonomisierung des wissenschaftlichen Diskurses bekräftigt wur-
de, hinterließ tiefe Spuren in der statistischen Praxis. Eine ständige Forderung
der Statistiker besagt: Halte dich an die Beschreibung der Tatsachen und geh

nicht von Werturteilen und Meinungen aus!“ Die zweite der beiden gegensätz-
lichen Formen unterscheidet ihrerseits zwischen zwei Auffassungen in Bezug
auf die Frage nach der Realität: die realistische (oder objektivistische) Einstel-
lung und die relativistische (oder historizistische) Einstellung. Der eine Fall
setzt voraus, daß die Äquivalenzklassen präexistent sind, das heißt daß sie zeit-
lich vor der Abfolge der Registrierungen existieren. Im anderen Fall hingegen
betrachtet man die Äquivalenzklassen als Konventionen und Konstruktionen.
Der Gegensatz zwischen Realismus und Relativismus durchdringt zahlreiche
Kontroversen in der Erkenntnistheorie der Wissenschaften. Für die Statistik
Statistische Argumentation und soziale Debatten 373

eröffnet dieser Gegensatz originelle Aspekte, sobald man ihn mit dem erst-
genannten Gegensatz kombiniert, der zwischen der Sprache der Wissenschaft
und der Sprache des Handelns unterscheidet. Durch diese Kombination lassen
sich vier verschiedene Auffassungen in Bezug auf die statistische Argumenta-
tionsweise ausmachen.22
Im Rahmen der Sprache der Beschreibung postuliert die realistische Posi-
tion, daß es objektive Dinge gibt, die unabhängig vom Beobachter existieren
und über die singulären Kontingenzen hinausgehen (Fall 1). Diese Position ist
typisch für die Sprache Quetelets: es gibt Regelmäßigkeiten und stabile Bezie-
hungen. Das Ziel der Statistik besteht darin, der Realität näher zu kommen“.

Die Statistik stellt sich die Frage nach der Zuverlässigkeit der Messungen“;

sie spricht die Sprache der Beschreibung und der Kausalität, die durch das
Instrumentarium der mathematischen Statistik formalisiert wurden. Das ist
die Position, die der statistische Diskurs anstreben muß, wenn er sich von
seiner Genese und seinen Anwendungen reinigen“ möchte. Auf jeden Fall ist

diese Position derjenige Punkt, an dem sich die anderen drei Positionen ori-
entieren. Aber im Rahmen der Sprache der Wissenschaft ist es auch möglich,
eine Genese und soziale Praktiken zu rekonstruieren, die zu einem verfestig-
ten statistischen Objekt geführt haben (Fall 2). Es gibt historische und soziale
Prozesse der Konstruktion und Verfestigung von Äquivalenzen und mentalen
Schemata. Es ist die Aufgabe der Wissenschaft, diese Prozesse zu rekonstruie-
ren und dabei zu beschreiben, wie die sozialen Tatbestände – durch Bräuche,
durch das Recht oder auf dem Wege sozialer Kämpfe – zu Dingen geworden
sind. Die Sprache dieser Position ist die Sprache der Sozialgeschichte oder die
Sprache einer konstruktiven Wissenssoziologie.23
Die politische und administrative Sprache der Aktion und der sozialen De-
batte verwendet die Statistik oder denunziert sie. Diese Sprache stützt sich auf
die eine oder andere der obengenannten wissenschaftlichen Rhetoriken, unter-
scheidet sich von diesen jedoch durch ihre Normativität. In ihrer objektiven
Version (Fall 3) übernimmt diese Sprache die in der Wissenschaftssprache be-
schriebenen und analysierten Objekte und läßt die Aktion an diesen Objekten
ausführen. Wir brauchen Dinge, die – unabhängig von Partikularinteressen –
einen festen Zusammenhalt aufweisen, damit wir auf diese Dinge einwirken
22
Diese Formulierung ist überwiegend und dankenswerter Weise auf Diskussionen
mit Luc Boltanski und Nicolas Dodier zurückzuführen. Letzterer hat eine Feinstu-
die der Aufzeichnungspraktiken und der statistischen Kodierung auf dem Gebiet
der Arbeitsmedizin durchgeführt (Dodier, 1993, [69]).
23
Durkheim hatte seinerzeit jede dieser beiden Ansichten in seinem Bestreben ver-
treten, aus der Soziologie eine Wissenschaft zu machen. In Der Selbstmord [78]
stützt er sich nach Art von Quetelet auf makrosoziale statistische Regelmäßigkei-
ten. In seiner späteren Zusammenarbeit mit Mauss stellt er in Quelques formes
primitives de classification [79] für primitive Gesellschaften einen Zusammenhang
zwischen Taxonomie und Gesellschaft her. Aber er tut das nicht für die westli-
chen Gesellschaften und für ihre statistischen Mechanismen. Diese Mechanismen
waren allerdings damals weniger entwickelt als heute.
374 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen

können. Diese Dinge sind Handlungskategorien: Armut, Arbeitslosigkeit, In-


flation, Außenhandelssaldo, Geldmenge, Fertilität. Die benutzte Sprache ist
pragmatisch: sie ist ein Mittel zum Zweck. In ihrer relativistischen Version
(Fall 4) kann die politische Sprache mehrere Modalitäten aufweisen. Sie kann
polemisch und anklagend sein. Wir müssen die Black Boxes“ öffnen, um zu

zeigen, was sie verbergen. Die statistische Produktion resultiert aus Kräfte-
verhältnissen. Sie ist ideologisch und gewissermaßen polizeilich“. Diese Mo-

dalität ist instabil, denn sie bezieht sich implizit – gestützt auf die Sprache der
Denunziation – auf eine potentielle Positivität wissenschaftlicher oder politi-
scher Natur. Dennoch hat man diese Sprache häufig bei Kontroversen bemüht,
vor allem in den 1970er Jahren.
Eine weitere Anwendungsmodalität der Statistik in der Sprache der Ak-
tion ist denkbar. Diese Modalität stützt sich auf die Vorstellung, daß die
Konventionen, welche die Objekte definieren, tatsächlich Realitäten erzeugen
– falls diese Objekte den Zerstörungsprüfungen und anderen Demontagever-
suchen standhalten. Dieses Realitätsprinzip ermöglicht einen Ausweg aus der
Sackgasse des epistemologischen Gegensatzes zwischen Realismus und Relati-
vismus, den beiden verfeindeten, aber gleichwohl komplementären und kom-
plizenhaften Auffassungen. Dieses Prinzip stellt die Realität von Dingen nicht
in Abrede, sobald sich zahlreiche Menschen auf diese Dinge beziehen, um ih-
re Aktionen zu koordinieren und auf ein bestimmtes Ziel auszurichten. Aus
diesem Grund ist die Statistik kraft ihrer Objekte, ihrer Nomenklaturen, ih-
rer Grafiken und ihrer Modelle zuallererst eine auf Konventionen beruhende
Bezugssprache. Die Existenz dieser Sprache ermöglicht die Entwicklung eines
gewissen Typs von öffentlichen Räumen, aber über das Vokabularium und
die Syntax dieser Sprache kann debattiert werden. Die Debatte über das Be-
zugssystem der Debatte und über die Wörter, mit denen die Debatte geführt
wird, ist ein wesentlicher Aspekt jeglicher Kontroverse. Aber ebenso wie an-
dere größere Investitionen, die aufgrund ihrer Kosten gewissermaßen irrever-
sibel sind, entstehen auch die Äquivalenz- und Permanenzkonventionen, die
bezüglich der grundlegenden Objekte der statistischen Praxis getroffen wer-
den, im Ergebnis äußerst kostspieliger politischer, sozialer und technischer
Investitionen.
Eine öffentliche Debatte, die statistische Argumente einsetzt – sei es zur
Begründung der betreffenden Investitionen oder zu deren Diskussion – ist
demnach durch kontradiktorische Zwänge eingegrenzt. Die Kontroverse kann
einerseits dazu führen, die Äquivalenz und die Permanenz der Objekteigen-
schaften infrage zu stellen. Aber andererseits ist es sehr aufwendig, andere
Konventionen zu verwenden. Die hier vorgeschlagenen Überlegungen zu den
Beziehungen zwischen Statistik und öffentlichen Räumen möchten zur explizi-
ten Erklärung und Analyse dieser Räume beitragen, die eine nachhaltig verfe-
stigte Form haben. Diese Räume müssen unanfechtbar sein, damit das Leben
seinen Gang gehen kann, aber gleichzeitig müssen sie auch anfechtbar sein,
damit das Leben seinen Lauf ändern kann.
Nachwort:
Wie schreibt man Bücher, die Bestand haben?

Ich habe dieses Buch zwischen 1990 und 1993 geschrieben. Seitdem sind die
Forschungen zur Geschichte der Statistik in verschiedenen Richtungen weiter-
geführt worden, von denen ich in den vorhergehenden Kapiteln einige genannt
habe. Mehrere der zitierten Autoren haben neue Bücher über das Thema vor-
gelegt: Margo Anderson, Ian Hacking, Mary Morgan, Ted Porter und Stephen
Stigler. Weitere Autoren sind dazugekommen, Dissertationen wurden vertei-
digt. Im Übrigen hat das Buch kritische Reaktionen ausgelöst und Kommen-
tare veranlaßt, deren Zusammenfassung sich als nützlich erweist, zumal die
Hinweise oft treffend und anregend sind. Vor allen Dingen sind folgende Fragen
aufgeworfen worden: Was ist der rote Faden, der sich durch die verschiedenen
Kapitel des Buches zieht? Ist das Buch mehr als eine Aneinanderreihung von
uneinheitlichen Essays? Oder, um eine Formulierung aufzugreifen, die wir im
Zusammenhang mit Begriffen der Statistik verwendet hatten: Wie verfaßt man
Bücher, die Bestand haben? Ich versuche hier, diese Fragen zu beantworten.

Einige zwischen 1993 und 2000 veröffentlichte Arbeiten


Die internalistische Geschichte der mathematischen Statistik ist um die bei-
den großen Bände von Anders Hald bereichert worden (1990 [320] und 1998
[321]), in denen die Zeit vor 1750 beziehungsweise die Zeit von 1750 bis 1930
behandelt wird. Dieses Werk ist aus der Sicht der Geschichte der Mathematik
die nunmehr vollständigste Arbeit. Außerdem hat Stephen Stigler 1999 [339]
eine Sammlung von Essays zu bestimmten Themen veröffentlicht, die den ge-
samten Zeitraum vom 17. Jahrhundert bis 1933 abdecken. In jedem Essay
verknüpft der Autor die Genese der Formalismen und der statistischen Me-
thoden mit der Schilderung des Zauderns und der Kontroversen, die mit der
Anwendung der neuen Werkzeuge einhergingen. Das Buch von Stigler ist eine
Fundgrube an Informationen und Beispielen für den Professor der Statistik,
der seine Studenten zum Nachdenken über Dinge anregen möchte, welche über
das Erlernen von Formalisierungen hinausgehen, die in den Lehrbüchern – vor
376 Nachwort: Wie schreibt man Bücher, die Bestand haben?

allem in Frankreich – in steriler Form dargeboten werden. In diesem Fall ist


der scheinbare Umweg über die Geschichte – der weit davon entfernt ist, eine
simple Vorführung anschaulicher Momente zu sein – ein echtes Hilfsmittel für
die Pädagogik der Statistik, ein Hilfsmittel, das zum Nachdenken über die
wissenschaftlichen und sozialen Fragen der Statistik anregt.
Hinsichtlich externalistischer Arbeiten zur Geschichte der Institutionen
und in Bezug auf Sammlungen von Bevölkerungs-, Sozial- und Wirtschafts-
statistiken geben wir einige Bücher an, lassen aber zahlreiche Zeitschriftenar-
tikel und unveröffentlichte Dissertationen weg. Die erbitterten Debatten über
die Versuche des Bureau of the Census in den Vereinigten Staaten, ein neu-
es Zählungssystem vorzuschlagen (das die Umfragemethode nutzt und die
immer wiederkehrenden Probleme der Auswertung von gewissen Subpopu-
lationen lösen soll), sind in anschaulicher Weise von Margo Anderson und
Stephen Fienberg analysiert worden (1996 [297]). Außerdem wird allmählich
auch die Geschichte der russischen und der sowjetischen Statistik dank der
Arbeiten von Alain Blum (2000 [304]), Alessandro Stanziani (1998 [338]) und
Martine Mespoulet (1999 [330]) bekannt: einer der interessanten Punkte ist
die Verwendung von Umfragemethoden mit Beginn des zwanzigsten Jahrhun-
derts. Jean-Pierre Beaud und Jean-Guy Prévost, Spezialisten der Geschichte
der kanadischen Statistik, haben im Jahre 2000 [301] ein Sammelwerk über
Statistische Systeme und nationale Traditionen“ herausgegeben. Aus diesem

Blickwinkel hat Silvana Patriarca (1996 [332]) den Beitrag der Schriften der
Statistiker zur Errichtung der italienischen Einheit (1820–1870) analysiert.
Auf den nationalen“ Charakter der statistischen Praktiken hat auch Linda

Sangolt (1997 [335]) hingewiesen; in ihrer Arbeit vergleicht sie die Art und
Weise, in der die Norweger und die Briten in den 1970er Jahren ex nihilo eine
Statistik der Erdölindustrie der Nordsee geschaffen haben.
In den Kapiteln 5 (über Großbritannien) und 8 (über die Nomenklaturen)
habe ich weitgehend die Arbeiten von Simon Szreter verwendet. Szreter faßte
diese Arbeiten 1996 [340] in einer Synthese zusammen, die ein gutes Beispiel
für eine historische Soziologie der Bevölkerungs- und Sozialstatistik des Zeit-
raums 1860–1940 ist. Die Geschichte der Umfragen hat Anlaß zu vielfältigen
Arbeiten gegeben, sei es im Sinne von Meinungsumfragen“ (opinion polls)

im Buch von Loı̈c Blondiaux (1998 [303]) oder im Sinne von Stichprobener-
hebungen (sampling) und deren Verwendung in den statistischen Ämtern. Zu
nennen in diesem Zusammenhang sind die Arbeiten von Emmanuel Didier
über die Vereinigten Staaten, von Einar Lie über Norwegen und von Mar-
tine Mespoulet über Rußland und die UdSSR. Diese Arbeiten waren zum
Zeitpunkt des Erscheinens der zweiten französischen Auflage der Politik der
großen Zahlen noch nicht veröffentlicht.
Die universitäre Disziplin der Politikwissenschaften hat sich sehr für die
Geschichte der Statistik interessiert und erblickte dort ein besonders günstiges
Untersuchungsgebiet zur Analyse der öffentlichen Programme mit dem Ziel,
zunächst Komplikationen, Agenda und den Einsatz der erforderlichen Werk-
zeuge zu artikulieren, der öffentlichen Aktion vorzugreifen und sie einzufor-
Einige zwischen 1993 und 2000 veröffentlichte Arbeiten 377

dern, diese Aktion dann zu organisieren und sie schließlich auszuwerten. Aus
dieser Sicht ist die Dissertation von Luc Berlivet [302] über die Geschichte der
Kampfprogramme gegen Alkoholismus und Nikotinsucht ein gutes Beispiel.
Vincent Spenlehauer [337] hat die Geschichte der Auswertung der öffentlichen
Programme untersucht und dabei insbesondere festgehalten, ob diese Pro-
gramme auf die Statistik zurückgegriffen haben oder nicht. Fabrice Bardet
[300] hat entsprechende Untersuchungen zur Regionalstatistik (und vor allem
zu den Regionaldirektionen des INSEE) durchgeführt. Außerdem hat die Zeit-
schrift Politix, travaux de sciences politiques unter dem Titel L’imagination
statistique eine Sondernummer zur Geschichte der Statistik herausgegeben
(Nr. 25, 1. Quartal 1994).
Die Aufbereitung von Wirtschaftsstatistiken und deren Verwendung in
der Ökonometrie hat Anlaß zu mehreren neuen Arbeiten gegeben. Judy Klein
(1997 [327]) hat die Geschichte der Analyse von Zeitreihen für den Zeitraum
von 1662 bis 1938 untersucht. David Hendry und Mary Morgan veröffentlich-
ten 1995 [322] eine Sammlung von Gründungstexten“ der Ökonometrie. Die

Geschichte der volkswirtschaftlichen Gesamtrechnung der englischsprachigen
Länder und der ihnen nahestehenden Länder (Niederlande, skandinavische
Länder) ist in den von W. de Vries (1993 [312]) und Zoltán Kennessey (1994
[326]) herausgegebenen Sammelbänden untersucht worden, aber Frankreich
kommt in diesen Werken so gut wie gar nicht vor. Diese Lücke wurde mit
dem 2001 [342] erschienenen Buch von André Vanoli geschlossen. Es zeigt
sich vor allem, daß die volkswirtschaftliche Gesamtrechnung und die private
Buchführung in den englischsprachigen Ländern wesentlich voneinander ab-
weichen – ganz anders als in Frankreich, das auf eine lange Tradition der Wech-
selwirkung zwischen nationaler Buchführung und Unternehmensbuchführung
zurückblickt.
Zwar ist die Geschichte der Metrologie und des damit zusammenhängen-
den Objektivitätsbegriffes nunmehr – vor allem dank der Arbeit von Lorraine
Daston (1992 [307]) – gut bekannt. Aber die andere große und alte Tradi-
tion der gesellschaftlichen Nutzung der in der kommerziellen Buchführung
verwendeten Zahlen ist in der frankophonen Welt weniger bekannt. In der
anglophonen Welt dagegen, in der die soziale Praxis der verschiedensten Ak-
tivitäten des Geldverkehrs und der Buchprüfung viel älter und viel weiter ver-
breitet ist, gibt es – insbesondere an der London School of Economics (LSE) –
die Forschungsrichtung Buchführung als soziale und institutionelle Praxis“,

in der (inspiriert durch französische Autoren wie Foucault und Latour) hi-
storische, anthropologische und philosophische Gesichtspunkte amalgamiert
werden. Diese Richtung artikuliert sich in der 1976 gegründeten Zeitschrift
Accounting, Organizations and Society. Ein von Anthony Hopwood und Pe-
ter Miller 1994 [323] veröffentlichter Sammelband gibt eine Zusammenfassung
dieser eigenständigen Forschungsrichtung, die sich relativ unabhängig von den
neueren Arbeiten zur Geschichte der Statistik, der Wahrscheinlichkeitsrech-
nung und der Ökonometrie entwickelt hat.
378 Nachwort: Wie schreibt man Bücher, die Bestand haben?

Wie verbindet man die Aspekte der Geschichte der


Statistik?

Das Hauptziel des Buches Die Politik der großen Zahlen bestand darin, die
internalistische Geschichte der Formalismen und der Werkzeuge – aus der
Sicht der seit den 1970er Jahren entwickelten Wissenschaftssoziologie – mit
der mehr externalistisch orientierten Geschichte der Institutionen und sozialen
Anwendungen der Statistik zu verbinden. Einige Rezensenten (Rosser Matt-
hews, 2000 [334]) haben angemerkt, daß dieses in der Einleitung bekräftigte
ehrgeizige Ziel nur unvollständig erreicht worden ist: vor allem würden die am
ausgeprägesten internalistisch“ angelegten Kapitel (3 und 4) den Eindruck

erwecken, sich noch allzu sehr in der Nähe einer traditionellen Geschichte be-

deutender Persönlichkeiten“ zu befinden. Auf diese teilweise berechtigte Kritik
kann ich antworten, daß mein Ziel darin bestand, ein Maximum der bereits
verfügbaren internalistischen und externalistischen Arbeiten abzudecken, um
nach Zusammenhängen zwischen beiden Auffassungen zu suchen und nach
Möglichkeit über eine sterile Unterscheidung dieser Auffassungen hinauszuge-
hen. Aber einstweilen spiegelt diese Unterscheidung die soziale und kognitive
Trennung zwischen den Disziplinen und den Wissensgebieten wider und man
kann diese Trennung nicht einfach abschaffen, indem man sie für ungeschehen
erklärt. Auf einer tieferliegenden Ebene ist diese Trennung der Aufgaben und
der Standpunkte das Kernstück eines im Aufbau befindlichen Forschungspro-
gramms zur Soziologie der Statistik.
Seit 1993 haben zahlreiche Arbeiten auf verschiedenen Wegen Fortschritte
in dieser Richtung erzielt. Von den Autoren sind u.a. Michel Armatte, Eric
Brian, Ian Hacking, Ted Porter und Simon Szreter zu nennen. Michel Ar-
matte hat 1995 [298] eine umfassende Dissertation verteidigt, in der er die
Geschichte des linearen Modells“ vom 18. Jahrhundert bis zu den 1940er

Jahren analysiert. Hinter diesem nüchternen Titel verbirgt sich eine originelle
Problembehandlung des spontanen Gegensatzes zwischen den Begriffen, die
den Konzepten des Internalismus und des Externalismus vorangingen, wobei
der Gegensatz in vorteilhafter Weise durch eine Analyse mit Hilfe der Syn-
tax , der Semantik und der Pragmatik dargestellt wird: der Autor wendet die
interne Grammatik des Werkzeugs – was man mit ihm sagen möchte und
was es bewirken soll – und vor allem die Interdependenzen und die Interaktio-
nen zwischen den drei genannten Analyse-Ebenen auf statistische Objekte an,
die mit dem linearen Modell“ mehr oder weniger zusammenhängen. Dieses

Modell zieht sich somit als roter Faden durch eine umfassende Geschichte der
Wahrscheinlichkeitsrechnung, der Statistik und der Anfänge der Ökonometrie.
Eric Brian untersucht eine andere, für die Geschichte der Wissenschaften
und vor allem für die Geschichte der Statistik charakteristische Spannung –
die Spannung, die zwischen dem eingeordneten, kontingenten und historischen
Charakter der Erkenntnismethoden und deren Anspruch auf Universalität und
Permanenz in Raum und Zeit besteht. Im Falle der Statistik drücken sich die
Wie verbindet man die Aspekte der Geschichte der Statistik? 379

beiden Spannungspole durch die Begriffe Ziffer und Zahl aus24 : Die Ziffern
sind durch die Eintragung numerischer Zeichen unter besonderen Produkti-

onsbedingungen“ charakterisiert, während sich die Zahlen dadurch auszeich-
nen, daß ihre Macht in effektiver Weise anderswo, nachträglich oder in einer

anderen Skala eingesetzt wird“. Der Autor entwickelte diese Problematik vor
allem in einem Buch über den Verkehr zwischen Gelehrten und Verwaltungs-
fachleuten des 18. Jahrhunderts (Brian 1994 [305]).
Die Analysen von Armatte und Brian ermöglichen auf ihre Weise eine
Neuformulierung der alten und immer wiederkehrenden Fragen zum Status
des von den Statistikern produzierten Wissens und zu den historischen Moda-
litäten ihrer eventuellen Erfolge. Genau diese Frage nach dem Vertrauen in

die Zahlen“ wird von Porter (1995 [333]) auf der Grundlage einiger bestimmter
Konfigurationen des 20. Jahrhunderts untersucht. Gegenstand seiner Unter-
suchungen sind einerseits die Ingenieure für Hoch- und Tiefbau in Frankreich
und in den Vereinigten Staaten und andererseits die englischen Versicherungs-
träger. Die allgemeine Idee besteht in der Untersuchung bestimmter Fälle, in
denen gesellschaftlich wirkende Kräfte das durch quantitative Argumente des
homo scientiae“ rationalisierte Wissen dazu verwenden, anderen den Rang

abzulaufen, die sich in traditioneller Weise auf das Wissen berufen, das sich
durch seine Nähe zum homo artis“ und zu dessen Intuition auszeichnet.

Das Buch The Social Construction of What? von Ian Hacking (1999 [319])
bezieht sich nicht unmittelbar auf die Statistik. Aber die in diesem Buch in
einem so lebendigen und paradoxen Stil aufgeworfenen Fragen treffen direkt
mit den Fragen zusammen, die sich der Historiker und der Soziologe der Stati-
stik stellt: Welcher Sache und wem dienen unsere Forschungen wirklich? Zielt
die Tatsache, daß man den sozial konstruierten“ Charakter der von der
” ”
Wissenschaft“ oder von den Experten“ verwendeten Werkzeuge nachweist,

darauf ab, die Wissenschaft und die Experten zu relativieren und ihre Auto-
rität herabzusetzen? Könnte nicht – wie Porter bemerkte – folgendes zutreffen:
Ebenso wie die quantitativen Methoden im 19. Jahrhundert ein Mittel für die
Beherrschten waren, Punkte“ gegen die damals traditionell Herrschenden zu

sammeln, so könnte auch die im letzten Drittel des Jahrhunderts stattge-
fundene Dekonstruktion“ ein Mittel gewesen sein, den Hochmut der an den

Schalthebeln der Macht sitzenden Wissenschaftler zu mäßigen. Die Debatten
über die Sokal-Affäre25 wären also ein schönes Forschungsgebiet zur Rekon-
24
Im französischen Original ist von chiffres“ und nombres“ die Rede. Im Deut-
” ”
schen kann chiffre“ u.a. Ziffer“ (im Sinne von Zahlzeichen) und Chiffre“ (im
” ” ”
Sinne von Code) bedeuten, während nombre“ die Bedeutung Zahl“ hat.
25 ” ”
Nachdem der Physiker Alain Sokal 1996 in der Zeitschrift Social Text den Artikel
Transgressing the boundaries: Toward a transformative hermeneutics of quantum
gravity veröffentlicht hatte, gab er bekannt, sein Artikel sei eine Parodie, inhalt-
lich höherer Unfug und aus zahlreichen Zitaten bekannter französischer Denker
zusammenmontiert. Das führte zu einer leidenschaftlichen Debatte, ja sogar zu ei-
nem wütenden Streit unter den Intellektuellen. Zusammen mit dem Physiker Jean
Bricmont verfaßte Sokal 1997 ein Buch, das in deutscher Übersetzung unter dem
380 Nachwort: Wie schreibt man Bücher, die Bestand haben?

struktion der Art und Weise, in der die Wissenschaft in den 1990er Jahren
zur letzten Zuflucht des Sakralen geworden war. Hacking gibt – wie es sei-
ne Art ist – keine einfache Antwort auf diese Fragen, liefert aber eine ganze
Reihe von Argumenten und Beispielen, um eine Debatte voranzutreiben, die
von der Sokal-Affäre ernstlich getrübt war. Zum Gegenstand dieser Affäre
verweisen wir insbesondere auch auf den von Baudoin Jurdant (1998 [325])
herausgegebenen Sammelband.
Die Reaktionen, die das Buch Die Politik der großen Zahlen und dessen
1998 erschienene englische Übersetzung auslösten, lassen sich auf zweierlei
Weise analysieren. Einerseits liefert die Vielfalt der Interpretationen – vor
allem entsprechend den akademischen Disziplinen – ein überraschendes Ana-
lyseschema für die epistemologischen und die sozialen Konfigurationsunter-
schiede, die zwischen den Disziplinen bestehen; diese Unterschiede werden
dahingehend analysiert, wie man die statistischen Methoden in den betreffen-
den Disziplinen anwendet und interpretiert. Andererseits weisen die Kritiken
oft auf Zweideutigkeiten, unklare Punkte und Fragen hin, bei denen sich der
Autor seiner Sache nicht sicher war (und es immer noch nicht ist) – aber er
ist in diesem Fall nicht der Einzige, dem es so ergeht.

Wie bedienen sich die Sozialwissenschaften


dieser Aspekte?

Die Interpretationen polarisieren sich auf Anhieb in zwei Richtungen. Für


den ersten Pol bildet die Statistik ein argumentatives Hilfsmittel und eine
Methode zur Analyse gewisser Fragen. Der zweite Pol, welcher der Anwen-
dung quantitativer Methoden oft gleichgültiger gegenübersteht, sieht dagegen
in der Statistik eine Form der staatlichen Tätigkeit und allgemeiner gespro-
chen eine Form der Verwaltung der sozialen Welt – zum Beispiel mit Hilfe
von Begriffen wie Gouvernementalität“ 26 und Bio-Macht“, um Ausdrücke
” ”
von Foucault aufzugreifen, die häufig von den Vertretern des zweitgenannten
Pols zitiert werden. Diese Dualität gehörte selbstverständlich zum Kernstück
des Buchprojekts, aber es ist nicht sicher, daß beide Fragestellungen wirk-
lich erfolgreich so artikuliert worden sind, wie es sich der Autor gewünscht
hätte. Tatsächlich ist es auffällig, daß sich die Reaktionen in den Rezensionen
und in den Debatten über das Buch im Wesentlichen je zur Hälfte auf diese
beiden Pole aufteilten, selten aber auf beide Pole gleichzeitig. Methodologie
oder Geschichte: ich mußte zwischen beiden Dingen wählen. Das kann selbst-
verständlich eine Folge des unzulänglichen Zusammenhangs zwischen den Ka-
piteln sein, wie einige Rezensenten festgestellt haben. Eine Rezensentin (Libby
Schweber [336]) ist sehr anspruchsvoll und macht dem Buch – im Gegensatz
Titel Eleganter Unsinn. Wie die Denker der Postmoderne die Wissenschaft miß-
brauchen erschienen ist (Deutscher Taschenbuch Verlag, München 2001, [441]).
26
Mentalität und Praxis des Regierens.
Wie bedienen sich die Sozialwissenschaften dieser Aspekte? 381

zu den obengenannten Auffassungen – den Vorwurf, von einer einzigen Sor-


ge durchdrungen zu sein: der Sorge, ein zeitlich unveränderliches Wesen“ der

Statistik herauszuarbeiten. Diese (weiter unten ausführlicher diskutierte) Kri-
tik erscheint mir ungerechtfertigt, aber sie hat wenigstens das Verdienst, das
Buch als Ganzes zu betrachten und sich auf das zentrale Anliegen zu richten.
Auf einer tieferliegenden Ebene weist diese Dualität auf die oft prinzipiell
gelobte sogenannte reflexive Methode hin. Es ist schwierig, sein Arbeitsinstru-
ment als Objekt aufzufassen – außer auf normative Weise in den zahlreichen
Diskursen über die (richtige) Methode“, welche die guten“ Anwendungen
” ”
kodifizieren und die schlechten“ exkommunizieren. Als Methodologie ist die

Statistik bestenfalls ein Kochbuch“, das heißt eine Sammlung von Voraus-

setzungen dafür, daß die Speisen von den Gästen geschätzt werden und die
statistischen Argumente überzeugend sind. Der Übergang von einer auf die
Formulierung einer Wahrheit gerichteten normativen Haltung zu einer an-
deren, deskriptiven und pluralistischen Haltung, verlangt die Reintegration
der Welt der Anwendungen in die Analyse, das heißt in den semantischen
und pragmatischen Raum dieser Anwendungen. Deswegen können der Staat,
die Gouvernementalität“ und all das, was den zweiten Pol angeht, wieder

berücksichtigt werden. Außerdem kann man dann auch kohärente Konfigu-
rationen von Methodologien und sozialen Anwendungen rekonstruieren. Es
gibt diesbezügliche Beispiele für Anwendungen in der Wirtschaft (Armatte,
1995 [298]; Armatte und Desrosières, 1999 [299]), in der Psychometrie (Mar-
tin, 1997 [329]), in der Medizin und bei Behandlungsversuchen (Marks, 1999
[328]) sowie in der Demographie (Desrosières 1997 [309]).
Bezüglich der verschiedenen Disziplinen der Sozialwissenschaften sind die
Belange der im vorliegenden Buch diskutierten Fragen uneinheitlich; vor allem
aber sind sie von ganz unterschiedlicher Natur, je nachdem ob die Statistik an
der betreffenden Stelle als Quelle, als Methode, als Realitätsphilosophie oder
als eine Art des Regierens aufgefaßt wird. Wie wir bereits gesagt hatten, be-
steht gerade in den Politikwissenschaften und vor allem auf dem Gebiet der
sogenannten Analyse der öffentlichen Programme“ ein lebhaftes Interesse für

die Geschichte der Statistik als Aspekt der Geschichte der Formen und der
Aktionen eines Staates. Freilich gibt es in dieser Disziplin einen stark quan-
titativistisch ausgerichteten Pol, der umfassenden Gebrauch von Umfragen
macht und die Wahlergebnisse analysiert (Dupoirier und Parodi, 1997 [314]).
Die Geschichte der Meinungsumfragen ist Gegenstand einer soziohistorischen
Studie von Loı̈c Blondiaux (1998 [303]). Aber auch dort ist eine Kluft zwischen
den beiden Formen des Interesses spürbar, das heißt zwischen dem Interesse
für die Statistik und dem Interesse für ihre Geschichte.
Der Standpunkt der Historiker hat sich weiterentwickelt. Zwischen 1940
und 1980 sind die quantitativen Methoden – als ein von der École des Anna-
les verfochtenes Hilfsmittel für die Wirtschafts- und Sozialgeschichte – stark
gefördert worden. Man sprach damals von einer seriellen Geschichte“ oder

382 Nachwort: Wie schreibt man Bücher, die Bestand haben?

Kliometrie“ 27 , einem von der Biometrie und der Ökonometrie inspirierten



Begriff. Aber die Bedeutung dieser Werkzeuge ist in den vergangenen dreis-
sig Jahren zurückgegangen. Jedoch hatte die anspruchsvolle Tradition der
Quellenkritik“ bei den Historikern den Boden gut dafür präpariert, daß eine

allmähliche Verschiebung der Quellenforschung“ in Richtung einer Quellen-

geschichte stattfinden konnte, einer Geschichte, die immer weniger rein in-
strumental – das heißt ausschließlich auf die Konstruktion von Abfolgen –
ausgerichtet war. Das Kolloquium zur Geschichte der Statistik, das 1976 in
Vaucresson vom INSEE und von Historikern durchgeführt wurde, markier-
te ein wichtiges Moment dieser Entwicklung. Aus allen diesen Gründen ist
die Kluft zwischen den beiden Polen auf dem Gebiet der Geschichte weniger
prägnant als in anderen Disziplinen; darüber hinaus sind die Pole durch eine
relative Kontinuität von vertieften Überlegungen miteinander verknüpft.
Die Soziologen scheinen dagegen immer mehr zwischen diesen beiden Polen
aufgeteilt“ zu sein. Die Quantitativisten“ nehmen in Bezug auf die Daten
” ”
und deren Verarbeitungsweisen eine Haltung ein, die sich häufig in der Nähe
der Auffassung der Wirtschaftswissenschaftler befindet. In den 1970er Jahren
hatte es den Anschein, daß die Korrespondenzanalyse nach Art von Jean-Paul
Benzécri eine Methodologie darstellen könnte, die sich für eine Soziologie eig-
net, deren Ziel darin besteht, globale Konfigurationen und Konstellationen
von Eigenschaften sozialer Gruppen zu charakterisieren und nicht nur Kausa-
litätsbeziehungen zwischen Variablen aufzustellen. Aber seit den 1980er Jah-
ren benutzen die quantitativistischen Soziologen immer häufiger logistische
Regressionsmethoden, die ihren Ursprung in der Ökonometrie haben. Diese
Methoden zielen darauf ab, Struktureffekte zu eliminieren“, indem sie reine
” ”
Effekte“ von Variablen zerlegen, die unabhängig voneinander und nachein-
ander berücksichtigt werden. Diese Tendenz hat unter anderem zur Folge,
die Aufmerksamkeit auf den nachgelagerten Bestand der geschnürten“ und

kodifizierten Daten zu konzentrieren – zum Nachteil des vorgelagerten Daten-
bestandes, das heißt auf Kosten der gesamten praktischen und historischen
Kette von Zwischenstationen, die zu der besonderen Kodierung geführt hat.
Am gegenüberliegenden Pol stellen andere Soziologen, die – mit wenigen Aus-
nahmen – kaum mit den erstgenannten Soziologen verkehren, der Statistik
nicht nur Fragen darüber, was sie sagt, sondern auch darüber, was sie macht.
So ist etwa der Artikel von Nicolas Dodier (1996 [313]) über die der statisti-

schen Argumentation zugewandten Sozialwissenschaften“ ein gutes Beispiel
für diese Methode. Eines der Themen einer kollektiven Forschung zur Soziolo-
gie der sozialen Anwendungen der Statistik könnte darin bestehen, den Dialog
27
Unter Kliometrie“ versteht man die Anwendung der neoklassischen ökonomi-

schen Theorie in der Wirtschaftsgeschichte, das heißt die Erklärung des histori-
schen Wandels als Ergebnis von Interaktionen nutzenmaximierender Individuen.
Die Pionierarbeit auf diesem Gebiet wurde von Robert W. Fogel und Douglass
C. North geleistet, die 1993 zusammen den Ökonomie-Nobelpreis erhielten. Der
erste Teil der Bezeichnung Kliometrie“ leitet sich von Klio ab, der griechischen

Muse der Geschichte.
Wie bedienen sich die Sozialwissenschaften dieser Aspekte? 383

zwischen den beiden – mit unterschiedlichen Kulturen ausgestatteten – Po-


len wieder aufzunehmen. Hierzu leisten Arbeiten wie zum Beispiel der Artikel
von Michel Gollac (1997 [318]) einen großen Beitrag. Auch die Entwicklung
gewisser universitärer Studiengänge geht in diese Richtung. Zu nennen sind
hier die Klassen, in denen man sich nach der Reifeprüfung (baccalauréat) auf
die Aufnahmeprüfung für die École normale supérieure 28 vorbereitet und der
entsprechende concours“ der ENS. Auf diesen concours“ bereiten sich die
” ”
in der Regel besten Bakkalaureaten“ in den classes préparatoires (Vorberei-

tungsklassen) vor, die in zahlreichen staatlichen und einigen wenigen privaten
lycées eingerichtet sind.
So verwunderlich es auch erscheinen mag: die Wirtschaftswissenschaftler
interessieren sich mit wenigen Ausnahmen kaum für die konkrete Konstruktion
ihrer Daten und überlassen diese Sorge den Statistikern und – im Falle der Ma-
kroökonomie – den Buchhaltern der volkswirtschaftlichen Gesamtrechnung.
Das berühmte, von 1950 datierte Werk von Oskar Morgenstern über Mea-

surement in Economy“ hat – zumindest in dem die Wirtschaftswissenschaft
dominierenden Pol – zu keiner bedeutenden Tradition in der Epistemologie
der Messungen geführt: dieser Pol ist nämlich mehr hypothetisch-deduktiv als
empirisch-induktiv orientiert. Die auf die Zukunft ausgerichtete Methodologie
der Ökonometrie wendet sich ihrerseits selten der eigenen Vergangenheit zu –
zumindest verhält es sich in Frankreich so (in Großbritannien weniger: David
Hendry und Mary Morgan sind auf diesem Gebiet sehr aktiv). Allerdings gibt
es ein altehrwürdiges Gebiet: die Geschichte des ökonomischen Denkens“.

Aber dieses Gebiet ist vor allem eine Geschichte der Ideen. Die Statistik und
die Probleme des Messens werden dort als Bestandteil der Welt des Denkens
kaum problematisiert. Wird die Statistik überhaupt erwähnt, dann besten-
falls als Instrument und als Kennzeichen des unausweichlichen Fortschritts

in Richtung einer größeren Wissenschaftlichkeit“ – aus einem Blickwinkel,
29
der im angelsächsischen Raum als whiggish bezeichnet wird, das heißt als
28
Die renommierteste und älteste der gegenwärtig sechs Écoles normales supérieures
wurde 1794 in der rue d’Ulm gegründet. Für deren Mitglieder allein gilt die Be-
zeichnung und der Titel eines normalien. Anfangs nur für die Ausbildung von
Lehrern höherer Schulen vorgesehen, hat sich die ENS rue d’Ulm im 19. und 20.
Jahrhundert zum Zentrum und Symbol für die Rekrutierung der geisteswissen-
schaftlichen (und teilweise auch der mathematisch-naturwissenschaftlichen) Elite
Frankreichs entwickelt. Spätere Gründer und Mitglieder der Mathematikergrup-
pe Bourbaki“ waren normaliens, zum Beispiel André Weil, der dem zweiten

Kapitel seiner Autobiographie Souvenirs d’apprentissage (Weil, 1991, [450]) die
Überschrift Rue d’Ulm“ gab.
29 ”
Für genauere Ausführungen zum Whiggismus“ in Bezug auf die Geschichts-

schreibung der Mathematik vgl. Grattan-Guinness (1990 [391]) und Dauben (1994
[362]). Etwas drastisch formuliert bedeutet whiggish history“, daß die Mathema-

tiker üblicherweise die Geschichte ihres Faches als die Aufzeichnung des zu mir

führenden Königsweges“ ansehen; es erfolgt also eine Darstellung dessen, wie sich
eine moderne Theorie aus älteren Theorien entwickelt hat, wobei man diesen älte-
384 Nachwort: Wie schreibt man Bücher, die Bestand haben?

unumkehrbare Akkumulation des Fortschritts und als Licht, das die Dunkel-
heit vertreibt. Allgemein gesagt hat die neuere Literatur zur Geschichte der
Statistik weniger die Aufmerksamkeit der Ökonomen als die der Soziologen,
Historiker und Politikwissenschaftler erregt – mit Ausnahme einiger Spezia-
listen für die Geschichte des ökonomischen Denkens, die von der modernen
Wissenschaftssoziologie beeinflußt waren.
Zu den Spezialisten für Geschichte der Statistik gehören natürlich die Sta-
tistiker selbst, einschließlich ihrer beiden deutlich voneinander verschiedenen
Spielarten: die Universitätsstatistiker (bei denen es sich im Wesentlichen um
Mathematiker handelt) und die Statistiker an den Institutionen für öffentliche
Statistik. Einige der erstgenannten Spezialisten haben bedeutende Arbeiten
zur Geschichte der mathematischen Statistik verfaßt: Benzécri, Hald, Stigler
und davor auch Kendall, Mosteller und Fienberg. Aus deren Sichtweise auf
die interne Geschichte der Formalisierungen hat das vorliegende Buch keine
ganz neuen Dinge gebracht, da es selbst eher von den Arbeiten dieser Auto-
ren profitiert hat. So hat etwa Fienberg (1999 [315]) bedauert, im Buch keine
Informationen zur Vorgeschichte der Umfragen im 18. Jahrhundert und über
deren Anwendungen in den Volkszählungen gefunden zu haben. Diese Kritiken
sind berechtigt und weisen auf künftige Forschungsrichtungen hin. Umgekehrt
hatten wir bereits gesagt, wie unentbehrlich die Arbeiten von Stephen Stigler
für die Berufsausbildung der Statistiker sind.
Mein Buch geht nicht auf die Rolle der statistischen Verwaltungseinrich-
tungen bei der Durchführung von Forschungsarbeiten zu ihrer eigenen Ge-
schichte ein. Jedoch wurden in einigen Ländern (Frankreich, Vereinigte Staa-
ten, Kanada, Norwegen, Niederlande) Arbeiten zu diesem Thema verfaßt, an
denen sich Universitätshistoriker und Statistiker gemeinsam beteiligten. Zu
derartigen Arbeiten kam es beispielsweise – aber nicht immer – anläßlich von
Jahrestagen der betreffenden Institutionen. Es gibt ein bedeutendes Angebot
an Arbeiten dieser Art – von Autoren, die sich in erster Linie auf Gedenk-
feiern und Identitätsbehauptung orientieren, bis hin zu Autoren, die mehr
auf Wissenschaftlichkeit und Techniken ausgerichtet sind (dieses Spektrum
von Arbeiten wird von Desrosières (2000 [311]) beschrieben). So hat beispiels-
weise das INSEE anläßlich seines fünfzigsten Jahrestages im Jahre 1996 ein
Werk verfaßt, dessen Informationsgehalt sich nicht auf eine einfache Gedenk-
feier reduziert (INSEE, 1996 [324]). In Zeiten, in denen sich – insbesondere
aufgrund der Weiterentwicklung der Strukturen gewisser Behörden (Erwei-
terung der Europäischen Union, Gründung der Europäischen Zentralbank,
Einführung des Euro, Dezentralisierung und Erhöhung der Funktion von Ge-
bietskörperschaften) – die Rolle und die sozialen Anwendungen der Statistik
rasch ändern, sind einige Statistiker darum bemüht, diese Entwicklungen in
eine lange Geschichte einzuordnen.
ren Theorien kein eigenes Darstellungsrecht einräumt. Mit anderen Worten: die
betreffenden Mathematiker verwechseln die Frage Wie sind wir hierher gekom-

men?“ mit der hiervon verschiedenen Frage Was geschah in der Vergangenheit?“

Kritiken und Diskussionsthemen 385

Kritiken und Diskussionsthemen

Einige Rezensenten des Buches haben Kritiken folgender Art geäußert und
entsprechende Diskussionsthemen vorgeschlagen: Heterogenität und mangeln-
der Zusammenhang der verschiedenen Kapitel (Rosser Matthews); übermäßi-
ge Essentialisierung einer hypothetisch über der Geschichte stehenden Stati-
stik; fehlende Klarheit der Positionierung in Bezug auf die großen epistemo-
logischen Alternativen, das heißt in Bezug auf Realismus, Relativismus und
Konstruktivismus (Libby Schweber); Zusammenhang zwischen statistischer
Totalisierung und Analyse des individuellen Handelns (Nicolas Dodier); Ver-
wendung eines unverständlichen französischen Jargons (Charles Murray).
Die Kritik bezüglich der Heterogenität hatte ich bereits erwähnt. Diese
Kritik ist nicht völlig ungerechtfertigt. Eine Möglichkeit, Fortschritte zu er-
zielen, bestünde darin, das Hin- und Herpendeln zwischen den – sich auf Orte,
Zeiten und deutlich umrissene Situationen beziehenden – mikrosoziologischen
Analysen einerseits sowie den Analysen von Totalisierungsstandpunkten und
makrohistorischen Rekapitulationen andererseits zu intensivieren. In diesem
Fall würden die Verbindungen und kontingenten Konfigurationen, mit deren
Hilfe Akteure, Verfahren und Formalismen in – nie jemals endgültig festge-
legten – kognitiven, technischen und sozialen Netzen vereinigt werden, zu
engeren Zusammenhängen zwischen den einzelnen Kapiteln führen, insbeson-
dere zwischen den Kapiteln über formale Werkzeuge und den Kapiteln über
Institutionen und Konstruktionsmethoden der hypothetischen Daten“. Hier

liegt ein kollektives Forschungsprogramm für die Zukunft.
Die Essentialismus-Kritik (Schweber, 1996 [336]) ist etwas paradox, da
das gesamte berufsmäßige Streben des Autors genau darauf gerichtet ist, die
Thematik der historischen Kontingenz in den Kreisen der Ökonomen und Sta-
tistiker einzuführen und zu vertiefen – in Kreisen von Personen also, deren
wissenschaftliche, universalistische und zeitlose Kultur in einem diametralen
Gegensatz zu dieser Art von Fragestellung stand. Nichtsdestoweniger ist die
Kritik interessant und verdient es, ernst genommen zu werden. Eine Hypo-
these zieht sich nämlich durch das Buch und versucht (möglicherweise erfolg-
los), dessen verschiedene Kapitel miteinander zu verbinden: Die statistische
Totalisierung wird so aufgefaßt, daß sie mit Hilfe von zugeordneten Äquiva-
lenzkonventionen und Kodierungen die Opferung einer Sache (ausgedrückt in
Form von Singularitäten) impliziert – eine Opferung zugunsten der (per Kon-
vention festgelegten) Konstituierung einer neuen, konsistenten Allgemeinheit,
die sich für das Wissen und für die Koordinierung des Handelns als nützlich
erweist. Diese Hypothese läßt sich in folgender Frage zusammenfassen: Wie

erzeugt man Dinge, die einen Zusammenhalt aufweisen?“ Und zwar einen Zu-
sammenhalt im folgenden dreifachen Sinne: die Dinge sind beständig“, sie
” ”
sind miteinander verknüpft“ und sie geben den Menschen Koordinaten vor“.

Diese Hypothese scheint nicht darauf hinauszulaufen, die ganze Geschichte der
Statistik in eine zeitlose und transhistorische Vision einzuschließen, sondern
bildet eher ein Mittel zur Soziologisierung einer Gesamtheit von technischen
386 Nachwort: Wie schreibt man Bücher, die Bestand haben?

Objekten, die auf der Grundlage zweier (scheinbar entgegengesetzter) Tradi-


tionen entweder die Tendenz zur Autonomisierung aufweisen (in der Kultur
des Ingenieurs) oder die Erscheinungen der Außenwelt als Symbole bzw. als
reine Macht- oder Unterscheidungsmerkmale auffassen (von Bourdieu inspi-
rierte Soziologie der Felder). In der ersten Zeit bildete die Soziologie der Felder
einen unersetzlichen Motor, um Abstand zur Kultur des Ingenieurs zu gewin-
nen. Hierbei hat sich diese Soziologie zwar als sehr nützlich erwiesen. Aber sie
hat es in gewisser Weise auch schwer gemacht, die Objekte an sich (Formalis-
men, Verfahren, Codes, technische Montagen) ernst zu nehmen, da sie immer
als Symbole oder Schleier behandelt wurden, die etwas anderes verbergen.
Das, was als transhistorische Essentialisierung der Statistik angesehen wurde,
war eher die Wahl einer soziologischen Methode, die es freilich verdiente, als
solche diskutiert zu werden.
Der Politik der großen Zahlen ist auch der Vorwurf gemacht worden, sich
bezüglich der Debatte zwischen Realismus“ und Relativismus“ nicht klar
” ”
zu äußern, oder vielmehr eine Wahl zu verweigern“ und somit de facto re-
” ”
lativistisch“ zu sein (Schweber, 1996 [336]). Es stimmt, daß ich in der Einlei-
tung hierzu zwei unterschiedliche Standpunkte vorgestellt habe, deren Zusam-
menhang jedoch nicht hinreichend gründlich untersucht worden ist. Der erste
Standpunkt war eine Vergegenwärtigung der Auffassung, daß die statistischen
Messungen (und vor allem deren zeitliche Weiterverfolgung) eine soziologische
und institutionelle Verfestigung der gemessenen Kategorien implizieren. Im
Namen dieser Idee war unlängst die von Marchand und Thélot unter dem
Titel Zwei Jahrhunderte Arbeitsmarkt“ durchgeführte Rekonstruktion kri-

tisiert worden (Genèses, 9, Oktober 1992, S. 90–119). Die Autoren hatten
sich für eine Methodenoption entschieden, die untrennbar mit der Frage nach
der Berechtigung der Anwendung statistischer Argumente in den Sozialwis-
senschaften zusammenhängt. Diese Wahl ermöglicht auch die Aussage, daß es
nicht in sich widersprüchlich ist, zu behaupten, daß ein Objekt gleichzeitig
konstruiert und real ist. Der zweite Standpunkt hingegen ist eher ein Pro-
gramm für eine Soziologie der statistischen Beweisführung. Dieses Programm
schlägt eine Untersuchung der sowohl in den Sozialwissenschaften als auch in
der Gesamtheit der sozialen Debatten effektiv eingesetzten Realitätsrhetori-
ken vor, wobei man in zwei Schritten verfährt. Zunächst unterscheidet man
die Fälle, in denen die Realität der Objekte keinem Zweifel zu unterliegen
scheint und sofort und fraglos postuliert wird, von denjenigen Objekten, de-
ren Realität ganz im Gegenteil und im Namen verschiedenartiger Argumente
infrage gestellt wird. Anschließend setzt man diese Argumentationsformen zu
den für jeden Fall spezifischen Situationszwängen in Beziehung. Dieses For-
schungsprogramm scheint mir an sich nicht relativistisch zu sein.
Nicolas Dodier (1996 [313]) positioniert sich in seinem Kommentar auf
einem ganz anderen Gebiet. Er befaßt sich eingehend mit dem Begriff des
Singularitätsverlustes“ und untersucht, welche Implikationen die Zunahme

des Einflusses der statistischen Denkweise“ für die Sozialwissenschaften und

für die konkreten Individuen“ hätte. Was wäre, wenn sich diese Denkweise

Kritiken und Diskussionsthemen 387

durch die Idee einer Zunahme an Allgemeinheit“ charakterisieren ließe, die



ihrerseits ein erneuter Abstieg in das Spezielle“ sein könnte? Er weist im

Grunde auf zwei Fragenklassen hin. Die eine betrifft den Forscher: Was macht
man mit den Gegebenheiten“, mit den Residuen“, die von der Konvention
” ”
links liegen gelassen wurden, welche ihrerseits die statistische Totalisierung
ermöglicht hat? Welche Beziehung besteht zwischen dem von der Statistik
zur Schau gestellten generischen, typifizierten, kategoriellen Durchschnitts-
menschen und dem konkreten Menschen, dessen relevante Eigenschaften man
nicht a priori definieren kann? Aber diese Frage betrifft auch das Individuum
selbst: Welche Auswirkungen haben diese Kategorisierungen und Typifizie-
rungen auf das Individuum? Wir denken hier an die neueren Debatten über
die Verwendung ethnischer Kategorisierungen in statistischen Untersuchungen
und an die damit verbundenen Gefahren. Und wir denken auch – aus ande-
rer Sicht – an die Verbreitung der Listen der Preisträger“ von Gymnasien

oder von Krankenhäusern und an die Wirkungen dieser Listen auf die Nutzer
und auf das Personal dieser Einrichtungen. Es gibt da neue Entwicklungen
der statistischen Argumentation“, deren Implikationen noch unzureichend

bekannt sind.
Abschließend nennen wir eine – aus der Feder von Charles Murray (1999
[331]) stammende – bissige Kritik der englischen Ausgabe des Buches. Murray
hat zusammen mit Richard Herrnstein das neohereditaristische Werk The Bell
Curve verfaßt, einen amerikanischen Bestseller, in dem ein Jahrhundert nach
Galton dessen Ideen zum angeborenen und erblichen Charakter der Fähig-

keiten“ und zu den Ungleichheiten zwischen den Rassen“ recycelt werden.

Murrays Kritik bezieht sich im Wesentlichen auf die Unleserlichkeit und den
Jargon eines Buches, dessen Thema interessant zu sein scheint“, aber dessen

möglicherweise von der französischen akademischen Tradition inspirierter“

Stil sich oft in einem Sumpf von Wörtern“ verliert. Im Übrigen findet man

keinerlei Hinweis auf Galton und auf die amerikanische Wiederbelebung seiner
Ideen. Ich fühle mich – besonders in Bezug auf die englische Übersetzung –
nicht dazu in der Lage, diese Kritik des Stils zu beurteilen. Ich glaube aber,
eine kategorielle Einstufung“ zu ahnen, die durch die Anspielung auf die

französische akademische Tradition“ suggeriert wird – eine Einstufung, die

sich an gewisse Kontroversen neueren Datums anschließt, bei denen anstelle
von anderen Fragen offenbar nationale Kategorisierungen (Vereinigte Staaten
versus Frankreich) das Gebiet besetzt haben. Möglicherweise ist das ein Bei-
spiel für die von Nicolas Dodier genannten Auswirkungen der Zunahme an

Allgemeinheit“.

Für Lulma, ein Jahr, 26. Juli 2000


Anhang: Abkürzungen

AEA, American Economic Association.


ANPE, Agence national pour l’emploi. Nationale Agentur für Stellenvermitt-
lung.
ASA, American Statistical Association.
BLS, Bureau of Labor Statistics.
BSO, Business Statistical Office.
C, consumption (Verbrauch).
CNRS, Centre nationale de la recherche scientifique. Nationales Zentrum
der wissenschaftlichen Forschung. Hat in Frankreich die Aufgaben der Max-
Planck-Gesellschaft und der großen bundesdeutschen Stiftungen.
COGSIS, Committee on Government Statistics and Information Services.
EHESS, École des hautes études en sciences sociales. Hervorgegangen 1975 aus
der ehemaligen 6. Sektion der EPHE (vgl. dort). Ein wesentliches Motiv für
die Verselbständigung war der Ehrgeiz der Mitglieder dieser Sektion, sich als
universitäre Institution zu profilieren. Aufbau und Funktionsweise der EHESS
entspricht weitgehend noch der EPHE.
ENA, École nationale d’administration. Staatliche Verwaltungshochschule.
Eine sogenannte Super-Grande École, die den Führungsnachwuchs für die
höchsten Ämter der Staatsverwaltung ausbildet.
ENS, École normale supérieure.
ENSAE, École nationale de la statistique et l’administration économique.
Staatliche Schule für Statistik und Wirtschaftsführung.
EPHE, École pratique des hautes études. Die 1868 gegründete Anstalt wurde
in den Räumen der Sorbonne untergebracht, war aber durch ihre explizite
Forschungsorientierung von Beginn an als eine Art Gegenmodell konzipiert.
390 Anhang: Abkürzungen

Ursprünglich bestand sie aus vier Abteilungen: Mathematik; Physik und Che-
mie; Naturgeschichte und Philosophie; historische und philologische Wissen-
schaften. Während der Kulturkampfes“ zwischen katholischer Kirche und

laizistischer Bewegung kam 1886 eine fünfte Sektion hinzu: Religionswissen-
schaften. Eine sechste Sektion wurde 1947 gegründet: Wirtschafts- und So-
zialwissenschaften. Nach der Auflösung der ersten beiden Sektionen und der
Verselbständigung der sechsten Sektion zur EHESS (vgl. dort) besteht die
EPHE heute nurmehr aus drei Sektionen.
ETAM, Employés, techniciens et agents de maı̂trise. Angestellte, Techniker
und Meister.
EUROSTAT, European Communities’ Statistical Office. Statistisches Amt der
Europäischen Gemeinschaften (SAEG). Französische Bezeichnung: Office Sta-
tistique des Communautés Européennes (OSCE).
G, government expenditure (öffentliche Ausgaben).
GRO, General Register Office. Haupstandesamt (GB).
HR, House of Representatives. Repräsentantenhaus (USA).
I, investment (Investition).
IAA, Internationales Arbeitsamt. Deutsche Bezeichnung für ILO (vgl. dort).
ICD, International Classification of Diseases, Injuries and Causes of Death.
Internationale Klassifikation der Krankheiten, Verletzungen und Todesursa-
chen.
ILO, International Labor Office. Internationales Arbeitsamt (IAA).
INED, Institut national d’études démographiques. Nationales Institut für
Bevölkerungswissenschaft (Paris).
INSEE, Institut national de la statistique et des études économiques. Natio-
nales Institut für Statistik und Wirtschaftsstudien (gegründet 1946).
IIS, Internationales Institut für Statistik (gegründet 1885, Den Haag).
IIS, Institut international de statistique. Französische Bezeichnung für: Inter-
nationales Institut für Statistik.
ISI, International Statistical Institute. Englische Bezeichnung für: Internatio-
nales Institut für Statistik.
ISUP, Institut de statistique de l’université de Paris.
LSE, London School of Economics.
NBER, National Bureau of Economic Research.
OPCS, Office of Population, Censuses and Surveys.
Anhang: Abkürzungen 391

PDG, Président-directeur général. Vorstandsvorsitzender (einer Aktiengesell-


schaft), Generaldirektor.
SAEG, Statistisches Amt der Europäischen Gemeinschaften (EUROSTAT).
SEEF, Service des études économiques et financières.
SGF, Statistique générale de la France. Allgemeine Statistik für Frankreich
(von 1840 bis 1941 Name des Französischen Amtes für Statistik).
SSP, Société de statistique de Paris.
St.B.A., Statistisches Bundesamt, Wiesbaden (seit 1956).
St.R.A., Statistisches Reichsamt, Berlin (bis 1945).
UN, United Nations (New York).
WHO, World Health Organization. Deutsche Bezeichnung: Weltgesundheits-
organisation (WGO). Französische Bezeichnung: Organisation mondiale de la
santé (OMS).
Literaturverzeichnis

1. Abrams, P. (1968): The Origins of British Sociology, 1884–1914. University of


Chicago Press, Chicago, London
2. Affichard, J. (1987): Statistiques et mise en forme du monde social. Introducti-
on à l’histoire des statistiques écrite par les statisticiens. In: INSEE. Pour une
histoire de la statistique, tome 2: Matériaux. INSEE-Economica, Paris, 9–17
3. Aldrich, J. (1989): Autonomy. Oxford Economic Papers 41 (1), Januar 1989,
15–34
4. Anderson M.J. (1988): The American Census. A Social History. Yale University
Press, New Haven, London
5. Armatte, M. (1991): Une discipline dans tous ses états: la statistique à travers
ses traités (1800–1914). Revue de synthèse 2, 161–205
6. Armatte, M. (1992): Conjonctions, conjoncture et conjecture. Les baromètres
économiques (1885–1930). Histoire et mesure, VII 1-2, 99–149
7. Balinski, M., Young, H.P., (1982): Fair Representation: Meeting the Ideal of
One Man, One Vote. Yale University Press, New Haven, London
8. Bateman, B.W. (1990): Keynes, Induction and Econometrics. History of Poli-
tical Economy 22, 2, 359–379
9. Bayart, D. (1992): La quantification du contrôle qualité dans l’industrie: un
point de vue sociologique et historique, communication au colloque La Qualité

dans l’agro-alimentaire, Société française d’économie rurale“, 26.–27. Oktober
1992, Paris,
10. Bayes, T. (1970): An Essay Towards Solving a Problem in the Doctrine of
Chances. Philosophical Transactions of the Royal Society of London 53, 1764,
370–418. Neu herausgegegeben in: Pearson und Kendall (1970) [221], 131–153
11. Benzécri, J.P. (1973): L’Analyse des données. Dunod, Paris
12. Benzécri, J.P. (1982): Histoire et préhistoire de l’analyse des données. Dunod,
Paris
13. Bertillon, A. (1876): La théorie des moyennes en statistique. Journal de la
Société statistique de Paris, 265–308
14. Bertillon, J. (1895): Cours élémentaire de statistique administrative. Société
d’éditions scientifiques, Paris
15. Besnard, P. (1976): Anti- ou ante-durkheimisme? Contribution au débat sur
les statistiques officielles du suicide. Revue française de sociologie, XVII 2,
April–Juni, 313–341
394 Literaturverzeichnis

16. Bienaymé, I.J. (1855): Sur un principe que M. Poisson avait cru découvrir et
qu’il avait appelé loi des grands nombres. Séances et travaux de l’Académie
des sciences morales et politiques 31, 379–389
17. Bloor, D. (1982): Socio-logie de la logique, ou les limites de l’épistémologie.
Editions Pandore, Paris
18. Board Of Trade (1909): Cost of Living of French Towns. Report of an Inquiry
by the Board of Trade. Darling, London
19. Boltanski, L. (1982): Les Cadres, la formation d’un groupe social. Minuit, Paris
20. Boltanski, L., Thévenot, L. (1983): Finding One’s Way in Social Space; a Study
Based on Games. Social Science Information 22 4–5, 631–679
21. Boltanski, L., Thévenot, L. (1991): De la justification. Les économies de la
grandeur. Gallimard, Paris
22. Booth, C. (1889): Labour and Life of the People. London
23. Borel, E. (1920): La statistique et l’organisation de la présidence du Conseil.
Journal de la Société statistique de Paris, 9–13
24. Bourdelais, P., Raulot J.Y. (1987): Une peur bleue. Histoire du choléra en
France, 1832–1854. Payot, Paris
25. Bourdieu, P. (1979): La Distinction. Minuit, Paris
26. Bourdieu, P. (1980): Le Sens pratique. Minuit, Paris
27. Bourguet, M.N. (1988): Déchiffrer la France. La statistique départementale à
l’époque napoléonienne. Editions des archives contemporaines, Paris
28. Bouveresse, J. (1993): L’homme probable. Robert Musil, le hasard, la moyenne
et l’escargot de l’histoire. L’éclat, 30250 Comba
29. Bowley, A. (1906): Presidential Adress to the Economic Section of the British
Association. Journal of the Royal Statistical Society, 540–558
30. Bowley, A. (1908): The Improvement of Official Statistics. Journal of the Royal
Statistical Society 71, 460–493
31. Bowley, A. (1919): The Division of the Product of Industry. An Analysis of
National Income Before the War. Clarendon, Oxford
32. Bowley, A., Stamp, J. (1927): The National Income, 1924. Clarendon, Oxford
33. Box, G. (1980): Sampling and Bayes’ Inference in Scientific Modelling and
Robustness. Journal of the Royal Statistical Society, Ser. A 143, 383–430
34. Bravais, A. (1846): Analyse mathématique sur les probabilités des erreurs de si-
tuation d’un point. Mémoires présentés par divers savants à l’Académie Royale
des Sciences de l’Institut de France 9, 255–332
35. Brian, E. (1989): Statistique administrative et internationalisme statistique
pendant la seconde moitié du XIXe siècle. Histoire et mesure, IV 3–4, 201–224
36. Brian, E. (1991): Le prix Montyon de statistique à l’Académie royale des
sciences pendant la Restauration. Revue de synthèse 2, 207–236
37. Bru, B. (1988): Estimations Laplaciennes. Un exemple: la recherche de la popu-
lation d’un grand Empire, 1785-1812. In: Mairesse J. (éd.) [184], Estimation et
sondages – Cinq contributions à l’histoire de la statistique. Economica, Paris,
7–46
38. Buckle, H. (1857): History of Civilization in England. London
39. Bulmer, M., Bales, K., Sklar, K. (1991): The Social Survey in Historical Per-
spective, 1880–1910. Cambridge University Press, Cambridge
40. Bungener, M., Joël, M.E. (1989): L’essor de l’économétrie au CNRS. Cahiers
pour d’histoire du CNRS 4, 45–78
Literaturverzeichnis 395

41. Bunle, H. (1911): Relation entre les variations des indices économiques et le
mouvement des mariages. Journal de la Société statistique de Paris, März,
80–93
42. Callon, M. (Hrsg.) (1989): La Science et ses réseaux. Genèse et circulation des
faits scientifiques. La Découverte, Paris
43. Chang, W.C. (1976): Statistical Theories and Sampling Practice. In: Owen D.
(ed.) [216], On the History of Statistics and Probability. Marcel Dekker, New
York, 297–315
44. Chateauraynaud, F. (1991): La faute professionnelle. Une sociologie des conflits
de responsabilité. Métailié, Paris
45. Cheysson, E. (1890): Les Budgets comparés de cent monographies de famille.
(Unter Mitarbeit von A. Toque). Botta, Rom
46. Christ, C.F. (1985): Early Progress in Estimating Quantitative Economic Re-
lationship in America. American Economic Review 75 (6), 39–52
47. Cicourel, A. (1964): Method and Measurement in Sociology. The Free Press of
Glencoe, New York
48. Clero, J.P. (1986): Remarques philosophiques sur l’essai de Bayes en vue de
résoudre un problème de la doctrine des chances. In: Publications de l’Institut
de recherches mathématiques de Rennes, IRMAR, université de Rennes I
49. Converse, J. (1987): Survey Research in the United States: Roots and Emer-
gence. University of California Press, Berkeley
50. Coumet, E. (1970): La théorie du hasard est-elle née par hasard? Annales ESC
3, Mai–Juni, 574–598
51. Cournot, A. (1843): Exposition de la théorie des chances et des probabilités.
Hachette, Paris, 1843; Neuauflage 1984. Oeuvres complètes de Cournot, Bd. 1,
Bernard Bru, (éd.), Vrin, Paris
52. Crombie, A.C. (1981): Philosophical Presuppositions and Shifting Interpreta-
tions of Galileo. In: J. Hintikka, D. Gruender and E. Agazzi (eds.), Theory
Change, Ancient Axiomatics and Galileos Methodology. Proc. of the 1978 Pisa
Conference on the History and Philosophy of Science, Reidel, Dordrecht, 284
53. Daston, L.J. (1987) The Domestication of Risk: Mathematical Probability and
Insurance, 1650–1830. In: Krüger L., Daston L., Heidelberger L. (éds) [158],
The Probabilistic Revolution, vol. I, Ideas in History. Cambridge, Massachu-
setts, MIT Press, 237–260
54. Daston, L.J. (1988): Classical Probability in the Enlightenment. Princeton Uni-
versity Press, Princeton
55. Daston, L.J. (1989): L’interprétation classique du calcul des probabilités. An-
nales ESC 3, Mai–Juni, 715–731
56. Delaporte, F. (1990): Le savoir de la maladie. Essai sur le choléra de 1882 à
Paris. PUF, Paris
57. De Marchi, N. (1991): League of Nations Economists and the Ideal of Peace-
ful Change in the Decade of the Thirties. In: Goodwin C.D. (ed.), Economic
and National Security. A History of their interaction. Duke University Press,
Durham, 143–178
58. De Marchi, N., Gilbert, C. (eds) (1989): History and Methodology of Econo-
metrics. Oxford Economic Papers 1, January
59. Desrosières, A. (1977): Eléments pour l’histoire des nomenclatures socioprofes-
sionnelles. In: Pour une histoire de la statistique, tome 1. Neu herausgegeben
1987: Economica, INSEE, Paris, 155–231
396 Literaturverzeichnis

60. Desrosières, A. (1985): Histoires de formes: statistiques et sciences sociales


avant 1940. Revue française de sociologie, XXVI 2, 277–310
61. Desrosières, A. (1986): L’ingénieur d’état et le père de famille: Émile Cheysson
et la statistique. Annales des mines, série Gérer et comprendre“ 2, 66–80

62. Desrosières, A. (1988a): Masses, individus, moyennes: la statistique sociale au
e
XIX siècle. Hermès 2, CNRS, 41–66
63. Desrosières, A. (1988b): La partie pour le tout: comment généraliser? La pré-
histoire de la contrainte de représentativité. In: Mairesse J. (éd.) [184], Esti-
mation et sondages. Cinq contributions à l’histoire de la statistique. Paris,
Economica, 97–116
64. Desrosières, A. (1989): Les spécificités de la statistique publique en France une
mise en perspective historique. Courrier des statistiques 49, 37–54
65. Desrosières, A. (1992): Discuter l’indiscutable. Raison statistique et espace
public. Raisons pratiques 3, 131–154
66. Desrosières, A., Gollac, M. (1982): Trajectoires ouvrières, systèmes d’emploi et
comportements sociaux. Economie et statistique 147, 43–66
67. Desrosières, A., Mairesse, J., Volle, M. (1977): Les temps forts de l’histoire
de la statistique française. In: Pour une histoire de la statistique, tome 1:
Contributions, 1977. Neu herausgegeben 1987: Economica, INSEE, Paris, 509–
518
68. Desrosières, A., Thévenot, L. (1988): Les Catégories socioprofessionnelles. La
Découverte, Paris
69. Dodier, N. (1993): L’expertise médicale. Essai de sociologie sur l’exercice du
jugement. Métailié, Paris
70. Droesbeke, J.J., Tassi, P. (1990): Histoire de la statistique. PUF, Que sais-je?
Nr. 2527, Paris
71. Drouard, A. (1983): Les trois ages de la Fondation française pour l’étude des
problèmes humains. Population 6, 1017–1037
72. Dugé de Bernonville, L. (1916): Enquête sur les conditions de la vie ouvrière et
rurale en France en 1913–1914. Bulletin de la Statistique générale de la France,
tome IV
73. Dumont, L. (1983): Essai sur l’individualisme. Seuil, Paris
74. Duncan, J.W., Shelton, W.C. (1978): Revolution in United States Government
Statistics, 1926–1976. US Department of Commerce, Washington
75. Dupaquier, J. (1985): Histoire de la démographie. Perrin, Paris
76. Durkheim, E. (1893): De la division du travail social. Paris. Deutsche Über-
setzung: Über soziale Arbeitsteilung. Studie über die Organisation höherer
Gesellschaften. Dritte Auflage 1999, Suhrkamp, Frankfurt am Main
77. Durkheim, E. (1894): Les Règles de la méthode sociologique. Paris. Deutsche
Übersetzung: Die Regeln der soziologischen Methode. (Herausgegeben und ein-
geleitet von R. König). Erste Auflage 1984, Suhrkamp, Frankfurt am Main
78. Durkheim, E. (1897): Le Suicide. Étude de sociologie. Paris. Deutsche Über-
setzung: Der Selbstmord. Erste Auflage 1983, Suhrkamp, Frankfurt am Main
79. Durkheim, E., Mauss, M. (1903): De quelques formes primitives de classifica-
tion, Année sociologique, 1903. Neu herausgegeben in: Mauss M., Essais de
sociologie. Minuit, Paris. In deutscher Sprache unter dem Titel Über einige

primitive Formen von Klassifikation“ erschienen in: Durkheim, E., Schriften
zur Soziologie der Erkenntnis. Frankfurt a. M. (1987), 171–256
Literaturverzeichnis 397

80. Duvillard, E. (1989): Mémoire sur le travail du Bureau de statistique, 1806.


Neu herausgegeben in: Études et documents, 1, 1989, Comité pour l’histoire
économique et financière de la France. Imprimerie Nationale, Paris, 425–435
81. Edgeworth, F. (1881): Mathematical Psychics. An Essay on the Application of
Mathematics to the Moral Sciences. C. Kegan Paul, London
82. Edgeworth, F. (1885): Calculus of Probabilities Applied to Psychical Research,
I. Proceedings of the Society for Psychical Research 3, 190–208
83. Edgeworth, F. (1892): The Law of Error and Correlated Averages. Philosophi-
cal Magazine, 5th series 34, 429–438 und 518–526
84. Elias, N. (1973): La Civilisation des moeurs. Calmann-Lévy, Paris
85. Epstein, R.J. (1987): A History of Econometrics. North-Holland, Amsterdam
86. Etner, F. (1987): Histoire du calcul économique en France. Economica, Paris
87. Ewald, F. (1986): L’État providence. Grasset, Paris
88. Eymard-Duvernay, F. (1986): La qualification des produits. In: R. Salais und L.
Thévenot, (éds) Le Travail. Marchés, règles, conventions. INSEE, Economica,
Paris
89. Eymard-Duvernay, F. (1989): Conventions de qualité et formes de coordination.
Revue économique 40 (2), 329–359
90. Fagot-Largeault, A. (1989): Les Causes de la mort. Histoire naturelle et facteur
de risque. Vrin, Paris
91. Fagot-Largeault, A. (1991): Réflexions sur la notion de qualité de la vie. Ar-
chives de philosophie du droit, tome 36, volume Droit et Science, 135–153
92. Feldman, J., Lagneau, G., Matalon, B. (éds.) (1991): Moyenne, milieu, centre.
Histoires et usages. Éditions de l’École des hautes études en sciences sociales,
Paris
93. Fisher, R. (1925): Statistical Methods for Research Workers. Oliver and Boyd,
Edinburgh
94. Foucault, M. (1966): Les Mots et les choses. Gallimard, Paris. Deutsche Über-
setzung (1971): Die Ordnung der Dinge. Eine Archäologie der Humanwissen-
schaften. Suhrkamp, Frankfurt am Main
95. Fourquet, F. (1980): Les Comptes de la puissance. Histoire de la comptabilité
nationale et du Plan. Encres, Paris
96. Fox, K. (1989): Some contributions of US Agricultural Economists to Statistics
and Econometrics, 1917–1933. Oxford Economic Papers 41, Januar, 53–70
97. Fréchet, M., Halbwachs, M. (1924): Le calcul des probabilités à la portée de
tous. Dunod, Paris
98. Frisch, R. (1931): A Method of Decomposing an Empirical Series into its Cy-
clical and Progressive Components. Journal of the American Statistical Asso-
ciation 26, 73–78
99. Frisch, R. (1933): Propagation Problems and Impulse Problems in Dynamic
Economics. In: Economic Essays in Honour of Gustav Cassel. Allen and Unwin,
London
100. Frisch, R. (1938): Statistical Versus Theoretical Relations in Economic Ma-
crodynamics, 1938. In: Autonomy of Economic Relations. University of Oslo,
1948
101. Frisch, R. (1948): Repercussion Studies at Oslo. American Economic Review
39, 367–372
102. Galton, F. (1869): Hereditary Genius. An Inquiry into its Laws and Conse-
quences. Macmillan, London. Deutsche Übersetzung (1910): Genie und Verer-
bung. Leipzig
398 Literaturverzeichnis

103. Galton, F. (1886): Regression Towards Mediocrity in Hereditary Stature. Jour-


nal of the Anthropological Institute 15, 246–263
104. Galton, F. (1889): Natural Inheritance. Macmillan, London
105. Galton, F. (1909): Essays in Eugenics. Eugenics Education Society, London
106. Gigerenzer, G. und Murray, D.J. (1987): Cognition as Intuitive Statistics. La-
wrence Erlbaum Associates, Hillsdale, New Jersey
107. Gigerenzer, G. et al. (1989): The Empire of Chance. How Probability Changed
Science and Everyday Life. Cambridge University Press, Cambridge
108. Gille, B. (1964): Les sources statistiques de l’histoire de France. Des enquêtes
du XVIIe siècle à 1870. Droz, Genf
109. Gini, C. (1928): Une application de la méthode représentative aux matérieux
du dernier recensement de la population italienne (1er décembre 1921). Bulletin
de l’Institut International de Statistique 23, tome 2, 198–215
110. Ginzburg, C. (1980): Signes, traces, pistes. Racines d’un paradigme de l’indice.
Le Débat 6, November, 13–44
111. Goody, J. (1979): La Raison graphique. Minuit, Paris
112. Gould, S.J. (1983): Le Mal-mesure de l’homme. Ramsay, Paris
113. Gruson, C. (1968): Origines et espoirs de la planification française. Dunod,
Paris
114. Guibert, B., Laganier, J., Volle, M. (1971): Essai sur les nomenclatures indu-
strielles. Économie et Statistique 20, 23–36
115. Haavelmo, T. (1943): The Statistical Implications of a System of Simultaneous
Equations. Econometrica 11, 1–12
116. Haavelmo, T. (1944): The Probability Approach in Econometrics. Supplement
to Econometrica 12, 1–118
117. Hacking, I. (1975): The Emergence of Probability. Cambridge University Press,
Cambridge
118. Hacking, I. (1987): Prussian Numbers 1860-1882. In: Krüger L., Daston L. und
Heidelberger L. (eds) [158], The Probabilistic Revolution, vol. I. MIT Press,
Cambridge Massachusetts, 377–394
119. Hacking, I. (1990): The Taming of Chance. Cambridge University Press, Cam-
bridge
120. Hacking, I. (1991): Statistical Language, Statistical Truth and Statistical Rea-
son: the Self-authentification of a Style of Scientific Reasoning. In: McMullen
(ed.), Social Dimensions of Sciences. University of Notre-Dame Press
121. Halbwachs, M. (1912): La classe ouvrière et les niveaux de vie. Recherches sur
la hiérachie des besoins dans les sociétés industrielles contemporaines. Alcan,
Paris. 2. Auflage 1970, Paris
122. Halbwachs, M. (1913): La théorie de l’homme moyen. Essai sur Quetelet et la
statistique morale. Alcan, Paris
123. Halbwachs, M. (1914): Budgets de familles ouvrières et paysannes en France,
en 1907. Bulletin de la Statistique générale de la France 4, fasc. 1, 47–83
124. Hansen, M.H., Madow, W.G. (1976): Some Important Events in the Historical
Development of Sample Surveys. In: Owen D. (ed.) [216], On the History of
Statistics and Probability. Marcel Dekker, New York, 73–102
125. Hecht, J. (1977): L’idée de dénombrement jusqu’à la révolution. In: INSEE
1977. Pour une histoire de la statistique, tome 1, 1977 (Neuauflage 1987).
Economica, Paris, INSEE, 21–81
126. Hecht, J. (éd) (1979): J.P. Süssmilch (1707). L’Ordre divin, aux origines de la
démographie. INED, Paris.
Literaturverzeichnis 399

127. Hennock, E.P. (1976): Poverty and Social Theory in England: the Experience
of the Eighteen-eighties. Social History (I), 67–69
128. Hennock, E.P. (1987): The Measurement of Poverty: from the Metropolis to
the Nation, 1880–1920. Economic History Review, 2e série, XL 2, 208–227
129. Henry, L. (1963): Réflexions sur l’observation en démographie. Population 2,
233–262
130. Héran, F. (1984): L’assise statistique de la sociologie. Économie et statistique
168, 23–35
131. Héran, F. (1987): La seconde nature de l’habitus. Tradition philosophique
et sens commun dans le langage sociologique. Revue française de sociologie,
XXVIII, 385–416
132. Hoock, J. (1977): D’Aristote à Adam Smith: quelques étapes de la statistique
allemande entre le XVIIe et le XIXe siècle. In: INSEE 1977. Pour une histoire
de la statistique, tome 1, 1977. Neu herausgegeben 1987: Economica, INSEE,
Paris, 477–492
133. Hooker, R.H. (1901): Correlation of the Marriage Rate with Trade. Journal of
the Royal Statistical Society 64, 485–492
134. Huber, M. (1937): Quarante années de la Statistique générale de la France,
1896–1936. Journal de la Société statistique de Paris, 179–214
135. INSEE (1977): Pour une histoire de la statistique, tome 1: Contributions, 1977.
Neu herausgegeben 1987: Economica, INSEE, Paris
136. INSEE (1987): Pour une histoire de la statistique, tome 2: Matériaux, (J. Af-
fichard, éd.). Economica, INSEE, Paris
137. Jensen, A. (1925): Report on the Representative Method in Statistics. Bulletin
de l’Institut international de statistique 22, livre 1, 359–380
138. Jensen, A. (1925): The Representative Method in Practice, Annexe B. Bulletin
de l’Institut international de statistique 22, livre 1, 381–489
139. John, V. (1884): Geschichte der Statistik. Stuttgart, Enke
140. Jorland, G. (1987): The Saint-Petersburg paradox, 1713-1937. In: Krüger L.,
Daston L. und Heidelberger L. (eds) [158], The Probabilistic Revolution, vol.
I, Ideas in History. MIT Press, Cambridge Massachusetts, 157–190
141. Juglar, C. (1862): Des crises commerciales et de leur retour périodique en
France, en Angleterre et aux Etats-Unis. Paris
142. Kalaora, B., Savoye, A. (1985): La mutation du mouvement le playsien. Revue
française de sociologie, XXVI 2, 257–276
143. Kalaora, B., Savoye, A. (1987): Les Inventeurs oubliés. Frédéric Le Play et ses
continuateurs. CERFISE
144. Kang, Z. (1989): Lieu de savoir social. La Société de Statistique de Paris au
XIXe siècle (1860–1910). Thèse, EHESS, Paris
145. Kendall, M. (1942): The Future of Statistics. Journal of the Royal Statistical
Society, vol. CV, part II, 69–72
146. Kendall, M., Plackett, R.L. (eds.) (1977): Studies in the History of Statistics
and Probability, vol. II. Griffin, London
147. Kendrick, J. (1970): The Historical Development of National-Income Accounts.
History of Political Economy 2, 284–315
148. Keverberg, Baron de (1827): Notes sur Quetelet. Nouveaux Mémoires de
l’Académie royale des sciences et belles lettres de Bruxelles 4, 175–192
149. Keynes, J.M. (1910): Review of K. Pearson: A First Study of the Influence of
Parental Alcoholism on the Physique and Ability of the Offspring. Journal of
the Royal Statistical Society, July, 769–773; December 114–121
400 Literaturverzeichnis

150. Keynes, J.M. (1921): A Treatise on Probability. London


151. Keynes, J.M. (1939): Professor Tinbergen’s Method. Economic Journal 49,
558–568 und 50, 141–156
152. Kiaer, A.N. (1895): Observations et expériences concernant les dénombrements
représentatifs. Bulletin de l’IIS 9, 176–178
153. Kiaer, A.N. (1897): Sur les méthodes représentatives ou typologiques appli-
quées à la statistique. Bulletin de l’IIS 11, 180–185
154. Kiaer, A.N. (1901): Sur les méthodes représentatives ou typologiques. Bulletin
de l’IIS 13, livre 1, 66–70
155. Kocka, J. (1989): Les employés en Allemagne, 1850-1980. Histoire d’un groupe
social. Éditions de l’EHESS, Paris
156. Koopmans, T. (1947): Measurement Without Theory. Review of Economic
Statistics 29, 161–172
157. Kramarz, F. (1991): Déclarer sa profession. Revue française de sociologie, 32
1, 3–27
158. Krüger, L., Daston, L.J., Heidelberger, M. (eds.) (1987): The Probabilistic
Revolution, vol. 1: Ideas in History. MIT Press, Cambridge Massachusetts
159. Krüger, L., Gigerenzer, G., Morgan, M.S. (eds.) (1987): The Probabilistic Re-
volution, vol 2: Ideas in the Sciences. MIT Press, Cambridge Massachusetts
160. Kruskal, W., Mosteller, F. (1980): Representatives Sampling IV: the History
of the Concept in Statistics. 1895–1939. International Statistical Review 48,
169–195
161. Kuisel, R. (1984): Le Capitalisme et l’État en France. Modernisation et diri-
gisme au XXe siècle. Gallimard, Paris
162. Kuznets, S. (1934): National Income, 1929–1932. NBER Bulletin 49, New York
163. Ladrière, P., Gruson, C. (1992): Ethique et gouvernabilité. Un projet européen.
PUF, Paris, 1992
164. Laplace, P.S. (1810): Mémoire sur les approximations des formules qui sont
fonctions de très grands nombres et sur leur application aux probabilités.
Mémoires de l’Académie des Sciences de Paris, 353–415 und 559–565
165. Largeault, J. (1971): Enquête sur le nominalisme. Paris
166. Latour, B. (1984): Les microbes. Guerre et paix, suivi de Irréductions. A.M.
Métailié, Paris
167. Latour, B. (1989): La science en action. La Découverte, Paris
168. Latour, B. (1991): Nous n’avons jamais été modernes. La Découverte, Paris
169. Lawson, T. (1989): Realism and Instrumentalism in the Development of Eco-
nometrics. Oxford Economic Papers 41, Januar, 236–258
170. Lazarsfeld, P. (1970): Notes sur l’histoire de la quantification en sociologie:
les sources, les tendances, les grands problèmes. In: Philosophie des sciences
sociales. Gallimard, Paris, 75–162
171. Le Bras, H. (1987): La statistique générale de la France. In: Nora P. (éd.), Les
Lieux de mémoire, tome II, La Nation. Gallimard, Paris, 317–353
172. Lécuyer, B. (1977): Médecins et observateurs sociaux: les Annales d’hygiène
publique et de médecine legale (1820-1850). In: INSEE 1977. Pour une hi-
stoire de la statistique, tome 1: Contributions, 1977; neu herausgegeben 1987:
Economica-INSEE, Paris, 445–476
173. Lécuyer, B. (1982): Statistiques administratives et statistiques morales au XIXe
siècle? In: Actes de la journée d’étude Sociologie et statistique“. INSEE, Paris,

155–165
Literaturverzeichnis 401

174. Legendre, A.M. (1805): Nouvelles méthodes pour la détermination des orbites
des comètes. Courcier, Paris, 1805
175. Le Goff, J. (1962): Marchands et banquiers au Moyen-Age. PUF, Paris
176. Le Mée, R. (1975): Statistique de la France. La Statistique générale de la France
de 1888 à 1870. Service de Microfilm, Paris
177. Lenoir, M. (1913): Études sur la formation et le mouvement des prix. Giard et
Brière, Paris
178. Lévy, M. (1975): L’information statistique. Seuil, Paris
179. Livi, R. (1896): Sulla interpretazione delle curve seriali in antropometria. Atti
della Società Romana di Antropologia 3, 2152
180. Lottin, J. (1912): Quetelet, statisticien et sociologue. Paris
181. Luciani, J., Salais, R. (1990): Matériaux pour la naissance d’une institution
l’Office du travail (1890–1900). Genèses, Sciences sociales et histoire 3, 83–108
182. Mach, E. (1904): La Mécanique, exposé historique et critique de son déve-
loppement. É. Bertrand, Hermann, Paris. Französische Übersetzung von Die

Mechanik in ihrer Entwicklung“ (1883)
183. Mac Kenzie, D. (1981): Statistics in Britain, 1865-1930. The Social Construc-
tion of Scientific Knowledge. Edinburgh University Press, Edinburgh
184. Mairesse, J. (Hrsg.) (1988): Estimation et sondages. Cinq contributions à
l’histoire de la statistique. Economica, Paris
185. Malinvaud, E. (1988): Econometric Methodology at the Cowles Commission:
Rise and Maturity. Econometric Theory 4, 187–209
186. Malinvaud, E. (1991): Voies de la recherche macroéconomique. Odile Jacob,
Paris,
187. Mansfield, M. (1988): La construction sociale du chômage: l’émergence d’une
catégorie en Grande-Bretagne. IEPE, document de travail 8803, Paris
188. March, L. (1905): Comparaison numérique de courbes statistiques. Journal de
la Société statistique de Paris, 255–277
189. March, L. (1910): Essai sur un mode d’exposer les principaux élements de la
théorie statistique. Journal de la Société statistique de Paris, 447–486
190. March, L. (1925): Observations sur la méthode représentative et sur le projet
de rapport relatif à cette méthode. Annexe D. Bulletin de l’IIS 22, livre 1,
444–451
191. Marietti, P.G. (1947): La statistique générale en France. Imprimerie du Gou-
vernement, Rufisque
192. Maroussem, P. du (1900): Les Enquêtes. Pratique et théorie. Paris
193. Menard, C. (1977): Trois formes de résistance aux statistiques: Say, Cournot,
Walras. In: Pour une histoire de la statistique, tome 1, 1977. Neu herausgegeben
1987, Economica, INSEE, Paris, 417–429
194. Merllié, D. (1987): Le suicide et ses statistiques: Durkheim et sa postérité.
Revue philosophique 3, 303–325
195. Metz, K. (1987): Paupers and Numbers: The Statistical Argument for Social
Reform in Britain during the Period of Industrialization. In: Krüger L., Daston
L. und Heidelberger L. (Hrsg.) [158], The probabilistic Revolution, vol. I Ideas
in History. MIT Press, Cambridge Mass., 337–350
196. Meusnier, N. (1987): Jacques Bernoulli et l’Ars conjectanda. Université de
Haute Normandie, IREM, Rouen
197. Mirowski, P. (1989): The Probabilistic Counter-Revolution, or How Stochastic
Concepts Came to Neoclassical Economic Theory. Oxford Economic Papers 41
(1), 217–235
402 Literaturverzeichnis

198. Mirowski, P. (1989): The Measurement without Theory Controversy. Économie


et Sociétés. Oeconomia 11, 65–87
199. Mitchell, W. (1913): Business Cycles and their Causes. California University
Memoirs, Berkeley, vol. III
200. Mitchell, W. (1923): Business Cycles. In: NBER (ed.), Business Cycles and
Unemployment. New York
201. Mols, R. (1954): Introduction à la démographie historique des villes d’Europe
du XIVe au XVIIIe siècle. Duculot, Paris
202. Moore, H. (1914): Economic Cycles. Their Law and Cause. Macmillan, New
York
203. Moreau de Jonnès (1847): Éléments de statistique, comprenant les principes
généraux de cette science et un aperçu historique de ses progrès. Guillaumin,
Paris
204. Morgan, M.S. (1990): The History of Econometric Ideas. Cambridge University
Press, Cambridge
205. Morrisson, C. (1987): L’enseignement des statistiques en France du milieu du
XIXe siècle à 1960. In: INSEE 1987, Pour une histoire de la statistique 2,
INSEE, Paris. Economica, 811–823
206. Murphy, T. (1981): Medical Knowledge and Statistical Methods in Early Nine-
teenth Century France. Medical History 25, 301–319
207. Musgrave, R. (1959): The Theory of Public Finance. A Study in Public Eco-
nomy. McGraw-Hill, New York
208. Musil, R. (2002): Die Schwärmer. Schauspiel in drei Aufzügen (1921). 8. Auf-
lage, Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg
209. NBER (1921): Income in the United States: Its Amount and Distribution,
1909–1919, vol. I et II. New York
210. Neyman, J. (1934): On the Two Different Aspects of the Representative Me-
thod: the Method of Stratified Sampling and the Method of Purposive Selec-
tion. Journal of the Royal Statistical Society 97, 558–606; Discussion 607–625
211. Neyman, J., Pearson, E. (1928): On the Use and Interpretation of Certain
Test Criteria for Purposes of Statistical Inference. Biometrika 20A, 175–240
und 263–294
212. Nisbet, R.A. (1984): La Tradition sociologique. PUF, Paris
213. Nissel, M. (1987): People Count. A History of the General Register Office.
Office of Population Censuses and Surveys, London
214. Norton, B. (1978): Karl Pearson and Statistics: The Social Origins of Scientific
Innovation. Social Studies of Sciences 8 (1), Februar, 3–34
215. O’Muircheartaigh, C., Wong, T. (1981): The Impact of Sampling Theory on
Survey Sampling Practice: A Review. Bulletin de l’IIS, tome XLIX, Buenos-
Aires, 465–493
216. Owen, D.B. (ed.) (1976): On the history of statistics and probability. Marcel
Dekker, New York
217. Ouzuf-Marignier, M.V. (1986): De l’universalisme constituant aux intérêts lo-
caux le débat sur la formation des départements en France (1789–1790). An-
nales ESC 6, 1193–1213
218. Patinkin, D. (1976): Keynes and Econometrics: on the Interaction Between the
Macroeconomic Revolutions of the Interwar Period. Econometrica 44, 1091–
1123
219. Paty, M. (1991): Mach, Ernst (1838–1916). Encyclopedia Universalis
Literaturverzeichnis 403

220. Pearson, E. (1938): Karl Pearson. An Appreciation of Some Aspects of His Life
and Work. Cambridge University Press, Cambridge
221. Pearson, E., Kendall, M. (Hrsg.) (1970): Studies in the History of Statistics
and Probability, vol. I. Griffin, London
222. Pearson, K. (1896): Mathematical Contributions to the Theory of Evolution,
III: Regression, Heredity and Panmixia. Philosophical Transactions of the Roy-
al Society of London (A) 187, 253–318
223. Pearson, K. (1912): La Grammaire de la science. Ins Französische übersetzt von
Lucien March, Alcan, Paris. Englischer Originaltitel (1892): The Grammar of
Science. Walter Scott, London
224. Pearson, K. (1920): Notes on the History of Correlation. Biometrika 12, 25–45
225. Pearson, K., Heron, D. (1913): On Theories of Association. Biometrika 9, 159–
315
226. Perrot, J.C. (1977): La statistique régionale à l’époque de Napoléon. In: INSEE,
Pour une histoire de la statistique 1, 233–253
227. Perrot, J.C. (1992): Une histoire intellectuelle de l’économie politique. EHESS,
Paris
228. Perrot, M. (1974): Les Ouvriers en grève. France 1871-1890. Mouton, Paris
229. Perrot, M. (1977): Premières mesures des faits sociaux: les débuts de la sta-
tistique ciminelle en France (1780–1830). In: INSEE, Pour une histoire de la
statistique 1, 125–137. Neu herausgegeben 1987, INSEE, Economica
230. Peuchet, J. (1805): Statistique élémentaire de la France. Paris
231. Piquemal, J. (1974): Succès et décadence de la méthode numérique en France,
à l’époque de Pierre Louis. Médecine de France 250, 11–22
232. Plackett, R.L. (1972: The Discovery of the Method of Least Squares. Biome-
trika 59, 239–251
233. Poisson, S.A. (1837): Recherches sur la probabilité des jugements en matière
criminelle et en matière civile, précédées des règles générales de calcul des
probabilités. Bachelier, Paris
234. Polanyi, K. (1983): La grande transformation: aux origines politiques et
économiques de notre temps. Gallimard, Paris
235. Pollak, M. (1985): Sociologie de la science. In: Encyclopedia Universalis. Les
enjeux, 625–629
236. Pollak, M. (1986): Un texte dans son contexte. L’enquête de Max Weber sur
les salariés agricoles. Actes de la recherche en sciences sociales 65, 69–75
237. Pollak, M. (1993): Une identité blessée. Métailié, Paris
238. Popkin, R. (1964): The History of Scepticism from Erasmus to Descartes. Van
Gorkum, Assen, Netherlands
239. Porte, J. (1961): Les catégories socio-professionnelles. In: Friedmann G. und
Naville P., Traité de sociologie du travail, tome I. Armand Colin, Paris
240. Porter, T.M. (1986): The Rise of Statistical Thinking. Princeton University
Press, Princeton
241. Quetelet, A. (1832): Sur la possibilité de mesurer l’influence des causes qui
modifient les éléments sociaux. Lettre à M. de Villermé. Correspondance
mathématique et publique 7, 321–346
242. Quetelet, A. (1835): Sur l’homme et le développement de ses facultés, ou Essai
de physique sociale. Bachelier, Paris
243. Quetelet, A. (1846): Lettres à S.A.R. le Duc Régnant de Saxe Cobourg et Go-
tha, sur la théorie des probabilités, appliquée aux sciences morales et politiques.
Hayez, Brüssel
404 Literaturverzeichnis

244. Reinhart, M. (1965): La population de la France et sa mesure, de l’Ancien


régime au Consulat. In: Contributions à l’histoire démographique de la
Révolution française, 2e serie, Commission d’histoire démographique et sociale
de la Révolution. Paris
245. Rosch, E., Lloyd, B.B. (Hrsg.) (1978): Cognition and categorization. Erlbaum,
New York
246. Saenger, K. (1935): Das Preussische Statistische Landesamt, 1805–1934. All-
gemeines Statistisches Archiv 24, 445–460
247. Salais, R., Bavarez, N., Reynod, B. (1986): L’invention du chômage. PUF, Paris
248. Samuelson, P. (1947): Foundation of Economic Analysis. Harvard University
Press, Cambridge
249. Sauvy, A. (1975): Statistique générale et Service national de Statistique de
1919 à 1944. Journal de la Société statistique de Paris, 34–43
250. Savage, L.J. (1954): The foundations of statistics. New York
251. Savoye, A. (1981): Les continuateurs de Le Play au tournant du siècle. Revue
française de sociologie, XXII 3, 315–344
252. Schiller, J. (1963): Claude Bernard et la statistique. Archives internationales
de l’histoire des sciences 65, 405–418
253. Schultz, H. (1928): Statistical Laws of Demand and Supply with Special App-
lication to Sugar. University of Chicago Press, Chicago
254. Schumpeter, J. (1983): Histoire de l’analyse économique, tome 1. Gallimard,
Paris. Übersetzung der deutschen Ausgabe Geschichte der ökonomischen Ana-

lyse“, 1. Teilband (1965), Göttingen
255. Seng You Poh (1951): Historical Survey of the Development of Sampling Theo-
ries and Practice. Journal of the Royal Statistical Society, series A 114, 214–231
256. Serverin, E. (1985): De la jurisprudence en droit privé. Theorie d’une pratique.
Presses universitaires de Lyon, Lyon
257. Sewell, W.H. (1983): Gens de métier et révolution. Aubier-Montaigne, Paris
258. SGF (1847): Industrie 1847. Paris
259. SGF (1873): Industrie, enquête de 1861–1865. Paris
260. SGF (1896): Recensement de 1896. Industrie. Paris
261. Shafer, G. (1990): The Unity and Diversity of Probability. Statistical science
5 (4), 435–462
262. Simiand, F. (1908): Le salaire des ouvriers des mines de charbon. Journal de
la Société statistique de Paris, 13–29
263. Slutsky, E. (1927): The Summation of Random Causes as the Source of Cyclic
Processes. The Problems of Economic Conditions 3 (1), Moskau, 34–64 und
156–161
264. Spearman, C. (1904): General Intelligence Objectively Determined and Mea-
sured. American Journal of Psychology 15, 201–293
265. Stephan, F. (1948): History of the Uses of Modern Sampling Procedures. Jour-
nal of the American Statistical Association 43, 12–39
266. Stigler, S.M. (1978): Francis Ysidro Edgeworth, Statistician. Journal of the
Royal Statistical Society (A) 141, 287–322
267. Stigler, S.M. (1986): The History of Statistics. The Measurement of Uncertainty
Before 1900. Belknapp Press of Harvard University Press, Cambridge
268. Stockmann, R., Willms-Herget (1985): Erwerbsstatistik in Deutschland. Cam-
pus Verlag, Frankfurt
269. Sutter, J. (1950): L’Eugénique. Problèmes, méthodes, résultats. Cahiers de
l’INED 11, PUF, Paris
Literaturverzeichnis 405

270. Szreter, S. (1984): The Genesis of the Registrar General’s Social Classification
of Occupations. The British-Journal of Sociology, vol. XXXV 4, December,
529–546
271. Szreter, S. (1991): The GRO and the Public Health Movement in Britain,
1837–1914. Social History of Medicine 4 (3), December, 435–463
272. Thévenot, L. (1984): L’enregistrement statistique; une mesure décisive. Collo-
que du Conseil national de la statistique
273. Thévenot, L. (1986): Les investissements de forme. In: Les Conventions
économiques. Cahiers du Centre d’études de l’emploi 29. PUF, Paris, 21–71
274. Thévenot, L. (1990): La politique des statistiques. Les origines sociales des
enquêtes de mobilité sociale. Annales ESC 6, 1275–1300
275. Tinbergen, J. (1937): An Economic Approach To Business Cycle Problems.
Hermann, Paris
276. Tinbergen, J. (1939): Statistical Testing of Business-Cycle Theories; vol. I A
Method and its Application to Investment Activity; vol. II Business Cycles in
the United States of America, 1919–1932. Société des Nations, Genf
277. Tocqueville, A. de (1856): L’Ancien Régime et la Révolution, 1856. Neuausga-
be: Gallimard, 1967, Folio, Paris
278. Topalov, C. (1991): La ville, terre inconnue: l’enquête de Charles Booth et le
peuple de Londres, 1889–1891. Genèses, sciences sociales et histoire 5, 5–34
279. Venn, J. (1866): The Logic of Chance. Macmillan, London
280. Vignaux, P. (1991): Nominalisme. Encyclopedia universalis
281. Villermé, L.R. (1845): Sur l’institution par le gouvernement belge d’une com-
mission centrale de statistique, et observations sur les statistiques officielles
publiées en France par les divers ministères. Journal des économistes, tome
XV, 130–148
282. Villey, M. (1975): La formation de la pensée juridique moderne. Cours
d’histoire de la philosophie du droit. Montchrestien, Paris
283. Vining, R., Koopmans, T.C. (1949): Methodological Issues in Quantitative
Economics. Review of Economics and statistics 31, 77–94
284. Volle, M. (1982): Histoire de la statistique industrielle. Economica, Paris
285. Ward, R., Doggett, T. (1991): Keeping Score: The First Fifty Years of the
Central Statistical Office. CSO, London
286. Westergaard, H.L. (1932): Contributions to the history of statistics. King, Lon-
don
287. Witt, J. de (1671): Waerdye van Lyf-Renten Naer proportie van Los-Renten.
s’Graven-Hage. Reprint in: Die Werke von Jakob Bernoulli, Vol. 3, 327–350
288. Woolf, S. (1981): Contributions à l’histoire des origines de la statistique en
France 1789–1815. In: La Statistique en France à l’époque napoléonienne. Cen-
tre Guillaume Jacquemyns, Brüssel
289. X-Crise (1982): De la récurrence des cycles économiques. Economica, Paris
290. Yule, U. (1897): On the Theory of Correlation. Journal of the Royal Statistical
Society 60, 812–854
291. Yule, U. (1899): An Investigation into the Causes of Changes in Pauperism in
England, Chiefly During the Last two Intercensal Decades, I. Journal of the
Royal Statistical Society 62, 249–295
292. Yule, U. (1909): Les applications de la méthode de corrélation aux statistiques
sociales et économiques. Bulletin de VIE, premiére livraison, 265–277
293. Yule, U. (1911): An Introduction To the Theory of Statistics. Griffin, London,
1911.
406 Literaturverzeichnis

294. Yule, U. (1927): On a Model of Investigating Periodicities in Disturbed Series,


with Special Reference to Wolfer’s Sunspot Numbers. Philosophical Transac-
tions of the Royal Society of London, series A 226, 267–298
295. Yule, U. (1942): The Future of Statistics. Journal of the Royal Statistical So-
ciety, vol. CV, part II, S. 83 et seq.
296. Zucker-Rouvillois, E. (1986): La politique des anges: démographie, eugénisme
et immigrations. Milieux 23-24, 100–107

Ergänzendes Literaturverzeichnis (1993–2000) (vgl. Nachwort)

297. Anderson, M.J., Fienberg, S.E. (1996): Who Counts? The Politics of Census-
Taking in Contemporary America. Russell Sage Foundation, New York
298. Armatte, M. (1995): Histoire du modèle linéaire. Formes et usages en statisti-
que et économétrie. Thèse EHESS, Paris
299. Armatte, M., Desrosières, A. (2000): Méthodes mathématiques et statistiques
en économie: nouvelles questions sur d’anciennes querelles. In: J.-P. Beaud
und J.-G. Prévost, (éds.), L’ère du chiffre. Systèmes statistiques et traditions
nationales. Presses universitaires du Québec, Montréal, 431–481
300. Bardet, F. (2000): La statistique au miroir de la région. Éléments pour une
sociologie historique des institutions régionales du chiffre en France depuis
1940. Thèse de science politique, université de Paris-I, Panthéon-Sorbonne
301. Beaud, J.-P., Prévost, J.-G. (éds) (2000): L’ère du chiffre. Systèmes statistiques
et traditions nationales. Presses universitaires du Québec, Montréal
302. Berlivet, L. (2000): Une santé à risques. L’action publique de lutte contre
l’alcoolisme et le tabagisme en France (1954–1999). Thèse de science politique,
université de Rennes-I, Rennes
303. Blondiaux, L. (1998): La fabrique de l’opinion. Une histoire sociale des sonda-
ges. Seuil, Paris
304. Blum, A. (2000): La purge de 1924 à la Direction centrale de la statistique.
Annales HSS 2, 249–282
305. Brian, E. (1994): La mesure de l’État. Administrateurs et géomètres au XVIIIe
siècle. Albin Michel, Paris
306. Callens, S. (1997): Les maı̂tres de l’erreur. Mesure et probabilité au XXe siècle.
PUF, Paris
307. Daston, L. (1992): Objectivity and the Escape from Perspective. Social Studies
of Science 22, 597–618
308. Daston, L. (2000): Why statistics tend not only to describe the world but to
change it. Review of The Politics of Large Numbers. London Review of Books
13, April, 35–36
309. Derosières, A. (1997): Démographie, science et société: le cas français. In: Cha-
steland, J.-C., Roussel, L., Les contours de la démographie au seuil du XXIe
siècle. INED-PUF, Paris, 57–93
310. Derosières, A. (1999): La commission et l’équation: une comparaison des plans
français et néerlandais entre 1945 et 1980. Genèses 34, März, 28–52
311. Derosières, A. (2000): L’histoire de la statistique comme genre: styles d’écriture
et usages sociaux. Genèses 39, Juni, 121–137
312. De Vries W. (éds) (1993): The Value Added of National Accounting. Nether-
land Central Bureau of Statistics, Voorburg
Literaturverzeichnis 407

313. Dodier, N. (1996): Les sciences sociales face à la raison statistique (note criti-
que). Annales HSS 2, März–April, 409–428
314. Dupoirier, E., Parodi, J.-L. (éds) (1997): Les indicateurs sociopolitiques au-
jourd’hui. L’Harmattan, Paris
315. Fienberg, S.E. (1999): Statistics in the Social World. Review of The Politics of
Large Numbers. Science 283, 26. März, S. 2025
316. Fienberg, S.E., Tanur, J.M. (1996): Reconsidering the fundamental contribu-
tions of Fisher and Neyman on experimentation and sampling. International
Statistical Review 64, 237–253
317. Georgakakis, D. (1994): Compte-rendu de La politique des grands nombres.
Politix 25, 153–160
318. Gollac, M. (1997): Des chiffres insensés? Pourquoi et comment on donne un
sens aux données statistiques. Revue française de sociologie, vol. XXXVIII,
5–36
319. Hacking, I. (1999): The Social Construction of What? Harvard University
Press, Cambridge, Massachusetts
320. Hald, A. (1990): A History of Probability and Statistics and Their Applications
before 1750. Wiley, New York
321. Hald, A. (1998): A History of Mathematical Statistics, from 1750 to 1930.
Wiley, New York
322. Hendry, D.F., Morgan, M.S. (eds) (1995): The Foundations of Econometric
Analysis. Cambridge University Press, Cambridge
323. Hopwood A., Miller, P. (eds) (1996): Accounting as Social and Institutional
Practice. Cambridge University Press, Cambridge, 1994.
324. INSEE (1996): Cinquante ans d’INSEE, ou la conquête du chiffre. Imprimerie
nationale-INSEE, Paris
325. Jurdant, B. (éd.) (1998): Impostures scientifiques. Les malentendus de l’affaire
Sokal. La Découverte/Alliage, Paris
326. Kennessey, Z. (ed.) (1994): The Account of Nations. IOS Press, Amsterdam
327. Klein, J.L. (1997): Statistical Visions in Time. A History of Time Series Ana-
lysis, 1662–1938. Cambridge University Press, Cambridge
328. Marks, H. (1999): La médecine des preuves. Histoire et anthropologie des essais
cliniques (1900–1990). Les Empêcheurs de penser en rond. Le Plessis-Robinson
329. Martin, O. (1997): La mesure de l’esprit. Origines et développements de la
psychométrie (1900–1950). L’Harmattan, Paris
330. Mespoulet, M. (1999): Personnel et production du bureau statistique de la
province de Saratov. Histoire d’une professionnalisation interrompue (1880–
1930). Thèse EHESS, Paris
331. Murray, C. (1999): Statistical jargon. The Public Interest, Spring, 133–135
332. Patriarca, S. (1996): Numbers and Nationhood. Writing statistics in nine-
teenth-century Italy. Cambridge University Press, Cambridge
333. Porter, T.M. (1995): Trust in Numbers. The Pursuit of Objectivity in Science
and Public Life. Princeton University Press, Princeton
334. Rosser Matthews, J. (2000): Review of The Politics of Large Numbers. Ethics,
January, 416–418
335. Sangolt, L. (1997): The Politics of Counting: producing official statistics on the
North Sea oil industry in Norway and Great Britain, 1966–1986. University of
Bergen
336. Schweber, L. (1996): L’histoire de la statistique, laboratoire pour la théorie
sociale. Revue française de sociologie, vol. XXXVII, 107–128
408 Literaturverzeichnis

337. Spenlehauer, V. (1998): L’évaluation des politiques publiques, avatar de la


planification. Thèse de science politique, université Grenoble Il-Pierre Mendès-
France
338. Stanziani, A. (1998): L’économie en révolution. Le cas russe, 1870–1930. Albin
Michel, Paris
339. Stigler, S. (1999): Statistics on the Table. The History of Statistical Concepts
and Methods. Harvard University Press, Cambridge Massachusetts
340. Szreter, S. (1996): Fertility, Class and Gender in Britain, 1860-1940. Cambridge
University Press, Cambridge
341. Touchelay, B. (1993): L’INSEE des origines à 1961: évolution et relation avec
la réalité économique, politique et sociale. Thèse université de Paris-XII
342. Vanoli, A. (2001): Histoire de la comptabilité nationale. La Découverte, Paris
343. Zimmermann, B. (1994): Statisticiens des villes allemandes et action
réformatrice (1871–1914). La construction d’une généralité statistique. Genèses
15, März, 4–27

Zusatzliteratur zur deutschen Übersetzung

344. Armatte, M. (2001): Developments in statistical thinking and their links with
mathematics. In: [356], 137–166
345. Baltagi, B.H. (2001): The mathematical aspects of econometrics. In: [375], 67–
81
346. Barth, F., Haller, R. (1985): Stochastik. Ehrenwirth Verlag GmbH, München
347. Bauer, H. (1991): Wahrscheinlichkeitstheorie. de Gruyter, Berlin
348. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Hund, der Eier legt. Er-
kennen von Fehlinformation durch Querdenken. Rowohlt Taschenbuch Verlag
GmbH, Reinbek bei Hamburg
349. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Schein der Weisen. Irrtümer
und Fehlurteile im täglichen Denken. Rowohlt Taschenbuch Verlag GmbH,
Reinbek bei Hamburg
350. Bayart, D., Crépel, P. (1994): Statistical control of manufacture. In: [394],
1386–1391
351. Belhoste, B. (2001): The École Polytechnique and mathematics in nineteenth-
century France. In: [356], 15–30
352. Böttcher, M., Gross, H.E., Knauer, U. (1994): Materialien zur Entstehung der
mathematischen Berufe. Daten aus Hochschulstatistiken sowie Volks- und Be-
rufszählungen von 1800 bis 1990. Algorismus. Studien zur Geschichte der Ma-
thematik und der Naturwissenschaften (Hrsg. M. Folkerts). Heft 12, Institut
für Geschichte der Naturwissenschaften, München
353. Bohley, P. (2000): Statistik. Einführendes Lehrbuch für Wirtschafts- und So-
zialwissenschaftler. 7. Auflage, R. Oldenbourg Verlag, München
354. Bos, H., Mehrtens, H., Schneider, I. (1981): Social History of Nineteenth Cen-
tury Mathematics. Birkhäuser Verlag, Basel
355. Bottazzini, B. (2001): From Paris to Berlin: Contrasted images of nineteenth-
century mathematics. In: [356], 31–47
356. Bottazzini, U., Dahan Dalmedico, A. (editors) (2001): Changing Images in
Mathematics. From the French Revolution to the New Millenium. Routledge,
London
Literaturverzeichnis 409

357. Bourdieu, P. (1988): Homo academicus. Suhrkamp Verlag, Frankfurt. Deutsche


Übersetzung der Originalausgabe (1984). Minuit, Paris
358. Bulmer, F. (2003): Francis Galton. The Johns Hopkins University Press, Bal-
timore
359. Dahan Dalmedico, A. (2001): An image conflict in mathematics after 1945. In:
[356], 223–253
360. Dale, A.I. (1991): A History of Inverse Probability. From Thomas Bayes to
Karl Pearson. Springer-Verlag, Berlin
361. Dale, A.I. (2003): Most Honourable Remembrance: the Life and Work of Tho-
mas Bayes. Springer-Verlag, Berlin
362. Dauben, J.W. (1994): Mathematics: an historian’s perspective. In: Sasaki, C.,
Sugiura, M. und Dauben, J.W. (editors) (1994): The Intersection of History
and Mathematics. Birkhäuser Verlag, Basel, 1–13
363. Dauben, J.W., Scriba, C. (editors) (2002): Writing the History of Mathematics:
Its Historical Development. Birkhäuser Verlag, Basel
364. Davis, M. (2001): Mathematics of financial markets. In: [375], 361–380
365. Dawid, A.P. (1994): Foundations of probability. In: [394], 1399–1406
366. Dewdney, A.K. (1994): 200 Prozent von nichts. Die geheimen Tricks der Sta-
tistik und andere Schwindeleien mit Zahlen. Birkhäuser Verlag, Basel
367. Doersch, F. (1959): Psychologisches Wörterbuch. (6. Auflage). Gemeinschafts-
verlag Richard Meiner, Hamburg, Hans Huber, Bern
368. Doob, J.L. (1994): The development of rigor in mathematical probability theo-
ry (1900–1950). In: Pier, J.-P. (editor) (1994): Development of Mathematics
1900–1950. Birkhäuser Verlag, Basel, 157–170
369. Duden Etymologie (1989): Herkunftswörterbuch der deutschen Sprache. 2.,
völlig neubearbeitete und erweiterte Auflage von G. Drosdowski. Dudenverlag,
Mannheim
370. Durrett, R. (2001): Probability theory. An introduction to its applications. In:
[375], 393–405
371. Edwards, A.W.F. (1992): Likelihood. (2. Auflage). The Johns Hopkins Univer-
sity Press, Baltimore, Maryland
372. Edwards, A.W.F. (1994): Probability and statistics in genetics. In: [394], 1357–
1362
373. Edwards, A.W.F. (2002): Pascal’s Arithmetical Triangle. (2. Auflage). The
Johns Hopkins University Press, Baltimore, Maryland
374. Ehrenberg, A.S.C. (1986): Statistik oder der Umgang mit Daten. Eine prakti-
sche Einführung mit Übungen. VCH, Weinheim
375. Engquist, B., Schmid W. (editors) (2001): Mathematics Unlimited – 2001 and
Beyond. Springer-Verlag, Berlin
376. Esenwein-Rothe, I. (1982): Einführung in die Demographie. Bevölkerungsstruk-
tur und Bevölkerungsprozess aus der Sicht der Statistik. Franz Steiner Verlag
GmbH, Wiesbaden
377. Farebrother, R.W. (1994): Estimating and testing the standard linear statisti-
cal model. In: [394], 1309–1314
378. Farebrother, R.W. (1999): Fitting Linear Relationships. A History of the Cal-
culus of Observations 1750–1900. Springer-Verlag, Berlin
379. Felderer, B., Homburg, S. (2003): Makroökonomik und neue Makroökonomik.
8. Auflage, Springer-Verlag, Berlin
380. Foucault, M. (2003): Die Ordnung des Diskurses. 9. Auflage, Fischer Taschen-
buch Verlag, Frankfurt am Main
410 Literaturverzeichnis

381. Gaudillère, J.-P. (2001): Beyond one-case statistics: mathematics, medicine,


and the management of health and disease in the postwar era. In: [356], 281–
296
382. Gericke, H. (1990): Mathematik im Abendland. Von den römischen Feldmes-
sern bis zu Descartes. Springer-Verlag, Berlin
383. Gide, C., Rist, C. (1923): Geschichte der volkswirtschaftlichen Lehrmeinungen.
Verlag Gustav Fischer, Jena
384. Gigerenzer, G. (1994): Psychology and probability: Two sides of the same coin.
In: [394], 1351–1356
385. Gigerenzer, G. (2002): Das Einmaleins der Skepsis. Über den richtigen Umgang
mit Zahlen und Risiken. Berlin Verlag
386. Gillies, D.A. (1994): Philosophies of probability. In: [394], 1407–1414
387. Gnedenko, B.V., Sheynin, O.B. (1992): The theory of probability. Kap. 4 in:
Kolmogorov, A.N., Yushkevich, A.P. (1992): Mathematics of the 19th century.
Birkhäuser Verlag, Basel, 211–288
388. Goldstine, H.H. (1972): The Computer from Pascal to von Neumann. Princeton
University Press, Princeton, New Jersey
389. Goldstine, H.H. (1977): A History of Numerical Analysis from the 16th through
the 19th Century. Springer-Verlag, Berlin
390. Gottwald, S., Ilgauds, H.-J., Schlote, K.-H. (Hrsg.) (1990): Lexikon bedeuten-
der Mathematiker. Bibliographisches Institut, Leipzig.
391. Grattan-Guinness, I. (1990): Does history of science treat of the history of
science? The case of mathematics. History of science 28, 149–173
392. Grattan-Guinness, I. (1990): Convolutions in French Mathematics 1800–1840.
Volume I: The Settings. VEB Deutscher Verlag der Wissenschaften, Berlin
393. Grattan-Guinness, I. (editor) (1994): Companion Encyclopedia of the History
and Philosophy of the Mathematical Sciences. Volume 1, Routledge, London
394. Grattan-Guinness, I. (editor) (1994): Companion Encyclopedia of the History
and Philosophy of the Mathematical Sciences. Volume 2, Routledge, London
395. Hall, P. (2001): Statistical science. Evolution, motivation and direction. In:
[375], 565–575
396. Harshbarger, B. (1976): History of the early developments of modern statistics
in America (1920–1944). In: [216], 131–145
397. Hauser, W. (1997): Die Wurzeln der Wahrscheinlichkeitsrechnung. Die Verbin-
dung von Glücksspieltheorie und statistischer Praxis vor Laplace. Franz Steiner
Verlag Stuttgart
398. Haussherr, H. (1954): Wirtschaftsgeschichte der Neuzeit (vom Ende des 14. bis
zur Höhe des 19. Jahrhunderts). Hermann Böhlaus Nachfolger, Weimar
399. Heyde, C.C. und Seneta, E. (1977): I.J. Bienaymé. Statistical Theory Antici-
pated. Springer-Verlag, Berlin
400. Hilgers, R.-D., Bauer, P., Schreiber, V. (2003): Einführung in die Medizinische
Statistik. Springer-Verlag, Berlin
401. Ineichen, R. (1996): Würfel und Wahrscheinlichkeit. Stochastisches Denken in
der Antike. Spektrum, Akademischer Verlag, Heidelberg
402. Israel, G. (1994): Mathematical economics. In: [394], 1415–1423
403. Issing, O. (1988): Geschichte der Nationalökonomie. (2. Auflage). Verlag Franz
Vahlen, München
404. Kaesler, D. (Hrsg.) (2003): Klassiker der Soziologie. Band 1: Von Auguste
Comte bis Norbert Elias. 4. Auflage, Verlag C.H. Beck, München
Literaturverzeichnis 411

405. Kennedy, G. (1985): Einladung zur Statistik. Campus Verlag, Frankfurt/Main


406. Klein, S. (2004): Alles Zufall. Die Kraft, die unser Leben bestimmt. Rowohlt
Verlag GmbH, Reinbek bei Hamburg
407. Klüppelberg, C. (2001): Developments in insurance mathematics. In: [375],
703–722
408. Knobloch, E. (1994): Combinatorial probability. In: [394], 1286–1292
409. König, R. (Hrsg.) (1967): Das Fischer Lexikon Soziologie. Fischer-Bücherei
GmbH, Frankfurt am Main
410. Krämer, W. (1992): So lügt man mit Statistik. 4. Auflage, Campus Verlag,
Frankfurt
411. Kromphardt, J. (1993): Wachstum und Konjunktur. Grundlagen der Erklärung
und Steuerung des Wachstumsprozesses. 3. Auflage, Vandenhoeck Ruprecht,
Göttingen
412. Leibniz, G.W. (1705): Nouveaux essais sur l’entendement humain. Im Manu-
skript vollendet um 1705. Deutsche Übersetzung unter dem Titel Neue Ab-
handlungen über den menschlichen Verstand. Neuausgabe als Band 498 der
Philosophischen Bibliothek, Felix Meiner Verlag, Hamburg, 1996. (1. Auflage
1873, als Band 56 der Philosophischen Bibliothek).
413. Lewin, C.G. (1994): Actuarial mathematics. In: [394], 1303–1308
414. Loeffel, H. (1987): Blaise Pascal. Birkhäuser Verlag, Basel
415. Loève, M. (1985): Wahrscheinlichkeitsrechnung. Kapitel 12 in: Dieudonné, J.
(Hrsg.) (1985): Geschichte der Mathematik 1700–1900. VEB Deutscher Verlag
der Wissenschaften, Berlin
416. Mahner, M. und Bunge, M. (2000): Philosophische Grundlagen der Biologie.
Springer-Verlag, Berlin
417. Maistrov, L.E. (1974): Probability theory – a historical sketch. Academic Press,
New York
418. Müller U. et al. (Hrsg.) (2000): Handbuch der Demographie. Bd. 1 und 2,
Springer-Verlag, Berlin
419. Neyman, J. (1976): The emergence of mathematical statistics. A historical
sketch with particular reference to the United States. In: [216], 147–193
420. N. Osman (Hrsg.) (2002): Kleines Lexikon deutscher Wörter arabischer Her-
kunft. (6. Auflage). Verlag C.H. Beck, München
421. Porter, T.M. (1994): The English biometric tradition. In: [394], 1335–1340
422. Porter, T.M. (1994): Probability, statistics and the social sciences. In: [394],
1341–1350
423. Porter, T.M. (1994): The social organization of probability and statistics. In:
[394], 1392–1398
424. Reid, C. (1982): Neyman – from life. Springer-Verlag, Berlin
425. Reiß, W. (1990): Mikroökonomische Theorie. Historisch fundierte Einführung.
R. Oldenbourg Verlag, München
426. Rényi, A. (1969): Briefe über die Wahrscheinlichkeit. VEB Deutscher Verlag
der Wissenschaften, Berlin
427. Riedl, R. (2000): Strukturen der Komplexität. Eine Morphologie des Erkennens
und Erklärens. Springer-Verlag, Berlin
428. Rinne, H. (1996): Wirtschafts- und Bevölkerungsstatistik. (2. Auflage). R. Ol-
denbourg Verlag, München
429. Rose, M.R. (2003): Darwins Welt. Von Forschern, Finken und der Evolution.
Piper, München
412 Literaturverzeichnis

430. Rosser-Matthews, J. (1994): Probability and statistics in medicine. In: [394],


1371–1376
431. Roth, E. (Hrsg.) (1989): Sozialwissenschaftliche Methoden. Lehr- und Hand-
buch für Forschung und Praxis. R. Oldenbourg Verlag, München
432. Sachs, L. (2002): Angewandte Statistik. Anwendung statistischer Methoden.
10. Auflage, Springer-Verlag, Berlin
433. Schneider, I. (Hrsg.) (1989): Die Entwicklung der Wahrscheinlichkeitsrechnung
von den Anfängen bis 1933. Einführungen und Texte. Akademie-Verlag, Berlin
434. Schnell, R., Hill, P.B., Esser, E. (1999): Methoden der empirischen Sozialfor-
schung. 6. Auflage, R. Oldenbourg Verlag, München
435. Schwibs, B. (1988): Erläuterungen zum französischen Hochschulsystem. In:
Bourdieu (1988) [357], 437–455
436. Seneta, E. (1994): Russian probability and statistics before Kolmogorov. In:
[394], 1325–1334
437. Shafer, G. (1994): The early development of mathematical probability. In: [394],
1293–1302
438. Sheynin, O.B. (1974): On the prehistory of the theory of probability. Arch.
Hist. Exact Sci. 12, 97–141
439. Sheynin, O.B. (1982): On the history of medical statistics. Arch. Hist. Exact
Sci. 26, 241–286
440. Sheynin, O.B. (1994): Theory of errors. In: [394], 1315–1324
441. Sokal, A., Bricmont, J. (1999): Eleganter Unsinn. Wie die Denker der Post-
moderne die Wissenschaften mißbrauchen. Deutscher Taschenbuch Verlag
München
442. Söllner, F. (2001): Die Geschichte des ökonomischen Denkens. 2. Auflage,
Springer-Verlag, Berlin
443. Swijtink, Z.G. (1994): Probability and statistics in agronomy. In: [394], 1363–
1370
444. Swijtink, Z.G. (1994): Probability and statistics in mechanics. In: [394], 1377–
1385
445. Székely, G.J. (1986): Paradoxes in Probability Theory and Mathematical Sta-
tistics. Akadémiai Kiadó, Budapest
446. Tarassow, L. (1993): Wie der Zufall will? Spektrum Akademischer Verlag, Hei-
delberg
447. Tichy, G. (1994): Konjunktur. Stilisierte Fakten, Theorie, Prognose. 2. Auflage,
Springer-Verlag, Berlin
448. Todhunter, I. (1865): A history of the mathematical theory of probability from
the time of Pascal to that of Laplace. Macmillan, London. Reprint: Chelsea
New York 1949, 1965; Thoemmes, Bristol, 1993
449. Wagemann, E. (1950): Narrenspiegel der Statistik. Die Umrisse eines statisti-
schen Weltbildes. Leo Lehnen Verlag GmbH, München
450. Weil, A. (1991): Souvenirs d’apprentissage. Birkhäuser Verlag, Basel
451. Willers, A. (1951): Mathematische Maschinen und Instrumente. Akademie-
Verlag, Berlin
452. Worobjow, N.N. (1975): Entwicklung der Spieltheorie. VEB Deutscher Verlag
der Wissenschaften, Berlin
453. Ziegler, R. (1972): Theorie und Modell. Der Beitrag der Formalisierung zur
soziologischen Theoriebildung. R. Oldenbourg Verlag, München
Namensverzeichnis

Abrams P. 193, 194, 247 Bernard C. 94–96, 98, 183


Achenwall G. 23, 30 Bernoulli D. 62, 63
Adanson M. 269 Bernoulli Jakob 9, 65, 76, 78, 318
Affichard J. 17 Bernoulli N. 60, 62, 63
Aldrich J. 344 Bertillon Ad. 87, 109, 152, 172, 178,
Alexis C. von 181 182, 265, 302, 304, 307
Allais M. 184, 353 Bertillon Al. 142, 172
Amador R. d’ 94–96, 98, 115, 307 Bertillon J. 172, 173, 182, 302, 304, 307
Anderson M. 15, 17, 212, 214, 215, 218, Besnard P. 273
230, 231, 375, 376 Bichelonne J. 179
Apollo 87 Bienaymé J. 78, 101–103, 115, 131, 132
Arbuthnot J. 85, 86 Binet A. 128
Armatte M. 15, 17, 35, 70, 180, 264, Bismarck O. von 202, 204, 205, 301
329, 378, 379, 381 Bloch M. 184
Arnauld A. 64 Blondel M. 177
Blondiaux L. 376, 381
Babbage C. 174
Bloor D. 6
Bales K. 233
Blum A. 376
Balinski M. 213
Barbut M. 17 Bodio L. 255
Bardet F. 377 Boiteux M. 352
Barème F. 39 Boltanski L. 17, 184, 269, 289, 296, 373
Baron Löringhoff F. v. 64 Boltzmann L. 319
Bateman B.W. 333, 334, 336 Bonaparte L. 40
Baverez N. 80, 284 Boole G. 123, 195
Bayart D. 17, 326 Booth C. 128–131, 157, 160, 195, 196,
Bayes T. 9, 51, 64–69, 74, 89, 101, 104, 238, 245, 247–250, 284, 285, 287,
318, 321 288, 290, 349
Beaud J.-P. 376 Borel E. 176–178, 313
Bennett G. 214 Bortkiewicz L. von 256
Benzécri J.P. 15, 63, 119, 264, 265, 300, Boscovich (Bošcović) R.J. 72, 73
382, 384 Bottin S. 39
Berkeley G. 68 Bouglé C. 184
Berlivet L. 377 Bourbaki N. 383
414 Namensverzeichnis

Bourdelais P. 96 Cournot A. 78, 90, 103–108, 115, 117,


Bourdieu P. 17, 61, 123, 272, 300, 386 183, 302, 319, 338
Bourguet M.N. 15, 17, 21, 23, 30, 33, Coutrot J. 184
34, 47, 293 Cowles A. 184, 352
Bouveresse J. 209 Cramer G. 62
Bowley A. 173, 185, 186, 192, 196, 197, Crombie A. 340
227, 235, 247, 249, 250, 252, 256, Cuvier G. 267, 271
287, 315, 348–351, 357
Box G. 321 Darmois G. 177, 178, 184, 351
Bravais A. 137, 144 Darwin C. 76, 89, 110, 118, 121, 127,
Brian E. 15, 91, 181, 378, 379 130, 145, 147, 271
Bricmont J. 379 Daston L. 15, 17, 58, 59, 62, 377
Bru B. 17, 29 Davenant C. 27, 28, 30
Buckle H. 208 Day E. 227
Buffon G.-L. de 266–271, 293 De Gérando J.M. 42
Bulmer M. 17, 233 Dedrick C. 227, 228
Bungener M. 184, 353 Delaporte F. 96
Bunle H. 120, 180, 182, 315 Desrosières A. 176, 177, 269, 293, 300,
Burns A. 354 316, 360, 370, 381, 384
Burt C. 163, 164 Dickens C. 194
Didier E. 376
Caesar C.I. 60, 258 Didot F. 39
Callens S. 17 Divisia F. 185, 193, 351
Callon M. 6, 17, 42, 143 Dodier N. 17, 308, 373, 382, 385–387
Campion H. 192 Doggett T. 192
Carmille R. 177 Donnant D.F. 23, 40
Carnap A. 51 Dormoy E. 107
Carnegie A. 233 Droesbeke J.J. 17
Chaptal J. 39, 40, 46–48, 279, 293 Drouard A. 181
Chateauraynaud F. 308 Dugé de Bernonville L. 120, 182, 236
Chevalier de Méré 55, 56 Dumont L. 49, 81, 111, 114, 237,
Chevalier M. 172 259–261
Cheysson E. 139–141, 172, 178, 182, Duncan J. 15, 212, 233
239–242, 254, 352 Dupaquier J. 21, 27, 28
Christ C.F. 341, 353 Dupoirier E. 381
Cicourel A. 97 Dupont de Nemours P. 34
Clark C. 348, 350, 351 Dupuit J. 352
Clémentel E. 179 Durkheim E. 2, 49, 78, 86, 90, 92, 108–
Clero J.P. 67, 68 115, 139–141, 174, 176, 178, 209,
Colbert J.B. 31, 278, 279 237, 239, 243, 245, 264, 271–273,
Colson C. 352 308, 359, 373
Comte A. 64, 90, 247 Duvillard E. 40, 42–45
Condorcet M.J.A. 33, 42, 51, 62, 90,
100, 103, 104 Eco U. 79
Conring H. 23, 30, 32 Edgeworth F. 144–149, 153–155, 159,
Converse J. 233 163, 173, 319, 338
Coquebert de Montbret C. 43, 46 Elias N. 49
Cot A. 17 Engel E. 201–206, 210, 255, 276
Coumet E. 17, 52–56, 58 Epstein R. 16, 340, 346, 347
Namensverzeichnis 415

Espine M. d’ 303, 304 Gollac M. 17, 300, 383


Etner F. 352 Goody J. 24
Ewald F. 17, 93, 283 Gosset W.S. 319–321
Eymard-Duvernay F. 17, 259 Gott 145
Gould S.J. 131, 162
Fagot-Largeault A. 17, 69, 302, 304, Graunt J. 22, 26–28, 30, 82
306, 307, 309 Grohmann 208
Farr W. 187–189, 202, 276, 303, 304, Gruner E. 177
307 Gruson C. 179, 185, 360, 361, 368
Fénelon F. 31, 32 Guibert B. 278, 280, 282
Ferrière A. de 40, 42, 43 Guillard A. 302, 304
Fienberg S.E. 376, 384
Finance I. 174 Haavelmo T. 184, 340, 342–346, 352,
Finetti B. de 52, 322 353
Fisher I. 156, 185, 351, 352 Haberler G. 332
Fisher R. 14, 91, 108, 142–144, 148, Hacking I. 8, 15, 17, 51, 75, 100, 200,
183, 238, 319–321, 323, 325, 338, 204, 323, 340, 375, 378–380
340 Halbwachs M. 110, 176–178, 182, 184,
Fogel R.W. 382 210, 236, 238, 239, 241, 243–246,
Fontaine A. 174, 176 248, 249, 259, 315, 359
Ford H. 233 Hald A. 375, 384
Foucault M. 264, 266–269, 377, 380 Haldane J. 148
Fouquet A. 17 Hamilton W. 123
Fourquet F. 15, 17, 370 Hamilton W.R. 123
Fox K. 317 Hamilton-Dickson J.D. 137
Franz von Assisi 81 Hansen M.J. 227, 236
Fréchet M. 178, 243 Harding W. 216, 223
Friedrich der Große 204, 205 Hartley D. 61
Frisch R. 156, 185, 324, 326–329, 331, Hecht J. 21, 23, 28, 200
333, 336, 342–344, 346, 351, 352 Heidelberger M. 15
Heisenberg W. 183, 320
Galen 33 Helper H. 214
Gallup G. 227, 229 Hendry D. 383
Galton F. 16, 50, 71, 76, 103, 109, Hennock E.P. 129, 195, 247, 249, 285
117, 118, 124, 126–143, 145–147, Henry D. 377
149–154, 157, 160, 163, 164, 172, Héran F. 12, 17, 61
180, 188, 191, 239, 244, 254, 271, Heron D. 162
288, 365, 387 Herr L. 174
Garcia E. 18 Herrnstein R. 387
Gauß C.F. 71, 73, 74, 78, 86, 91, 109, Herschel J. 319
144, 317 Hill J. 217
Geddes P. 182 Hippokrates (von Chios) 32
Gibrat R. 185, 352 Hippokrates (von Kos) 32, 89
Giffen R. 159 Hitler 205
Gigerenzer G. 15, 17, 52, 119, 313, 321, hl. Augustin 53
323 hl. Franz von Sales 54
Gille B. 38, 46, 170, 171 Hoffmann 201
Gini C. 252, 257, 260 Hollerith H. 174, 180, 220, 281
Ginzburg C. 360 Hoock J. 23, 24
416 Namensverzeichnis

Hooker R.H. 315 Laplace P.S. 11, 22, 29, 33, 64, 65,
Hoover H. 217, 223–225, 232, 233 67, 71, 73, 74, 78, 89–91, 99, 100,
Hopwood A. 377 103–105, 183, 235, 302, 317, 318,
Huber M. 174, 177, 178, 305 340
Hume D. 61, 68 Largeault J. 79
Humières D. d’ 18 Latour B. 6, 17, 20, 24, 377
Huygens C. 19, 22, 28, 83, 85 Lavoisier A.L. 42
Huygens L. 83 Lawson T. 339
Lazarsfeld P. 21, 23, 24
Jarvis E. 215 Le Bras H. 178
Jefferson T. 213 Le Goff J. 54
Jensen A. 251, 252, 257, 258, 260 Le Play F. 90, 139, 170, 172, 175, 182,
Jevons S. 324, 326, 327 236, 238–241, 245, 246, 248, 259,
Joël M.E. 184, 353 281, 294
John V. 25 Lebesgue H. 313
Jorland G. 62 Lécuyer B. 15, 17, 32, 94, 96, 181
Juglar C. 324, 339 Legendre A.M. 70, 71, 73, 76, 144
Jurdant B. 380 Legoyt A. 170, 172
Lehfeldt R. 353
Kalaora B. 182, 294 Leibniz G.W. 57, 58, 60, 260, 262
Kang Z. 169 Lenoir M. 120, 180, 183–185, 313, 316,
Kendall M. 66, 143, 150, 356, 384 320, 338, 353, 357
Kennessey Z. 377 Levasseur E. 172, 178, 182
Kepler J. 354, 355 Lévy M. 178
Kersseboom W. 28 Lexis W. 78, 102, 106–108, 115, 117,
Keufer A. 174 131, 142, 163, 256, 314, 337, 338
Keverberg A. 99, 100, 105, 235, 317 Lie E. 376
Keynes J.M. 52, 98, 179, 319, 322, Liesse A. 177
333–336, 338, 348, 350, 351, 368, Linné C. 80, 266–271, 293, 307
371 Livi R. 109
Kiaer A.N. 227, 235, 240, 251–257, 260 Lloyd B.B. 269
King G. 348 Locke J. 61
Klein J. 377 Lottin J. 92
Klein L. 346, 347 Louis P. 94–96, 98, 307
Knapp G.F. 256 Luciani J. 174
Kocka J. 301
Kolmogorow A.N. 69, 183, 318 Mac Kenzie D. 17, 117, 130, 143, 144,
Koopmans T. 313, 320, 346, 347, 160, 161
353–357 Mach E. 118, 121, 124, 127, 149, 339
Kramarz F. 18, 296 Magaud J. 17
Krüger L. 15 Mairesse J. 16, 177
Kruskal W. 252 Malinvaud E. 184, 351, 353, 370
Kuisel R. 176, 179 Mansfield M. 192, 284
Kuznets S. 348–350 March L. 120, 137, 149, 169, 173–182,
185, 202, 252, 261, 315, 316, 320,
Labrousse E. 46, 359 357
Ladrière P. 360 Marchand 386
Laganier J. 278, 280, 282 Marietti P. 39
Lamarck J.B. 271 Marks H. 381
Namensverzeichnis 417

Maroussem P. du 175, 182 Neufchâteau F. de 38, 39


Marpsat M. 17 Newton I. 73, 354, 355
Marschak J. 346, 347 Neyman J. 108, 142, 183, 227, 235, 251,
Marshall A. 183, 314, 353 252, 257, 258, 260, 313, 319, 321,
Martin O. 381 323, 339, 356
Marx K. 90, 237 Nicole P. 65
Massé P. 179, 352 Nisbet R. 90, 237
Mauss M. 264, 271–273, 373 North D.C. 382
Maxwell J. 319 Norton B. 143
Mayer T. 72, 73
Mazodier P. 17 O’Muircheartaigh C. 260
Ménard C. 183, 314 Ockham W. von 78–81, 83, 98, 114,
Méraud J. 352 121, 123
Merllié D. 273 Ozouf Marignier M.V. 37
Merton R. 5
Mespoulet M. 376 Painlevé P. 176
Metz K. 192 Parent-Duchatelet A. 94
Meusnier N. 65 Pareto A. 237, 352
Mill J.S. 190, 195 Parodi A. 296, 368
Miller P. 377 Parodi J.-L. 381
Millerand A. 174, 176, 177 Pascal B. 19, 55–57, 59, 65
Mills F. 227 Passy H. 172
Mirowski P. 183, 320, 354 Pasteur L. 304
Mitchell W. 222, 315, 324, 326, 329, Patinkin D. 333, 335, 348, 351
339, 348, 349, 352, 354 Patriarca S. 376
Moivre A. de 65, 66, 76, 86, 318 Paty M. 121
Mols R. 27 Paul 62
Monmort P.R. de 62 Pearson E. 66, 108, 119, 142, 143, 148,
Monnet J. 177, 179 183, 227, 313, 321, 323, 339, 356
Montesquieu 114 Pearson K. 8, 14, 16, 50, 71, 76, 86, 91,
Montyon J.B.A. 32, 181 98, 103, 108, 117–127, 142–156,
Moore H. 180, 184, 313, 315–317, 324, 160–164, 166, 178, 180, 197, 210,
326, 327, 352, 353, 357 239, 242, 244, 254, 271, 284, 313,
Moreau de Jonnès A. 96–98, 100, 105, 320, 321, 333, 334, 336, 337, 339,
115, 169, 170, 201, 266 365
Morgan A. de 123, 195 Perrot J.C. 15, 17, 21, 43, 82, 83, 278,
Morgan M. 15–17, 180, 184, 233, 313, 359
324, 327, 330, 333, 375, 377, 383 Perrot M. 17, 175, 275
Morgenstern O. 383 Perroux F. 193
Morrisson C. 177 Persons W. 352
Mosteller F. 252, 384 Peter 62
Mr. Gradgrind 194 Petty W. 27, 28, 30, 348
Murphy T. 94 Peuchet J. 40–42, 44, 45
Murray C. 385, 387 Piaget J. 264
Murray D.J. 52, 119, 321 Piquemal J. 95
Musgrave R. 349 Plackett R.L. 73
Musil R. VI, 209 Planck M. 320
Poisson S.D. 62, 78, 89, 90, 100–103,
Napoleon 46, 200 115, 131, 132, 256, 302
418 Namensverzeichnis

Polanyi K. 157, 187, 237 Schiller J. 95


Pollak M. 5, 17, 207 Schlözer L. 23, 24, 30, 40
Popkin R. 59 Schnapper-Arndt G. 182
Popper K. 121, 332 Schnuse C.H. 104
Porte J. 296 Schultz J. 180
Porter T. 15, 17, 86, 107, 319, 375, 378, Schumpeter J. 28, 34, 79, 351
379 Schweber L. 380, 385, 386
Prévost J.-G. 376 Seng Y.P. 236, 252
Pringsheim A. 62 Serverin E. 275
Pyrrhon 58 Sewell W. 48, 293
Shafer G. 318
Quesnay F. 34, 35 Shelton W. 15, 212, 233
Quetelet A. 8, 11, 13, 14, 16, 32, Sieyès E.J 37
49, 74, 76, 78, 80, 82, 85–92, 94, Simiand F. 46, 174, 176–178, 184, 315,
97–100, 102, 103, 105–112, 114, 359
115, 117, 119, 126–131, 133, 139, Simon T. 128
141, 142, 146, 149, 151–153, 162, Simpson T. 74
163, 166, 173, 176, 188, 189, 208, Sims C. 353
209, 235–239, 242–247, 252, 254, Sklar K. 233
259, 264, 265, 303, 315, 317–319, Slutsky E. 324, 325, 327
337, 338, 343, 344, 359, 364, 365, Söllner F. 208, 317
373 Sokal A. 379
Spearman C. 128, 131, 156, 163, 164,
Ramsay F.P. 322 242, 288
Raulot J.Y. 96 Spenlehauer V. 377
Reinhart M. 43 Sraffa P. 351
Reynaud B. 80, 184, 284 Stamp J. 351
Richelieu 31 Stanziani A. 376
Ries A. 39 Stephan F. 227
Rist C. 184 Stigler S. 7, 15–17, 67, 71, 73, 100, 109,
Rockefeller J.D. 233 143–145, 152–155, 313, 375, 384
Roosevelt F.D. 217, 225, 228, 229, 366 Stirling J. 65
Rosch E. 264, 269 Stockmann E. 203
Rosser Matthews J. 378, 385 Stone R. 192, 351
Rossiter W. 217 Stouffer S. 227
Rousseau J.J. 92, 114, 115 Student 319, 320
Rowntree S. 196, 238, 247–250, 287, Süssmilch J.P. 85, 86, 200
349 Sutter J. 291
Roy R. 184, 351 Szreter S. 15, 17, 187, 189–191, 290,
Rueff J. 184, 185 376, 378

Saenger K. 200, 204–206 Tassi P. 17


Salais R. 17, 80, 174, 284 Teller E. 347
Samuelson P. 328 Terray J.M. 32
Sangolt L. 376 Thélot 386
Sauvy A. 177–179, 184, 352 Thévenot L. 10, 17, 126, 181, 269, 289,
Savage L.J. 52, 322 291, 293
Savoye A. 175, 182, 294 Thomas A. 174, 176, 177, 179, 222
Say J.B. 183 Thurstone L. 156, 163, 164
Namensverzeichnis 419

Tinbergen J. 185, 320, 326, 328–338, Walras L. 183, 314, 352


343, 351 Ward R. 192
Tocqueville A. de 30, 90, 237 Weber M. 207, 208, 210, 250
Tönnies F. 49, 237, 261 Weil A. 383
Tolosan J.F. de 279, 281, 293 Weldon R. 144, 145, 147–149, 152–155
Topalov C. 285 Westergaard H.L. 21
Turgot A.R.J. 33 Wicksell K. 327
Wilkins J. 60
Ullmo J. 184, 185 Willms-Herget A. 203
Wilson W. 216, 222
Valéry P. 184
Witt J. de 28
Vanoli A. 377
Wold H. 353
Vauban S. 31, 78, 82–84, 87, 88
Wong T. 260
Venn J. 123, 195
Woolf S. 36, 46
Vicq d’Azyr F. 33
Working E.J. 180, 353
Vignaux P. 79
Wundt W. 242
Villermé L. 94, 97, 98, 171, 172
Villey M. 79, 80
Vining R. 313, 347, 353–357 Young H.P. 213
Volle M. 15, 17, 177, 278, 280, 282 Yule U. 8, 120, 144, 145, 149–152,
Vries W. de 377 156–162, 173, 182, 192, 196, 197,
215, 284, 285, 315, 320, 324, 325,
Wagner R. 224 337, 338, 356, 357
Wald A. 346
Walker F.A. 219, 220 Zucker-Rouvillois E. 17, 148
Stichwortverzeichnis

A-posteriori-Wahrscheinlichkeit 104 akzidentielle Ursache 89


A-priori-Gesetz 261 Alchimie 126, 364
A-posteriori-Wahrscheinlichkeit 9, 52 aleatorischer Vertrag 55, 58, 59, 63
A-priori-Modellbildungen 340 Algebra 40, 44
A-priori-Wahrscheinlichkeit 9, 52, Algebra des Menschen 33
67–69, 319, 322 Algebraiker 41, 42, 45
Abführmittel 94 algebraische Kunstgriffe 33
Abstammung 259 Algorithmus 307–309
Ad-hoc-Argumentation 113 Alkoholismus 94, 334, 377
Ad-hoc-Konstruktionen 155 allgemeine Intelligenz 128, 131, 163
Ad-hoc-Technik 170 allgemeiner Intelligenzfaktor 288
Ad-hoc-Lösung 72 allgemeiner Wille 114, 115
Aderlaß 94 als ob 2, 13, 339, 342
Adunation 37, 38, 47 American Economic Association 221
Äquivalenz 7, 12, 24, 36, 43, 46, 49, 52, American Statistical Association 221
56, 70, 78, 84, 94, 209, 259–261, amtliche Statistik 19, 166–168, 170,
263, 276, 285, 297, 306, 308, 316, 196, 242
322, 335, 336, 362, 365, 367, 369, Ancien Régime 21, 30, 31, 35, 39, 241,
373, 374 298
Äquivalenzklasse 2, 9, 10, 24, 54, 68, Angebots- und Nachfragekurven 180,
70, 74, 89, 98, 102, 105, 128, 160, 183, 316
162, 264, 266, 274, 277, 279, 288, Angestellter 301
303, 305, 341, 372 anstaltsinterne Unterstützung 150
Äquivalenzkonvention 14, 124, 161, Anthropologie 138, 271
275, 336, 361, 385 anthropologische Rekonstruktion 4
Äquivalenzraum 12, 15, 25, 29, 232, Anthropometrie 172
247, 267, 315, 361, 362, 368 Antirealismus 339
Ätiologie 189 antirealistisch 3
ätiologisches Prinzip 303 apportionment 211, 214
Aggregat 78, 98, 114, 115, 299 apportionment of a tax 211
Aggregatrealismus 106 apportionment of representatives 211
Agnostizismus 126 Arbeiter 301
Aids-Epidemie 94 Arbeiterbewegung 48
422 Stichwortverzeichnis

Arbeiterbewußtsein 239, 245, 259 Berufsrisiko 283


Arbeiterhaushalt 176 Berufsverbände 298
Arbeiterklasse 203, 246, 247, 294 Berufszählung 205
Arbeitgeberverbände 298 Betriebszählung 205
Arbeitnehmerschaft 292 Bevölkerungsbewegung 169, 170, 201,
Arbeitshäuser 150, 186 207
Arbeitslosenquote 80, 126 Bevölkerungsmultiplikator 28, 29, 33
Arbeitslosenzahl 369 Bevölkerungsschätzung 11
Arbeitslosigkeit 1, 159, 161, 168, 176, Bevölkerungsstatistik 181, 187, 205,
180, 186, 193, 212, 214, 222–225, 212
228, 232, 263, 277, 283, 284, 289, Bevölkerungswachstum 211
367 Beweis 142
Arbeitsrecht 283 bewußte Auswahl 236, 238, 242, 251,
Arbeitsvermittlungsbüro 191 257, 260, 326
argumentative Grammatik 113 Bias 238
aristotelische Logik 23 Billardtisch 68
arithmetisches Mittel 87 Billigkeit 52
Armengesetz 129, 284 Binomialverteilung 86, 87, 91, 99, 107,
Armenkasse 156 135
Armut 1, 8, 186, 192, 193, 214, 247, Bio-Macht 380
248, 252, 263, 283, 289, 367 Biometrie 17, 118, 127, 147, 148, 156,
Armutsgelübde 81 160, 173, 184, 186, 191, 284, 311,
Arrondissement 280 315, 320, 357, 365, 366, 382
Artefakt 20 Biometrika 161
au bout du compte 83 Biometriker 365
Ausbildung 193 birthright 231
Auto 344 Black Box 197, 289, 322, 342, 363
Auto und Autonomie 345 Board of Trade 167, 187, 192, 249
autonom 344 Börsenkrach 223, 224
Autonomie 345, 346 bonapartistische Tendenzen 187
axiomatische Wahrscheinlichkeitstheorie Boolesche Algebra 195
183 Bootstrap-Verfahren 262
bottin 39
baccalauréat 383 Brain Trust 222
Bakteriologie 304 Branchentarifvertrag 296
barème 39 Bravais-Pearson-Koeffizient 137
Bauernverbände 298 British Association for the Advancement
Baumwollentkörnungsmaschinen 220 of Sciences 138
Baumwollpreise 220 Brookings Institution 221
Bayesianer 322 brumaire 38
Bayesianismus 52, 70 Bruttoinlandsprodukt 369
Bayessche Inferenz 68 Bruttosozialprodukt 349
Bayessche Statistik 318 Budget Office 218
Bayessches Verfahren 52 Bundesländer 199
Beamtenschaft 166 Bureau d’arithmétique politique 42
Beamter 200, 301 Bureau de statistique de la République
bedingte Wahrscheinlichkeit 67 40
Beobachtungsfehler 33 Bureau für allgemeine Statistik 21
Berufe 302 Bureau für Verwaltungsstatistik 97
Stichwortverzeichnis 423

Bureau of Labor Statistics 226 Darwinismus 366


Bureau of the Census 168, 315, 376 Daten 2, 113, 141, 147, 152, 154, 171,
Burgunder 109 179, 192, 195, 211, 214, 219, 242,
Business Statistical Office 192 256, 275, 276, 321, 323, 329–331,
337, 338, 344, 352, 355, 382, 383
cadres 296–299, 301 Datenanalyse 196
cadres salariés 299 Datensammlung 248
calcul des âges 83 Datenverarbeitung 174
Carnegie Foundation 221 Debatte 1, 2, 5, 12, 14, 92, 94, 96, 144,
causa efficiens (effektive Ursache) 23 160, 168, 193, 197, 199, 208, 209,
causa finalis (Finalursache) 23 211–215, 225, 230, 247, 248, 252,
causa formalis (formale Ursache) 23 256, 266, 270, 281, 292, 305, 306,
causa materialis (materiale Ursache) 313, 322, 336, 361, 366, 368–371
23 Debatte über die Modalitäten der
Census Bureau 175, 213, 216, 217, Debatte 361
219–221, 224, 226, 232 Debattenraum 365, 367, 369
Census Office 221 Debattenrhetorik 365
Census-Verwaltung 213 Debattierbarkeitsniveau 361
Central Statistical Office 186, 187, 192 Dekonstruktion 379
Central Thinking Office of Statistics Demographie 167, 168, 181, 200, 201,
197 381
Centre nationale de la recherche Denunziation 1
scientifique 178 deontologisches Prinzip 306
Centre polytechnicien d’études Departement 29, 36–39, 75, 105, 109,
économiques 184 181, 247, 259, 280
Ceteris-paribus-Klausel 317, 338, 345 Department of Commerce and Labor
Chance 66 220
Chaostheorie 209 Der Name der Rose 79
Chi-Quadrat-Test 118 deskriptiv 7, 9
Chicagoer Schule 210 deskriptive Statistik 21, 24
Cholera 96–98, 103, 170 Determinismus 92, 93, 123, 209
Cholera-Epidemie 94 Determinismusfrage 319
Choleravibrio 93, 96 Deutsches Statistisches Reichsamt 200
civic worth 129, 288, 290, 292 Deviat 139
classicompteur-imprimeur 174 Dezil 141
Co-Relationen 142 Diagnose 69
Co-Variation 137 Die Dinge des Lebens 115
coenesthesischer Zustand 112 Die Entstehung der Arten 145
comfortable working class 286 Die Ordnung der Dinge 266
Committee on Government Statistics Differentialgleichung 324
and Information Services 227 Differenzengleichung 324
Computer 173, 212, 366 dı̂me royale 31
Conseil national économique 177 Diskontinuität 266, 270, 277, 300
Conseil supérieur de la statistique 172, Diversität 243–245, 314
173 double quincunx 134
Conseil supérieur du travail 176 Drei-Fünftel-Regel 213
Cowles Commission 184, 313, 340, 346, Dritte Republik 281, 284, 297
347, 351, 353–355 Dritter Stand 47, 48
424 Stichwortverzeichnis

Durchschnittsmensch 8, 11, 74, 77, 83, Erwartungswert 52, 56, 57


84, 86–88, 90, 91, 93, 102, 107–109, Erwerbsperson 230
111, 112, 127, 133, 163, 176, 208, es gibt 4, 372
209, 242, 252, 265, 302, 315, 318, ethnische Gruppe 109
343, 344, 365, 387 Ethnologie 242
Durchschnittstyp 109, 110, 112, 114, Eugenik 103, 118, 127, 130, 145–150,
140 164, 180, 191, 230, 284
Durkheimianer 246, 247 Eugeniker 71, 124, 133, 141, 143, 150,
Durkheimsche Soziologie 78, 109 190, 191, 254, 288, 290–293, 365,
366
Econometric Society 351 Eugénique et sélection 180
Econometrica 352 Eulersche Zahl 65
Eignungstest 163 Evolution 121, 147
eindimensionale Hierarchie 164 executive 299
eindimensionale Kategorisierung 288 Exhaustivität 196, 247, 249, 252
eingipflige Verteilung 109 Experimentalwissenschaft 193
Einwanderer 215 experimentelle Medizin 94
Einwanderung 214–216 extensive Methode 243
Einwanderungsgesetz 217 Exteriorisierung 126
Einwanderungsquoten 217 Exteriorität 26, 34, 89, 289
Einwanderungswellen 211 Externalismus 143, 378
Eisenbahn 367 externalistisch 5, 17, 144, 263, 376, 378
Elastizitätsrelation 202
eleven plus 163
Ellipse 133, 137, 141 Facharbeiter 294
Empire 41, 42, 45 Fähigkeiten 140
employé 301 Fairness 52, 55, 59, 63
employés, techniciens et agents de fait social 2
maı̂trise 296 Fakten ohne Meinung 194
endokrine Sekretion 304 Faktizität 20
Engelsches Gesetz 202, 210 Faktorenanalyse 156, 162–164, 265,
englisch-ökonomistischer Individualis- 272, 300
mus 209 Fakultät (n!) 65
englischer Wirtschaftsliberalismus 237 fallbezogene Intuition 95
Enquete 29, 30, 195 Falsifikation 121
entangled moduli 146 Fatalismus 92
Environmentalismus 150, 290 Fehler 70
Environmentalisten 290, 292 Fehlerrechnung 8
Epidemie 94, 96, 171, 188 Feminismus 148
Epidemiologie 190, 275, 364 Fertilität 1, 217, 288, 292
epistemisch 13, 89, 364 Fideisten 59
epistemische Wahrscheinlichkeit 8 Fingerabdrücke 142
Epistemismus 5 formal symmetrisch 68
epistemologische Revolution 125 formale Grammatik 164
equal proportions 214 Forminvestition 12
Erbgut 128 Franziskaner 79, 81
Erbsen-Experiment 131, 133, 135, 141 Franziskanerorden 79, 81
Erdellipsoid 73 französisch-rationalistischer Individua-
Erstes Kaiserreich 30 lismus 209
Stichwortverzeichnis 425

Französische Revolution 10, 31, 33, 42, gezielte Auswahl 251


47, 90, 237, 241, 297 Glaubensgrad 322, 334
französischer Adam Ries 39 Glaubensgrund 8, 11, 27, 51, 66, 318,
französisches Beamtenrechtsrahmenge- 364
setz 296 Gleichgewichtstheorie 314
Freiberuflerverbände 298 gleitendes Mittel 325
freie Berufe 299 Glockenkurve 86
Freihandel 193, 249, 281, 283 Glücksspiel 11, 53–55, 59, 65, 364
Freiheit 209 Göttinger Schule 23, 26
Frequentismus 5, 322 göttliche Essenz 245
Frequentisten 52, 57 göttliche Ordnung 86, 200, 259
frequentistisch 13, 89, 318, 364 göttliche Vorsehung 85, 107
frequentistische Wahrscheinlichkeit 8 göttlicher Plan 239
Fürsorgegesetzgebung 150, 186 Gott der Schöpfer 87
Fürsorgeunterstützung 150 Gouvernementalität 380, 381
Fürsorgeverbände 150 Grad der Sicherheit 20, 27, 66, 71, 74
Grammatik 365, 369, 378
g-Faktor (general factor) 163 grandes écoles 148
Galileische Wissenschaften 69 grant-in-aid 231
Galtonsches Brett 132, 135, 146 Gravitationsgesetze 354
Gammafunktionen 154 Gründungsalchimie 265
Gaußsche Wahrscheinlichkeitsverteilung
11 Habitat 290
Gaußsches Fehlergesetz 73 Habitus 61, 123
Gebietskörperschaft 371 Häufigkeitshistogramm 87
Geburtenkontrolle 148 Handlungsroutinen 123
Geburtenmultiplikator 235 Handwerk 279
Gelehrtengesellschaften 166 Harmonisierung 10
General Register Office 15, 167, 170, Hausknecht 294
171, 173, 175, 187, 226, 290 Heiraten 11
Generalstatistik 19 Heiratsrate 133
Genetik 148 Heisenbergsche Unschärferelation 183,
Genie 128, 133 320
Genossenschaft 192 Hereditarismus 123, 365
germinal 48 Hereditarist 124, 290
Geschworenengericht 197 heterogene Bevölkerungsgruppen 197
Geselle 48, 293, 294 Heterogenität 100, 101, 113, 293, 365
Gesellschaft 86, 90, 92, 112 heteroklitisches Wissen 23
Gesellschaftslehre 265 Hilfsarbeiter 294
Gesellschaftsvertrag 92, 114 hippokratisches Modell 89
Gesetz der großen Zahlen 9, 65, 78, 82, Histogramm 86
88, 91, 99, 239, 240, 243, 244, 250, historische Schule 25, 168, 210
318, 320, 322, 364 historischer Determinismus 208
Gesetz von Galton 139 Historismus 203
gesunder Menschenverstand 7, 62, 106, Historizismus 199
126, 356 historizistisch 372
Gewerbestatistik 36, 279, 280 historizistisch-deskriptive Statistik 17
Gewerkschaft 245 Historizität 270, 314
Gewinnerwartungswert 62 History of Civilisation in England 208
426 Stichwortverzeichnis

Holismus 78, 111, 113–115, 199, 209, instrumentalistisch 3, 339


237, 254, 260, 354, 355 Instrumentarium 370
holistisch 25, 49, 98, 246, 289 Intelligenz 119, 365
holistische Auffassung 239 Intelligenzleistung 163
Hollerith-Maschinen 174 Intelligenzquotient 128, 131, 216
homme moyen 84 Intelligenztest 156
homo 79 Intendant 30, 31
homo artis 379 intensive Methode 243
homo scientiae 379 intermediary group 292
Homogenität 100, 153, 155, 196, 197, Internalismus 143, 378
314, 338, 367 internalistisch 5, 17, 144, 263, 375, 378
Homogenitätshypothesen 155 International Classification of Diseases,
Homogenitätstest 105 Injuries and Causes of Death 69
Hot-Deck-Verfahren 54 International Labor Office 173
House of Representatives 168, 211 Internationale Klassifikation der
Hygieniker 32, 96–98, 114, 150, 187, Krankheiten, Verletzungen und
264, 307 Todesursachen 69
Hypothesentest 321, 323 Internationale Statistische Kongresse
91, 173
Ideenrealismus 80 Internationales Arbeitsamt 173
Impfung 63, 364 Internationales Institut für Statistik
Importzölle 204 91, 173, 236, 238, 251, 302
Imputation 309 Intersubjektivität 126
in fin dei conti 83 Intersubjektivitätstechnologie 75
Individualismus 78, 114, 237, 260, 354, intrinsische Realität 98
355 inverse Wahrscheinlichkeit 64, 69, 74,
individualistisch 49, 98, 289 340
individuelle Freiheit 92 Investition 126, 197, 341, 374
individuelle Person 283 Investitionskosten 37
individuelle Tätigkeit 295 Investitionsprozeß 10
Indizienwissenschaften 69 isolés 295
indoor relief 150, 284 italienische Einheit 376
Induktionslogik 334
induktive Wahrscheinlichkeit 51 Jacquard-Karte 174
Industrialisierung 167, 297 Jakobiner 31
industrielle Revolution 90 Jansenisten 65
Infektionisten 96 Job-Sharing 225
inferentielle Revolution 119 Journal de la Société de statistique de
inferentielle Statistik 14, 183, 184, 321, Paris 172
323, 336, 339, 340, 346, 355, 356 Journal of the Royal Statistical Society
Inflationsrate 369 161
Informatik 15 Junker 207, 208
Information 275 Justizirrtum 100
Ingenieur 333
Ingenieurschulen 297, 298 Katastrophentheorie 209
Institut de statistique de l’université de Kategorie 265, 271, 273–275, 278, 307
Paris 177, 178 Kategorienbildung 307
Institut national de la statistique et des Kathedersozialismus 148
études économiques 15, 120 Kausalität 118, 121–126, 149, 152, 320
Stichwortverzeichnis 427

Kelten 109 Konjunkturzyklen 224, 315, 316,


Kernwaffen 347 323–326, 339, 348, 349, 352, 357
Keynesianische Makroökonomie 370 konkrete Geschichte der Abstraktion
Keynesianismus 233 359
Kindersterblichkeit 188, 292 Konsens 309
kinetische Gastheorie 319 konsistent 35, 226, 274
Klan 271 Konsistenz 12, 13, 20, 34, 37, 43, 48,
Klassifikation 271, 272 70, 84, 117, 129, 130, 166, 167, 171,
Klassifikation der Berufe 173 199, 201, 227, 263, 289, 292, 307,
Klassifikation der Krankheiten 173 312, 339, 359, 361, 362, 369, 370
Klassifizierung 24, 263 konstante Ursache 88–91, 98, 99, 102,
Klassifizierungsverfahren 162 106, 107, 114, 117, 126, 153, 163,
klassische Wahrscheinlichkeitsrechnung 245
61 konstitutionelles Prinzip 212
Klinik 93 konstruktiver Skeptiker 59
Klio 382 konstruktivistisch 3
Kliometrie 382 Konsulat 30, 42
Kochkunst 329, 330 Kontagionisten 96, 98, 189
Kontingenz 7, 120, 125–127, 152, 359,
Kodierung 10, 17, 68, 78, 84, 97, 165,
373
263–267, 273, 274, 288, 303, 305,
Kontingenztafel 124, 135
307, 323, 335, 340, 359, 369, 371,
Kontinuum 60
373, 382, 385
Kontraktkurve 146
Kodierungskosten 308
Kontrollvariable 257, 258
König von Preußen 87
Konvention 1, 2, 13, 69, 78–80, 102,
Körpergröße 86, 107, 109, 128–130,
103, 106, 108, 155, 162, 211, 224,
132, 139, 141, 152, 365
228, 335, 372, 374
kognitives Patchwork 24
Kopf oder Zahl 9, 64, 85, 318
Kohärenz 97, 170
Kopfsteuer 32
kollektive Person 283
Korrelation 2, 14, 16, 71, 98, 118, 120,
kollektive Tätigkeit 295
124–127, 137, 142, 144, 146, 147,
kollektive Tendenzen 113 149–151, 156, 157, 160, 164, 173,
kollektiver Fatalismus 92 180, 254, 257, 284, 315, 320, 328,
kollektiver Newton 354 334, 365
Kollektivtyp 109, 111–114 Korrelationskoeffizient 108, 122, 144,
Kommensurabilität 83, 125 146, 151, 160
Komparabilitätsraum 25, 58, 169, 188, Korrelationsmatrix 164
232, 267, 315, 362, 363 Korrespondenzanalyse 382
Konfidenzintervall 250, 252, 256 Korsika 105
konfluent 343, 346 Kostenfunktion 339
Konfluenz 343 Kovariation 344
Kongreß 213, 214, 216, 218–220 Kreuztabelle 24, 25, 124, 137, 363
Kongreßmandat 211, 222 Kriminalität 94, 159, 168, 191, 193, 364
Kongreßsitz 213, 216 Kriminalitätsrate 133
Konjunkturanalyse 313 Krise 352
Konjunkturbarometer 352 Krise des öffentlichen Raumes 372
Konjunkturdaten 219 Küche 330
Konjunkturindikator 316
Konjunkturschwankung 331 labor force 230
428 Stichwortverzeichnis

Labor Office 220 makrosoziale Ursachen 244


Labour Department 192 Makrosozialpolitik 93
Labour Party 291 Makrosoziologie 239
Landwirtschaftsstatistik 36, 280 man muß 372
langfristiger Trend 326 manager 292, 299
Laplacescher Determinismus 183 manichäischer Gegensatz 340
Lappland 73 manœuvres 293
Le Monde 139 Marktstudien 259, 367
Le Temps 139 Marxismus 294
Legitimität 223, 226, 371 maschinelle Datenverarbeitung 15,
Lehrergewerkschaften 298 173, 180, 220
Leplaysianer 186, 238, 243, 246, 247 Massengesellschaft 97
Libration 72 Massenhygiene 97
Likelihood 340 massive Trends 360
Likelihood-Funktion 321 Mathematical Psychics 146
lineare Algebra 346 mathematische Gewißheit 60
lineare Regression 151, 313 mathematische Ökonomie 146
lineare Relation 70 mathematische Statistik 15–17, 166
lineares Modell 378 mathematischer Erwartungswert 63
Linearität 257 Matrix der sozialen Mobilität 291
Linearkombination 346 Matrix der sozialen Vererbung 291
Literary Digest 229 Matrizenalgebra 346
Literary Digest Desaster 229 Matrizendiagonalisierung 346
Lobbying 218, 219 Maximum-Likelihood-Methode 2, 126,
Lochkarte 174 313, 340, 346
Lochkartenmaschinen 174, 281 Median 141, 173
Lochkartenverfahren 174 medium 82
Lochmaschinen 174 medizinische Statistik 94
Logarithmus 74 mehrdimensionale Faktorenanalyse
Logik 23, 334 119, 164
Logik von Port Royal 64 Meister 48, 293, 294
logisch asymmetrisch 68 Men’s and Women’s Club 148, 152
Lohnarbeit 295 Menschenrechte 36
London School of Economics 186, 192, menschliche Spezies 76, 109, 118, 127,
377 145, 271, 365
London Statistical Society 194 Meritokratie 365
Londoner Börse 325 Merkantilismus 278
Los 53 Meßfehler 5, 239
lower middle class 286 Meßprobleme 16
Lumpenproletariat 207 Meßraum 10, 119, 128, 141, 142
Lyoner Seidenarbeiter 295 Methode der kleinsten Quadrate 8, 16,
19, 70, 74, 76, 126, 141, 144, 151,
Machtverhältnisse 263 284, 313, 330, 353
major fractions 214 Methodenstreit 208, 210
Makroökonomie 351 Methodologie 381
makroökonomisches Gleichgewicht métier 293
368 metrisches System 36, 247
makroökonomisches Modell 370 Metrologie 377
makroskopische Ordnung 339 Miasma 93
Stichwortverzeichnis 429

Miasmentheorie 189, 190 Nichthomogenität 317


mid-parent 135, 137 Nikotinsucht 377
middle class 292 Nomenklatur 9, 12, 15, 16, 23, 35, 41,
Mikrokausalität 95 106, 119, 170, 173, 191, 200, 220,
Mikroökonomie 352 257, 258, 264, 266, 268, 269, 274,
mikroökonomische Entscheidungen 275, 277, 279, 297, 299, 307, 348,
368 363, 374
mikroskopisches Chaos 339 Nomenklaturänderungen 278
Milieu 96, 109, 164, 241 Nominalismus 5, 79–81, 92, 114, 115,
Minimierungsproblem 122 121, 124, 126, 156, 162, 265
Mittelwert 2, 8, 16, 77, 80, 82, 88, 96, nominalistisch 3, 98, 269
97, 100, 108, 239, 240, 242, 243, nominalistischer Skeptizismus 68
359, 364 Normalgesetz 11
Modell 35, 248, 323, 329, 330, 333 Normalkurve 132
Modellparameter 13 Normalverteilung 65, 73, 99, 146
Monade 260 Nützlichkeitswert 56
Monadensystem 260 numerische Methode 25, 94–96, 108,
Mondposition 72 275, 307
Monographie 170, 175, 181, 203, 210,
236–238, 240–242, 252, 255, 281
objektive Interpretation 318
Montyon-Preis 181
objektive Wahrscheinlichkeit 5, 8, 61,
moralische Gewißheit 60
89, 261
moralischer Erwartungswert 63
Moralstatistik 11, 32, 92, 102, 107, 176, objektiver Mittelwert 87–89, 97
181, 264 Objektivierung 8, 14, 77, 193, 273, 365
Moralstatistiker 90, 97, 170–172, 182 Objektivierungsarbeit 12
Moralwissenschaften 19 Objektivismus 59
Morbidität 188 Objektivisten 12
Mortalität 189 objektivistisch 372
Moskauer Lotterie 325 Objektivität 7, 13, 14, 369
Multikollinearität 343 Occam’s razor 79
multiple Korrelation 151, 313, 315 Ockhamsches Messer 79, 123
multiple Regression 151, 323 öffentliche Gesundheit 170, 172, 186,
Multiplizität 126 193
multivariate Analyse 118 öffentliche Programme 376, 377, 381
öffentliche Statistik 9, 167, 168, 212,
Nachtzuganalyse 331 298, 370
National Bureau for Economic Research öffentlicher Dienst 298
221, 315, 346 öffentlicher Raum 360, 361, 364, 367,
nationale Identität 208 372, 374
Nationaleinkommen 2, 192, 313, Ökonometrie 14, 16, 17, 76, 156, 180,
348–350 183–185, 203, 210, 212, 311–313,
Nationalitätenkonflikte 211 315, 316, 319, 320, 323, 335, 340,
natürliche Auslese 190 342, 351, 353, 377, 378, 382
Naturalisten 80 ökonometrische Beziehungen 370
neoklassische Wirtschaftstheorie 183 ökonometrisches Modell 371
New Deal 175 Ökonomie des Denkens 121, 123, 126
nicht-realistisch 3 Ökonomismus 199
Nichtfalsifikation 332 Office du travail 174, 192, 220, 281
430 Stichwortverzeichnis

Office of Population, Censuses and politische Ökonomie 193, 278, 311, 334
Surveys 187, 192 politischer Arithmetiker 26, 40, 85,
Oktoberkrise 217 235, 264, 318
one with another 82 Polizei 265
opinion polls 376 Polizist 69, 142
opportunities 231 polls 229
Ordinalskala 141, 191, 290, 365 pollster 229
Ordnung 104, 267, 275 poor law unions 150, 285
Ordnung aus Chaos 319 poor laws 150
organizistisch 247 Port Royal 65
orthogonale Achsen 163 Positivismus 124
Osteuropa 242 Präfekt 38, 43, 75, 169, 171, 181, 195
ostpreußische Grundbesitzer 204 Präfekten-Enquete 29, 40, 42
ostpreußische Landarbeiter 207 Präfektur 37
outdoor relief 150, 284 präskriptiv 7, 9
Pragmatik 378
Panmixie 147 pre-election surveys 229
Paradigma 340 Preisbewegung 316
Parameter 13, 161, 344 Preisbildung 180, 316
Parameterschätzung 152, 321 Preisindex 80, 126, 185
Pariser Kommune 284 Preußisches Statistisches Bureau 201
Parodi-Dekrete 368 Prioritätsstreit 73, 144
Parodi-Kategorien 296 probabilisierter Glaubensakt 59
pars pro toto 235 probabilistische Methoden 256
partielle Korrelation 151 probabilistische Revolution 15
partielle Regression 151 probabilité 60
Pascalsche Wette 57 probability 60
Pauperismus 151, 156–160, 192 profession 282, 292
Peergruppe 6 professional classes 299
Pendel 325 professionals 148, 292, 293, 299
Pensionskassen 368 professions libérales 299
Periodogramm 326, 327 Prostitution 94
Permanenz 12, 82, 361, 374 Protektionismus 249
Philanthropie 150 Protektionisten 283
philanthropische Gesellschaften 166 protektionistische Politik 204
Physik 314, 319, 324, 326, 329, 338 Psychoanalyse 242
Physik des 19. Jahrhunderts 183 Psychometrie 118, 156, 162, 164, 266,
physikalische Gewißheit 60 381
Physiokraten 34, 35, 279 Psychometriker 265
Physiokratie 278 Psychophysiker 146
physiokratisches Denken 293 Psychophysiologie der Empfindungen
Plancksche Konstante 320 121
Planifikation 175, 179, 276 public health 186
Plankommissariat 177, 178, 185 public health movement 170
Pocken 160 Punktwolke 163
Pockenimpfung 63, 64 Pyrrhonismus 58
Politikwissenschaft 376, 381 Pythagoreer 128
politische Arithmetik 19, 21–23,
26–28, 33, 45, 99 Quadrat 133
Stichwortverzeichnis 431

Quantenmechanik 183, 328 Revue d’hygiène et de médecine


Quantifizierung 113 infantiles 180
quantitative Sozialwissenschaften 97 Revue philanthropique 180
Queteletismus 155 Rhetorik 3, 92, 98, 105, 108, 110, 111,
Quincunx 131–133, 135, 137, 146 113, 115, 117, 119, 138, 143, 149,
Quotenregelung 216 162, 164, 166, 318, 337, 342, 369,
373
Radio 367 ribbon cities 347
random shocks 324, 328, 329, 333 Risikofaktor 302, 303
Randomisierung 321 Risikogruppen 94, 101
Rasse 124, 133, 139, 140, 180 riskante Extrapolation 100
Rassenintegration 214 Rockefeller-Stiftung 354
rationaler Glauben 59 rocking horse 327
Rationalismus 199, 209 Roosevelt-Regierung 217
Realismus 5, 35, 81, 86, 92, 114, 115, Royal Statistical Society 138, 150, 159,
126, 152, 161, 369, 372, 374, 386 193, 196, 256
realistisch 98, 269, 274, 372 Rückkehr zum Mittel 138, 141
Rechtsstaat 166
reduziertes Modell 248 Saint-Simonisten 148
Regel der soziologischen Methode 2 saisonbedingte Schwankungen 352
Regelmäßigkeit 11, 84–86, 90, 103, 111, sampling 376
113, 208–210, 239, 265, 373 Satz von Bayes 9, 51
Regression 2, 14, 71, 98, 118, 120, 127, Schafstall der Biologen 154
129, 135, 137–139, 145, 150, 151, Schaukelpferd 327
156, 254, 284, 313, 315, 320, 330, Schaukelstuhlmodell 327, 331, 343
334 Scholastik 79
Regression zur Mitte 134 Schwindsucht 302
Regressionsgerade 108, 133, 141 Schwurgericht 52, 62, 100, 103
Regressionskoeffizient 160 Secretary of Commerce 223
Reibungsgesetze 345 Seine 105
Reichseinigung 167, 202 Selbstmord 11, 102, 273
Rekruten von Doubs 109, 152, 266 Selbstmordrate 133
Relation 70 Selbstmordstatistik 273
Relativismus 6, 59, 121, 372, 374, 386 self-help 192
Relativisten 12 Semantik 378
relativistisch 3, 372 semi-skilled worker 292
Relativitätstheorie 208 Service des études économiques et
Rentensystem 191 financières 185
Rentier 48 Sexualproportion 107
Repräsentant 24 Sezessionskrieg 213
Repräsentantenhaus 211 shopkeeper’s arithmetic 28
repräsentative Methode 251, 258 Signifikanzschwelle 105
repräsentative Stichprobe 12 Simulation 261, 325
Repräsentativität 229, 236, 238, 242, Simultan-Bias 330, 346
246–249, 252, 253, 255, 259, 260 simultane Gleichungen 2, 184, 341, 343
res publica 40 singuläres Kolloquium 93, 95
Residuum 70 Sinneswahrnehmungen 121
Rest 70 Skala 119, 129, 130, 164
Revolutionskalender 36 skeptischer Abendessensgast 60
432 Stichwortverzeichnis

Skeptizismus 58 Stabilität 196


skilled worker 292 Ständegesellschaft 47
Sklaven 211, 213 Standardabweichung 2, 128
Sklaverei 211, 214 Standardisierung 259
social fact 2 starkes Gesetz der großen Zahlen 101,
Société de statistique de Paris 139, 115
169, 172, 176, 180, 182 statista (Staatsmann) 23
Société royale de médicine 33 Statistical Society 206
Sokal-Affäre 379, 380 Statistical Society of London 193
Sonnenflecken 324, 325 Statistiker neuen Typs 142
sortes divisoriae 53–55 Statistique générale de la France 97,
Sortier- und Tabelliermaschinen 174 120, 167, 169, 281, 315
Sozialdarwinismus 143, 190 statistische Argumentation 361, 373
sozialdemokratische Bewegung 203 statistische Effizienz 355
soziale Coenesthesia 112 statistische Indikatoren 369
soziale Gruppe 140 statistische Induktion 334
soziale Mathematik 33 statistische Inferenz 334
soziale Mobilität 135 statistische Kultur 5
soziale Mobilitätstabelle 138 statistische Magie 81
soziale Physik 91 statistische Maschinen 174
soziale Sicherung 247 statistische Objektivierung 75, 359
soziale Ungleichheit 168, 212 statistische Wahrscheinlichkeit 51
soziale Welt 12, 246 statistischer Diskurs 373
Sozialenquete 207, 236, 238 statistischer Gottesbeweis 145
Sozialenqueten 367 statistisches Amt 168
sozialer Tatbestand 2, 3, 165, 373 Statistisches Amt der Europäischen
soziales Sicherungssystem 93, 204, 364, Gemeinschaft 206
366 Statistisches Bundesamt 200, 206
Sozialgesetze 202 statistisches Bureau 9, 11, 14, 19, 24,
Sozialgesetzgebung 204 38, 165, 166, 170, 200
Sozialpartner 370, 371 statistisches Manifest 193, 194
Sozialreformer 291, 349 statistisches Seminar 203, 204
Sozialreformismus 284 statistisches System 12
Sozialstatistik 85, 166, 173, 246 Sterbestatistik 96
Sozialversicherung 191, 368 Sterbetafel 11, 22, 28, 42, 61, 97
Soziologie der Statistik 378 Sterbezettel 26
soziologischer Tatbestand 2 Sterilisierung 291
sozioökonomische Phänomene 12 Stichprobenerhebung 10, 12, 15, 16,
soziopolitisches Netzwerk 91 168, 196, 212, 218, 227–229, 232,
Sparkassen 192 233, 235, 237, 366, 376
Speenhamland Act of Parliament 156, Stirlingsche Näherungsformel 65
157, 187 Stratifizierung 227, 235, 236
Spieltheorie 64 Streikstatistik 175
Sprache der Wissenschaft 7 Streuung 5, 131, 136, 239, 242
St. Petersburger Paradoxon 62, 64 Strukturparameter 346
Staatenkunde 200 subjektive Interpretation 318
Staatsstatistik 258, 264 subjektive Wahrscheinlichkeit 5, 8, 61,
Staatsstatistiker 14, 196, 250, 253 89, 261, 322
Staatswissenschaft 200 subjektiver Mittelwert 87–89, 97
Stichwortverzeichnis 433

Subunternehmer 291, 292, 295 Varianz 254


sunspot-Modell 324 Varianzanalyse 108, 300
Superintendent 218 Vater-Sohn-Modell 294
survey 212 Vektorraum 163
Survey of Current Business 223, 232 Venn-Diagramm 195
sweating system 291 Venusphasen 324, 325
Syntax 374, 378 Verbrechen 11, 102, 103
systematischer Fehler 238, 244 Verein für Socialpolitik 168, 202, 206,
Szientismus 148 207, 209, 210, 276, 314
Vererbung 8, 71, 76, 109, 118, 127–129,
Tabellenknechte 25 131, 133, 138, 140, 145–147, 164,
Tableau 266 191, 288
tableau économique 34 Vergleichbarkeit 196
Tagelöhner 294 Verhandlungsraum 371
taming the chance 324 Verifikation 332
Taxonomie 68, 105, 248, 263–266, 273, Versicherungsgesellschaft auf Gegensei-
275–278, 282, 284, 285, 287, 293, tigkeit 192
295, 296, 298, 300, 302, 307, 308, Versicherungsmathematiker 97, 189
363, 368, 373 Verstädterung 167, 168, 188, 211, 297
taxonomische Reduktion 336 Verteilung der Krisenauswirkungen
Teilstichprobe 261 371
Teilungsproblem 55 Vertrauensgrad 70, 71
Teilzeitbeschäftigung 225 Verwaltungsstatistik 15, 16, 180
teleologisches Prinzip 306 Verwaltungsstatistiker 172, 182, 186
Tendenz zum Selbstmord 112 Verzerrung 238
tetrachorischer Korrelationskoeffizient Vichy-Regierung 177, 179, 182
161 Vierfeldertafel 160
thomistische Theologie 53 Vitalismus 94
three-fifth rule 213 Völkerbund 173, 332, 333
Todesursachen 69, 172, 189, 263, 265, Vokabularium 370, 374
275, 290, 302, 303, 305 volkswirtschaftliche Gesamtrechnung
Todeswahrscheinlichkeit 305, 306 10, 15, 34, 175, 192, 212, 227, 233,
topographisches Prinzip 303 245, 332, 347, 348, 350, 351, 366,
Totem 272 368, 370, 377, 383
Totenschein 69, 195, 303, 305 Volkszählung 211, 216, 218, 220, 224,
tous comptes faits 83 229, 279, 384
traditionelle Medizin 95 Vollerhebung 29, 99, 100, 235, 255
Trunksucht 191
Typhus 93 Wahlprognosen 227, 259, 367
wahre Ursachen 334
Überzeugungsgrad 59 wahre Zahl der Arbeitslosen 224
ultraliberale Staatskonzeption 179 wahre Zahlen 97
ungelernter Arbeiter 294 Wahrnehmungsroutinen 120, 122
universalistisch 98 Wahrscheinlichkeit 2, 56, 60, 66, 75, 95,
unskilled workers 292 99
Unterpräfektur 37 Wahrscheinlichkeitsmodell 13, 183,
upper middle class 286 209
Ursachenwahrscheinlichkeit 64, 66, 69, Wahrscheinlichkeitsrechnung 3, 6–8,
74, 91, 101 11, 15–17, 51, 59, 64, 103, 239, 243
434 Stichwortverzeichnis

Welt der Macht 4 Zählmaschinen 174


Welt des Wissens 4 Zählung 10
Weltgesundheitsorganisation 303 Zähmung des Zufalls 324
Wette 11 Zahl 379
whiggish 383 Zeitreihen 173, 325, 327, 352, 377
Whiggismus 383 Zentraler Grenzwertsatz 74, 78
Whigs 28
Zerstörungsprüfung 374
Wiener Kreis 118
Ziffer 379
Wille 123
Wille aller 114 Zollverein 202
Willensfreiheit 93, 123 zu befürchtender Fehler 22, 29, 317
wir müssen 4 zufällige Auswahl 238, 251
Wirtschaftsbarometer 329 Zufall 51, 54
Wirtschaftsstatistik 166, 173, 181 Zufallsstichprobe 229, 252, 256, 326,
Wirtschaftstableau 34 356
Wirtschaftstheorie 17 Zufallsstichprobenerhebung 232
wissenschaftlicher Diskurs 372 Zunft 36, 48
Wohlfahrtsstaat 190, 191, 246, 250 Zwei-Stufen-Quincunx 134, 136, 137,
workhouses 150, 186 141
working class 292 zweigipflige Verteilung 109, 152
World Health Organisation 303 Zweigipfligkeit 265
Würfelspiel 9 Zwischenelternteil 135, 137, 139, 140
X-Crise 184, 185 zyklische Krise 329

Das könnte Ihnen auch gefallen