Sie sind auf Seite 1von 439

Die Politik der großen Zahlen

Alain Desrosières

Die Politik
der großen Zahlen
Eine Geschichte der statistischen Denkweise

Aus dem Französischen von Manfred Stern

123
Alain Desrosières
Institut National de la Statistique et des Études Économiques
INSEE-Timbre D 005
Boulevard Adolphe Pinard 18
75014 Paris, France

Übersetzer:
Manfred Stern
Kiefernweg 8
06120 Halle, Germany
e-mail: manfred@mstern.de

Ouvrage publié avec le concours du Ministère français de la Culture-Centre national du livre.


Dieses Werk wurde mit Unterstützung des französischen Ministeriums für Kultur (Centre national du
livre) veröffentlicht.
Übersetzung der 2. Auflage von “La Politique des Grands Nombres – Histoire de la raison statistique”
©Éditions La Découverte, Paris, France 1993, 2000.

Bibliografische Information der Deutschen Bibliothek


Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail-
lierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.

ISBN 3-540-20655-8 Springer Berlin Heidelberg New York


Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der
Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funk-
sendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in
Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Ver-
vielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen
der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9.
September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig.
Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes.
Springer ist ein Unternehmen von Springer Science+Business Media

springer-online.com

© Springer-Verlag Berlin Heidelberg 2005


Printed in Germany
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne
der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von
jedermann benutzt werden dürften.
Satz: Reproduktionsfertige Vorlage vom Übersetzer
Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig
Einbandgestaltung: design & production GmbH, Heidelberg
Gedruckt auf säurefreiem Papier 46/3142YL - 5 4 3 2 1 0
Zum Gedenken an Michaël Pollak, dessen moralischer Anspruch und
dessen Arbeit zur Politik der Sozialwissenschaften einen großen Ein-
fluß auf dieses Buch hatten.
VI

STADER: ... Hören Sie mich an: Mein Institut arbeitet mit den neu-
zeitlichen Mitteln der Wissenschaft. Mit Graphologik, Pathographik,
hereditärer Belastung, Wahrscheinlichkeitslehre, Statistik, Psychoana-
lyse, Experimentalpsychologik und so weiter. Wir suchen die wis-
senschaftlichen Elemente der Tat auf; denn alles, was in der Welt
geschieht, geschieht nach Gesetzen. Nach ewigen Gesetzen! Auf ih-
nen ruht der Ruf meines Instituts. Ungezählte junge Gelehrte und
Studenten arbeiten in meinen Diensten. Ich frage nicht nach läppi-
schen Einzelheiten eines Falls; man liefert mir die gesetzlichen Be-
stimmungsstücke eines Menschen und ich weiß, was er unter gege-
benen Umständen getan haben muß! Die moderne Wissenschaft und
Detektivik engt den Bereich des Zufälligen, Ordnungslosen, angeblich
Persönlichen immer mehr ein. Es gibt keinen Zufall! Es gibt keine
Tatsachen! Jawohl! Es gibt nur wissenschaftliche Zusammenhänge ...
Gerade in wissenschaftlichen Kreisen erfreut sich mein Institut noch
nicht des Verständnisses, das es verdient. Wofür Ihre Hilfe daher ganz
unersetzlich wäre, ist: Die Ausbildung der Detektivik als der Lehre
vom Leben des überlegenen wissenschaftlichen Menschen. Es ist nur
ein Detektivinstitut, aber auch sein Ziel ist die wissenschaftliche Ge-
staltung des Weltbildes. Wir entdecken Zusammenhänge, wir stellen
Tatsachen fest, wir drängen auf die Beobachtung der Gesetze ... Meine
große Hoffnung ist: die statistische und methodische Betrachtung der
menschlichen Zustände, die aus unsrer Arbeit folgt ...

THOMAS: Mein lieber Freund, Sie sind entschieden zu früh auf die
Welt gekommen. Und mich überschätzen Sie. Ich bin ein Kind dieser
Zeit. Ich muß mich damit begnügen, mich zwischen die beiden Stühle
Wissen und Nichtwissen auf die Erde zu setzen.

Robert Musil (1921): DIE SCHWÄRMER


Vorwort des Übersetzers

Bei der Übersetzung dieses Buches traten Probleme auf, die hin und
wieder kleinere Abweichungen und Zusätze erforderlich machten. Zum Bei-
spiel verwendet der Autor an mehreren Stellen ganz spezifische französische
Wortschöpfungen, die einem uneingeweihten Leser kaum etwas sagen, und
über deren Herkunft man auch in größeren Wörterbüchern und Nachschla-
gewerken nichts findet. Stellvertretend seien hier die folgenden drei Begriffe
genannt: adunation, bottin und barème.
Unter adunation, einem von Emmanuel Joseph Sieyès (1748–1836) ge-
prägten Wort, ist die gewollte Vereinheitlichung der Bezugssysteme zu verste-
hen, wie sie nach der Französischen Revolution verwirklicht worden ist, um die
eine und unteilbare Nation zu errichten. Diese Adunation“ hatte juristische,

metrologische und taxonomische Aspekte und schloß die Aufteilung des Ter-
ritoriums in Departements sowie die Einführung des metrischen Systems der
Maße und Gewichte ein. Die beiden anderen Begriffe leiten sich von Personen
ab, die durch das Wirken statistischer Prozesse sogar in Frankreich weitgehend
der Vergessenheit anheimgefallen sind. Unter bottin versteht man jetzt u.a. ein
Telefonbuch oder Fernsprechverzeichnis. Diese Bezeichnung wurde zu Ehren
von Sébastien Bottin geprägt, der 1799 ein politisch-wirtschaftliches Jahrbuch
( Verzeichnis“) herausgab. Das Wort barème bedeutet heute u.a. Tabelle und

leitet sich von François Barème ab, einem französischen Rechenmeister des
17. Jahrhunderts.
Bei derartigen Begriffen habe ich zur Erläuterung zusätzliche Fußnoten
eingearbeitet. Ähnlicherweise habe ich bei einer Reihe von historischen Be-
griffen ergänzende Fußnoten und Bemerkungen eingefügt, zum Beispiel bei
Ancien Régime, intendant, brumaire, germinal, l’un portant l’autre.
Bei den Erläuterungen zur Herkunft des Wortes probabilité bezieht sich
der Verfasser naturgemäß auf den früheren und auf den jetzigen französischen
Bedeutungsinhalt dieses Wortes, das lateinischen Ursprungs ist. Im Gegen-
satz hierzu hat die deutsche Übersetzung Wahrscheinlichkeit des französischen
Wortes probabilité einen ganz anderen, nichtlateinischen Ursprung. Diese Tat-
sache mußte in die deutsche Übersetzung eingearbeitet werden.
Das Buch ist 1993 erschienen, die hier übersetzte zweite französische Aus-
gabe im Jahr 2000. Wie der Verfasser in seinem Nachwort schreibt, enthält
das ursprüngliche Literaturverzeichnis die zitierten und bis 1992 veröffentlich-
ten Arbeiten. In einem zusätzlichen Literaturverzeichnis zur zweiten französi-
schen Auflage hat der Autor weitere Arbeiten angegeben, die in den Jahren
1992–2000 verfaßt worden sind; im Nachwort geht er kurz auf den Inhalt
dieser Arbeiten ein. Im dritten Teil des Literaturverzeichnisses habe ich wei-
tere Titel aufgeführt, die für den deutschsprachigen Leser von Interesse sind.
Außerdem habe ich ständig wiederkehrende Abkürzungen in einem Anhang
zusammengefaßt.
VIII

In Ergänzung zu den Abbildungen von Kapitel 4 ist unten schema-


tisch das Galtonsche Brett dargestellt, das auch als Galton-Brett oder als
Quincunx bezeichnet wird.1 Francis Galton, der Erfinder, ließ sich 1873
von einem Instrumentenbauer einen Quincunx anfertigen, den man im Gal-
ton Laboratory des University College London besichtigen kann. Galton
verwendete dieses Instrument, um bei seinen Untersuchungen über Erb-
anlagen die Eigenschaften der Binomialverteilung und der Normalvertei-
lung zu verstehen.2 Die nachstehende Abbildung ist eine Momentaufnah-

me“ eines Java-Applets von Damien Jacomy (Paris), durch das man un-
ter http://www-sop.inria.fr/mefisto/java/tutorial1/tutorial1.html
nach Anklicken von La planche de Galton ein bewegliches Bild erzeugen kann:
dabei bewirkt der simulierte Durchlauf der roten Kugeln den schrittweisen
Aufbau einer Binomialverteilung.

Der Autor machte mich freundlicherweise auf das obengenannte Java-


Applet aufmerksam und sprach sich dafür aus, die Abbildung in dieses Über-
setzervorwort aufzunehmen. Das obige Schwarzrotbild veranschaulicht die auf
Seite 132 gegebene Beschreibung des Galtonschen Bretts und ergänzt die Ab-
bildung des Zwei-Stufen-Quincunx auf Seite 136. Im Java-Applet sieht man
1
Für genauere Ausführungen zum Galtonschen Brett und zur Bezeichnung Quin-
cunx vgl. Kapitel 4 (Francis Galton: Vererbung und Statistik).
2
Den Originalentwurf von Galton findet man z.B. in W. Dyck, Katalog mathe-
matischer und mathematisch-physikalischer Modelle, Apparate und Instrumente.
Nebst Nachtrag. Nachdruck der Ausgabe 1892 und des Nachtrags 1893, Georg
Olms Verlag, Hildesheim 1994; Figur 7 auf Seite 6 des Nachtrags).
IX

weitere Farben zur Verdeutlichung des Sachverhalts und bei zunehmender


Anzahl von Versuchen zeichnet sich im Hintergrund die Normalverteilung ab.
Mein herzlicher Dank gilt Karin Richter (Martin-Luther-Universität Hal-
le, Fachbereich Mathematik) für zahlreiche – oder besser gesagt: zahllose –
Bemerkungen und für eine nicht ganz zufällige Folge von Konsultationen. Für
kontinuierlichen technischen und TEX-nischen Support danke ich Gerd Richter
(Angersdorf) und Frank Holzwarth (Springer-Verlag) ganz besonders. Eben-
so bedanke ich mich bei Peggy Glauch und Claudia Rau von der LE-TEX
Jelonek, Schmidt & Voeckler GbR (Leipzig) für hilfreiche Bemerkungen zur
Herstellung der Endfassung für den Druck.
Wertvolle Hinweise zu sprachlichen, inhaltlichen und sonstigen Fragen er-
hielt ich von Gerhard Betsch (Weil im Schönbuch), Corrado Dal Corno (Mai-
land), Lorraine Daston (Berlin), Menso Folkerts (München), Walter Hauser
(München), Jean-Noël Mesnil (Paris), Bert Scharf (Boston), Veronika Schlüter
(Darmstadt), Ivo Schneider (München) und Sylvia Stern (Springe). Für wei-
testgehendes Entgegenkommen seitens des Springer-Verlages danke ich Ute
McCrory, Angela Schulze-Thomin und enfin, tout particulièrement“ Martin

Peters.

Halle an der Saale, Herbst 2004 Manfred Stern


Inhaltsverzeichnis

Einleitung: Soziale Tatbestände als Dinge . . . . . . . . . . . . . . . . . . . . . . 1


Eine anthropologische Sicht auf die Wissenschaften . . . . . . . . . . . . . . . 4
Beschreibung und Entscheidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Wie man dauerhafte Dinge macht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Zwei Arten der historischen Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1 Präfekten und Vermessungsingenieure . . . . . . . . . . . . . . . . . . . . . 19


Deutsche Statistik: Identifizierung der Staaten . . . . . . . . . . . . . . . . . . . 22
Englische politische Arithmetik: Entstehung der Expertise . . . . . . . . . 26
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 30
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs . . . 36

Peuchet und Duvillard: schreiben oder rechnen? . . . . . . . . . . . . . . . . . 40
Wie man Diversität durchdenkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2 Richter und Astronomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51


Aleatorische Verträge und faire Abmachungen . . . . . . . . . . . . . . . . . . . 52
Konstruktiver Skeptizismus und Überzeugungsgrad . . . . . . . . . . . . . . . 58
Der Bayessche Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate . . . . . . 70

Messungsanpassungen als Grundlage für Übereinkünfte . . . . . . . . . . . 75

3 Mittelwerte und Aggregatrealismus . . . . . . . . . . . . . . . . . . . . . . . . 77


Nominalismus, Realismus und statistische Magie . . . . . . . . . . . . . . . . . 79
Das Ganze und seine Trugbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Quetelet und der Durchschnittsmensch“ . . . . . . . . . . . . . . . . . . . . . . . . 84

Konstante Ursache und freier Wille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Zwei kontroverse Fälle aus der medizinischen Statistik . . . . . . . . . . . . 93
Eine Urne oder mehrere Urnen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Der angefochtene Realismus: Cournot und Lexis . . . . . . . . . . . . . . . . . 103
Durchschnittstyp und Kollektivtyp bei Durkheim . . . . . . . . . . . . . . . . 108
Der Realismus der Aggregate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
XII Inhaltsverzeichnis

4 Korrelation und Ursachenrealismus . . . . . . . . . . . . . . . . . . . . . . . . 117


Karl Pearson: Kausalität, Kontingenz und Korrelation . . . . . . . . . . . . 120
Francis Galton: Vererbung und Statistik . . . . . . . . . . . . . . . . . . . . . . . . 127
Schwer zu widerlegende Berechnungen . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Fünf Engländer und der neue Kontinent . . . . . . . . . . . . . . . . . . . . . . . . 144
Kontroversen über den Realismus der Modelle . . . . . . . . . . . . . . . . . . . 152
Yule und der Realismus der administrativen Kategorien . . . . . . . . . . . 156
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz . 162

5 Statistik und Staat:


Frankreich und Großbritannien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Französische Statistik – eine diskrete Legitimität . . . . . . . . . . . . . . . . . 169
Entwurf und Scheitern eines Einflußnetzwerks . . . . . . . . . . . . . . . . . . . 175
Statistik und Wirtschaftstheorie – eine späte Verbindung . . . . . . . . . . 182
Britische Statistik und öffentliche Gesundheit . . . . . . . . . . . . . . . . . . . . 186
Sozialenqueten und wissenschaftliche Gesellschaften . . . . . . . . . . . . . . 193

6 Statistik und Staat:


Deutschland und die Vereinigten Staaten . . . . . . . . . . . . . . . . . . 199
Deutsche Statistik und Staatenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Historische Schule und philosophische Tradition . . . . . . . . . . . . . . . . . . 206
Volkszählungen in der amerikanischen politischen Geschichte . . . . . . 211
Das Census Bureau: Aufbau einer Institution . . . . . . . . . . . . . . . . . . . . 218
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte . 222

7 Pars pro toto: Monographien oder Umfragen . . . . . . . . . . . . . . 235


Die Rhetorik des Beispiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Halbwachs: Die soziale Gruppe und ihre Mitglieder . . . . . . . . . . . . . . . 243
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 246
Von Monographien zu systematischen Stichprobenerhebungen . . . . . 251
Wie verbindet man was man schon weiß“ mit dem Zufall? . . . . . . . . 257

Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen . . . . . . . . . . . . . . . 258

8 Klassifizierung und Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263


Statistik und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Die Taxonomien der Lebewesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Die Durkheimsche Tradition: sozio-logische Klassifizierungen . . . . . . 270
Die Zirkularität von Wissen und Handeln . . . . . . . . . . . . . . . . . . . . . . . 274
Gewerbliche Tätigkeiten: instabile Verbindungen . . . . . . . . . . . . . . . . . 277
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen . . . . 283
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum . . . . 288
Vom Gewerbe zur qualifizierten Tätigkeit . . . . . . . . . . . . . . . . . . . . . . . 293
Vier Spuren der Französischen Revolution . . . . . . . . . . . . . . . . . . . . . . . 297
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit . 302
Wie man einer Sache Zusammenhalt verleiht . . . . . . . . . . . . . . . . . . . . 306
Inhaltsverzeichnis XIII

9 Modellbildung und Anpassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311


Wirtschaftstheorie und statistische Beschreibung . . . . . . . . . . . . . . . . . 314
Glaubensgrad oder Langzeithäufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 317
Zufälligkeiten und Regelmäßigkeiten: Frisch und der Schaukelstuhl . 323
Mittel gegen die Krise: Das Modell von Tinbergen . . . . . . . . . . . . . . . . 328
Ingenieure und Logiker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
Über den richtigen Gebrauch der Anpassung . . . . . . . . . . . . . . . . . . . . 336
Autonomie und Realismus von Strukturen . . . . . . . . . . . . . . . . . . . . . . 343
Drei Methoden zur Berechnung des Nationaleinkommens . . . . . . . . . . 347
Theorien testen oder Diversität beschreiben? . . . . . . . . . . . . . . . . . . . . 351

Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen . . . . . . . . . 359


Ein zu praktischen Zwecken konstruierter kognitiver Raum . . . . . . . . 360
Mittelwerte und Regelmäßigkeiten, Skalen und Verteilungen . . . . . . . 363
Ein Raum für Verhandlungen und Berechnungen . . . . . . . . . . . . . . . . . 368
Statistische Argumentation und soziale Debatten . . . . . . . . . . . . . . . . . 372

Nachwort: Wie schreibt man Bücher, die Bestand haben? . . . . . 375


Einige zwischen 1993 und 2000 veröffentlichte Arbeiten . . . . . . . . . . . 375
Wie verbindet man die Aspekte der Geschichte der Statistik? . . . . . . 378
Wie bedienen sich die Sozialwissenschaften dieser Aspekte? . . . . . . . . 380
Kritiken und Diskussionsthemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385

Anhang: Abkürzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393

Namensverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
Einleitung: Soziale Tatbestände als Dinge

Arbeitslosigkeit, Inflation, Wachstum, Armut, Fertilität – diese Objekte und


ihre statistischen Messungen dienen als Anhaltspunkte zur Beschreibung öko-
nomischer Situationen, zur Denunziation3 sozialer Ungerechtigkeiten und zur
Rechtfertigung politischer Aktionen. Diese Anhaltspunkte sind Bestandteil
routinemäßiger Anwendungen, die zur Formung der Realität der beschriebe-
nen Landschaft beitragen, indem sie eine stabile und weitgehend akzeptierte
Sprache liefern, in der sich die Debatte ausdrückt. Aber die Anwendungen
implizieren ein Paradoxon. Die Bezugspunkte, das heißt die Objekte, müssen
als unanfechtbar wahrgenommen werden und über dem Streit stehen. Wie
also soll eine Debatte angelegt sein, die sich um genau die obengenannten
Objekte dreht? Fragen dieser Art werden oft im Zusammenhang mit Denun-
ziationen aufgeworfen. Lügt die Statistik? Wie groß ist die tatsächliche Anzahl
der Arbeitslosen? Welches ist der wahre Fertilitätsrate? Als Bezugspunkte der
Debatte sind die betreffenden Messungen ebenfalls Gegenstand der Debatte.
Die Kontroversen lassen sich in zwei Kategorien einteilen, je nachdem, ob
sie sich nur auf die Messung beziehen oder ob sie das Objekt selbst betreffen.
Im ersten Fall ist die Realität des zu messenden Dings von der Meßtätigkeit
unabhängig. Die Realität wird nicht infrage gestellt. Die Diskussion dreht sich
um die Art und Weise, in der die Messung erfolgt und um die Zuverlässigkeit“

des statistischen Prozesses auf der Grundlage der von den physikalischen Wis-
senschaften oder von der Industrie gelieferten Modelle. Im zweiten Fall faßt
man jedoch die Existenz und die Definition des Objekts als Konventionen
auf, über die man diskutieren kann. Die Spannung zwischen diesen beiden
Standpunkten – der eine betrachtet die zu beschreibenden Objekte als reale
Dinge, der andere hingegen als Ergebnis von Konventionen – ist schon seit
langem Bestandteil der Geschichte der Humanwissenschaften, ihrer jeweili-
3
Für genauere Ausführungen zur Bedeutung des hier durchgehend verwendeten
Begriffs Denunziation“ verweisen wir auf das Buch Homo academicus von Bour-

dieu, 1988, [357]. (Die Zahlen in eckigen Klammern beziehen sich auf das Litera-
turverzeichnis am Ende des Buches.)
2 Einleitung: Soziale Tatbestände als Dinge

gen sozialen Anwendungen und der einschlägigen Debatten. Im vorliegenden


Buch analysieren wir die Beziehung zwischen diesen beiden Interpretationen:
es ist schwierig, sich gleichzeitig vorzustellen, daß die gemessenen Objekte
tatsächlich existieren und daß es sich dabei dennoch nur um Konventionen
handelt.
Die erste und grundlegende Regel besteht darin, die sozialen Tatbestände4

als Dinge zu behandeln“. Mit dieser seiner 1894 aufgestellten Regel der sozio-
logischen Methode stellte Durkheim die Sozialwissenschaften in eine Perspek-
tive der Objektivierung wie sie für die Naturwissenschaften charakteristisch
ist. Aber die Formulierung ist zweideutig. Die Durkheimsche Regel läßt sich
auf zweierlei Weise lesen. Zum einen als Realitätsbestätigung und zum an-
deren als methodologische Herangehensweise: Die sozialen Tatbestände sind

Dinge“ oder Die sozialen Tatbestände müssen so behandelt werden, als ob

sie Dinge wären“. Bei der zweiten Lesart liegt die Betonung auf den Wörtern
behandeln und als ob. Diese Wörter implizieren eine instrumentalistische Ein-
stellung, bei der die Frage nach der Realität der Dinge eine untergeordnete
Rolle spielt. Hier zählen die Prozedur und die diesbezüglichen Konventionen,
mit denen so getan wird als ob“.

Diese Schwierigkeiten ähneln denjenigen, mit denen sich die Erfinder der
statistischen Ausdrucksweisen konfrontiert sahen, welche es uns ihrerseits
ermöglichen, die sozialen Tatbestände in Dingen zu konstituieren. Heute stützt
sich die Sprache der Statistik auf klar formalisierte synthetische Begriffe: Mit-
telwerte, Standardabweichungen, Wahrscheinlichkeit, Äquivalenzklassen, Kor-
relation, Regression, Stichproben, Nationaleinkommen, Schätzungen, Tests,
Residuen, Maximum-Likelihood-Methode, simultane Gleichungen. Studenten,
Forscher oder Anwender von statistischen Daten bekommen kompakte Begrif-
fe in die Hand, die in knappe und ökonomische Formeln gegossen sind. Diese
Werkzeuge sind jedoch ihrerseits das Ergebnis eines historischen Entstehungs-
prozesses, der von Phasen des Zauderns, von Neuübersetzungen und Interpre-
tationskonflikten durchsetzt ist. Zur Meisterung dieser Werkzeuge muß sich
der Lernende Fragen stellen, die über Jahrzehnte oder sogar Jahrhunderte
diskutiert worden sind – und er muß diese Fragen in kurzer Zeit beantworten.
Die Weiterführung dieser Debatten ist nicht nur das Ergebnis einer gelehr-
ten Neugier, die gleichsam als gefühlsmäßige Zulage bei der Aneignung von
formalisierten Techniken in Erscheinung tritt, sondern stellt eine Orientie-
rung und eine Hilfe im Prozeß des Lernens und des Verstehens bereit. Die
Hindernisse, denen sich die Innovatoren von gestern bei der Transformation
von sozialen Tatbeständen in Dinge gegenübergestellt sahen, gleichen denje-
nigen Hindernissen, die auch heute noch einen Studenten stören können und
zur Erschwerung der gleichzeitigen Vorstellung der beiden Interpretationen
– das heißt der realistischen und der nichtrealistischen Interpretation – der
4
Der französische Begriff fait social“ und seine englische Entsprechung social
” ”
fact“ werden im Deutschen auch durch soziologischer Tatbestand“ wiedergege-

ben.
Einleitung: Soziale Tatbestände als Dinge 3

Durkheimschen Regel beitragen. Die Geschichte vermittelt uns ein Verständ-


nis dessen, auf welche Weise die sozialen Tatbestände zu Dingen geworden
sind – und zwar für jeden, der statistische Techniken anwendet.
Diese Techniken sollen wissenschaftliche und politische Argumente unter-
mauern. Die Entstehungsgeschichte der Techniken ermöglicht es uns, die alten
Kontroversen und Debatten zurückzuverfolgen und dadurch einen Raum zu
skizzieren, in dem die technische Sprache und deren Anwendung in der sozialen
Debatte miteinander verknüpft werden. Statistische Argumente können nur
dann in eine reflexive Wissenschaftskultur reintegriert werden, wenn wir auf
die Begriffsübertragungen und Debatten zurückkommen und dabei die Pfa-
de der Ungewißheit und die Momente der Innovation wiederentdecken. Diese
Vorgehensweise führt dazu, daß es zu ständig neuen Verbindungen zwischen
den alten Schemata kommt.
Die Werkzeuge der Statistik ermöglichen die Entdeckung oder die Erschaf-
fung von Entitäten, auf die wir uns zur Beschreibung der Welt stützen und
dabei Einfluß auf den Gang der Dinge nehmen. Von diesen Objekten können
wir sagen, daß sie gleichzeitig real und konstruiert sind, sobald sie in anderen
Zusammenhängen wiederholt verwendet werden und unabhängig von ihrem
Ursprung zirkulieren. Damit teilen diese Objekte das Schicksal zahlreicher an-
derer Produkte. Wir rufen die Geschichte und die Soziologie der Statistik auf
den Plan, um die Art und Weise zu verfolgen, in der die betreffenden Objek-
te geschaffen und wieder abgeschafft werden, wobei man sie zur Förderung
von Wissen und Handeln in eine realistische oder nicht-realistische Rhetorik
einkleidet. In Abhängigkeit vom jeweiligen Fall wird der antirealistische (oder
einfach nicht-realistische) Standpunkt als nominalistisch, relativistisch, instru-
mentalistisch oder konstruktivistisch bezeichnet. Es gibt zahlreiche mögliche
Einstellungen in Bezug auf wissenschaftliche (insbesondere statistische) Kon-
struktionen. Die Auffassungen unterscheiden sich häufig sowohl in theoreti-
scher als auch in praktischer Hinsicht. Dieser Umstand legt es nahe, nicht
Partei für eine dieser Einstellungen zu ergreifen, um die anderen zu denunzie-
ren. Vielmehr kann es sich als fruchtbarer erweisen, diejenigen Umstände zu
untersuchen, unter denen sich jede der genannten Sichtweisen auf kohärente
Weise in ein allgemeines Gefüge, in ein Netz von Aufzeichnungen einordnen
läßt.
Die Frage nach der Realität hängt mit der Solidität dieses Netzes und des-
sen Widerstandsfähigkeit gegenüber Kritik zusammen. Je umfassender und
dichter dieses Netz ist, desto realer ist es. Die Wissenschaft ist ein unermeßli-
ches und unermeßlich reales Netz. Wahrscheinlichkeitsrechnung und Statistik
sind wesentliche Werkzeuge zur Auffindung, zur Konstruktion und zum Beweis
wissenschaftlicher Fakten – sowohl in den Naturwissenschaften als auch in den
Sozialwissenschaften. Nehmen wir die realistische und die nicht-realistische
Einstellung in Bezug auf die statistischen Techniken gleichermaßen ernst, dann
besteht die Möglichkeit, eine größere Vielfalt von Situationen zu beschreiben
– auf jeden Fall aber sind wir dann dazu in der Lage, überraschendere Ge-
4 Einleitung: Soziale Tatbestände als Dinge

schichten zu erzählen, als wenn wir eine Erzählungsform gewählt hätten, die
den einen oder den anderen Standpunkt bevorzugt.

Eine anthropologische Sicht auf die Wissenschaften

Als Untersuchungsobjekt nehmen wir uns diejenigen Praktiken vor, die Wis-
senschaft und Handeln in besonders spezifischer Weise miteinander verbinden.
Dabei werden wir nicht aufzeigen, wie diese Interaktion beschaffen sein sollte,
sondern wie sie – historisch und sozial – gewesen ist. Zu diesem Zweck müssen
wir Debattenkontexte und alternative oder konkurrierende Sprech- und Ver-
fahrensweisen rekonstruieren. Darüber hinaus müssen wir in den sich mit der
Zeit ändernden Kontexten auch Bedeutungsverschiebungen und Neuinterpre-
tationen von Objekten verfolgen. Auf diesem Untersuchungsgebiet geht es um
die Interaktion zwischen der Welt des Wissens und der Welt der Macht, zwi-
schen Beschreibung und Entscheidung, zwischen es gibt“ und wir müssen“ –
” ”
und genau aus diesem Grund besteht eine besondere Beziehung zur Geschich-
te, eine Beziehung, die der Forschungstätigkeit zeitlich vorausgeht. Man kann
sich auf die Geschichte berufen, um eine Tradition Wurzeln schlagen zu lassen,
um die Schilderung der Gründung einer Gemeinschaft zu pflegen und um die
Identität dieser Gemeinschaft zu bekräftigen. Die Geschichte kann aber auch
zu polemischen Zwecken in Momenten oder Situationen eines Konflikts oder
einer Krise angerufen werden, um irgendeinen verborgenen Aspekt zu denun-
zieren. Diese beiden Möglichkeiten, sich auf die Geschichte zu berufen, können
als einseitig oder partiell bezeichnet werden, denn sie sind an den jeweiligen
Intentionen ausgerichtet und werden in diesem Sinne geformt – im vorliegen-
den Fall durch die Absicht, eine Identität zu bestätigen oder zu denunzieren.
Dennoch ist es nicht möglich, die betreffenden Darstellungen in umfassender
Weise zu behandeln, denn sie sind immer viel zahlreicher und vielgestaltiger,
als wir es uns vorstellen können.
Andererseits können wir die Debattenräume und die Spannungslinien re-
konstruieren, an denen sich unterschiedliche Ansichten positionierten und mit-
einander vermischten. Das schließt die Rekonstruktion dieser Ansichten mit
Hilfe eines Vokabulars ein, das der Terminologie der Akteure ähnelt, wobei
dieses Vokabular gleichzeitig objektiviert, das heißt zum Vorschein gebracht
wird. Beispielsweise erwähnen wir, wie sich eine um ihre Tradition bemühte
Gemeinschaft auf die Geschichte beruft. Man hätte auch von Selbstzelebrie-

rung“ oder von einem apologetischen Diskurs“ sprechen können. Ich habe

jedoch den Begriff Identitätsbestätigung“ bevorzugt, denn das ist die Bedeu-

tung, welche die Akteure diesem historischen Brauch gegeben haben. Diese
Verwendungsweise bildet – ebenso wie der polemische Sprachgebrauch – das
Material für die gewünschte anthropologische Rekonstruktion. Es geht nicht
mehr darum, ob eine Schilderung wahr ist, sondern es geht um den Platz, den
diese Schilderung unter zahlreichen anderen einnimmt.
Eine anthropologische Sicht auf die Wissenschaften 5

Es besteht die Gefahr, im Überfluß dieser Schilderungen unterzugehen. Die


hier folgende Darstellung ist nicht linear geordnet, wie es bei der Geschichte
der aufgeklärten, über die Finsternis triumphierenden Wissenschaft der Fall
ist. Bei der linearen Darstellungsweise erscheint die Beschreibung der Ver-
gangenheit als Sortierverfahren, das bereits vorhandene Dinge von noch nicht
existierenden Dingen trennt, oder aber als Methode, mit deren Hilfe man nach
Vorgängern sucht. Anstelle der Definition einer unzweideutigen Richtung des
Fortschritts durch Ordnen und Beschreiben sukzessiver Konstrukte gebe ich
in der Einleitung einige Spannungslinien an, die in der einen oder anderen
Weise zur Strukturierung der aufgetretenen Debatten geführt haben. Zu be-
achten ist, daß die Gegensätze im Laufe der Zeit Schwankungen unterworfen
sind. Es handelt sich dabei häufig um Rückübersetzungen oder Metamorpho-
sen der jeweiligen Begriffe: Beschreibung und Entscheidung, objektive und
subjektive Wahrscheinlichkeiten, Frequentismus und Epistemismus, Realis-
mus und Nominalismus, Meßfehler und natürliche Streuung. Es ist jedoch kein
vollständiges Verständnis der in dieser Einleitung genannten Themen erfor-
derlich, um die nachfolgenden Kapitel zu lesen. Ich versuche hier einfach nur,
einen Zusammenhang zwischen scheinbar disparaten Elementen von Schilde-
rungen herzustellen und wende mich dabei an Leser, die einen gleichermaßen
vielfältigen kulturellen Hintergrund haben. Die Diversität, die das Unterfan-
gen so schwierig macht, hängt mit dem Stellenwert der statistischen Kultur
in der wissenschaftlichen Kultur und dem Stellenwert der wissenschaftlichen
Kultur in der allgemeinen Kultur zusammen. Diese Diversität ist Bestandteil
des hier zu untersuchenden Objekts.
Die Geschichte und die Soziologie der Wissenschaften werden seit langem
von zwei extrem unterschiedlichen – wenn nicht gar konträren – Standpunkten
aus untersucht, die man als internalistisch“ bzw. externalistisch“ bezeich-
” ”
net. Der internalistische Standpunkt besagt, daß es sich um die Geschichte
des Wissens handelt, um die Geschichte der Instrumente und der Resulta-
te, um die Geschichte der Sätze und ihrer Beweise. Diese Geschichte wird
von den Spezialisten der jeweiligen Disziplinen geschrieben (das heißt von
Physikern, Mathematikern u.a.). Im Gegensatz hierzu geht es beim externa-
listischen Standpunkt um die Geschichte der sozialen Bedingungen, die den
Lauf der erstgenannten Geschichte ermöglicht oder auch erschwert haben:
Labors, Institutionen, Finanzierungen, individuelle wissenschaftliche Karrie-
ren und Beziehungen zur Industrie oder zur Staatsmacht. Diese Geschich-
te wird üblicherweise von Historikern und von Soziologen geschrieben. Die
Beziehungen zwischen der internalistischen und der externalistischen Auffas-
sung sind Gegenstand zahlreicher Debatten und blicken ihrerseits auf eine
komplexe Geschichte zurück (Pollak, 1985, [235]). In den 1950er und 1960er
Jahren predigte beispielsweise Merton eine deutliche Aufgabentrennung. Er
untersuchte die normalen Funktionsregeln einer effizienten Wissenschaftsge-
meinde: Professionalisierung, Institutionalisierung und Forschungsautonomie,
6 Einleitung: Soziale Tatbestände als Dinge

Rivalität zwischen den Forschern, Transparenz der Ergebnisse, Beurteilungen


durch Peergruppen5 .
Mit Beginn der 1970er Jahre stellte man diese Arbeitsteilung sowohl in
Großbritannien (Bloor, 1982, [17]) als auch in Frankreich (Callon, 1989, [42];
Latour, 1989, [167]) infrage. Das starke Programm“ dieser Autoren richtete

das Scheinwerferlicht auf die im Entstehen begriffene“ Wissenschaft. Dabei

wurde die Gesamtheit der praktischen wissenschaftlichen Operationen berück-
sichtigt, einschließlich der Operationen innerhalb eines Labors. Diese Opera-
tionen werden durch die Registrierung und Konsolidierung von Objekten und
durch die Schaffung immer umfassenderer und dauerhafterer Netze von Alli-
anzen beschrieben – Allianzen, die zwischen den Objekten und den Menschen
geschmiedet werden. Aus dieser Sicht verschwindet der Unterschied zwischen
technischen und sozialen Objekten, welcher der Trennung zwischen interna-
listischer und externalistischer Geschichtsauffassung zugrunde liegt, und die
Soziologie untersucht die Gesamtheit der betreffenden Objekte und Netze.
Insbesondere in wissenschaftlichen Kreisen hat diese Forschungslinie einige
Autoren vor den Kopf gestoßen: sie zeichnet sich nämlich u.a. dadurch aus,
daß sie die Frage nach der Wahrheit als nachgeordnet betrachtet. Bei der im
Entstehen begriffenen Wissenschaft (hot science) ist die Wahrheit noch ein
Streitobjekt, ein Debattengegenstand. Nur allmählich, wenn sich die Wissen-
schaft wieder abkühlt“, werden gewisse Ergebnisse durch Einkapselung“ zu
” ”
anerkannten Tatsachen“, während andere gänzlich verschwinden.

Dieses Programm hat Anlaß zu Mißverständnissen gegeben. Positioniert
man nämlich die Frage nach der Wahrheit dermaßen außerhalb des jeweiligen
Gebietes und favorisiert man auf diese Weise die Analyse derjenigen sozia-
len Mechanismen, die dem Kampf um die Überführung gewisser Resultate
in anerkannte Fakten zugrundeliegen, dann hat es den Anschein, als negie-
re man die Möglichkeit einer Wahrheit überhaupt und bevorzuge stattdessen
eine Art Relativismus, bei dem alles zu einer Frage der Meinung oder des
Kräfteverhältnisses wird. Die Richtung des Programms ist jedoch subtiler.
Denn der Durkheimsche Wahlspruch Man muß die sozialen Tatbestände als

Dinge behandeln“ darf nicht nur als Realitätsaussage aufgefaßt werden, son-
dern ist auch als methodologische Entscheidung anzusehen. Wir können dieser
Forschungslinie auch folgen, um andere Dinge aufzuzeigen. Auf dem Gebiet
der Wahrscheinlichkeitsrechnung und der Statistik, wo sich schon immer die
Probleme des Staates und der Entscheidungsfindung mit den Problemen des
Wissens und der Erklärung vermischt haben, drängt sich die Herausforderung
eines Programms, das über die Trennung zwischen internalistischer“ und ex-
” ”
5
Unter Peergruppe (engl. peer group) ist hier eine Gleichrangigengruppe“ zu ver-

stehen.
Beschreibung und Entscheidung 7

ternalistischer“ Geschichte hinausgeht, sogar noch zwingender auf, als es in


der theoretischen Physik und in der Mathematik der Fall ist.6

Beschreibung und Entscheidung

Die Spannung zwischen diesen beiden Standpunkten, das heißt zwischen dem
deskriptiven und dem präskriptiven Standpunkt, kann in einer Geschichte
der Wahrscheinlichkeitsrechnung und der statistischen Techniken als Triebfe-
der der Schilderung verwendet werden. Die Rationalität einer Entscheidung
– ganz gleich, ob sie individuell oder kollektiv getroffen wird – hängt mit der
Fähigkeit zusammen, auf Dingen aufzubauen, die eine stabile Bedeutung ha-
ben: dadurch wird es möglich, Vergleiche durchzuführen und Äquivalenzen
aufzustellen. Diese Forderung gilt gleichermaßen für jemanden, der die zeit-
liche Kontinuität seiner Identität garantieren möchte (zum Beispiel bei der
Übernahme von Risiken, beim Verleihen von Geld gegen Zinsen, bei Versiche-
rungen und bei Wetten), wie auch für Personen, die – ausgehend vom gesunden
Menschenverstand und von objektiven Gegebenheiten – all das konstruieren
möchten, was die Garantie einer sozialen Existenz ermöglicht, die über die
individuellen Kontingenzen hinausgeht. Eine Beschreibung läßt sich also mit
einer Geschichte vergleichen, die von einer Person oder von einer Gruppe von
Personen erzählt wird – mit einer hinreichend stabilen und objektivierten Ge-
schichte, die sich unter anderen Umständen erneut und insbesondere dazu
verwenden läßt, Entscheidungen zu untermauern, die man für sich selbst oder
für andere trifft.
Das galt bereits für Beschreibungsformen, die allgemeiner waren als die-
jenigen, die sich seit dem späten 17. Jahrhundert aus den Techniken der
Wahrscheinlichkeitsrechnung und der Statistik entwickelt hatten: zum Bei-
spiel für Beschreibungen, die auf einem theologischen Fundament ruhten. Mit
der Gründung wissenschaftlicher Akademien, mit dem Auftreten professionel-
ler Gelehrter und mit der Durchführung von reproduzierbaren – und somit
vom Experimentator unabhängigen – Versuchen entstand im 17. Jahrhundert
eine neue Art von Objektivität. Diese Objektivität hing mit der sozialen und
argumentativen Autonomie eines neuen Beschreibungsraumes zusammen, den
die Wissenschaft liefert. Die Sprache der Wissenschaft stützt ihre Originalität
auf ihre Unabhängigkeit von anderen Sprachen – den Sprachen der Religion,
des Rechts, der Philosophie und der Politik – und hat deswegen eine wi-
dersprüchliche Beziehung zu diesen Sprachen. Die Sprache der Wissenschaft
macht einerseits eine Objektivität und somit eine Universalität geltend, die –
falls dieser Anspruch erfolgreich durchgesetzt wird – auch Anhaltspunkte und
allgemeine Bezugspunkte für die Debatte über andere Räume bereitstellt: das
6
Aber nicht alle Forscher treffen diese Wahl. Zum Beispiel ist das ungemein nütz-
liche Werk von Stephen Stigler (1986, [267]) zur Geschichte der mathematischen
Statistik des 19. Jahrhunderts hauptsächlich internalistisch angelegt.
8 Einleitung: Soziale Tatbestände als Dinge

ist der Aspekt der unanfechtbaren Wissenschaft“. Andererseits kann diese



Autorität, die ihre Berechtigung im eigentlichen Prozeß der Objektivierung
und in ihren strikten Forderungen nach Universalität findet, nur dann aus-
geübt werden, wenn sie Bestandteil der Gesamtheit der Handlungen, der Ent-
scheidungen und der Transformationen der Welt ist. Diese Autorität ist der
Motor des Prozesses – und sei es nur durch die zu lösenden Fragen, durch die
mit diesen Fragen zusammenhängenden mentalen Strukturen und durch die
materiellen Mittel zur dauerhaften Erfassung neuer Dinge in übertragbaren
Formen.
Es geht also nicht darum, zu wissen, ob man sich eine reine – das heißt eine
von ihren unreinen“ Anwendungen autonomisierte – Wissenschaft schlicht-

weg vorstellen kann, und sei es nur als ein unerreichbares Ideal. Vielmehr
geht es um die Untersuchung der Art und Weise, in der die zwischen dem
Objektivitäts- und Universalitätssanspruch und dem festen Zusammenhang
zum Handlungsuniversum bestehende Spannung die Quelle für die eigentliche
Dynamik der Wissenschaft und für die Transformationen und Rücküberset-
zungen ihrer kognitiven Schemata und ihres technischen Instrumentariums
darstellt. In der Geschichte der Wahrscheinlichkeitsrechnung und der Stati-
stik, die nacheinander mit der Zähmung“ von Risiken, der Verwaltung von

Staaten, der Beherrschung der biologischen und ökonomischen Reproduktion
von Gesellschaften, aber auch mit der Kontrolle der militärischen und admini-
strativen Tätigkeiten zusammenhing, wimmelt es von Beispielen für derartige
Transformationen. Im Falle der Wahrscheinlichkeitsrechnung haben wir den
Übergang vom Begriff des Glaubensgrundes“ zum Begriff des Häufigkeitsli-
” ”
mits bei einer größeren Anzahl von Ziehungen“ (Kapitel 2); im Falle der sta-
tistischen Techniken stellen wir die Rückübersetzung der Interpretation von
Mittelwerten und der Methode der kleinsten Quadrate fest – von der Feh-
lerrechnung in der Astronomie und dem Durchschnittsmenschen“ (homme

moyen) von Quetelet (Kapitel 3) bis hin zur Vererbungsanalyse von Pearson
und zur Armutsanalyse von Yule (Kapitel 4).
Die komplexe Verbindung zwischen dem präskriptiven und dem deskripti-
ven Standpunkt kommt besonders deutlich in der Geschichte der Wahrschein-
lichkeitsrechnung zum Ausdruck, wo man dem immer wiederkehrenden Ge-
gensatz zwischen subjektiver und objektiver Wahrscheinlichkeit begegnet. In
einer anderen Terminologie ist es der Widerspruch zwischen epistemischer
und frequentistischer Wahrscheinlichkeit (Hacking, 1975, [117]). Aus episte-

mischer“ Sicht handelt es sich um einen Glaubensgrad. Die Ungewißheit der
Zukunft und die Unvollständigkeit unseres Wissens über das Universum impli-
zieren Wetten über die Zukunft und über das Universum. Die Wahrscheinlich-
keitsrechnung gibt rationalen Menschen Verhaltensregeln in die Hand, wenn
Informationen fehlen. Aus frequentistischer“ Sicht liegen dagegen Diversität

und Zufall in der Natur selbst begründet und sind nicht einfach nur das Er-
gebnis unvollständigen Wissens. Es handelt sich um externe, vom Menschen
unabhängige Faktoren, die zum Wesen der Dinge gehören. Der Wissenschaft
kommt die Aufgabe zu, die beobachteten Häufigkeiten zu beschreiben.
Beschreibung und Entscheidung 9

Die beiden Wahrscheinlichkeitsauffassungen sind durch zahlreiche Kon-


struktionen miteinander verknüpft worden. Zunächst gibt es, beginnend mit
Jakob Bernoulli (1713), unterschiedliche Formulierungen des Gesetzes der

großen Zahlen“. Dieses Gesetz ist der Grundpfeiler, der die beiden Standpunk-
te miteinander verbindet – unter dem wichtigen Vorbehalt, daß sich zufällige
Ereignisse unter identischen Bedingungen beliebig reproduzieren lassen (zum
Beispiel Kopf oder Zahl“ beim Werfen einer Münze oder die Augen“ bei
” ”
Würfelspielen). Das ist jedoch nur ein äußerst geringer Teil der Situationen,
deren Ausgang ungewiß ist. In anderen Situationen führt der Satz von Bayes
(1765, [10]), der die partiellen Informationen beim Auftreten einiger weniger
Ereignisse mit der Hypothese einer A-priori -Wahrscheinlichkeit“ verknüpft,

zu einer besser gesicherten A-posteriori-Wahrscheinlichkeit“, welche die Ra-

tionalität einer Entscheidung erhöht, die auf einem unvollständigen Wissen
beruht. Die vom Standpunkt der Verhaltensrationalisierung plausible (epi-
stemische) Argumentation ist aus deskriptiver (frequentistischer) Sicht nicht
mehr plausibel, bei der eine A-priori -Wahrscheinlichkeit“ keine Grundlage

hat. Diese Spannung zieht sich durch die gesamte Geschichte der Statistik
und ist der Dreh- und Angelpunkt für den Gegensatz zwischen den beiden
Auffassungen: in dem einen Fall veranlaßt man“ etwas, da eine Entschei-

dung getroffen werden muß; im anderen Fall gibt man sich nicht mit einer
ungerechtfertigten Hypothese zufrieden, die nur als Anleitung zum Handeln
gedacht ist.
Die Diskussion über den Wissensstand, der von den ab Mitte des 19. Jahr-
hunderts gegründeten statistischen Bureaus akkumuliert wurde, hängt eben-
falls mit der Spannung zwischen den beiden Auffassungen – das heißt zwischen
dem präskriptiven und dem deskriptiven Standpunkt – zusammen. Die admi-
nistrative Produktionstätigkeit statistischer Information befand sich von ihren
frühesten Ursprüngen an – aufgrund ihrer Ansprüche, ihrer Funktionsregeln
und wegen ihrer öffentlich angekündigten Finalität – in einer ungewöhnlichen
Position: sie kombinierte die Normen der Welt der Wissenschaft mit denen
des modernen, rationalen Staates, also mit Normen, die sich auf die Bedienung
des allgemeinen Interesses und der Effizienz konzentrieren. Die Wertesysteme
dieser beiden Welten sind nicht antinomisch, unterscheiden sich aber dennoch
voneinander. Die Ämter für öffentliche Statistik kombinieren in subtiler Weise
diese beiden Autoritätstypen, die von der Wissenschaft und vom Staat getra-
gen werden (Kapitel 1, 5 und 6).
Wie die Etymologie des Wortes zeigt, hängt die Statistik mit dem Aufbau
des Staates, mit dessen Vereinheitlichung und seiner Verwaltung zusammen.
All das beinhaltet die Aufstellung von allgemeinen Formen, Äquivalenzklassen
und Nomenklaturen, die über die Singularitäten der individuellen Situationen
hinausgehen – sei es durch die Kategorien des Rechts (juristischer Standpunkt)
oder durch Normen und Standards (Standpunkt der Verwaltungsökonomie
und der wirtschaftlichen Effektivität). Der Kodierungsvorgang, bei dem ei-
ne Zuordnung von Einzelfällen zu Klassen erfolgt, ist eines der wesentlichen
Merkmale des Staates, die er durch und über seine Behörden zum Ausdruck
10 Einleitung: Soziale Tatbestände als Dinge

bringt. Beide Vorgänge, das heißt die Definition von Äquivalenzklassen und die
Kodierung, sind die konstituierenden Schritte der statistischen Arbeit (Kapitel
8). Diese Arbeit ist nicht nur ein Nebenprodukt der Verwaltungstätigkeit zum
Zweck des Wissenserwerbs, sondern wird auch direkt durch diese Tätigkeit
konditioniert, wie man anhand der Geschichte der Zählungen, Stichprobener-
hebungen (Kapitel 7), Indizes und der volkswirtschaftlichen Gesamtrechnung
erkennt – alles untrennbar miteinander verbundene Erkenntnis- und Entschei-
dungsinstrumente.
Der Zusammenhang zwischen Beschreibung und Verwaltung kommt deut-
lich zum Vorschein, wenn mehrere Staaten – wie es heute in der Europäischen
Union der Fall ist – ihre Steuergesetzgebung, Sozialgesetzgebung und Wirt-
schaftsgesetzgebung harmonisieren, um den freien Verkehr von Menschen,
Gütern und Kapital zu ermöglichen. Ein Vergleich der statistischen Systeme
bringt zahlreiche Unterschiede an den Tag, deren Harmonisierung eine gewal-
tige Arbeit bedeutet, die mit dem Aufwand zur Vereinheitlichung der Ge-
setzesvorschriften, Normen und Standards verglichen werden kann. Die Kon-
struktion eines politischen Raumes impliziert und ermöglicht die Schaffung
eines einheitlichen Meßraumes, in dem man die Dinge vergleichen kann, weil
die Kategorien und die Kodierungsverfahren identisch sind. So war die Arbeit
an der Standardisierung des Territoriums eine der wesentlichen Aufgaben der
Französischen Revolution von 1789 mit ihrem einheitlichen System der Maße
und Gewichte, mit der Aufteilung des Territoriums in Departements, mit der
Schaffung eines säkularen Zivilstaates und eines Bürgerlichen Gesetzbuches.

Wie man dauerhafte Dinge macht

Die moderne Statistik ist das Ergebnis der Vereinigung wissenschaftlicher


und administrativer Praktiken, die ursprünglich weit voneinander entfernt
waren. In diesem Buch versuche ich, Schilderungen miteinander zu verbinden,
die üblicherweise getrennt voneinander behandelt werden: die technische Ge-
schichte der kognitiven Schemata sowie die Sozialgeschichte der Institutionen
und der statistischen Quellen. Der Faden, der diese Schilderungen miteinan-
der verknüpft, ist die – in einem kostspieligen Investitionsprozeß verlaufende
– Herstellung von technischen und sozialen Formen, die einen Zusammenhalt
unterschiedlicher Dinge ermöglichen und dadurch Dinge anderer Ordnung her-
vorbringen (Thévenot, 1986, [273]). Ich gebe im Folgenden eine schematische
Zusammenfassung dieser Forschungslinie, die im vorliegenden Buch entwickelt
wird.
In den beiden scheinbar voneinander verschiedenen Gebieten der Geschich-
te des wahrscheinlichkeitstheoretischen Denkens und der Verwaltungsstatistik
hat man die Ambivalenz einer Arbeit betont, die gleichzeitig auf Wissen und
Handeln, auf Beschreiben und Vor schreiben ausgerichtet ist. Es geht hierbei
um zwei verschiedene Aspekte, die einander bedingen, und es ist unbedingt
notwendig, zwischen beiden zu unterscheiden: weil das Objektivierungsmo-
Wie man dauerhafte Dinge macht 11

ment autonomisierbar ist, kann das Handlungsmoment auf festgefügten Ob-


jekten aufbauen. Der Zusammenhang, der die Welt der Wissenschaft mit der
Welt der Praxis verbindet, ist demnach die Objektivierungsarbeit, das heißt
die Erzeugung von Dingen, die dauerhaft sind – entweder weil man sie vorher-
sehen kann oder weil ihre Unvorhersehbarkeit dank der Wahrscheinlichkeits-
rechnung in gewissem Grad beherrschbar ist. Dieser Umstand macht die Be-
ziehung verständlich, die zwischen der Wahrscheinlichkeitsrechnung – mit den
einschlägigen Überlegungen zu Glücksspielen7 und Wetten – und den makro-
skopischen Beschreibungen der Staatsstatistiken besteht. Beide Bereiche ha-
ben sich in Abhängigkeit von der jeweiligen Zeit immer wieder überschnitten
und berührt; zu anderen Zeiten wiederum strebten sie auseinander. Bereits im
18. Jahrhundert kam es zu einer Überschneidung, als die Sterbetafeln zum Be-
zugsrahmen für Versicherungssysteme wurden; ein anderes Beispiel sind die
Bevölkerungsschätzungen des französischen Königreichs durch Laplace, der
von einer Stichprobe“ ausging, die sich auf einige Kirchengemeinden bezog

(Kapitel 1).
Die umfassende Verbreitung des Arguments, das den wahrscheinlichkeits-
theoretischen Diskurs mit statistischen Beobachtungen verbindet, war jedoch
das Verdienst von Quetelet in den 1830er und 1840er Jahren. Mit dem Begriff
des Durchschnittsmenschen stellte das Queteletsche Konstrukt einen Zusam-
menhang zwischen dem zufälligen, unvorhersehbaren Aspekt des individuellen
Verhaltens und der Regelmäßigkeit – also auch der Vorhersehbarkeit – der
statistischen Totalisierung8 der individuellen Handlungen her. Das Konstrukt
stützt sich einerseits auf die Allgemeingültigkeit der Gaußschen Wahrschein-
lichkeitsverteilung (das heißt des künftigen Normalgesetzes“) und anderer-

seits auf die Reihen der Moralstatistik“ (Heiraten, Verbrechen, Selbstmorde),

die von den statistischen Bureaus erstellt wurden. Diese Argumentation ließ
das wahrscheinlichkeitstheoretische Denken für lange Zeit von seiner subjek-
tiven, epistemischen Seite (Stichwort: Glaubensgrund“) in Richtung seiner

objektiven, frequentistischen Seite ausschlagen: im Gegensatz zum Chaos und
zur Unvorhersehbarkeit der individuellen Handlungen lieferte die statistische
Regelmäßigkeit von Mittelwerten ein extrem leistungsstarkes Objektivierungs-
instrument. Kapitel 3 ist der Analyse dieses wesentlichen Ansatzes gewidmet.
Die durch die Berechnung von Mittelwerten erzeugten Dinge sind mit ei-
ner Stabilität ausgestattet, welche die Anforderungen und die Methoden der
Naturwissenschaften in den Humanwissenschaften einführt. Man kann den
Enthusiasmus verstehen, den diese Möglichkeit zwischen 1830 und 1860 unter
denjenigen Akteuren auslöste, die statistische Bureaus gründeten und inter-
7
Der Zufall ist in allen Glücksspielen der bestimmende Faktor und es sei hier daran
erinnert, daß hasard“ das französische Wort für Zufall“ ist und daß Glücks-
” ” ”
spiel“ auf Französisch jeu de hasard“ ( Hasardspiel“) heißt. Das Wort Hasard“
” ” ”
ist über das Französische ins Deutsche gekommen und geht letztlich auf das ara-
bische az-zahr“ zurück, was Spielwürfel“ bedeutet (vgl. Osman [420]).
8 ” ”
Unter Totalisierung“ ist hier die Zusammenfassung unter einem Gesamtaspekt“
” ”
zu verstehen.
12 Einleitung: Soziale Tatbestände als Dinge

nationale Kongresse organisierten, um die neue, universelle Sprache zu propa-


gieren und die Registrierungsverfahren9 zu vereinheitlichen. Die Objektivie-
rungsarbeit liefert dauerhafte Dinge, auf denen die Verwaltung der sozialen
Welt beruht. Und die Objektivierungsarbeit ist das Ergebnis der Vereinigung
zweier unterschiedlicher Universen. Einerseits zielt das wahrscheinlichkeits-
theoretische Denken auf die Beherrschung der Unsicherheit ab. Andererseits
gestattet die Konstruktion administrativer und politischer Äquivalenzräume,
eine große Anzahl von Ereignissen auf der Grundlage von Standardnormen
aufzuzeichnen und zusammenzufassen. Ein Ergebnis dieses Vereinigungspro-
zesses ist die Möglichkeit, repräsentative Stichproben aus Urnen zu ziehen, um
sozioökonomische Phänomene auf der Grundlage von Stichprobenerhebungen
kostengünstiger zu beschreiben. Man verwendete politisch konstruierte Äqui-
valenzräume in der Praxis, bevor sie zu einem kognitiven Mittel wurden. Aus
diesem Grund konnten wahrscheinlichkeitstheoretische Verfahren der Ziehung
von Kugeln aus Urnen überhaupt erst entworfen und angewendet werden. Be-
vor man die Kugeln ziehen konnte, mußten die Urne und auch die Kugeln erst
einmal konstruiert werden. Darüber hinaus mußten die Nomenklaturen und
die Verfahren zur Klassifizierung der Kugeln geschaffen werden.
Die Konzentration der Aufmerksamkeit auf die Objektivierungsarbeit
ermöglichte es, die in der Wissenschaftssoziologie klassische Debatte zwischen
den Objektivisten und den Relativisten zu beenden. Für die Objektivisten
existieren die Objekte und die Aufgabe der Wissenschaft besteht darin, die
Struktur dieser Objekte zu klären. Für die Relativisten sind die Objekte das
Ergebnis einer von den Wissenschaftlern bewirkten Formgebung – andere
Formgebungen würden zu anderen Objekten führen. Falls nun eine Konstruk-
tion tatsächlich auftritt, dann ist sie Bestandteil des sozialen und historischen
Prozesses, über den die Wissenschaft Rechenschaft ablegen muß. Der Umfang
der in der Vergangenheit durchgeführten Forminvestition ist der entscheiden-
de Faktor, der die Solidität, die Dauerhaftigkeit und den Gültigkeitsraum der
so konstruierten Objekte konditioniert. Die Bedeutung dieses Begriffes be-
steht genau darin, die beiden Aspekte – das heißt den ökonomischen und den
kognitiven Aspekt – durch die Konstruktion eines Systems von Äquivalenzen
zu approximieren. Die Stabilität und die Permanenz der kognitiven Formen
hängen (in einem allgemeinen Sinne) vom Umfang der Investition ab, die diese
Formen hervorgebracht hat. Diese Beziehung ist von erstrangiger Wichtigkeit,
wenn man die Konstruktion eines statistischen Systems aufmerksam verfolgt
(Héran, 1984, [130]).
Die Konsistenz der Objekte wird mit Hilfe von statistischen Techniken
getestet, die aus Wahrscheinlichkeitsmodellen hervorgegangen sind. Der Sta-
tus derartiger Objekte ist Gegenstand von Debatten und die Wahlmöglichkeit
9
Im französischen Text ist hier von méthodes d’enregistrement“ die Rede. In

diesem Zusammenhang sei bemerkt, daß die Registrierbehörde in Frankreich den
Namen l’Enregistrement“ trägt; bei dieser Behörde müssen rechtlich wichtige

Verhältnisse registriert werden.
Wie man dauerhafte Dinge macht 13

zwischen der epistemischen oder frequentistischen Interpretation dieser Mo-


delle – ausgedrückt durch die Rationalisierung einer Entscheidung oder durch
eine Beschreibung – bleibt offen. Die Wahl einer Interpretation ist nicht das
Ergebnis einer philosophischen Debatte über das Wesen der Dinge, sondern
vielmehr das Ergebnis des Gesamtkonstruktes, in dem das Modell seinen Platz
findet. Es ist normal, daß die Akteure im täglichen Leben so argumentieren, als
ob die Objekte existierten; denn einerseits sorgt die vorhergehende Konstruk-
tionsarbeit im betrachteten historischen Handlungsraum für die Existenz der
Objekte und andererseits würde eine andere Sichtweise jegliche Einwirkung
auf die Welt verbieten.
Ebenso handelt es sich bei der Praxis der statistischen Anpassungen – die
darauf abzielt, die Parameter eines Wahrscheinlichkeitsmodells so zu berech-
nen, daß das beibehaltene Modell dasjenige ist, das den beobachteten Resul-
taten die größtmögliche Mutmaßlichkeit verleiht – um eine Art und Weise,
beide Interpretationen offen zu lassen. Die Berechnung eines arithmetischen
Mittels, das zur Maximierung der Glaubwürdigkeit eines Objekts führt, kann
als tatsächlicher Nachweis der Existenzberechtigung dieses Objekts aufgefaßt
werden – mit Abweichungen, die man als Fehler behandelt (von Quetelet
vertretene frequentistische Auffassung) – oder aber als Möglichkeit, die Be-
obachtungen zur Entscheidungsoptimierung zu verwenden (epistemische Auf-
fassung), wobei die Abweichungen als Streuung interpretiert werden.
Die Existenz eines Objekts ist das gleichzeitige Ergebnis eines sozialen
Aufzeichnungs- und Kodierungsverfahrens und eines kognitiven Formgebungs-
verfahrens, mit dem die Multiplizität auf eine kleine Anzahl von Merkma-
len reduziert wird, die man aus frequentistischer Sicht als Objektmerkmale
und aus epistemischer Sicht als Modellparameter bezeichnet. Trotz der Vor-
kehrungen, die ein guter Statistikdozent treffen muß, um seinen Studenten
die verschiedenen möglichen Festlegungen eines Wahrscheinlichkeitsmodells
zu vermitteln, gleiten der übliche Sprachgebrauch und die sozialen Anwen-
dungen dieser Methoden häufig von einer Interpretation zur anderen, ohne
überhaupt darauf zu achten. Die Wahl hängt mit der Konsistenz einer um-
fassenden Argumentation zusammen, bei der die statistischen Hilfsmittel ein
Element darstellen, das sich mit anderen rhetorischen Hilfsmitteln verbindet.
In Abhängigkeit vom jeweiligen Fall ist die Existenz eines Objekts normal
und notwendig, oder aber man kann und muß sich die Konstruktion dieses
Objekts ins Gedächtnis rufen. Diese Ambivalenz ist unvermeidlich, denn man
kann das Objekt nicht von seiner Anwendung trennen.
Die Frage nach der Konsistenz und Objektivität von statistischen Messun-
gen wird häufig gestellt. Mit der hier vorgeschlagenen Auffassung beabsichtige
ich, das stets wiederkehrende Dilemma zu vermeiden, dem sich der Zahlen-

konstrukteur“ ausgesetzt sieht, wenn er seiner Aufgabe vollständig gerecht
werden will. Einerseits stellt er klar, daß die Messung von den Konventionen
abhängt, die in Bezug auf die Objektdefinition und die Kodierungsverfahren
getroffen werden. Aber andererseits fügt er hinzu, daß seine Messung eine
Realität widerspiegelt. Paradoxerweise sind diese beiden Aussagen zwar un-
14 Einleitung: Soziale Tatbestände als Dinge

vereinbar, aber gleichwohl ist es unmöglich, eine andere Antwort zu geben.


Ersetzt man die Frage der Objektivität durch die der Objektivierung, dann
schafft man sich eine Möglichkeit, diesen Widerspruch anders zu sehen. Die
Realität erscheint nun als Produkt einer Reihe von materiellen Aufzeichnungs-
operationen – als ein Produkt, das umso realer ist, je umfassender diese Auf-
zeichnungen sind, das heißt je dauerhafter die (auf der Grundlage größerer
Investitionen getroffenen) Äquivalenzkonventionen sind. Diese Investitionen
erlangen aber nur in einer Handlungslogik eine Bedeutung, welche die schein-
bar kognitive Logik des Messens umfaßt. Betrachtet man das gemessene Ding
in Bezug auf eine derartige Handlungslogik, dann ist dieses Ding real, denn
die betreffende Handlung kann sich darauf stützen (was ein gutes Realitäts-
kriterium darstellt); gleichzeitig erweist sich das betreffende Ding im Rahmen
dieser Logik aber auch als konstruiert.

Zwei Arten der historischen Forschung

Die unterschiedlichen Verwendungen der Begriffe Statistik“ und Statistiker“


” ”
widerspiegeln die Spannung zwischen den Standpunkten in Bezug auf Rea-
lität und Methode. Für die einen ist Statistik eine administrative Tätigkeit
zur Aufzeichnung von Daten. Diese Daten führen ihrerseits zu unbestreitbaren
Zahlen, die in der sozialen Debatte aufgegriffen werden und eine Handlung de-
terminieren. Für die anderen handelt es sich bei Statistik um einen Zweig der
Mathematik, der an der Universität gelehrt und von anderen Wissenschaftlern
verwendet wird, zum Beispiel von Biologen, Ärzten, Ökonomen und Psycholo-
gen. Die Autonomisierung dieser beiden Bedeutungen geht bis an den Anfang
des 20. Jahrhunderts zurück, als die Techniken der Regression und der Korre-
lation routinemäßig angewendet und verbreitet wurden – beginnend mit dem
biometrischen Zentrum“ (Biometric and Francis Galton Eugenics Laborato-

ries) von Karl Pearson und der inferentiellen Statistik10 (Schätzungen, Tests,
Varianzanalyse), die im landwirtschaftlichen Experimentallabor von Ronald
Fisher entwickelt wurde. Seit dieser Zeit tritt die Statistik als Zweig der an-
gewandten Mathematik in Erscheinung.
Aber sogar noch früher war im Rahmen der Verwaltungsarbeit ein anderer
Beruf auf dem Weg dazu, Autonomie zu erlangen – der Beruf des Staatsstati-
stikers, der für die amtlichen statistischen Bureaus zuständig war und dessen
Sprecher und Organisator Quetelet vierzig Jahre lang gewesen ist. Bis in die
1940er Jahre waren die von diesen Dienststellen angewendeten mathemati-
schen Techniken rudimentär und beide Berufe unterschieden sich voneinander.
Diese Situation änderte sich in der Folgezeit mit der Anwendung der Stichpro-
benverfahren, der Ökonometrie und anderer Techniken, die immer vielfältiger
wurden. Aber die Autonomie der unterschiedlichen Fähigkeiten und Fertigkei-
10
Wir verwenden hier durchgehend den Begriff inferentielle Statistik“ anstelle von

schließender Statistik“ oder induktiver Statistik“.
” ”
Zwei Arten der historischen Forschung 15

ten blieb bestehen und trug dazu bei, die Spannung zwischen dem administra-
tiven und dem wissenschaftlichen Aspekt dieser Berufe aufrecht zu erhalten.
Das Ziel der Statistik besteht darin, die Vielfalt der Situationen zu reduzieren
und deren zusammenfassende Beschreibung zu liefern – eine Beschreibung,
die aufgezeichnet und als Grundlage des Handelns verwendet werden kann.
Das impliziert einerseits die Konstruktion eines politischen Äquivalenz- und
Kodierungsraumes und andererseits eine mathematische Behandlung, die sich
häufig auf die Wahrscheinlichkeitsrechnung stützt. Aber diese beiden Aspekte
der Statistik werden im Allgemeinen als zwei gesonderte Tätigkeiten angese-
hen und die Forschungsarbeiten zu deren Geschichte werden ebenfalls getrennt
voneinander durchgeführt.
Ich habe mich im vorliegenden Buch dazu entschlossen, diese beiden roten
Fäden gleichzeitig zu verfolgen, um ihre Wechselwirkungen und Verbindun-
gen genau zu untersuchen. Die Vereinigung der beiden Linien erfolgte erst
in den 1930er und 1940er Jahren. In meiner Darstellung verwende ich zwei
Kategorien der historischen Forschung. Die erste Kategorie bezieht sich auf
die statistischen Institutionen und die statistischen Systeme. Abgesehen von
den vom Institut national de la statistique et des études économiques (INSEE)
im Jahre 1987 veröffentlichten zwei Bänden Pour une histoire de la statisti-
que sind für Frankreich die wichtigsten Werke diejenigen von J. C. Perrot
(1992, [227]) und Bourguet (1988, [27]) über das 18. Jahrhundert und den
Beginn des 19. Jahrhunderts, von Armatte (1991, [5]), Brian (1989, [35]) und
Lécuyer (1982, [173]) über das 19. Jahrhundert sowie von Fourquet (1980,
[95]) und Volle (1982, [284]) über das 20. Jahrhundert. In Großbritannien
behandeln die Forschungsarbeiten von Szreter (1984 [270], 1991 [271]) das
General Register Office (GRO) und die Public Health Movement. In den Ver-
einigten Staaten beschreiben Anderson (1988, [4]) sowie Duncan und Shelton
(1978, [74]) die allmähliche Zunahme der Verwaltungsstatistik und deren an-
schließende Transformation in den 1930er Jahren. Diese Transformation führte
zu den gegenwärtigen Organisationen, die auf vier bedeutenden Innovationen
beruhen: Koordinierung durch Nomenklatur; Stichprobenerhebungen; volks-
wirtschaftliche Gesamtrechnung; maschinelle Datenverarbeitung und später
die Informatik.
Die zweite Kategorie von Arbeiten bezieht sich auf die Wahrscheinlich-
keitsrechnung und die mathematische Statistik. Dieses Gebiet der historischen
Forschung zeichnete sich in den 1980er Jahren durch eine starke Aktivität aus
– zuerst in Frankreich mit dem originellen, aber isolierten Buch von Benzécri
(1982, [12]) und dann in England im Anschluß an eine kollektive Arbeit, die
1982–1983 in Bielefeld von Forschern mehrerer Länder durchgeführt wurde.
Dem Buch The Probabilistic Revolution (Band 1, herausgegeben von Krüger,
Daston, Heidelberger, 1987 [158], und Band 2, herausgegeben von Krüger,
Gigerenzer, Morgan, 1987 [159]) folgten einige weitere Werke: Stigler (1986,
[267]), Porter (1986, [240]), Daston (1988, [54]), Gigerenzer et al. (1989, [107])
und Hacking (1990, [119]). Parallel hierzu wurde die Geschichte der Ökono-
16 Einleitung: Soziale Tatbestände als Dinge

metrie von Epstein (1987, [85]) und Morgan (1990, [204]) untersucht und in
einem Sammelband der Oxford Economic Papers (1989) herausgegeben.
Das Aufblühen der Forschungen zur Geschichte der Statistik (Verwaltungs-
statistik und mathematische Statistik), der Wahrscheinlichkeitsrechnung und
der Ökonometrie ermöglicht eine Gesamtinterpretation aus der Sicht der Wis-
senschaftssoziologie. Diese Interpretation ist gleichzeitig historisch und verglei-
chend. Dabei betrachte ich vier Länder: Frankreich, Großbritannien, Deutsch-
land und die Vereinigten Staaten. Ich habe diese Länder gewählt, weil eine
einschlägige Dokumentation vorhanden ist und weil sich die signifikantesten
Ereignisse in diesen Ländern abgespielt haben. Die historische Schilderung
wird bis zu den 1940er Jahren geführt. Um diese Zeit traten Institutionen
und Technologien auf den Plan, deren Charakter dem der heutigen Institutio-
nen und Technologien ähnelt. Die Interpretation der seither stattgefundenen
Entwicklungen dieser Institutionen und Technologien erfordert historische Un-
tersuchungen ganz anderer Art. Statistische Methoden werden jetzt in vielen
verschiedenen Bereichen angewendet und sind Bestandteil der unterschied-
lichsten wissenschaftlichen, sozialen und politischen Konstrukte. Die neuere
Geschichte der statistischen Ämter ist noch kaum untersucht worden, aber
in Bezug auf Frankreich wurde entsprechendes Material in Pour une histoire
de la statistique (INSEE, 1987, [136]) gesammelt. Mathematische Statistik,
Wahrscheinlichkeitsrechnung und Ökonometrie haben sich in so zahlreichen
und unterschiedlichen Richtungen entwickelt, daß es schwierig geworden ist,
sich eine synthetische Darstellung vorzustellen, die sich mit der von Stigler
für das 18. und 19. Jahrhundert gegebenen Darstellung vergleichen läßt.
In diesem Buch verfolgen wir die Entwicklungen der beiden Aspekte der
Statistik, das heißt des wissenschaftlichen und des administrativen Aspekts.
Wir untersuchen in den Kapiteln einige Zweige des Stammbaums der Stati-
stik und der modernen Ökonometrie. Am Anfang von Kapitel 9 findet der
Leser eine skizzenhafte Darstellung dieses Stammbaums mit einer Zusam-
menfassung der verschiedenen Wege, die wir zurückverfolgt haben. Das erste
Kapitel beschreibt die Entstehung der Verwaltungsstatistik in Deutschland,
England und Frankreich. Im zweiten Kapitel schildern wir das Auftreten der
Wahrscheinlichkeitsrechnung im 17. und 18. Jahrhundert, ihre Anwendung
auf Meßprobleme in der Astronomie, sowie die Formulierung des Normal-
verteilungsgesetzes und der Methode der kleinsten Quadrate. Im dritten und
vierten Kapitel geht es hauptsächlich um die Begriffe des Mittelwertes und der
Korrelation, wobei wir uns an den Arbeiten von Quetelet, Galton und Pearson
orientieren. Im fünften und sechsten Kapitel analysieren wir die Beziehungen
zwischen Statistik und Staat an den Beispielen Frankreichs, Großbritanniens,
Deutschlands und der USA. Das siebente Kapitel beschreibt die sozialen Be-
dingungen, unter denen die Techniken der Stichprobenerhebung entstanden
sind.11 Das achte Kapitel behandelt Probleme der Nomenklatur und der Ko-
11
Dieses Kapitel greift in geänderter Form einen Text auf, der in einer von Mairesse
(1988, [184]) herausgegebenen Kollektivarbeit veröffentlicht wurde.
Zwei Arten der historischen Forschung 17

dierung, insbesondere ausgehend von den Forschungsarbeiten, die ich zuvor


mit Laurent Thévenot durchgeführt hatte. Im neunten Kapitel untersuche ich
die Schwierigkeiten der Vereinigung der vier Traditionen, die zur modernen
Ökonometrie geführt haben. Diese Traditionen sind: die Wirtschaftstheorie,
die historizistisch-deskriptive Statistik12 , die aus der Biometrie hervorgegan-
gene mathematische Statistik und die Wahrscheinlichkeitsrechnung. In der
Schlußfolgerung behandle ich in gedrängter Form die Entwicklung und die
relative Krise der Sprache der Statistik nach 1950.13
Ein auslösender Faktor dafür, das vorliegende Buches zu schreiben, war
das Interesse für die sozialen Bedingungen der Produktion von Wissen über
die soziale Welt – ein Interesse, das Pierre Bourdieu in seiner Lehrtätigkeit
vor langer Zeit in mir erweckt hatte. Sehr viel verdanke ich dem langjährigen
Meinungsaustausch mit Statistikern, Demographen und Ökonomen (Joëlle Af-
fichard, Michel Armatte, Denis Bayart, Annie Cot, Jean-Jacques Droesbeke,
François Eymard-Duvernay, Annie Fouquet, Michel Gollac, François Héran,
Jacques Magaud, Maryse Marpsat, Pascal Mazodier, Robert Salais, Philippe
Tassi, Michel Volle, Elisabeth Zucker-Rouvillois), aber auch dem Meinungs-
austausch mit Historikern und Philosophen (Marie-Noëlle Bourguet, Stéphane
Callens, François Ewald, Anne Fagot-Largeault, François Fourquet, Bernard
Lécuyer, Jean-Claude und Michelle Perrot) und den Diskussionen mit eini-
gen britischen, deutschen und amerikanischen Spezialisten, die mir wertvolle
Ratschläge gegeben haben (Margo Anderson, Martin Bulmer, Lorraine Da-
ston, Gerd Gigerenzer, Ian Hacking, Donald Mac Kenzie, Mary Morgan, Ted
Porter, Stephen Stigler, Simon Szreter). Das Buch hat auch vom Seminar zur
Geschichte der Wahrscheinlichkeitsrechnung und Statistik profitiert, das an
der École des hautes études en sciences sociales (EHESS) von Marc Barbut,
Bernard Bru und Ernest Coumet geleitet wurde. Der Standpunkt der Wis-
senschaftssoziologie ist durch die Arbeiten beeinflußt worden, die ich in der
Gruppe für Politik- und Moralsoziologie (EHESS) zusammen mit Luc Bol-
tanski, Nicolas Dodier und Michaël Pollak (gest. 1992) durchgeführt hatte,
deren Ideen zum Vorgang der statistischen Formgebung eine ebenso wesent-
liche Rolle gespielt haben, wie die Forschungen des Centre de sociologie de
l’innovation der École des mines (Michel Callon und Bruno Latour). Und
schließlich hätte dieses Buch nicht ohne die freundliche Aufnahme und Hilfe
des Forschungsseminars des INSEE geschrieben werden können. Die von den
Mitgliedern des Seminars geäußerten sachdienlichen Kritiken haben sich als
12
Wir verwenden hier durchgehend den Begriff deskriptive Statistik“ anstelle von

beschreibender Statistik“.
13 ”
Obgleich die beiden Standpunkte, das heißt die internalistische und die externa-
listische Sichtweise, in Anbetracht der verfügbaren Quellen möglichst eng mit-
einander verknüpft werden, beziehen sich Kapitel 2, 3, 4 und 9 eher auf die
Metamorphosen der kognitiven Schemata, während Kapitel 1, 5, 6 und 7 der
Sozialgeschichte und der Geschichte der Institutionen näher stehen. Kapitel 8, in
dem es um Klassifikationen geht, liegt in gewisser Weise an der Schnittstelle“

der beiden Sichtweisen.
18 Einleitung: Soziale Tatbestände als Dinge

sehr wertvoll erwiesen – insbesondere gilt das für die kritischen Bemerkun-
gen von Francis Kramarz. Ebenso danke ich Elisabeth Garcia und Dominique
d’Humières für die sorgfältige Arbeit bei der Aufbereitung des Textes für den
Druck.
1
Präfekten und Vermessungsingenieure

Welche Gemeinsamkeiten haben die Statistik – das heißt eine Gesamtheit von
Verwaltungsroutinen, die zur Beschreibung eines Staates und seiner Bevölke-
rung erforderlich sind –, die um 1660 von Huygens und Pascal geschaffene
Wahrscheinlichkeitsrechnung – eine subtile Entscheidungshilfe in Fällen von
Ungewißheit – und die gegen 1750 auf der Grundlage disparater empirischer
Beobachtungen durchgeführten Schätzungen physikalischer und astronomi-
scher Konstanten? Erst im 19. Jahrhundert, nachdem eine Reihe von Hin- und
Rückübersetzungen der Werkzeuge und Fragestellungen durchgeführt worden
waren, kam es zu Überschneidungen und dann zu Verbindungen dieser unter-
schiedlichen Traditionen. Die Überschneidungen und Verbindungen entstan-
den durch den wechselseitigen Austausch von Techniken der Verwaltung, der
(damals als Moralwissenschaften“ bezeichneten) Humanwissenschaften und

der Naturwissenschaften.
Die Notwendigkeit, eine Nation zu kennen, um sie zu verwalten, führte –
ausgehend von den äußerst unterschiedlichen Sprachen der englischen politi-
schen Arithmetik und der deutschen Statistik – zum Aufbau der sogenannten
statistischen Bureaus“ im ersten Drittel des 19. Jahrhunderts.1 Andererseits

entwickelte sich der Prozeß des Nachdenkens über die Gerechtigkeit und die
Rationalität der menschlichen Verhaltensweisen auf der Grundlage der Begrif-
fe Erwartung und Wahrscheinlichkeit. Und schließlich führte das Streben nach
der Formulierung von Naturgesetzen, bei denen differierende empirische Auf-
zeichnungen berücksichtigt werden, zu einer zunehmend präziseren Herausar-
beitung des Begriffes Mittelwert und der Methode der kleinsten Quadrate. In
den ersten beiden Kapiteln dieses Buches beschreiben wir diese drei Traditio-
nen, die sich – trotz ihrer scheinbaren Heterogenität – mit der Erstellung von
1
Diese Verwaltungsdienstellen wurden zunächst mit der Aufgabe betraut, eine
Generalstatistik“ zu erstellen. Für Deutschland wurde 1871 die Errichtung eines

Statistischen Amtes beschlossen. Der Zuständigkeitsbereich dieses Kaiserlichen

Statistischen Amtes“ wurde 1872 festgelegt. Von daher rührt die Benennung die-
ser Sparte der administrativen Statistik als amtliche“ Statistik.

20 1 Präfekten und Vermessungsingenieure

Formen befassen, die jeder akzeptieren kann: Es handelt sich um Objekte, die
dem Allgemeinwissen zugänglich sind. Jedoch ignorierten die Bureaus für amt-
liche Statistik lange Zeit hindurch die Forschungen zur Wahrscheinlichkeits-
rechnung und zur Fehlerrechnung. Die Untersuchungen zur Wahrscheinlich-
keitsrechnung sind Gegenstand von Kapitel 1 ( Präfekten und Vermessungs-

ingenieure“), während die Untersuchungen zur Fehlerrechnung im Kapitel 2
( Richter und Astronomen“) behandelt werden.

In der Einleitung habe ich die Idee betont, daß die soziale Welt ein Kon-
strukt ist. Damit wollte ich nicht suggerieren, daß die von der Statistik geliefer-
ten Beschreibungen dieser Welt bloße Artefakte sind. Ganz im Gegenteil: diese
Beschreibungen haben nur dann Gültigkeit, wenn die von ihnen beschriebenen
Objekte konsistent sind. Aber diese Konsistenz ist nicht im Voraus gegeben.
Sie wird geschaffen. Das Ziel von statistischen Erhebungen besteht in der Ana-
lyse dessen, was den Dingen Zusammenhalt verleiht – einen Zusammenhalt in
dem Sinne, daß es in Bezug auf diese Dinge gemeinsam genutzte Darstellun-
gen gibt, die durch Handlungen von allgemeiner Bedeutung beeinflußt werden
können. Ein wichtiger Bestandteil dieser – zur Beschreibung und Schaffung
von Gesellschaften erforderlichen – Sprache ist die moderne Statistik, denn sie
hat einen besonderen Ruf aufgrund ihrer Faktizität, ihrer Objektivität und
ihrer Fähigkeit, Bezugsrahmen und Ansatzpunkte zu liefern.
Wie ist es nun zu dem besonderen Ruf gekommen, den die Statistik unter
den Erkenntnisformen genießt? Diese Ehre ist das Ergebnis einer eigenartigen,
von der Geschichte gewobenen Interaktion zwischen zwei ansonsten deutlich
verschiedenen Autoritätsformen – zwischen der Autoritätsform der Wissen-
schaft und derjenigen des Staates. Im 17. und im 18. Jahrhundert bildete
sich ein begrifflicher Rahmen heraus, in dem man über zweierlei nachdenken
konnte: erstens über die Denkansätze zur Untermauerung zukunftsbezogener
Entscheidungen und zweitens – mit Hilfe der Fehlerrechnung – über die Grade
der Sicherheit wissenschaftlicher Erkenntnisse. Die Autorität der Naturphi-

losophie“ (der Wissenschaft von einst) sonderte sich allmählich von der Auto-
rität der Religion und der Autorität der Fürsten ab. Die Trennung zwischen
der Konstitution der Dinge und der Konstitution der Menschen wurde immer
deutlicher, wobei die Konstitution der Dinge ihre Autonomie mit Nachdruck
bekräftigte (Latour, 1991, [168]).
Gleichzeitig entwickelten sich jedoch die Formen der fürstlichen Auto-
ritätsausübung – auf unterschiedliche Weise in den einzelnen Ländern und
in Abhängigkeit davon, wie sich die Beziehungen zwischen Staat und Gesell-
schaft änderten. So bildeten sich spezifische Wissensgebiete heraus, die sowohl
für die Fürsten als auch für deren Verwaltungen nützlich waren und ein Pro-
dukt ihrer Aktivitäten darstellten. Im Übrigen nahmen in dem Maße, wie
eine vom Staat verschiedene Zivilgesellschaft ihre Autonomie erlangte und
sich öffentliche Räume bildeten (wobei Form und Tempo von Staat zu Staat
unterschiedlich waren), auch andere spezifische Wissensgebiete der betreffen-
den Gesellschaft Gestalt an. Alle diese Konstrukte gingen (im Wesentlichen,
aber nicht ausschließlich) aus der Arbeit des Staates hervor und sollten die
1 Präfekten und Vermessungsingenieure 21

zweite Quelle für das ungewöhnliche Ansehen bilden, das die moderne Stati-
stik genießt – zumindest in der mehr oder weniger einheitlichen Bedeutung,
den der Begriff im Laufe des 19. Jahrhunderts erlangt hatte: nämlich als ko-
gnitiver Äquivalenzraum, der zu praktischen Zwecken konstruiert wurde, um
menschliche Gesellschaften zu beschreiben, zu verwalten und um sie umzuge-
stalten.
Aber diese Wissensgebiete hatten ihrerseits Ursprünge und Formen, die
von Staat zu Staat unterschiedlich waren und davon abhingen, wie diese Staa-
ten errichtet wurden und mit der Gesellschaft verbunden waren. Wir nennen
hier Deutschland, das uns das Wort Statistik und eine Tradition der globalen
Beschreibung der Staaten vererbt hat. Wir nennen England, das uns durch
seine politische Arithmetik die Zählungen kirchlicher und verwaltungstechni-
scher Aufzeichnungen, aber auch Rechentechniken hinterlassen hat, mit denen
diese Zählungen analysiert und extrapoliert werden konnten. In Frankreich
schließlich lieferten die Zentralisierung und Vereinheitlichung – zuerst in der
absoluten Monarchie und dann während der Revolution und im Ersten Kai-
serreich – einen politischen Rahmen für die Konzipierung und Errichtung ei-
nes Modells des Bureaus für allgemeine Statistik“ im Jahre 1800 (in einigen

Staaten erfolgte das bereits früher, wie zum Beispiel in Schweden im Jah-
re 1756). Auf höherer Ebene führten Zentralisierung und Vereinheitlichung in
Frankreich zu einer ursprünglichen Form der Staatswissenschaften“ mit ihren

Ingenieur-Korps“, die nicht aus den Universitäten, sondern aus den grandes
” 2
écoles hervorgingen.
Der Gegensatz zwischen der deutschen deskriptiven Statistik und der eng-
lischen politischen Arithmetik ist ein klassisches Thema von Arbeiten, deren
Gegenstand die Geschichte der Statistik oder der Demographie ist. Einige
Autoren heben insbesondere das Scheitern und den Schiffbruch hervor, den
die deskriptive Statistik zu Beginn des 19. Jahrhunderts erlitten hatte. Diese
Autoren betonen auch die Tatsache, daß die politische Arithmetik, die zu die-
sem Zeitpunkt lediglich den Namen ihrer Rivalin ( Statistik“) geerbt hatte,

die wahre Vorläuferin der heutigen Methoden war (Westergaard, 1932, [286];
Hecht, 1977, [125]; Dupaquier, 1985, [75]). Andere Autoren sehen dagegen in
den Methoden der deutschen Statistik einen interessanten Vorgriff auf gewisse
Fragen der modernen Soziologie (Lazarsfeld, 1970, [170]) und einen bedeut-
samen Versuch, die territoriale Diversität eines Nationalstaates gedanklich zu
erfassen und zu beschreiben (Perrot, 1977, [226]; Bourguet, 1988, [27]). Wir
unternehmen in diesem Buch den Versuch einer Rekonstruktion der Verbin-
dungsstellen, auf deren Grundlage sich die betreffenden Beschreibungsmetho-
2
Das höhere Bildungswesen Frankreichs ist durch die scharfe Trennung und Kon-
kurrenz zwischen Universitäten und grandes écoles geprägt. Die Anfänge die-
ser grandes écoles gehen auf Gründungen ingenieurwissenschaftlicher Ausbil-
dungsstätten gegen Ende des Ancien Régime zurück. Zu ihnen gehören einige
der noch heute renommiertesten Ingenieurhochschulen. Genauere Ausführungen
zum französischen Hochschulsystem findet man bei Schwibs (1988, [435]) und bei
Grattan-Guinness (1990, [392]).
22 1 Präfekten und Vermessungsingenieure

den entwickelten – Methoden, deren jeweilige Sprachen und Objekte vollkom-


men verschieden waren und deren Vergleich erst nach 1800 erfolgte.
Vom Standpunkt der Geschichte der Akkumulation statistischer Techniken
steht fest, daß die englische politische Arithmetik entsprechende Werkzeuge
hinterlassen hat: die Auswertung der Kirchenregister über Taufen, Heiraten
und Sterbefälle (Graunt, 1662), die Aufstellung von Sterbetafeln und die Be-
rechnung der Lebenserwartung (Huygens, 1669) sowie Bevölkerungsschätzun-
gen auf der Grundlage von Stichproben mit der Berechnung des zu befürch-

tenden Fehlers“ (Laplace, 1785). Dagegen hat die deutsche Statistik, die einen
formalen Rahmen für die globale Beschreibung der Macht der Staaten lie-
ferte, keinen besonderen Wert auf quantitative Methoden gelegt und nichts
Vergleichbares hinterlassen. Es ist deswegen normal, daß in einer als Genese
von Techniken betrachteten Geschichte die politische Arithmetik im Vorder-
grund steht und die deutsche Tradition als veraltetes geisteswissenschaftliches
Konstrukt behandelt wird, für das ein nur geringes Interesse besteht.

Deutsche Statistik: Identifizierung der Staaten


Dennoch ist für die Perspektive, die eine explizite Angabe des relativen Stand-
orts und der kulturellen Bedeutung der statistischen Denkweise unter den
verschiedenen Darstellungsweisen der sozialen Welt anstrebt, der Pol bedeut-
sam, den die deutsche Statistik“ darstellte (die ihrerseits jedoch nur wenig

mit der heutigen Statistik gemeinsam hat). Dieser Pol drückt das umfassen-
de synthetische Bestreben aus, eine menschliche Gemeinschaft (einen Staat,
eine Region und später eine Stadt oder einen Beruf) als Ganzes zu verste-
hen, das mit einer singulären Macht ausgestattet ist und nur durch die Ver-
knüpfung zahlreicher Merkmale beschrieben werden kann, wie zum Beispiel:
Klima, natürliche Ressourcen, Wirtschaftsorganisation, Bevölkerung, Gesetze,
Bräuche und politisches System. Eine derartige holistische Sicht auf die be-
schriebene Gemeinschaft hat für einen analytischen Verstand, der das von ihm
benutzte Werkzeug direkt auf eine klar identifizierte Frage anwendet, einen
großen Nachteil: Die für die Beschreibung relevanten Merkmale sind in einer
potentiell unbegrenzten Anzahl vorhanden und man weiß nicht, warum man
das eine Merkmal beibehalten soll, das andere hingegen nicht. Dagegen rich-
tet die politische Arithmetik ihre Aufmerksamkeit auf eine kleine Anzahl von
unmittelbar anwendbaren Schätzungen, womit sie ohne Schwierigkeiten den
Anspruch auf Legitimität und soziale Anerkennung erheben kann. So dienten
beispielsweise die Sterbetafeln als Grundlage zur Festsetzung der Leibrenten
und der Lebensversicherungsprämien. Für die Erhebung von Steuern und für
die Rekrutierung von Soldaten waren Bevölkerungsschätzungen in den ver-
schiedenen Provinzen unerläßlich.
Aber die deutsche Statistik gab Antworten auf andere sorgenvolle Proble-
me. Sie bot dem Fürsten oder dem zuständigen Beamten einen Organisations-
rahmen für die vielgestaltigen Wissensformen, die in Bezug auf einen Staat
Deutsche Statistik: Identifizierung der Staaten 23

zur Verfügung standen – dieser Organisationsrahmen bestand aus einer No-


menklatur und einer Logik , die von der aristotelischen Logik inspiriert worden
war. Um das Jahr 1660 kodifizierte Conring (1606–1681) diese Form, die im
gesamten 18. Jahrhundert von der Universität Göttingen und ihrer statisti-

schen Schule“ weitergegeben wurde, insbesondere von Achenwall (1719–1772)
3
– der als Erfinder des Wortes Statistik“ gilt – und Schlözer (1735–1809),

dem Nachfolger Achenwalls auf dem Lehrstuhl für Statistik. Schlözer war
der Autor einer Abhandlung zur Statistik“. Donnant übersetzte dieses Werk

1804 ins Französische, wodurch die deutsche Denkweise zu Beginn des 19.
Jahrhunderts in Frankreich bekannt wurde. Schlözer war der erste Vertreter
dieser Strömung; er empfahl die Verwendung exakter Zahlen anstelle von ver-
bal umschriebenen Angaben, ohne sich allerdings an seine eigene Empfehlung
zu halten (Hecht, 1977, [125]). Eine der Formulierungen Schlözers ist für die
eher strukturalistische und synchronische Denkweise der deutschen Statistik
bezeichnend: Statistik ist stillstehende Geschichte und Geschichte als Wis-

senschaft ist eine laufende Statistik“.
Conring faßte seine Statistik als eine Art und Weise der Klassifizierung von
heteroklitischem Wissen auf. Wie Lazarsfeld (1970, [170]) feststellte, suchte

er nach einem System, mit dem sich die Fakten leichter merken, leichter lehren
und von den in der Regierung tätigen Leuten leichter verwenden ließen“. Ein-
prägen, lehren und anwenden, um zu regieren: das ist nicht allzu weit entfernt
vom Streben nach Objektivierung, vom Bemühen, Dinge auszudrücken, sie
in Büchern niederzulegen, um diese Dinge selbst wiederverwenden zu können
oder aber um sie anderen zu vermitteln. Dieser organisatorische und taxo-
nomische Bestandteil ist ebenso charakteristisch für die moderne Statistik,
wie ihre rechnerische Seite, die von der politischen Arithmetik auf den Weg
gebracht wurde. Aber der vom Standpunkt des aktiven Staates aus organi-
sierte Klassifikationsrahmen war sehr allgemein. Er stützte sich auf die vier
Ursachen der aristotelischen Logik, die ihrerseits systematisch unterteilt wur-
den (Hoock, 1977, [132]). Die materiale Ursache (causa materialis) beschreibt
das Territorium und die Bevölkerung. Die formale Ursache (causa formalis)
stellt das Recht, die Verfassung, die Gesetze und die Bräuche zusammen. Die
Finalursache (causa finalis) hat mit den Tätigkeitszielen des Staates zu tun:
Erhöhung der Bevölkerungszahl, Sicherung der Verteidigung, Modernisierung
der Landwirtschaft und Entwicklung des Handels. Und schließlich legt die ef-
fektive Ursache (causa efficiens) Rechenschaft über die Mittel ab, über die
der Staat verfügt: Verwaltungspersonal und politisches Personal, Justizap-
parat, Führungsstäbe und Eliten (Bourguet, 1988, [27]). Diese aristotelische
Unterscheidung zwischen den materiellen Kräften, dem rechtlichen Rahmen,
den Tätigkeitszielen und der effektiven Organisation ist in der lateinischen
3
Die Staatenkunde war eine rein beschreibende Darstellung von Staats-

merkwürdigkeiten“ zum Gebrauch für Staatsmänner. Eine der Quellen für das
Wort Statistik“ war das italienische Wort statista“, das Staatsmann“ bedeu-
” ” ”
tet.
24 1 Präfekten und Vermessungsingenieure

Maxime Schlözers zusammengefaßt: vires unitae agunt ( die Kräfte handeln



vereint“). Diese Formel erinnert an den Zusammenhang zwischen der Kon-
struktion der Äquivalenz, die bei der Addition als arithmetischer Operation
erforderlich ist, und der Bildung einer Koalition, das heißt einer Vereinigung
von disparaten Kräften, die zu einer höheren Macht verschmelzen. In beiden
Fällen spielen Repräsentationsprozesse eine Rolle: Es geht um typische Ele-
mente oder Repräsentanten von Äquivalenzklassen sowie um Sprecher oder
Vertreter im Falle von vereinten Kräften (Latour, 1984, [166]).
Lazarsfeld (1970, [170]) setzt dieses deskriptive System in Beziehung zur
Lage Deutschlands in der zweiten Hälfte des 17. Jahrhunderts nach dem Dreis-
sigjährigen Krieg. Das Reich war zu dieser Zeit in nahezu dreihundert Klein-
staaten zersplittert, die alle arm waren und miteinander rivalisierten. Das Pro-
blem der Definition oder Redefinition der Rechte und Pflichten dieser Staaten
war ein wesentlicher Punkt. In allen juristischen Streitfällen bei Problemen
in Bezug auf Territorium, Eheschließungen oder Erbfolge mußten Entschei-
dungen getroffen werden, wobei man sich auf Präzedenzfälle berief oder die
Archive durchforstete. Diese Situation verlieh denjenigen Geistern Autorität
und Prestige, die nicht auf die Konstruktion neuer Dinge, sondern auf eine
systematische Katalogisierung vorhandenen Wissens orientiert waren. Dieser
Umstand trug seinerseits zu einer Weiterführung der scholastischen Tradi-
tionen bei, deren Einfluß in anderen Bereichen bereits gesunken war. Die
Schwäche der Kleinstaaten und deren Bedürfnis nach Selbstdefinition führten
zu diesem Denkrahmen, der eine Art kognitives Patchwork darstellte. Dieses
Patchwork löste sich später von selbst auf, als im 19. Jahrhundert mächtige
Staaten (vor allem Preußen) auf den Plan traten und hinreichend komplexe
Bürokratien errichteten, um statistische Bureaus“ zu verwalten, die mit dem

im Jahre 1800 gegründeten französischen Bureau vergleichbar waren (Hoock,
1977, [132]).
Bevor diese Tradition ausstarb, führte sie zu Beginn des 19. Jahrhunderts
zu einer bedeutsamen Kontroverse. Es kam der Vorschlag auf, den detaillierten
formalen Rahmen der deskriptiven Statistik zu verwenden, um Vergleiche zwi-
schen den Staaten vorzunehmen. Das sollte durch die Aufstellung von Kreuz-
tabellen 4 geschehen, bei denen die Länder zeilenweise und die verschiedenen
verbalen Beschreibungselemente spaltenweise angeordnet waren, so daß sich
die Diversität der betreffenden Staaten entsprechend den unterschiedlichen
Gesichtspunkten mit einem Blick erfassen ließ. Die Möglichkeit der Nutzung
der beiden Dimensionen einer Buchseite zur Verknüpfung und Klassifizierung
von Objekten gestattete deren gleichzeitige Betrachtung und unterschied radi-
kal zwischen schriftlichem und mündlichem Material, zwischen grafischer und
diskursiver Argumentation (Goody, 1979, [111]). Aber diese Eroberung des

zweidimensionalen Raumes“ durch die Kreuztabelle lief nicht ohne Schwie-
4
Auch Kreuztafeln genannt. In der heutigen deutschsprachigen Literatur wird
Kreuztabelle ( crosstabulation“) auch als Synonym für Kontingenztafel ( con-
” ”
tingency table“) verwendet, vgl. z.B. [434].
Deutsche Statistik: Identifizierung der Staaten 25

rigkeiten ab, denn sie ging mit dem Zwang einher, Komparabilitätsräume,
allgemeine Bezugsräume und Kriterien zu konstruieren. Das wiederum führte
zu der weitverbreiteten Kritik, daß die beschriebenen Objekte reduziert“ und

ihrer Singularität beraubt würden. Nun handelte es sich hierbei um genau die-
selbe Art von Einwänden, die gegen die Methode der Kreuztabellen ins Feld
geführt wurden – um so mehr, da diese Darstellung dazu ermunterte, auch
Zahlen in den Tabellenzeilen auftreten zu lassen. Und diese Zahlen konnten
direkt miteinander verglichen werden, während die zu klassifizierenden Infor-
mationen anfänglich noch in verbaler Umschreibung gegeben waren. Es war
demnach die Tabellenform selbst, die zur Suche nach Zahlen und zu deren
Vergleich anregte. Es war im buchstäblichen Sinne diese Form, die den zur
quantitativen Statistik führenden Begriff des Äquivalenzraumes schuf.
Die Tatsache, daß zur Durchführung von Vergleichen zwischen Ländern
oder zwischen Personen gewisse Merkmale ausgewählt werden müssen, kann
immer zu einer Art holistischer Kritik führen, denn ein bestimmtes Land oder
eine einzelne Person lassen sich nicht auf ausgewählte Vergleichsmerkmale
reduzieren. Diese Form der Kritik an der Aufstellung von Äquivalenzen hat
einen hohen Allgemeinheitsgrad und der rote Faden des vorliegenden Buches
besteht darin, die wiederholt auftretenden Modalitäten dieser Art von Debat-
te zurückzuverfolgen und die Gemeinsamkeiten der Protagonisten der einen
oder anderen Position aufzudecken. Ein bezeichnendes Beispiel ist die Kon-
troverse um die Tabellenknechte“, die aus dieser statistischen Schule hervor-

gingen. Die Befürworter der Tabellen vertraten die Position eines allgemeinen
Überblicks, wie man ihn von einem Felsvorsprung aus hat. Diese Aussichts-
position ermöglichte es ihnen, die verschiedenen Länder gleichzeitig durch ein
und dasselbe Raster zu sehen. Die Gegner dieser Position unterschieden zwi-
schen subtiler und distinguierter“ Statistik und vulgärer“ Statistik. Ihrer
” ”
Meinung nach hat die letztere
... die große Kunst zu einer stupiden Arbeit degradiert ...“ Diese
” ”
armen Narren verbreiten die verrückte Idee, daß man die Macht eines
Staates durch die Kenntnis seiner Fläche, seiner Bevölkerung, seines
Nationaleinkommens und der Anzahl der Tiere erfassen kann, die seine
Weiden ringsumher abgrasen“. Die Machenschaften, in denen sich

diese kriminellen politischen Statistiker in ihrem Bestreben ergehen,
alles durch Zahlen auszudrücken ... sind verachtenswert und über alle
Maßen lächerlich. (Göttingische gelehrte Anzeigen um 1807; vgl. John
(1884, [139]).)
Später findet sich dieselbe Kontroverse in den Positionen wieder, die von
der historischen Schule“ der deutschen Statistiker im 19. Jahrhundert vertre-

ten wurde und die im Gegensatz zu den verschiedenen Formen des abstrakten
ökonomischen Universalismus (der Engländer) oder des politischen Universa-
lismus (der Franzosen) stand. Diese Kontroverse war auch für die Debatten
charakteristisch, die durch die Anwendung der numerischen Methode“ in der

Medizin (um 1835) sowie durch die Nutzung der Statistik in der Psychologie
26 1 Präfekten und Vermessungsingenieure

und in der Dozimologie“ (der Wissenschaft von den Prüfungen) ausgelöst



wurden. In jedem Fall berief man sich auf Formen von (historischen, natio-
nalen oder individuellen) Singularitäten und verwies auf Möglichkeiten der
Beschreibung, das heißt der Konstruktion von Gesamtheiten, die sich von de-
nen der Statistik unterscheiden. So können etwa die im Rahmen der Göttinger
Schule erstellten und kritisierten Tabellen auch spaltenweise gelesen werden,
das heißt durch Vergleich einer Variablen“ (dieser Begriff kam damals auf)

für die verschiedenen Länder. Die Tafeln können aber auch zeilenweise gelesen
werden, wobei ein Land in allen seinen Aspekten beschrieben wird und man
danach suchen kann, was die Einheit des betreffenden Landes und seine Spezi-
fik ausmacht. Jede dieser beiden Interpretationen ist auf ihre Weise kohärent.
Die zweite Interpretation ist in keiner Weise singulärer“ als die erste, aber

sie impliziert eine andere Art und Weise der Totalisierung der elementaren
Aufzeichnungen.
Jedoch beinhaltete das spaltenweise Lesen der Tabellen – und somit der
Vergleich der Länder – die Möglichkeit, daß man in Bezug auf den Staat
eine Position der Exteriorität und Distanz einnehmen konnte. Diese Möglich-
keit ließ sich aber schwerlich mit der Position der deutschen Statistiker ver-
einbaren, die sich in ihren Argumenten den Standpunkt der Macht und der
Machtausübung ihres Staates zu eigen gemacht hatten. Sie identifizierten sich
mit dem Staat und waren deswegen nicht imstande, sich eine vom Staat ver-
schiedene Zivilgesellschaft vorzustellen oder die Überblicksposition einzuneh-
men, die beim Aufstellen und Lesen von Tabellen vorausgesetzt wurde. Ge-
nau das ist es, was die deutschen Statistiker von den englischen politischen
Arithmetikern unterscheidet. In England entwickelte sich gegen Ende des 17.
Jahrhunderts ein neues Verhältnis zwischen dem monarchischen Staat und
den verschiedenen sozialen Schichten. Dieses neue Verhältnis ermöglichte es
den sozialen Schichten, ihren Tätigkeiten relativ unabhängig vom Monarchen
nachzugehen, wobei die beiden Häuser des Parlaments die Vertretung dieser
sozialen Gruppen, des Adels und der Bourgeoisie, gewährleisteten. In Deutsch-
land hingegen erfolgten diese Unterscheidungen erst sehr viel später und in
anderen Formen.

Englische politische Arithmetik:


Entstehung der Expertise

Im englischen Kontext, in dem der Staat zu einem Teil der Gesellschaft wur-
de und nicht – wie in Deutschland – deren Gesamtheit darstellte, entstand in
den Jahren nach 1660 unter der Bezeichnung politische Arithmetik“ (poli-

tical arithmetic) eine Reihe von Aufzeichnungs- und Rechentechniken. Diese
durch die Arbeit von Graunt (1620–1674) über Sterbezettel5 angeregten Me-
5
Im damaligen Englisch als bill of mortality“ bezeichnet; im Deutschen auch To-
” ”
tenzettel“ oder Totenliste“ genannt. Der Titel der Grauntschen Schrift lautet in

Englische politische Arithmetik: Entstehung der Expertise 27

thoden wurden zuerst von Petty (1623–1687) und dann von Davenant (1656–
1714) systematisiert und theoretisch untermauert. Vom Standpunkt unserer
Untersuchung zur Genese der materiellen Objektivierungsverfahren implizie-
ren diese Methoden drei wichtige Momente: erstens das Führen schriftlicher
Aufzeichnungen, zweitens deren Auswertung und Totalisierung gemäß einem
vorher festgelegten Schema und drittens ihre Interpretation durch Zahlen,

Maße und Gewichte“.
Die Eintragungen in Register, welche die Spuren von Taufen, Heiraten und
Beerdigungen bewahrten, hingen mit dem Bemühen zusammen, die Identität
einer Person zu juristischen oder verwaltungstechnischen Zwecken zu bestim-
men. Das war der Gründungsakt aller statistischen Arbeit (im modernen Sin-
ne), bei der definierte, identifizierte und stabile Einheiten vorausgesetzt wer-
den. Die Funktion des Aufschreibens bestand darin, die Existenz und Perma-
nenz einer Person und deren Bindungen zu einer Mutter, einem Vater, einem
Ehepartner und zu Kindern zu verstetigen und (im Rahmen eines notariel-
len Aktes) zu beweisen. Ebenso wie die Ermittlung von Wahrscheinlichkeiten
mit dem Bemühen zusammenhing, Glaubensgründe“ und Grade der Sicher-

heit festzuhalten und zu bescheinigen (das heißt sie zu objektivieren), zielten
auch die Eintragungen in den Kirchenbüchern darauf ab, die Existenz von
Individuen und deren familiäre Bindungen zu registrieren und zu bezeugen:
Es ist ganz und gar wahrscheinlich, daß das Auftreten und die Ver-
breitung von Registern in eine Zeit fiel, als – und auf die Tatsache
zurückzuführen war, daß – in der Rechtsprechung des späten Mittel-
alters das Gewicht des schriftlichen Beweises gegenüber dem münd-
lichen zugenommen hatte und die alte juristische Maxime Zeugen

gehen vor Buchstaben“ 6 nun durch eine neue ersetzt wurde, die da
lautete Buchstaben gehen vor Zeugen.“ (Mols, 1954, [201], zitiert

von Dupaquier, 1985, [75].)

Diese Registrierungen wurden durch königliche Dekrete zur Pflicht ge-


macht, was nahezu gleichzeitig in England (1538) und in Frankreich erfolgte
(Edikt von Villers-Cotterêts, 1539). Später machte man andere Listen öffent-
lich. Zum Beispiel wurden bei Epidemien die Ankündigungen von Beerdigun-
gen angeschlagen. Es waren Verzeichnisse dieser Art, auf denen Graunt und
Petty ihre politische Arithmetik aufbauten, in der sie mit Hilfe von sukzessiven
Hypothesen bezüglich der Strukturen von Familien und Häusern die Gesamt-
bevölkerungszahl sowie die Anzahl der Verstorbenen für verschiedene Städte
berechneten. Dabei waren sie um die Einführung von Methoden bemüht, die
sich an anderer Stelle bewährt hatten. So gab etwa Petty folgende Erklärung:
der 1702 in Leipzig erschienen Übersetzung Natürliche und politische Anmer-

ckungen über die Todten-Zettul der Stadt London, fürnemlich ihre regierung,
religion, gewerbe, vermehrung, lufft, kranckheiten, und besondere veränderungen
betreffend“.
6
Pluris est testis, quam litterae“.

28 1 Präfekten und Vermessungsingenieure

... die von mir zu diesem Zweck genutzte Methode ist noch nicht sehr
verbreitet, denn anstatt der ausschließlichen Verwendung von Begrif-
fen im Komparativ und im Superlativ sowie anstelle rein rationaler
Argumente, habe ich (als Muster für die politische Arithmetik, die
mir schon lange vorschwebte) die Methode verwendet, bei der man
sich durch Zahlen, Maße und Gewichte ausdrückt. (Petty, 1690, zi-
tiert von Hecht, 1977, [126].)

Diese Berechnungen wurden als praktische Methoden zur Lösung konkre-


ter Probleme vorgelegt. Graunt sprach von shopkeeper’s arithmetic“. Dave-

nant erwähnte die Kunst des Argumentierens mit Zahlen bei regierungsre-

levanten Objekten“. Der Unterschied zu den deutschen Statistikern ist klar:
Die Vertreter der politischen Arithmetik waren keine Universitätstheoreti-
ker, die eine globale und logische Beschreibung des Staates im Allgemeinen
gaben, sondern Männer unterschiedlicher Herkunft, die sich im Laufe ihrer
Tätigkeit ein praktisches Wissen zusammengeschmiedet hatten und dieses der
Regierung“ anboten. Graunt war Kaufmann; Petty war Arzt und betätigte

sich später nacheinander als Mathematiker, Parlamentsabgeordneter, Beamter
und Geschäftsmann; Davenant war Beamter und Tory-Mitglied im Parlament
(Schumpeter, 1983, [254]). Somit zeichnete sich eine neue soziale Rolle ab: Ein
Experte mit exakt definierter Kompetenz schlägt den Regierenden Techniken
vor und versucht, sie davon zu überzeugen, daß sie sich zur Umsetzung ihrer
Absichten zuerst an ihn wenden müssen. Diese Männer boten eine präzise
artikulierte Sprache an, währenddessen die deutschen Statistiker, die sich mit
dem Staat identifizierten, eine allumfassende Sprache vorlegten.
Einer der Gründe, warum die englischen politischen Arithmetiker zur Er-
reichung ihrer Ziele auf indirekte Methoden und auf Rechenumwege zurück-
greifen mußten, hing mit der liberalen Auffassung vom Staat und den Be-
schränkungen seiner Vorrechte zusammen. Diese Auffassung erlaubte es den
betreffenden Arithmetikern nicht, umfassende direkte Erhebungen durch-
zuführen, wie es manche Länder auf dem Kontinent, insbesondere Frankreich,
bereits getan hatten. So denunzierten etwa die Whigs 1753 einen Plan zur
Volkszählung als Weg zum vollständigen Ruin der letzten Freiheiten des

englischen Volkes“. Auch aus diesem Grund stagnierte die Systematisierung
einer (noch nicht als Statistik“ bezeichneten) quantifizierten Beschreibung

in England in der zweiten Hälfte des 18. Jahrhunderts, während Schweden
1749 eine Volkszählung durchführte. In Holland erfolgten Anwendungen der
Wahrscheinlichkeitsrechnung auf die Länge des menschlichen Lebens (Huy-
gens, 1669), auf die Schätzung des Kaufpreises von Renten mittels Sterbeta-
feln (Witt, 1671) und auf die Schätzung der Bevölkerungszahl mit Hilfe der
jährlichen Geburtenzahlen und der Lebenserwartung bei der Geburt (Kersse-
boom, 1738). In Amsterdam wurde 1672 eine Zählung durchgeführt (Dupa-
quier, 1985, [75]).
Von den Techniken, die uns die politische Arithmetik des 18. Jahrhun-
derts hinterlassen hat, war der Bevölkerungsmultiplikator“ die berühmteste

Englische politische Arithmetik: Entstehung der Expertise 29

(und im darauffolgenden Jahrhundert umstrittenste) Technik. Das Problem


bestand in der Schätzung der Gesamtbevölkerung eines Landes unter Berück-
sichtigung der Tatsache, daß man keine Zählung durchführen konnte, dafür
aber die Anzahl der jährlichen Geburten überall aus den Kirchenbüchern her-
vorging. Die Methode bestand darin, die Bevölkerung einiger Orte zu zählen,
dann das Verhältnis zwischen diesen Zahlen und der Anzahl der jährlichen
Geburten in denselben Orten zu berechnen und – unter der Voraussetzung,
daß dieses Verhältnis überall das gleiche ist – die Gesamtbevölkerungszahl zu
schätzen, indem man die allgemein angenommene Anzahl der Geburten mit
dieser Verhältniszahl multiplizierte. Der Multiplikator lag meistens zwischen
25 und 30. Dieser Kalkül, der im Europa des 18. Jahrhunderts weit verbreitet
war, wurde 1785 von Laplace vervollkommnet. Ausgehend von Hypothesen
über die Wahrscheinlichkeitsverteilung des Bevölkerungsmultiplikators“ lei-

tete er einen zu befürchtenden Fehler“ für die geschätzte Bevölkerungszahl

ab (Bru, 1988, [37]).
Diese Technik – die Vorläuferin des Verfahrens der Zufallsauswahl – wurde
im 19. Jahrhundert heftig angegriffen und bis zum Beginn des 20. Jahrhun-
derts bevorzugte man Voll erhebungen.7 Die Hauptkritik bezog sich auf die
Hypothese der Konstanz des Bevölkerungsmultiplikators auf dem gesamten
Territorium. Die Vorstellung, daß das Königreich eine einzige Wahrschein-

lichkeitsurne“ mit einem konstanten Verhältnis zwischen Bevölkerungszahl
und Geburtenzahl sein könnte, erwies sich als problematisch. Die Konstruk-
tion des nationalen Territoriums in Form eines einzigen Äquivalenzraumes
sollte das große Problem werden, das in Frankreich vor allem nach 1789 auf-
geworfen wurde. Dieses Problem war auch einer der hauptsächlichen Streit-
punkte der großen Präfekten-Enquete“ 8 des Jahres 1800, deren Ziel es war,

die Disparitäten zwischen den Departements9 zu ermitteln, diese Disparitäten
nach Möglichkeit abzumildern und sich der einen und unteilbaren Republik
zu nähern, von der die Revolution geträumt hatte.

7
Man verwendet für Vollerhebung auch den Begriff Totalerhebung. Im Gegensatz
zur Stichprobenuntersuchung wird bei einer Vollerhebung die komplette Grund-
gesamtheit untersucht.
8
Das französische Wort enquête bedeutet in der Statistik u.a. Erhebung, Unter-
suchung. Eine Enquete ist ein Untersuchungsverfahren, das sich im Gegensatz
zur Vollerhebung auf die schriftliche Befragung oder mündliche Vernehmung von
Sachverständigen, Fachleuten usw. beschränkt, um auf diese Weise ein zutref-
fendes Bild über soziale und wirtschaftliche Tatbestände sowie deren Zusam-
menhänge zu gewinnen.
9
Departement (département), Verwaltungsbezirk in Frankreich.
30 1 Präfekten und Vermessungsingenieure

Französische Statistik des Ancien Régime:


Intendanten und Gelehrte10

Auf dem Gebiet der Statistik hat das Frankreich der absoluten Monarchie
keine stereotype, in speziellen Abhandlungen niedergeschriebene intellektuelle
Tradition hinterlassen, die später von der akademischen Kultur weitergeführt
werden konnte, wie es in Deutschland mit Conring, Achenwall und Schlözer
und in England mit Graunt, Petty und Davenant der Fall war. Aber das
Frankreich der absoluten Monarchie vermachte den nachfolgenden Zeiten –
vor allem der Revolution und dem Ersten Kaiserreich (Empire)– zwei wichtige
Dinge: zum einen eine sehr lebendige Verwaltungstradition von Denkschriften
(mémoires) und Enqueten, die in den 1780er Jahren beinahe zur Gründung
einer spezifischen statistischen Institution geführt hätte (was dann im Jahre
1800 tatsächlich erfolgte), und zum anderen eine brodelnde Atmosphäre der
wissenschaftlichen Bildung und der Gelehrsamkeit, die außerhalb des eigent-
lichen Staates anzutreffen war und sich auf empirische Beschreibungen sowie
auf Systeme zur Organisierung dieser Beschreibungen bezog. Die faktische
Umsetzung unterschiedlicher Anforderungen, die Bestandteil der deutschen
und der englischen Tradition waren (globale Beschreibung und taxonomische
Logik im einen Fall, Quantifizierung und Mathematisierung im anderen), eb-
nete den Weg für die späteren Synthesen.
Zur Schilderung dieses Gärungsprozesses verfolgen wir hier den Auf-
bau eines starken, zentralisierten Staates und die verschiedenen Beschrei-
bungsmöglichkeiten des Staates und der Gesellschaft. Dabei betrachten wir
einerseits die Entwicklung vor 1789 und andererseits die Zeit zwischen 1789
und 1815 (Bourguet, 1988, [27]). Seitens der königlichen Macht waren Be-
schreibungen des Landes dazu bestimmt, dem Fürsten Bildung zu vermitteln.
Administrative Enqueten, die mit der Führung von Prozessen zu tun hatten,
schlossen bereits quantitative Analysen ein. Außerhalb des Staates verfaßten
Reisende, Ärzte, lokal ansässige Gelehrte, Wissenschaftler und Philosophen
Forschungsarbeiten, die noch nicht auf der Grundlage präzise festgelegter Dis-
ziplinen kodifiziert waren. Für die nachrevolutionäre Zeit zeigt jedoch eine
Gegenüberstellung der während des Konsulats und in der Zeit des Ersten
Kaiserreiches durchgeführten statistischen Versuche, wie das Wort Statistik“

in Frankreich von seiner deutschen Bedeutung im 18. Jahrhundert auf seine
moderne Bedeutung als quantifiziertes Beschreibungssystem umschwenkte.
Die Besonderheit Frankreichs im Vergleich zu Deutschland und England
bestand darin, daß seit etwa 1660 die Königsmacht sehr stark war und über
eine verhältnismäßig zentralisierte Verwaltung verfügte – auch wenn es in den
Provinzen immer noch Disparitäten in Bezug auf Recht und Bräuche gab. Die-
se Disparitäten wurden denunziert und 1789 abgeschafft. Tocqueville (1856,
10
Ancien Régime“ ist die Bezeichnung für die absolutistische Monarchie vor 1789,

Intendant“ die Bezeichnung eines hohen Verwaltungsbeamten im damaligen

Frankreich.
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 31

[277]) hat nachgewiesen, daß die vereinheitlichende Tradition der Jakobiner


bereits in der absoluten Monarchie tief verwurzelt war und daß die Revoluti-
on ebenso wie das Erste Kaiserreich einen Teil der bereits im Ancien Régime
vorhandenen Wesenszüge beibehalten und weiter ausgebaut hat. Somit waren
Funktion und Verhalten der Intendanten bereits Vorboten der entsprechen-
den Rollen, welche die Präfekten im 19. und 20. Jahrhundert spielen sollten.
Seit 1630 (Zeit Richelieus) und 1663 (Zeit Colberts) sowie in regelmäßigen
Abständen danach wurden die Intendanten damit beauftragt, dem König Be-
schreibungen ihrer Provinzen zukommen zu lassen, wobei die Beschreibungen
einen zunehmend größeren Kodifizierungsgrad hatten. Dieses System von En-
queten ging auf die mittelalterliche Tradition des Fürstenspiegels“ zurück,

der den Fürsten unterrichten sollte und ihm Reflexionen über seine Größe“,

das heißt über die Größe seines Reiches vermitteln sollte, das eine metapho-
rische Erweiterung seines eigenen Körpers darstellte. Allmählich teilte sich
dieses System von Enqueten in zwei Teile auf: zum einen in eine allgemeine
und beschreibende Tabelle, die dem König vorbehalten war, und zum anderen
in eine Gesamtheit von speziellen, quantifizierten und periodischen Erkennt-
nissen, die für die Verwaltungsbeamten bestimmt waren.
Für den König handelte es sich dabei um eine methodische Darstellung,
die in ihrem Geist und Inhalt der deutschen deskriptiven Statistik ziemlich
nahe stand. Diese Beschreibung zeigte aus einer statischen und juristischen
Perspektive, worin die Macht des Königs bestand – gemessen durch die Höhe
der Steuern und die Funktionstüchtigkeit der Institutionen. Auf diese Weise
wurden der Rahmen und die Grenzen seines Handelns abgesteckt. Die Dar-
stellung beschrieb eine unveränderliche Ordnung. Im Fürstenspiegel war die
Vielfalt der Sitten und Gebräuche aufgezeichnet, aber es ging nicht darum,
diese zu ändern. Die Analyse wurde vom Standpunkt des Königs und seiner
Macht durchgeführt und hatte deswegen wenig mit dem Zustand der Gesell-
schaft, ihrer Ökonomie oder mit einer genauen Zählung der Einwohner zu tun.
Ein Archetyp dieser Art von Beschreibung war die Reihe der von den Inten-
danten zwischen 1697 und 1700 verfaßten Mémoires, die das Ziel verfolgten,
den Thronfolger Herzog von Bourgogne auf der Grundlage eines Programms
zu unterweisen, das von Fénelon angeregt worden war.
Ganz anders waren die Informationen beschaffen, die ab Ende des 17. Jahr-
hunderts durch und für die Verwaltungsbureaus gesammelt wurden, und zwar
nicht zu pädagogischen Zwecken, sondern aus direkteren und praktischeren
Erwägungen. Diese mit der Entwicklung der administrativen Monarchie und
deren Dienststellen zusammenhängenden Enqueten waren weniger ortsbezo-
gen, dafür aber spezialisierter und sehr viel quantitativer angelegt; sie bezo-
gen sich auf Volkszählungen, Vorratsbestände und Preise. Häufig verfolgten
diese Erhebungen fiskalische Ziele. Vauban verfaßte 1686 mit dem Ziel einer
Steuerreform eine Allgemeine und leichte Methode zur Durchführung von

Volkszählungen“ (Méthode générale et facile pour faire le dénombrement des
peuples), die er später in seinem Königszehnt“ (dı̂me royale) weiterführte.

Im Jahre 1684 wurde eine Zählung der Gesamtbevölkerung als Grundlage für
32 1 Präfekten und Vermessungsingenieure

die erste Kopfsteuer vorgeschlagen. Die durch Hungersnöte, Epidemien und


Kriege bewirkten Notstände waren in den Jahren 1693 und 1720 (Pest in Mar-
seille) der Grund für Teil-Enqueten zur Bevölkerung und zu den Vorräten. In
der Folge wurden nach und nach spezialisierte und regelmäßige Statistiken er-
stellt, die nichts mit Dringlichkeitsfällen oder Steuerreformen zu tun hatten.
Die wichtigsten dieser Statistiken waren: die von Abbé Terray 1772 veran-
laßten jährlichen Verzeichnisse der Geburten, Heiraten und Sterbefälle (diese
Verzeichnisse waren der Ausgangspunkt für die vom Standesamt herausgege-
ben Statistiken zur Bevölkerungsbewegung), die Registrierungen der Preise
für Landwirtschafts- und Industrieprodukte – die Preise wurden jede Woche
nach Paris geschickt und ermöglichten die Erstellung einer allgemeinen Ta-

belle des Königreiches“ – und schließlich von 1775 bis 1786 ein von Montyon
verfaßtes Verzeichnis der Strafurteile, das ein Vorläufer der Moralstatistik von
Quetelet war.
Auf diese Weise wurden Zählpraktiken und regelmäßige Statistiken ein-
geführt, die sich auf exakt umrissene Bereiche bezogen, nationalen Charakter
hatten und nicht den Umweg über lokale Beschreibungen gingen; insbeson-
dere war eine Beschreibung der zeitlichen Entwicklungsprozesse beabsichtigt.
Ausgangspunkt waren die Registrierungen, die mit der ständigen Verwaltung
der staatlichen Behörden zusammenhingen. Alle diese Merkmale bildeten ein
Konstrukt, das sich von den verbalen Beschreibungen eines Conring oder eines
Fénelon unterschied und ein Vorbote der Praktiken der statistischen Bureaus
des 19. Jahrhunderts war. Es gab jedoch einen wesentlichen Unterschied: Die-
se Beschreibungen waren – ganz gleich, ob für den König oder seine Admi-
nistration bestimmt – geheim und an das königliche Vorrecht gebunden. Die
Beschreibungen waren nicht dazu vorgesehen, eine vom Staat verschiedene
Zivilgesellschaft aufzuklären und eine eigenständige öffentliche Meinung zu
fördern. Die beiden letztgenannten Dinge erfuhren erst in den Jahren nach
1750 eine immer größere Bedeutung und brachten ihrerseits Wissensformen
hervor, die sich getrennt von den Wissensformen der Regierung entwickelten.
Außerhalb der Regierung entwickelte sich eine private Tradition der Gesell-
schaftsbeschreibung. Reiseberichte, geographische Analysen von Orten, Kom-
pilationen über den Boden, die Sitten und Gebräuche und über die Ökonomie
wurden von lokal ansässigen Gelehrten, Wissenschaftlern, Ärzten und Juri-
sten verfaßt, die von der neuen Philosophie der Aufklärung beflügelt waren
und sich in Gesellschaften und Reformklubs versammelten. Dort diskutierten
und formulierten sie diejenigen Themen, die 1789 die Oberhand gewannen.
Von großer Bedeutung war hierbei die Gruppe der Ärzte, denn deren Ein-
fluß setzte sich bis ins späte 19. Jahrhundert in der Bewegung der Hygieni-
ker fort (Lécuyer, 1977, [172]), die vergleichbare Vorstellungen hatten. Diese
Ärzte entwickelten Luft- und Klimatheorien, die von Hippokrates11 und Ga-
11
Hippokrates (von Kos), der Vater der Medizin“, wurde um 460 v. Chr. geboren

und starb um 380. Nicht zu verwechseln mit seinem Namensvetter, dem Mathe-
matiker Hippokrates von Chios, der insbesondere wegen seiner Beiträge zu den
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 33

len12 inspiriert worden waren. Auf der Grundlage dieser Theorien ließen sich
Krankheiten entsprechend der geographischen Umgebung interpretieren. Das
ermunterte diese Ärzte dazu, detaillierte lokale Enqueten zu organisieren, bei
denen die pathologischen Erscheinungen in Beziehung zu den verschiedenen
natürlichen, ökonomischen und sozialen Merkmalen der betreffenden Orte ge-
setzt wurden. So führte im Jahre 1776 Vicq d’Azyr, der Generalsekretär der
Société royale de médicine eine Enquete bei allen französischen Ärzten mit
dem Ziel durch,
... einen topographischen und medizinischen Plan Frankreichs (zu er-
stellen), in dem das Temperament, die Konstitution und die Krank-
heiten der Einwohner aller Provinzen oder Kantone unter Bezugnah-
me auf die Natur und die Bodennutzung erfaßt werden. (Zitiert nach
Bourguet, 1988, [27].)
Das Geheimnis, das die Ergebnisse der administrativen Enqueten umgab,
regte diese Gelehrten zu Schätzungen an, die – ausgehend von Stichproben
und Rechenumwegen, wie es bei der Anwendung des Bevölkerungsmultiplika-
tors der Fall war – auf partiellen Informationen beruhten und in ihren Me-
thoden der englischen politischen Arithmetik nahestanden. Aber diese alge-

braischen“ Kunstgriffe, die auf das Fehlen empirischer Daten zurückzuführen
waren, hatten in beiden Ländern jeweils andere Gründe. In England war die-
ser Mangel das Zeichen einer liberalen Orientierung der Macht. In Frankreich
dagegen resultierte er aus den Geheimhaltungsbestrebungen des königlichen
Absolutismus, der die Informationen für sich behielt. Es standen sich somit
zwei konträre Methoden der Staatsführung gegenüber.
Parallel zur Staatsmacht entwickelte sich die optimistische Vorstellung,
daß eine auf Mathematik und empirischen Beobachtungen beruhende Ratio-
nalität zu einer Objektivität und somit zu einer Transparenz führen kann,
die gleichermaßen auf Beschreibungen und Entscheidungen zutrifft. Das erst-
genannte, beschreibende Element wurde durch die Werke von Laplace zur
Theorie der Beobachtungsfehler in der Physik und zum Bevölkerungsmultipli-
kator repräsentiert. Das zweite, sich auf Entscheidungen beziehende Element,
trat in den Untersuchungen von Condorcet13 auf, der eine Algebra des Men-

schen“ in der Gesellschaft anstrebte, eine soziale Mathematik“, welche mit

Hilfe der Wahrscheinlichkeitsrechnung die Entscheidungen von Geschworenen
oder gewählten Volksvertretungen zum Ausdruck bringt.
Die Formalisierungen bezogen sich in manchen Fällen auf spezielle Schätz-
oder Entscheidungsprobleme und lieferten präzise Lösungen dieser Probleme.
sogenannten klassischen Probleme der griechischen Mathematik (Kreisquadratur,
Würfelverdoppelung, Winkeldreiteilung) berühmt wurde.
12
Galen (Galenos) lebte von ca. 130 bis 200 in Pergamon.
13
Marquis de Condorcet, Marie-Jean-Antoine-Nicolas Caritat (1743–1794). Fran-
zösischer Adliger, der durch seine Verbindung zum Minister Turgot politischen
Einfluß hatte; nahm aktiv an der Französischen Revolution auf der Seite der
Girondisten teil.
34 1 Präfekten und Vermessungsingenieure

Es konnte aber auch vorkommen, daß die Formalisierungen der Ausdruck ei-
nes umfassenderen, systematischeren Bestrebens waren und in dieser Hinsicht
der deutschen Statistik nahestanden, wobei jedoch andere Werkzeuge ver-
wendet wurden. So verhielt es sich zum Beispiel im Fall der Physiokraten, die
eine allzu leichte Versuchung zum Rechnen“ denunzierten. Im Unterschied

zu den oben erwähnten traditionellen deutschen Statistikern kritisierten sie
jedoch weniger die Tatsache, daß auf Rechnungen zurückgegriffen wurde, son-
dern vielmehr die Auswahl der berechneten Größen und die Tatsache, daß
sich diese Größen – ihrer Meinung nach – in kein relevantes globales Kon-
strukt einfügten. So machte etwa Dupont de Nemours in einem Brief zur

Notwendigkeit, die Vorratsberechnungen mit den Volkszählungen in Überein-
stimmung zu bringen“ (1766) folgende ironische Bemerkung über
... alle diejenigen Schreiber, die sich in ihren Arbeitszimmern penibel
damit befassen, die Eintragungen in den Geburten- oder Sterberegi-
stern zu addieren und willkürliche Multiplikationen durchführen, um
die Menschen zu zählen ..., die sich einbilden, durch ihre Berechnun-
gen – die überhaupt nichts mit den Berechnungen von Reichtümern
zu tun haben – die Macht und die Prosperität der Nation beurtei-
len zu können ..., und die es als Gefangene dieser ihrer Vorstellung
vernachlässigen, ihren Eifer und ihre mühevolle Tätigkeit darauf zu
verwenden, den Zustand des Fortschritts und der Arbeiten auf dem
Gebiet der Kultur, den Zustand der Produkte und vor allem den Zu-
stand des Nettoproduktes kennenzulernen (Dupont de Nemours, zi-
tiert von Bourguet, (1988), [27].)
Mit Quesnay kam die Idee der allgemeinen Konstruktion einer Menge auf,
die nicht nur ein formales logisches System bildete, wie bei den Deutschen in
Göttingen, sondern einen deskriptiven Rahmen darstellte, der die verschiede-
nen Schätzungen durch das berühmte tableau économique“ 14 ( Wirtschafts-
” ”
tableau“) miteinander verknüpfte. (Schumpeter, 1983, [254].) Diese Idee – die
in vielerlei Hinsicht dem ähnelte, was die Kalkulatoren“ der volkswirtschaft-

lichen Gesamtrechnung seit Beginn der 1940er Jahre behaupteten – vereinigte
die Forderung nach einer zumindest potentiellen Totalität der von der deut-
schen Scholastik stammenden Systeme mit der Forderung der Arithmetiker
nach Messungen. Nun bedeutet die Messung eines Dings auch eine Prüfung
der Konsistenz dieses Dings, denn es wird mit der Eigenschaft der Exterio-
rität und der Unabhängigkeit von seinem Erfinder oder seinem Beobachter
14
Das tableau économique“ beinhaltet die zahlenmäßige und grafische Darstellung

des makroökonomischen Prozesses. In einem enthusiastischen zeitgenössischen
Kommentar heißt es: Ich habe mir gestattet, diese Figuren mit dem Einverständ-

nis des großen Meisters gesondert anzuführen, dessen schöpferischer Genius die
wunderbare Idee dieses Schaubildes erfand, das allen Augen das Ergebnis der
höchsten Wissenschaft vorführt und das diese Wissenschaft in ganz Europa zum
ewigen Ruhm seiner Erfindung und zum Wohl des Menschengeschlechts dauernd
lebendig halten wird.“
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 35

ausgestattet (je nachdem, ob es sich um die relativistische oder um die reali-


stische Auffassung handelt). Wird ein Ding auf diese Weise durch eine Mes-
sung konsistent (objektiv) gemacht, dann läßt es sich in einen Mechanismus
integrieren, in ein System von Dingen, die unabhängig von ihrem Konstruk-
teur zusammengehalten werden. Im vorliegenden Fall ist der Mechanismus ein
Modell , das die Gesellschaft nicht nur durch eine Nomenklatur, sondern auch
durch Messungen simuliert. Die Diskussion über den Realismus des Objekts
bekommt hier einen neuen Aspekt – den Aspekt des Realismus des betreffen-
den Mechanismus, das heißt des Modells. Der Modellbegriff hat verschiedene
Konnotationen, die sich durch deskriptiv“ (vereinfachtes Schema), kausal“
” ”
(Erklärungskette), normativ“ (zu imitierende Form) oder wahrscheinlich-
” ”
keitstheoretisch“ (hypothetisches System der Verteilungen von Zufallsvaria-
blen) umschreiben lassen. Mehrere dieser Konnotationen traten bereits im
Konstrukt von Quesnay auf, das gleichzeitig deskriptiv (Einteilung von Wirt-
schaftssubjekten und Messung ihres Handelsverkehrs), explikativ (Funktion
der Landwirtschaft) und präskriptiv (Befreiung von den Fesseln des Handels
und der Industrie) sein wollte. Auf diese Weise entstand der Begriff des em-
pirischen Modells, aber es sollte noch über ein Jahrhundert dauern, bis die
Werkzeuge zur Prüfung der Solidität dieses Modells konstruiert wurden.
Ob nun staatlich oder privat: die im Frankreich des Ancien Régime prak-
tizierten Arten der Beschreibung und Kalkulation vertraten – wie von den
Zeitgenossen allmählich wahrgenommen wurde – eine Vielzahl von Positio-
nen, die zwischen den beiden Polen der deutschen und der englischen Tra-
dition angesiedelt waren. So findet man zum Beispiel in den Arbeiten der
Physiokraten das systemorientierte Streben der deutschen Richtung und das
Streben der englischen Richtung nach quantifizierter Objektivierung wieder.
Die wichtigste Tatsache dieses Zeitraums gegen Ende der Monarchie ist jedoch,
daß es immer noch eine Trennung gab – eine Trennung zwischen den von der
königlichen Verwaltung durchgeführten Enqueten, die dem eigenen Gebrauch
vorbehalten waren, und den Untersuchungen, die außerhalb des Staates durch-
geführt wurden. Die letztgenannten Untersuchungen waren vom neuen Geist
der Aufklärung getragen: Zirkulation und Öffentlichkeit des Wissens waren
nach dieser Auffassung wesentliche Bedingungen für den gesellschaftlichen
Fortschritt. Die mehr oder weniger mühelose Verarbeitung dieser Forderung
im Staat neuen Typus, der nach 1789 errichtet wurde, stellte demnach ein
entscheidendes Moment dar, das nach langem Herumtasten zu einer Neudefi-
nition des Begriffes Statistik führte und dem Wort einen anderen Inhalt gab,
auch wenn diese Definition im gesamten 19. Jahrhundert der Gegenstand von
Debatten geblieben ist (Armatte, 1991, [5]).
36 1 Präfekten und Vermessungsingenieure

Revolution und Erstes Kaiserreich:


Die Adunation“ Frankreichs15

Der Zeitabschnitt von 1789 bis 1815 war entscheidend für die Bildung poli-
tischer, kognitiver und administrativer Werkzeuge, die der statistischen Be-
schreibung der sozialen Welt (im Vergleich zu anderen Beschreibungsarten)
und der französischen Statistik (im Vergleich zur Statistik anderer Länder)
eine eigene Originalität verliehen. Die obengenannten konträren Konzepte
prallten mitunter hart aufeinander. Die Konfrontationen fanden im Verlauf
wohl abgegrenzter Perioden statt, in denen ruckweise auftretende Dringlich-
keitsfälle, großangelegte deskriptive Bestrebungen und schließlich fast rou-
tinemäßige statistische Reihen aufeinander folgten (Woolf, 1981, [288]). Zwi-
schen 1789 und 1795 konzipierte man Zählungen und spezielle Enqueten, aber
aus ihnen ist nichts geworden, denn sie wurden in Notlagen, Armuts- und
Kriegszeiten in die Wege geleitet und es fehlte eine adäquate Verwaltungs-
infrastruktur. Danach organisierte man in den Jahren von 1795 bis 1806 in
den neuen Departements Vollerhebungen, deren Geist mit dem der deutschen
Statistik vergleichbar war. Und schließlich wurden zwischen 1806 und 1815 re-
gelmäßige quantitative Statistiken eingeführt, vor allem Landwirtschafts- und
Gewerbestatistiken.
Das Vorhaben der Konstruktion von Äquivalenzen war während des Vier-
teljahrhunderts zwischen der Revolution und dem Ersten Kaiserreich beson-
ders spektakulär. Hierbei handelte es sich sogar um einen der Momente der
Weltgeschichte, in dem diese Konstruktion gewollt, durchdacht und syste-
matisch in kurzer Zeit und in Bezug auf viele Fragen umgesetzt wurde: das
metrische System und die Vereinheitlichung der Maße und Gewichte (zum Bei-
spiel wurden die Längenmaße vereinheitlicht und auf logische Weise durch ihre
Relation zum Meter ausgedrückt); die Verbreitung der französischen Sprache
und die Reduzierung der Mundarten (durch Armee und Schule); die Uni-
versalisierung der Menschenrechte ( Frei und gleich an Rechten werden die

Menschen geboren und bleiben es“ 16 ); die Abschaffung der Adelsprivilegien
und der Zünfte; die Schaffung des Bürgerlichen Gesetzbuches (inspiriert durch
ein allgemeines natürliches Menschenrecht, das nicht an eine besondere Ge-
sellschaft gebunden ist) und die Aufteilung des (durch die Abschaffung der
Sonderrechte bestimmter Provinzen homogen gemachten) Landesterritoriums
in Departements, die identisch organisiert waren und eine vergleichbare Größe
hatten. Einige dieser Versuche zur Transformation der Bezugsrahmen in Natur
und Gesellschaft scheiterten jedoch, wie zum Beispiel der Revolutionskalender,
vielleicht weil er – im Unterschied zu anderen Reformen – zu keiner univer-
selleren, rationelleren und ökonomischeren Kodierung der Zeit geführt hatte.
15
Der Begriff Adunation“ geht auf das spätlateinische Substantiv adunatio“ (Ver-
” ”
einigung) zurück, das sich vom Verb adunare“ ( zu Einem machen“) ableitet.
16 ” ”
Les hommes naissent et demeurent libres et égaux en droits“. (Beginn des Ersten

Artikels der Erklärung der Menschen- und Bürgerrechte.)
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs 37

In diesem Fall wurden die Investitionskosten, die zur Änderung des christ-
lichen Kalenders erforderlich waren – einer Form, die das Papsttum bereits
seit Jahrhunderten dauerhaft vereinheitlicht hatte – nicht durch nachträgliche
signifikante Einsparungen kompensiert, wie es bei den anderen, erfolgreichen
Reformen der Fall war: Hier ist der doppelte Aspekt der Forminvestition er-
kennbar, nämlich der kognitive und der wirtschaftliche Aspekt.
Alle diese metrologischen, juristischen und taxonomischen Konstruktionen
hatten das grundsätzliche Ziel, physikalische Messungen, Urteilssprüche und
Kodierungen identisch wiederholbar, übertragbar und generalisierbar zu ma-
chen. Dadurch sollten die Konstruktionen eine theoretische Unabhängigkeit
von den singulären und lokalen Umständen erhalten. Man verfolgte damit die
Absicht, die Gerechtigkeit in den zwischenmenschlichen Beziehungen ebenso
zu gewährleisten, wie die Genauigkeit bei der Eichung von Dingen. Die Uni-
versalität und Transparenz des Systems der Maße und Gewichte ermöglichte
es also, Betrügereien beim Warenaustausch zu vermeiden; die administrativen
und juristischen Formen der Kodierung waren dagegen unerläßlich, wenn man
den Dingen eine objektive Konsistenz geben wollte, ohne die sie nicht gezählt
werden konnten: Heiraten, Verbrechen, Selbstmorde und später Betriebe, Ar-
beitsunfälle und Arbeitslose.
Die sichtbarste Manifestierung dieser Homogenisierungs- und Kodierungs-
arbeit in Bezug auf zahlreiche Aspekte des menschlichen Lebens war die Ver-
einheitlichung des nationalen Territoriums, denn es wurden viele Dinge und
Vorschriften neu definiert und verallgemeinert, die vorher nur auf lokaler Ebe-
ne oder auf Provinzebene spezifiziert waren. Diese komplexe, kostenaufwendi-
ge und oftmals quälende Arbeit wurde von Sieyès, einem der dabei beteiligten
Hauptakteure, als Adunation bezeichnet, womit die gewollte Vereinheitlichung
der Bezugssysteme gemeint ist. Ein bedeutendes Ereignis war die Einteilung
in Departements, die Ende 1789 von der verfassunggebenden Versammlung in-
nerhalb weniger Monate durchgeführt wurde (Ozouf Marignier, 1986, [217]).
Das Prinzip bestand darin, ein bereits vereinigtes Ganzes – die Nation – auf-
zuteilen, und nicht einfach nur die früheren Entitäten (das heißt die Provin-
zen) mit ihren einzelnen Merkmalen zusammenzufassen. Deswegen wurde die
Aufteilung auf der Grundlage allgemeiner, von der Versammlung definierter
Kriterien durchgeführt und nicht auf der Grundlage lokaler Zufälligkeiten. (Es
gab sogar den extremen Plan, für die Aufteilung ein durch die Längen- und
Breitengrade definiertes quadratisches Gitternetz zu verwenden.)
Zu diesen Kriterien gehörte, daß die Flächen der Departements von glei-
cher Größenordnung sein mußten und die Präfekturen so zu errichten waren,
daß man sie von einem beliebigen Punkt des jeweiligen Departements in einer
Tagesreise erreichen konnte; die Unterpräfekturen mußten so gelegen sein, daß
man die Hin- und Rückreise an einem Tage bewältigen konnte. Die Namen der
Departements wurden von Fluß- oder Bergnamen abgeleitet und man vermied
die Bezeichnungen der alten Provinzen. Auf Drängen der von ihren Regionen
entsandten Emissäre versuchten die Abgeordneten mitunter, die Wahl gewis-
ser Namen zu beeinflussen. Aber das widersprach dem Grundprinzip, daß sie
38 1 Präfekten und Vermessungsingenieure

die kollektiv gewählten Vertreter der ganzen Nation und nicht Delegierte ih-
rer Provinz waren. Durch diese nationale Vorschrift waren die Volksvertreter
gezwungen, den betreffenden Forderungen zu widerstehen und genau dieser
Umstand ermöglichte es überhaupt erst, die Arbeit innerhalb einer so kur-
zen Frist durchzuführen. Das allgemeine Prinzip bestand darin, tabula rasa
mit einer Gesellschaft zu machen, die zuvor durch Privilegien, provinzbezo-
gene Steuergesetzgebungen und lokalen Aberglauben charakterisiert war. Die
Departements (im Jahre 1789) und die Präfekten (die 1800 eingesetzt wur-
den) sollten die Instrumente“ dieser Adunation sein, das heißt der politisch-

kognitiven Konstruktion eines gemeinsamen Meßraumes mit der Skala der
einen und unteilbaren Nation. Der Vorgang der Adunation wurde durch eine
monumentale statistische Erhebung in Gang gesetzt, für die exakt die neuen
Präfekten verantwortlich zeichneten.
Zwischen 1789 und 1800 durchlebte Frankreich eine Zeit, in der die Be-
strebungen zur Neugründung der Gesellschaft mit ausgeprägten politischen,
ökonomischen und militärischen Krisensituationen einhergingen. Diese Kri-
sen entfachten das heftige Verlangen, die Gesellschaft in allen ihren Aspekten
zu beschreiben, um sie umzugestalten. Deswegen gab es zahlreiche Pläne für
Volkszählungen und detaillierte Enqueten – insbesondere sollte dem neuen
Rahmen der Departements auch ein Inhalt gegeben werden. Die Dringlich-
keiten der Krisen führten jedoch dazu, daß die Informationsanforderungen
der Zentralregierung in unzusammenhängender Aufeinanderfolge am Bestim-
mungsort eintrafen, kaum kontrolliert wurden und im Allgemeinen folgenlos
blieben (Gille, 1964, [108]).
Der 18. Brumaire17 (9. November 1799) führte zur Installation einer star-
ken und autoritären Macht, welche die früheren ehrgeizigen Pläne umsetz-
te, Gesetze erließ und effiziente Einrichtungen gründete. Hierzu gehörten das
Bürgerliche Gesetzbuch ebenso wie Universitäten, Lyzeen, Präfektorialver-
waltungen, statistische Bureaus und Zählungen. Aber in der Statistik folg-
ten zwei ziemlich unterschiedliche Momente aufeinander, die in einem signi-
fikanten Gegensatz zueinander standen: Erhebungen nach deutschem Vor-
bild und eingeschränkte, direkt anwendbare Statistiken. Die unterschiedlichen
Beschreibungs- und Formalisierungsweisen der sozialen Welt, über die gerade
erst in philosophischen Zirkeln und außerhalb der königlichen Verwaltung de-
battiert worden war, konnten jetzt von denjenigen mobilisiert werden, die – in
erster Linie im Innenministerium – für die dringlichsten Bedürfnisse Abhilfe
schaffen sollten und gleichzeitig die Grundlagen für ein umfassendes Beschrei-
bungsmodell der französischen Gesellschaft schaffen mußten. Das war bereits
bei François de Neufchâteau der Fall, der als Minister zwischen 1797 und
17
Der brumaire war die historische Bezeichnung des zweiten Monats des republi-
kanischen Kalenders (vom 22.-24. Oktober bis zum 20.-22. November). Journée
du 18 Brumaire bezeichnet den 9. November 1799 (Jahr VIII der Republik), der
Tag, an dem Bonaparte durch einen Staatsstreich das Direktorium stürzte und
den Rat der 500 auflöste.
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs 39

1799 regelmäßig an die Städte und Departements Rundschreiben verschickte,
in denen er Informationen aller Art anforderte.
Auf Anforderung der neuen Administration sammelte man also sämtliche
Arbeiten, die von lokal ansässigen Gelehrten, wissenschaftlichen Gesellschaf-
ten, Ärzten und Philanthropen verfaßt worden waren, die früher in allen Win-
keln des Königreiches unkoordiniert wirkten. Der Wissensdurst der sozialen
Gruppen, die zwischen 1789 und 1795 die Revolution getragen hatten, wurde
auf diese Weise für den Staatsdienst requiriert. Diese Gruppen waren es, an die
sich François de Neufchâteau und später, nach 1800, Chaptal gewandt hatten.
Ein wichtiger Aspekt dieser neuen Art, Statistik zu betreiben, bestand im Un-
terschied zur Verwaltungsarbeit des Ancien Régime darin, daß die Statistiken
zur Veröffentlichung vorgesehen waren. Der erste, der das tat, war Sébastien
Bottin, der 1799 das Jahrbuch Annuaire politique et économique du Bas-Rhin
herausgab, bevor er ein Almanach-Unternehmen gründete, das später von Di-
dot gekauft wurde, dem Herausgeber der unter dem Namen Bottins“ bekannt

gewordenen Verzeichnisse (Marietti, 1947, [191]). De Neufchâteau begrüßte
diese Verzeichnisse als das erste wahrhaft statistische Werk dieser Art, das

wir in Frankreich haben“ und machte folgende Voraussage: Ich gebe die Hoff-

nung nicht auf, daß sein Name mit dieser Art von Werk verbunden sein wird
und daß man eines Tages unter dem Begriff bottin eines Departements ein
instruktives und vollständiges statistisches Jahrbuch verstehen wird – so wie
man im Zusammenhang mit Berechnungstafeln von einem barème 18 spricht.“
Die Einigung der Nation ging einher mit einer umfassenden Verbreitung
der Kenntnisse über die Regionen, aus denen diese Nation bestand, über die
neuen landwirtschaftlichen und industriellen Produktionstechniken und über
die potentiellen Märkte. In dieser Zeit erfolgte der Übergang der Statistik von
– in Verwaltungsarchiven eingeschlossenen – Manuskripten zu Drucksachen,
die prinzipiell für eine große Öffentlichkeit bestimmt waren. Diese Verschie-
bung hing mit der Tatsache zusammen, daß der republikanische Staat, der
18
Das französische Wort barème bezeichnete zunächst Rechenbücher und später
auch Tabellen. Das Wort bedeutet heute u.a. Berechnungstafel, Tabelle, Tarif und
kommt zum Beispiel in der Zusammensetzung barème des salaires“ (Lohntabelle)

vor. Der Vergleich zwischen bottin und barème ist aufschlußreich. Es handelt sich
in beiden Fällen um die Bezeichnungen von Standardisierungswerkzeugen. Die
Personen, von denen sich diese Bezeichnungen ableiten, sind durch die Launen des
Schicksals in der Anonymität verschwunden. Über François Barème (Franciscus
Barreme), den französischen Adam Ries“, heißt es in dem Werk Fortsetzung
” ”
und Ergänzungen zu Christian Gottlieb Joechers allgemeinem Gelehrten-Lexico,
worin die Schriftsteller aller Staende nach ihren vornehmsten Lebensumstaenden
und Schriften beschrieben werden“ (Leipzig 1784): Ein nützlicher Rechenmeister

zu Paris, welcher von Lyon gebürtig war, und 1703 zu Paris starb. Man hat von
ihm Les Tarifs et Comptes faits du grand Commerce, Paris 1670; worauf es sehr
oft wieder aufgelegt worden“.
40 1 Präfekten und Vermessungsingenieure

zur öffentlichen Sache ( res publica“ 19 ) geworden war, die ganze Gesellschaft

repräsentierte – über den Umweg der durch Wahlen erfolgenden Vertretung,
aber auch durch die Statistik, die zum Spiegel der Nation“ wurde und nicht

mehr lediglich ein Fürstenspiegel“ war. Das Bestreben, der Gesellschaft mit

Hilfe eines Netzes von Präfekten-Enqueten“ ihr eigenes Spiegelbild vor Augen

zu halten, war die primäre Orientierung des neuen Bureau de statistique de la
République. Dieses Bureau wurde 1800 vom Innenminister Lucien Bonaparte
gegründet, den man bald danach durch Chaptal ersetzte.
De Ferrière und Peuchet – bis zum Jahre 1805 die beiden obersten Leiter
dieses Bureaus – gehörten der geisteswissenschaftlichen Kultur an; sie fühl-
ten sich zur deutschen Statistik hingezogen (die Abhandlung Schlözers war
von Donnant ins Französische übersetzt worden) und verhielten sich zurück-
haltend zur Algebra“ der englischen politischen Arithmetiker. Beide wurden

jedoch innerhalb des eigenen Bureaus von Duvillard herausgefordert, einem
Mathematiker, der auf Sterbetafeln und deren Anwendung zur Berechnung
von Leibrenten spezialisiert war. Zwei Kulturen, zwei Erkenntnisweisen und
zwei Anforderungskataloge prallten in wechselseitigem Unverständnis in einer
Zeit aufeinander, als die Humanwissenschaften“ noch nicht in voneinander

abgegrenzte akademische Disziplinen unterteilt waren und die – sich eben erst
herausbildenden – Fachsprachen in direkter Konkurrenz zueinander standen.

Peuchet und Duvillard: schreiben oder rechnen?


Peuchet förderte die schriftliche Beschreibung in Form von Tabellen, die eine
Schilderung und Einprägung ermöglichten, denunzierte aber den reduzieren-
den Charakter der Tabellen, die man mit Skeletten ohne Substanz vergleichen
könne. Duvillard hingegen erhob Anspruch auf die Präzision der Zahlen, die
man durch Vergleiche überprüfen konnte und deren Gesetze sich durch Glei-
chungen darstellen ließen. Es ist interessant, die auf diese Weise typifizierten
Diskurse zu lesen – nicht so sehr im Hinblick darauf, wer Recht hatte“, son-

dern vielmehr in Bezug auf die innere Konsistenz dieser Diskurse. Dabei ist
auch die Untersuchung dessen interessant, mit welchen sozialen und politi-
schen Kräften sich diese Männer liieren wollten, wem sie sagen wollten Seht

her, wie sehr Ihr mich braucht!“ und welche Argumente sie zu diesem Zweck
ins Feld führten.
Peuchet veröffentlichte 1805 ein Werk, dessen vollständiger Titel die da-
hinter stehende Absicht erkennen läßt: Elementare Statistik Frankreichs, ein-
schließlich der Prinzipien dieser Wissenschaft und ihrer Anwendung auf die
Analyse des Reichtums, der Kräfte und der Macht des französischen Empire,
zur Verwendung durch Personen, die ein Studium der Administration wählen.
Er ließ seinem Namen eine Liste von landwirtschaftlichen Gesellschaften und
19
Der lateinische Begriff res publica“ bedeutet Gemeinwesen, Staatswesen, Staat,
” ”
Staatsverwaltung, Staatsgewalt“ (eigentlich öffentliche Sache“).

Peuchet und Duvillard: schreiben oder rechnen? 41

Handelsgesellschaften folgen und gab Beispiele für politische und administra-


tive Instanzen, denen diese Gesellschaften angehörten. Das Wort Admini-

stration“ hatte für ihn eine allgemeine Bedeutung: er verwendete es für die
Verwaltung öffentlicher oder geschäftlicher Angelegenheiten. Er wandte sich
an die betreffenden prominenten Persönlichkeiten, zu deren Kreis er selber
gehörte, und bot ihnen einen umfassenden, deskriptiven, leicht zu lesenden
und leicht zu merkenden Diskurs über den Reichtum, die Kräfte und die

Macht des Empire“ an. In einem Vorwort über die Art, Statistik zu schrei-

ben“ hob er die Qualität der schriftlichen Darlegungen hervor, die sich als
genehm erweisen
... für den französischen Geist, der stets ungeduldig darauf aus ist, den
Zweck einer Arbeit zu kennen und der die Trockenheit der Tabellen
nicht ertragen kann, ganz gleich wie exakt diese auch sein mögen ...
Allgemeine Betrachtungen, nützliche Anwendungen, klare Definitio-
nen und alles, was das Nachdenken durch die Faszination von Diskurs
und Diktion aufrecht erhält, all das ist notwendigerweise Bestandteil
der französischen Bildung. (Peuchet, 1805, [230].)
Es hat den Anschein, daß er weder der deutschen Statistik Recht gab (die
sich schuldig gemacht hatte, eine Unmenge positiver Informationen oder Be-

gründungen in einem Rahmen zu ersticken, der gar nicht dazu gehört ..., in
Nomenklaturen, die fast keine Anwendungen haben ...“) noch den Berechnun-
gen der Vermessungsingenieure“ und der Algebraiker“ 20 . Jedoch richteten
” ”
sich seine Attacken hauptsächlich gegen die letzteren:

Wenn wir die Methode gerügt haben, welche die Statistik dadurch
verfälscht, daß man deren Lehre fremdes oder unnützes Wissen bei-
mengt und dadurch nur Konfusion verursacht, dann ist es unserer
Meinung nach um so mehr berechtigt, diejenigen zurückzuweisen, die
durch enigmatische Formeln, algebraische Berechnungen oder geome-
trische Figuren etwas präsentieren oder analysieren möchten, das man
viel einfacher auf natürliche Weise und ohne Ungereimtheiten zum
Ausdruck bringen kann ... Diese unsere Bemerkungen treffen um so
mehr zu, weil im Übrigen aufgeklärte Personen im guten Glauben ge-
dacht haben, daß sie zum Fortschritt der politischen Ökonomie und
zur Stärkung ihrer Grundsätze beitragen, wenn sie diese mit alge-
braischen Rechnungen gehörig aufplustern. Dabei läßt sich unmöglich
erfassen, wie sich die Berechnungen auf diese von sich aus komplizierte
Wissenschaft anwenden lassen – eine Wissenschaft, die man tunlichst
nicht noch obskurer machen sollte, indem man obendrein noch Schwie-
rigkeiten und metaphysische Abstraktionen einbaut ... (Peuchet, 1805,
[230].)
20
Mit den Algebraikern“ sind hier die (politischen) Arithmetiker gemeint, die mit

Zahlen hantierten“.

42 1 Präfekten und Vermessungsingenieure

Man könnte vermuten, daß Peuchet mit den Methoden der Arithmetiker
nur wenig vertraut war und sich bei diesen Methoden auch nicht besonders
wohl fühlte. Wichtig ist jedoch, daß er seinem Publikum, das er gut kannte,
einen lesbaren und einprägsamen Diskurs anbot, dessen Teile in ihrer Darstel-
lung durch einen roten Faden zusammengehalten wurden und auf einem ver-
einheitlichenden Plan aufbauten, nämlich auf der Analyse der Macht des Em-

pire“ durch eine sukzessive Beschreibung des Territoriums, der Bevölkerung,
der Landwirtschaft, der Industrie, des Handels, der Schifffahrt, des Staats-
haushalts und der Armee. Ansonsten versagte er es sich nicht, ausführlichen
Gebrauch von den Werken der Algebraiker“ zu machen, die er an anderer

Stelle denunzierte. Aber er hatte diese Werke gründlich studiert. Zum Bei-
spiel erwähnte er eine Ermittlung des Gesamtverbrauchs auf der Grundlage

des geschätzten Verbrauchs eines jeden Individuums“ und verglich die drei
Rechenverfahren, die für die Algebraiker typisch waren. Peuchets vehemente
Ausfälle gegen die Algebraiker können dahingehend aufgefaßt werden, daß er
vor sein Publikum trat und dessen vermutete Zurückhaltung gegenüber den
trockenen Tabellen“ zum Ausdruck bringen wollte. Er spielte demnach eher

die Rolle eines Vermittlers und Übersetzers (Callon, 1989, [42]) zwischen den
Formalisierungen der Arithmetiker und den Fragen, die sich die Administra-

toren“ stellten. Die heftigen Seitenhiebe auf die Arithmetiker waren jedoch
ohne Zweifel ungeschickt und verhinderten die Formierung einer Allianz mit
ihnen. Als schließlich Peuchets Lager zu den Verlierern gehörte, mußte De
Ferrière das Statistische Bureau im Januar 1806 verlassen.
Duvillard, der ihn anschließend für einige Zeit ersetzte, verfolgte eine ganz
andere Strategie. Von der Ausbildung her war er Mathematiker und er arbei-
tete vor 1789 beim Allgemeinen Buchprüfungsamt und beim Schatzamt. Er
hatte Sterbetafeln aufgestellt (die von den Versicherungsgesellschaften noch
bis zum Jahre 1880 verwendet wurden) und war Spezialist für die Anwendung
dieser Tafeln auf Probleme der Zahlung von Leibrenten, für die Berechnung
von Altersruhegeldern und für die Tilgung der Staatsverschuldung geworden.
Im Jahre 1791 wurde Duvillard zum Direktor des Bureau d’arithmétique po-
litique ernannt, das von der verfassunggebenden Versammlung auf Veran-
lassung von Condorcet und Lavoisier gegründet worden war. Während der
gesamten Zeit der Revolution und des Konsulats hatte er bei zahlreichen Ge-
legenheiten unter Beweis stellen können, daß seine Techniken bei der Lösung
von Problemen des Schatzamtes unentbehrlich waren. Im Jahre 1805 wurde
Duvillard von De Gérando, dem Staatssekretär des Innenministeriums, zum
stellvertretenden Leiter des Statistischen Bureaus berufen. De Gérando er-
teilte Duvillard die Aufgabe, die von De Ferrière und dessen Untergebenen
durchgeführte Arbeit zu beurteilen. Duvillard nahm Anstoß an dem, was ihm
als vollständiger Mangel an Strenge bei der Kompilation der Tabellen erschien
– vor allem bemängelte er, daß diese Tabellen auf der Grundlage der unvoll-
ständigen und unzusammenhängenden Antworten erstellt worden waren, die
in den im Jahre 1800 durchgeführten Präfekten-Enqueten auftraten. Er gab
seiner Entrüstung am 13. Januar 1806 in einer Denkschrift zur Arbeit des

Peuchet und Duvillard: schreiben oder rechnen? 43

Statistischen Bureaus“ (Mémoire sur le travail du Bureau de statistique) Aus-


druck. De Ferrière hatte das Bureau zwar verlassen, aber es gelang Duvillard
nicht, die Stelle zu bekommen. Im April 1806 wurde Coquebert de Montbret
berufen, ein besonnener und realistischer Verwaltungsbeamter. Im November
verfaßte Duvillard eine Denkschrift zur Wiedereinrichtung der Stelle eines

Vermessungsingenieurs und Kalkulators“ , in der er seine Karriere und die
von ihm durchgeführten Dienstleistungen beschrieb; obendrein äußerte er den
Wunsch, daß seine eigene Kompetenz durch die Gründung eines speziellen,
von ihm selbst geleiteten Bureaus institutionalisiert werden solle. Er schloß
beide Denkschriften, indem er sich als mittelloser Familienvater“ vorstellte

und die Anerkennung seiner Talente einforderte (Reinhart, 1965, [244]; Perrot,
1977, [226]).
In seiner Denkschrift vom Januar erklärte Duvillard präzise, was seiner
Meinung nach die Aufgabe eines statistischen Bureaus sei. Zunächst bemerkte
er, daß niemand daran gedacht habe, die Konsistenz von Objekten dadurch
zu prüfen, daß man sie miteinander vergleicht:

Niemand in diesem Bureau hat offenbar geahnt, daß man die Fak-
ten dazu verwenden kann, sie durch diese selbigen Fakten zu prüfen.
Jedoch stehen sämtliche Fakten in wesentlichen und notwendigen Be-
ziehungen zueinander. Dieselben Gründe, die zur Änderung gewisser
Fakten führen, verursachen auch bei den anderen Fakten Änderungen.
Sieht man sich ihre Beziehungen aufmerksam an, dann kann man die-
se und ihre Gesetze häufig durch Gleichungen darstellen. (Duvillard,
1806, [80].)
Er gab hiernach eine konkrete Beschreibung der beträchtlichen Investitio-
nen, die für eine noch kaum routinierte Administration zur Konstruktion von
Äquivalenzen erforderlich wäre, welche a priori gar nicht existierten. Zu die-
sen Investitionen gehörte der immense Briefwechsel mit den Präfekten und
die bei der mechanischen Arbeit des Bureaus erforderliche Sorgfalt:
... Die Hauptobliegenheit des Leiters dieses Bureaus hätte darin be-
standen: die von den Präfekten übermittelten Zusammenstellungen
aufmerksam zu untersuchen, zu diskutieren und zu vergleichen; die
Fakten zu prüfen und den Präfekten die Bemerkungen mitzuteilen,
die sie hätten machen sollen; die Präfekten aufzufordern, neue Be-
merkungen zu machen und nach den Ursachen von Ergebnissen zu
suchen, die absurd oder außergewöhnlich zu sein scheinen. Nun war
diese Funktion nicht nur nicht erfüllt worden, sondern auch die Form
der Zusammenstellungen, in denen die Fakten abgefragt wurden, er-
wies sich als mangelhaft: die vielen Fehler durch Weglassungen sowie
Additionsfehler in den unvollständigen und gedruckten Tabellen zum
Status der Manufakturen, der Bevölkerung und der Bevölkerungsbe-
wegung machen diese Tabellen zu einem nutzlosen Werkzeug und zei-
44 1 Präfekten und Vermessungsingenieure

gen, daß die mechanische Arbeit des Bureaus nicht mit hinreichender
Sorgfalt durchgeführt worden ist. (Duvillard, 1806, [80].)

Danach stellte er fest, daß die Präfekten nur dann strikte Antworten geben
können, wenn die Administration gewisse Register führt“, das heißt wenn es

eine vorher existierende Form der Aufzeichnung und der Kodierung gibt, deren
Prototyp der Personenstand ist. Fehlen diese Aufzeichnungen, dann müssen
die Statistiker auf Umwegen vorgehen und auf Überlegungen und Rechnungen
zurückgreifen (hierbei handelt es sich um die Art Algebra, die Peuchet zwar
denunziert hatte, selbst jedoch benutzte):
Man kann von den Präfekten nur erwarten, daß sie ein exaktes Fak-
tenwissen haben und daß diese Fakten von den öffentlichen und spezi-
ellen Verwaltungen aufgezeichnet werden. Es gibt eine Menge anderer
wichtiger Fakten und es wird immer schwierig sein, diese vollständig
mit Hilfe von Beobachtungen zu kennen. Beispiele hierfür sind: die
Dauer von Ehen oder Witwenschaften, der Bestand an beweglichen
Gütern, Industrieprodukten, Rohstoffen und bearbeiteten Materiali-
en sowie die entsprechenden Kenntnisse, die sich auf die Bestimmung
dieser Produkte beziehen. Aber häufig läßt sich mit Hilfe der erfor-
derlichen Daten das, was nicht unmittelbar gezählt oder gemessen
werden kann, durch Überlegung, Rechnung und durch eine metho-
dische Kombination der Fakten herausfinden. Hierfür gibt es in den
physikalisch-mathematischen Wissenschaften so manche Beispiele ...
(Duvillard, 1806, [80].)
Zum Schluß antwortete Duvillard Punkt für Punkt auf Peuchets Kritik an
den trockenen Tabellen“. Dabei betonte Duvillard, daß diese Form Verglei-
” ”
che und theoretische Vorstellungen fördert“ und gleichzeitig äußerte er sich
ironisch über Menschen, die durch den verführerischen Glanz eines eleganten

Stils“ in Erscheinung treten:
Isolierte Fakten, die man lediglich im Rahmen einer Zusammenfas-
sung erhält und die einer weiteren Erläuterung bedürfen, können nur
in Denkschriften vorgelegt werden; aber diejenigen Fakten, die mas-
senhaft und mit Detailangaben vorgelegt werden können und auf deren
Genauigkeit man sich verlassen kann, müssen in Tabellen angegeben
werden. Diese Form, welche die Fakten deutlich hervorhebt, erleichtert
Vergleiche, das Erkennen von Beziehungen und theoretische Vorstel-
lungen. Aber zu diesem Zweck sollte man Register führen, wie ich es
in Bezug auf die Bevölkerung getan habe und genau das ist noch nicht
geschehen ...
... In einem Land, in dem man mit Zusammenfassungen lebt und
sich die Menschen mehr mit der Form als mit dem Grund der Dinge
beschäftigen (denn Wissen führt nur selten zu Vermögen), mangelt
es nicht an Menschen mit dem verführerischen Glanz eines eleganten
Peuchet und Duvillard: schreiben oder rechnen? 45

Stils. Die Erfahrung lehrt jedoch, daß es für eine gute Statistik nicht
ausreicht, Pläne, Zusammenfassungen und Zusammenstellungen ma-
chen zu können ... Wie intelligent auch immer jemand sein mag – es ist
für den Betreffenden unmöglich, eine Wissenschaft zu improvisieren,
die Vorstudien und eine fast lebenslange Beschäftigung erfordert: be-
trachtet man den Umfang an Wissen in Ökonomie, politischer Arith-
metik, hervorragender Mathematik und Statistik sowie das Maß an
Scharfsinn, Talent und Genius in Kombination mit dem für eine sol-
che Position erforderlichen Ordnungssinn und Beharrungsvermögen,
dann hat es den Anschein, daß diese Position hinsichtlich der Nütz-
lichkeit und Schwierigkeit nicht allzuweit über den Fähigkeiten der-
jenigen Menschen liegt, die sich durch ihre Schriften in besonderer
Weise auszeichnen. (Duvillard, 1806, [80].)
Diese beiden Männer waren demnach weit komplexer, als es die stereoty-
pen Bilder nahelegen, welche die beiden von sich selbst zeichneten. Peuchet
verwendete die von den Algebraikern erzielten Ergebnisse, wenn sie für ihn
nützlich waren. Duvillard konnte gut schreiben und seinem Stil mangelte es
weder an Bissigkeit noch an Humor; hierauf deutet im obigen Zitat die Wen-
dung durch ihre Schriften“ in einem Satz hin, der offensichtlich auf Peuchet

gemünzt ist. Wenn einer von ihnen dem anderen seine trockenen Tabellen“

und undurchsichtigen Berechnungen“ vorwirft und dann im Gegenzug für

den verführerischen Glanz seines eleganten Stils“ verspottet wird, dann kann

man – jenseits des klassischen Gegensatzes zwischen literarischer und wissen-
schaftlicher Kultur – zwei periodisch wiederkehrende Methoden herauslesen,
mit denen die Statistiker versuchen, ihre Existenzberechtigung nachzuweisen.
In dem einen Fall besteht das Ziel darin, eine einfache und einprägsame Bot-
schaft zu vermitteln, um schlüsselfertig verwendbare Dinge zu produzieren,
auf denen sich Konstrukte einer anderen rhetorischen Natur – zum Beispiel
politischer oder administrativer Natur – aufbauen lassen: Peuchets Bemer-
kung über den Reichtum, die Kräfte und die Macht des Empire“ war von

dieser Art. Im anderen Fall liegt die Betonung jedoch auf Technizität und Pro-
fessionalität, die zur Produktion und Interpretation von Ergebnissen führen,
die weder unentgeltlich noch transparent sind. Im Laufe der Zeit artikulierten
sich diese beiden Diskurse in kultivierterer Form und die Konfrontation lief
weniger rüde ab, als der Gegensatz zwischen Peuchet und Duvillard. Jedoch
war diese Grundspannung ein inhärentes Merkmal der eigentlichen Situation
der Bureaus für Verwaltungsstatistik, deren Glaubwürdigkeit sowohl von der
Sichtbarkeit als auch von der Technizität dieser Bureaus abhing. Die Art und
Weise, in der man an diese Doppelanforderung in Abhängigkeit von der jewei-
ligen Zeitepoche und dem betreffenden Land heranging, zieht sich – ebenso
wie die Art und Weise der Rücktransformierung dieser Doppelanforderung –
wie ein roter Faden durch die Geschichte dieser Bureaus.
Im Falle des napoleonischen Statistischen Bureaus des Jahres 1806 ver-
teidigten beide Protagonisten ihre Standpunkte in einer allzu radikalen Wei-
46 1 Präfekten und Vermessungsingenieure

se und keiner von ihnen konnte sich durchsetzen. Leiter des Bureaus wurde
vielmehr Coquebert de Montbret, ein hoher Beamter, der den unmittelbaren
Bedürfnissen der Verwaltung nahestand. Die ökonomischen Folgen der Kon-
tinentalsperre gegen England führten zu einem Notstand und alle Anstren-
gungen waren darauf ausgerichtet, landwirtschaftliche und gewerbliche Pro-
duktionsreihen aufzustellen. Das Statistische Bureau wurde 1812 geschlossen
– vielleicht deswegen, weil es ihm nicht gelungen war, innerhalb der äußerst
kurz gesetzten Fristen der Forderung Napoleons nach detaillierten Informatio-
nen zur Gesamtheit des Produktionsapparates nachzukommen (Woolf, 1981,
[288]). Von dieser Zeit blieben zum einen die Denkschriften der Präfekten“

erhalten, die in Antwort auf Chaptals Enquete von 1800 verfaßt wurden und
deren Veröffentlichung 1806 eingestellt worden war. Zum anderen blieb auch
ein Versuch erhalten, wirtschaftsstatistische Reihen aufzustellen, aber auch
dieser Versuch wurde abgebrochen (Gille, 1964, [108]).

Wie man Diversität durchdenkt

Die von den Präfekten in Antwort auf Chaptals Fragebogen verfaßten Departe-
ment-Denkschriften wurden vom Statistischen Bureau bis zum Jahre 1806
gesammelt und veröffentlicht. Private Verleger druckten später, bis zum Jah-
re 1830, weitere Denkschriften. Die Historiker hielten diese Unterlagen lange
Zeit für heteroklitische und unvollständige Dokumente, vor allem aber für
unbrauchbar als Quelle numerischer Daten. Das trifft für die quantitative
Wirtschafts- und Sozialgeschichte zu, die sich zwischen 1930 und 1960 im
Anschluß an die Arbeiten von Simiand und Labrousse entwickelte. Für die-
se Historiker setzte die Konstruktion von konsistenten statistischen Reihen –
zum Beispiel in Bezug auf die amtlichen Marktpreislisten und die Erzeugung
landwirtschaftlicher Produkte – voraus, daß strikte präexistente Bedingungen
erfüllt sind: daß nämlich die Registrierungsmodalitäten zeitlich und räumlich
konstant bleiben und auch die Identität der registrierten Objekte erhalten
bleibt. Die Aufgabe der Quellenkritik besteht genau darin, diese Bedingun-
gen zu überprüfen oder vielmehr vorauszusetzen, daß die Objekte und die
Umstände, unter denen sie registriert wurden, hinreichend äquivalent dafür
sind, daß sich deren Reduktion auf ein und dieselbe Klasse als relevant er-
weist. Die Reduktion erfolgt auf der Grundlage einer Debatte über den Zu-
sammenhang zwischen hinreichender Äquivalenz und Relevanz. Diese Frage
ist von grundlegender Wichtigkeit bei der Konstruktion von langen statisti-
schen Reihen in Bezug auf Berufe oder Wirtschaftssektoren. Die Frage ist auch
wichtig, wenn Daten zu den Regionen eines Staates gesammelt werden und
wenn die Registrierungsbedingungen nicht eindeutig kodifiziert worden sind.
Das war genau die Kritik, die Duvillard gegenüber seinen Vorgängern äußer-
te, obschon er einräumte, daß die Präfekten nur von denjenigen Fakten eine

exakte Kenntnis haben können, die von den Verwaltungen registriert worden
sind“.
Wie man Diversität durchdenkt 47

Aber die Bedeutung der Denkschriften der Präfekten ändert sich, wenn
man das eigentliche Vorhaben der Adunation zum Thema der historischen For-
schung wählt und dabei beachtet, daß es sich um einen der wichtigsten Aspek-
te der Französischen Revolution handelt, einen Aspekt, dessen Konsequenzen
sich – unabhängig vom Urteil, das man über ein derartiges Projekt fällt – als
äußerst nachhaltig erweisen. Aus dieser Sicht erscheint Chaptals Enquete als
enormer Kraftakt zur Beschreibung der Diversität Frankreichs im Jahre 1800.
Der Umfang dieser Aufgabe läßt erahnen, welche Anforderungen die Aduna-
tion stellte. Die Sicht der Präfekten auf ihre Departements liefert nicht nur
genaue Informationen über die jeweiligen Departements selbst, sondern zeigt
auch und vor allem, wie sich die Akteure dieses Vorhaben vorstellten, wie
sie die Diversität Frankreichs und die möglichen Hindernisse wahrgenommen
haben, die sich diesem politischen und kognitiven Unternehmen in den Weg
stellten. Die einschlägigen Dokumente, die im Buch von Marie-Noëlle Bour-
guet (1988, [27]) analysiert werden, stellen für den Historiker ein einzigartiges
Material dar.
Die Enquete läßt sich auf mehrere Weisen interpretieren. Erstens: Wie
war die Situation Frankreichs im Jahre 1801? In einer Art Reisebeschreibung
bringt die Enquete eine Vielzahl von Beobachtungen, die mehr von ethnologi-
schem als von statistischem Interesse – im modernen Sinne des Begriffes – sind.
Zweitens: Wie wurde diese Situation gesehen? Wie wählte man die angeblich
relevanten Merkmale aus? Drittens: Welche Hindernisse wurden wahrgenom-
men, die sich dem politischen Plan der Transformation und der Einigung des
Territoriums in den Weg stellten? Die Widerstände, auf die dieser Plan stieß,
enthüllen gesellschaftliche Aspekte, für deren explizite Formulierung es zu-
vor keinen Grund gegeben hatte. Jetzt aber wollte man aktiv auf die Dinge
einwirken und genau deswegen war es erforderlich geworden, die Dinge beim
Namen zu nennen und zu beschreiben. Genauer gesagt: der Übergang vom vor-
revolutionären zum nachrevolutionären Frankreich implizierte nicht nur eine
Änderung des Territoriums, sondern auch eine Änderung der Begriffe und der
Werkzeuge zur Beschreibung dieses Territoriums. Ein überraschender Aspekt
der von den Präfekten verfaßten Denkschriften war der Zusammenprall kon-
kurrierender Analyseschemata, die unter ihrer Feder hervorströmten und sich
miteinander vermengten. Wir nennen zwei Fälle, die für diese taxonomische
Konfusion exemplarisch sind: Wie war die Aufteilung der sozialen Gruppen
und deren Ordnung zu konzipieren? Wie ließ sich die Homogenität oder die
innere Heterogenität dieser Gruppen einschätzen?
Zur Beschreibung der sozialen Gruppen standen drei sehr unterschiedli-
che Schemata zur Verfügung. Das erste Schema war eine Hinterlassenschaft
des Frankreichs der Vergangenheit und wurde 1789 vermutlich vollständig ab-
geschafft: Adel, Klerus und Dritter Stand.21 Die Ständegesellschaft war ver-
21
Die Geistlichkeit war der Erste, der Adel der Zweite Stand in der feudalen
französischen Monarchie. Die Basis beider Stände bildete der feudale Grund-
besitz. Ihre Angehörigen genossen die verschiedensten Privilegien. Den Dritten
48 1 Präfekten und Vermessungsingenieure

schwunden und wurde durch eine egalitäre Gesellschaft ersetzt, in der die

Menschen frei und gleich an Rechten geboren werden und es bleiben“. Das
neue amtliche Schema beruhte auf dem Eigentum und der Einkommensquel-
le. Der Verkauf des verstaatlichten Eigentums und die Aufteilung des Landes
unter zahlreichen neuen Eigentümern verlieh dieser Gruppe eine große Be-
deutung. Die Unterscheidung zwischen Grundstückseigentümern“ und allen

anderen bildete das wesentliche Kriterium des Schemas im Rundschreiben
22
vom 19. Germinal des Jahres IX (9. April 1801). In diesem Rundschreiben
schickte Chaptal den Präfekten den Fragebogen zu, den sie ausfüllen mußten.
Die Präfekten hatten dabei den zahlenmäßigen Umfang der nachfolgenden
Personengruppen anzugeben:
1. Grundstückseigentümer;
2. Personen, die ausschließlich von den Erträgen ihrer Grundstücke leben;
3. Personen, die ausschließlich von Geldeinkommen leben;
4. Vom Staat beschäftigte oder bezahlte Personen;
5. Personen, die von ihrer mechanischen oder gewerblichen Arbeit leben;
6. Ungelernte Arbeiter oder Gelegenheitsarbeiter;
7. Bettler.

Dieses zweite Schema, das also in Form eines Verwaltungsrundschreibens


veröffentlicht wurde, verlieh den Gruppen Konsistenz auf der Grundlage eines
eindeutig objektivierten Kriteriums, des Kriteriums der Einkommensquelle.
Es stellte die Grundstückseigentümer an den Anfang der Liste, danach folgten
die Rentiers und die Beamten. Dagegen wurde die im modernen Sinn als Lohn-
empfänger bezeichnete Gruppe damals noch nicht als eigenständige Gruppe
angesehen, denn in Kategorie 5 waren – in der Terminologie der Zünfte – Ge-
sellen (compagnons) und Meister (maı̂tres) zusammengefaßt. Die zukünftige
Arbeiterklasse war noch weniger erkennbar, da Facharbeiter in Kategorie 5
und ungelernte Arbeiter in Kategorie 6 eingeordnet waren.23
Aber aus den Kommentaren der Präfekten zu den sozialen Unterschieden
zwischen den Bevölkerungsgruppen ihrer Departements geht hervor, daß die-
ses Schema für sie – die Präfekten – einen ziemlichen Nachteil hatte: es machte
keinen Unterschied zwischen aufgeklärten Personen und dem Volk. Mit auf-

geklärten Personen“ war hier die kultivierte Stadtbevölkerung mit ihren ge-
meinsamen Lebensgewohnheiten und Interessen gemeint, durch die sie sich
ziemlich deutlich vom Volk unterschied. Das dritte Schema kam demgemäß in
den Beschreibungen der Lebensweisen zum Ausdruck – es ließ sich aber nur
Stand bildeten alle nichtprivilegierten Klassen und Schichten. Als Generalstände
bezeichnete man die Versammlung der drei Stände im Königreich Frankreich.
22
Der germinal war der siebente Monat (vom 21./22.März bis zum 19./20.April)
des republikanischen Kalenders.
23
Erst nach 1830 begann man, diese beiden Gruppen als eine einzige Klasse auf-
zufassen, die durch die Kämpfe der Arbeiterbewegung miteinander vereint sind
(Sewell, 1983, [257]).
Wie man Diversität durchdenkt 49

schwer objektivieren und die entsprechenden Grenzen konnten immer nur va-
ge angegeben werden. Der Widerspruch zwischen den beiden letztgenannten
Schemata wurde ebenfalls angesprochen. Bestimmte Grundstückseigentümer
(insbesondere auf dem Land) waren nicht sehr zivilisiert“ (und sie waren

mitunter ziemlich arm). Andererseits waren Personen mit Talent“ (Ärzte,

Lehrer) oft keine Grundstückseigentümer.
Dieser Unterscheidung zwischen aufgeklärten Personen und dem gewöhnli-
chen Volk entsprach eine signifikante Unschlüssigkeit bei der Analyse der inne-
ren Heterogenität der beiden Gruppen: Welche dieser großen Gruppen war die
homogenere? Oder besser gesagt: Wie ließ sich diese Homogenität schätzen?
Die Mehrdeutigkeit der auf diese Frage gegebenen Antworten spiegelte die
zahlreichen Möglichkeiten wider, Äquivalenzen aufzustellen. In einigen Fällen
wurden die aufgeklärten Eliten als überall gleich dargestellt: Es erübrigte sich,
sie im Detail zu beschreiben, da ihre zivilisierten Lebensgewohnheiten durch
ein und dieselben Ansprüche vereinheitlicht worden waren (Prozeß der Zi-
vilisierung der Lebensgewohnheiten, vgl. Elias, 1973, [84]). Im Gegensatz zu
diesen Eliten war die Lebensweise des Volkes in eine Vielzahl von lokalen
Sitten und Gebräuchen aufgesplittert, die sich durch Mundarten, Feste und
Rituale auszeichneten und nicht nur von Region zu Region, sondern sogar
von einer Kirchengemeinde zur anderen unterschiedlich waren. Jedoch inter-
pretierten die Präfekten in anderen Fällen die Realität ihrer Departements
auf entgegengesetzte Weise: Nur gebildete Menschen konnten eine markante
Persönlichkeit haben und eine individuelle Lebensweise führen, während die
Leute aus dem Volk als Gruppe in einer großen Masse definiert wurden und
alle gleich waren.
Dennoch erscheinen diese Interpretationen weniger widersprüchlich, wenn
wir – unter erneuter Verwendung der Terminologie von Dumont (1983) – be-
achten, daß die gewöhnlichen Menschen in beiden Fällen entsprechend einem
holistischen Schema auf der Grundlage der Gemeinschaft beschrieben wurden,
der sie angehörten. Im Gegensatz hierzu beschrieb man die Eliten gemäß einem
individualistischen Schema, das die Personen von ihrer Gruppe abstrahierte
und sie theoretisch gleich machte: das also ist das Individuum der Deklaration
der Menschenrechte und der modernen urbanen Gesellschaft. In dieser indi-
vidualistischen Vorstellung sind die Menschen voneinander verschieden, weil
sie frei sind, und alle Menschen sind gleich, weil sie vor dem Gesetz gleich
sind. Der Gegensatz zwischen holistischer und individualistischer Interpreta-
tion ist ein klassisches Schema der Soziologie, wie man es zum Beispiel bei
Tönnies findet, der zwischen Gemeinschaft und Gesellschaft unterscheidet.
Diese Unterscheidung ist vom Standpunkt der Geschichte der statistischen
Objektivierung interessant, denn man findet dementsprechend zwei Linien der
Nutzung und Interpretation von Sozialstatistiken. Die erste Linie erstreckt
sich von Quetelet und Durkheim bis hin zu einem Teil der modernen Makro-
soziologie. Die Vertreter dieser Linie diskutieren über Gruppen, die als mit
kollektiven Eigenschaften ausgestattete Gesamtheiten aufgefaßt und von der
Statistik mit Hilfe von Mittelwerten beschrieben werden. Die zweite Linie, die
50 1 Präfekten und Vermessungsingenieure

sich mit der Beschreibung der Verteilungen individueller Merkmale befaßt,


geht von Galton und Pearson bis hin zu anderen zeitgenössischen Strömun-
gen. Diese Linie weigert sich, irgendeiner Gruppe einen Status einzuräumen,
der sich vom Status der Vereinigung derjenigen Individuen unterscheidet, aus
denen die betreffende Gruppe besteht.
Die Präfekten schwankten in ihren Antworten ständig zwischen den ver-
schiedenen Methoden der Wissenserfassung hin und her (Auswertung von Ar-
chiven, schriftliche Fragebögen, direkte Beobachtungen). Das Zirkular schrieb
ihnen bald quantitative Antworten (Bevölkerung, Berufe, Preise, Ausrüstung,
Produktion), bald verbale Beschreibungen (Religionen, Bräuche, Lebenswei-
sen) vor. Die Präfekten schwankten auch zwischen verschiedenen analytischen
Schemata. In allen genannten Aspekten ist diese Enquete abschreckend für Hi-
storiker und Statistiker, die darauf bedacht sind, mit zuverlässigen Daten zu
arbeiten. Aber wir müssen uns der Tatsache bewußt sein, daß die Produktion
von zuverlässigen Daten mit der Forderung einhergeht, daß das beschriebene
Land bereits aduniert“ (das heißt vereinheitlicht) ist und über Codes zur

Registrierung und Verbreitung von elementaren und standardisierten Fakten
verfügt. Das A-posteriori-Interesse an einer derartigen Enquete besteht darin,
aufzuzeigen, wie sich die Dinge entwickeln, bevor sie sich verfestigen – wobei
dieser Verfestigungsprozeß niemals abgeschlossen ist. Ein Indiz für eine wei-
tere Entwicklung ist, daß im 19. und 20. Jahrhundert der territoriale Aspekt
allmählich seine Wichtigkeit für die nationale Statistik verloren hat, denn die-
se beruhte nicht mehr auf den Totalisierungen der einzelnen Departements,
sondern auf Totalisierungen anderer Art. Auch der Präfekt war nun nicht
mehr ein Mann, der sein Departement im Namen einer zentralen, teilweise
noch virtuellen Behörde erkundete; er wurde vielmehr zu einer Person, die
administrative Maßnahmen einleitete – Maßnahmen, die von einer nunmehr
fest verankerten Behörde formuliert wurden und auf statistischen Messungen
beruhten, die durch die Einigung des Landes möglich geworden waren.
2
Richter und Astronomen1

Die Wahrscheinlichkeitsrechnung – als Verfahren, mit dem die Rationalität


von Entscheidungen in Situationen der Ungewißheit begründet werden soll
– erblickte in einem exakt eingrenzbaren Zeitabschnitt zwischen 1650 und
1660 das Licht der Welt. Ian Hacking (1975, [117]), der das Auftauchen“

(emergence) der Wahrscheinlichkeitsrechnung beschreibt, hebt die anfängliche
Dualität dieses Werkzeugs hervor, das gleichzeitig präskriptiv und deskriptiv,
epistemisch und frequentistisch war. Dabei vergleicht er die Begriffe Glaubens-
grund und Zufall . Überlegungen zu dieser Dualität finden wir bei Condorcet,
der zwischen Glaubensgrund“ 2 und Fazilität“ unterscheidet, bei Cournot,
” ”
der von Chance“ und von Wahrscheinlichkeit“ spricht, und bei Carnap, der
” ”
die induktive Wahrscheinlichkeit“ der statistischen Wahrscheinlichkeit“ ge-
” ”
genüberstellt.
Die Prädominanz der einen oder der anderen Interpretation wird häufig
aus historischer Sicht dargestellt. Demnach scheint der Entscheidungsaspekt
im 18. Jahrhundert (der klassischen Ära der Wahrscheinlichkeitsrechnung“)

sehr wichtig gewesen zu sein, vor allem im Zusammenhang mit den Ver-
fahren, die sich aus dem Satz von Bayes ergeben: Bayes schlug vor, in die
Berechnungen eine unvollständige Information über frühere Ereignisse einzu-
beziehen, wobei sein Ziel darin bestand, die Wahrscheinlichkeit statistischer
Methoden zu messen. Diese Verfahrensweisen wurden in der Folgezeit im 19.
Jahrhundert vom frequentistischen Standpunkt aus angefochten. Die Verfech-
1
Dieses Kapitel zur Genese der wahrscheinlichkeitstheoretischen Argumentation
und deren Anwendung in den Naturwissenschaften ist etwas schwierig für Leser
mit rein geisteswissenschaftlicher Bildung. Für die Lektüre der hiernach folgenden
Kapitel ist jedoch kein vollständiges Verständnis dieses Kapitels erforderlich.
2
Condorcet stellte durch folgende Bemerkung eine Verbindung zwischen Wahr-
scheinlichkeit und Glauben her: Je größer die Wahrscheinlichkeit eines Ereignisses
ist, desto fundierter ist der Grund unseres Glaubens ( motif de croire“) daran,

daß das Ereignis eintritt. Dale (1991, [360]) übersetzt den Begriff durch reason

for belief“ ins Englische; im Deutschen findet man auch die Übersetzung Motiv

zu glauben“.
52 2 Richter und Astronomen

ter dieser Richtung machten einen deutlichen Unterschied zwischen Entschei-


dungen, die sich auf nicht quantifizierbare Urteile stützen (zum Beispiel die
Entscheidungen der Geschworenen eines Schwurgerichts), und Entscheidun-
gen, die auf wiederholten Beobachtungen beruhen, etwa auf den Beobachtun-
gen, die von den entstehenden Einrichtungen für Verwaltungsstatistik gelie-
fert wurden. Den Frequentisten“ kam das Bayessche Verfahren – das eine

kleine Anzahl von Beobachtungen mit einer rein mutmaßlichen A-priori -

Wahrscheinlichkeit“ verknüpfte, um hieraus auf eine besser gesicherte A-

posteriori -Wahrscheinlichkeit“ zu schließen – wie ein Phantasiegebilde vor.
Dagegen erfuhren im 20. Jahrhundert die Überlegungen zur Art und Weise,
in der Entscheidungen in Situationen der Ungewißheit getroffen werden, eine
Neubelebung durch die Arbeiten von Keynes, De Finetti und Savage. Die Dis-
kussionen über den Bayesianismus und seine Bedeutung erlangten erneut eine
erstrangige Wichtigkeit. Man führte Forschungsarbeiten auf dem Gebiet der
experimentellen Psychologie durch, um festzustellen, ob das menschliche Ge-
hirn tatsächlich entsprechend derartigen Verfahren arbeitet (Gigerenzer und
Murray, 1987, [106]).
Das Hin und Her zwischen dem entscheidungsbezogenen und dem be-
schreibenden Standpunkt zieht sich durch die gesamte Geschichte der wahr-
scheinlichkeitstheoretischen Formalisierungen, die gegen 1660 begann.3 Aber
die Fragen, die diese neue Sprache zu beantworten suchte, sind aus sehr viel
ältere Debatten über die Möglichkeit hervorgegangen, über den Zufall nach-
zusinnen – entweder indem man ihm die Entscheidung in schwierigen Fällen
anvertraute, oder indem man die Beurteilung einer ungewissen Zukunft in
die Gegenwart einbezog. Diese Archäologie der Wahrscheinlichkeitsrechnung
wurde von Ernest Coumet (1970, [50]) in einem überaus nützlichen Artikel
rekonstruiert, in dem er diesen Kalkül und die dadurch implizierten Äquiva-
lenzen als Antwort auf ein Problem der Billigkeit 4 oder Fairness darstellte.

Aleatorische Verträge und faire Abmachungen


Der Artikel von Coumet trägt die Überschrift Ist die Theorie des Zufalls

zufällig entstanden?“ Er wies in dieser Arbeit nach, wie die Frage der Gerech-
tigkeit zu den Äquivalenzkonventionen für Erwartungswerte geführt hat – zu
einem Begriff also, der zeitlich vor dem Begriff der Wahrscheinlichkeit zu liegen
scheint. Die Schwierigkeit rührte daher, daß der Zufall – das heißt das unge-
wisse Auftreten eines zukünftigen Ereignisses – zur damaligen Zeit als ein hei-
3
Die mathematische Wahrscheinlichkeitsrechnung, die Statistik und die Philoso-
phie der Wahrscheinlichkeit werden oft als siamesische Drillinge“ bezeichnet.
4 ”
In der lateinischen Formulierung durch aequitas“ ausgedrückt. Dieses Wort hat

u.a. folgende Bedeutungen: Gleichheit, Rechtsgleichheit und Billigkeit (im mo-
ralischen Sinne). Aus dem lateinischen Wort leitet sich das französische équité
(Billigkeit, Angemessenheit, Gerechtigkeit, Rechtlichkeit) und das englische equi-
tableness (Fairness, Billigkeit) ab.
Aleatorische Verträge und faire Abmachungen 53

liges Attribut aufgefaßt wurde, das die Menschen niemals beherrschen würden
– außer wenn sie Gott zurate ziehen. Die thomistische Theologie erkannte in
sehr präzise bestimmten Notfällen die Möglichkeit an, eine Frage durch das
Ziehen eines Loses zu entscheiden, und unterschied zwischen konsultatorischen
Losen (sortes consultatoriae), divinatorischen Losen (sortes divinatoriae) und
divisorischen Losen (sortes divisoriae). Divisorische Lose konnten verwendet
werden um zu entscheiden, wem das betreffende Ding zufällt oder was den

betreffenden Personen zugesprochen werden soll – zum Beispiel Besitz, Ehren
oder Würden“.5 In jedem anderen Fall stellte der Rekurs auf Glücksspiele“

eine schwerwiegende Sünde“ dar.

Würfel und Lose sind bereits im Altertum nicht nur in Glücksspielen ver-
wendet worden; sie waren auch Mittel zur Divination, zur Erforschung des
göttlichen Willens, allenfalls der Zukunft. Das Anrufen einer Gottheit, das
sich im Ziehen von Losen ausdrückt, um besonders heikle Streitfälle zu ent-
scheiden, schien demnach eine gerechte Lösung gewesen zu sein: sie stützte sich
nämlich auf eine Abmachung, die über den prozeßführenden Parteien stand
und daher von ihnen akzeptiert werden konnte. Diese Art Lösung war bereits
vom hl. Augustin erwähnt worden. Für ihn war das Los kein Übel an sich,
sondern zeigte dem zweifelnden Menschen den Willen Gottes an:
Nimm zum Beispiel an, daß du eine überflüssige Sache hast. Du soll-
test sie jemandem geben, der sie nicht hat. Aber du kannst sie nicht
zwei Menschen geben. Erscheinen nun zwei Menschen, von denen kei-
ner über den anderen die Oberhand gewinnt – sei es durch Not, sei es
durch die Bande der Freundschaft zu dir – ist es dann nicht die gerech-
teste Lösung für dich, durch das Los entscheiden zu lassen, welcher
der beiden das erhalten soll, was du nicht beiden gleichzeitig geben
kannst? (Vgl. hl. Augustin, De la doctrine chrétienne 6 , zitiert von
Coumet, 1970, [50].)
Das Ziehen von Losen war für einen Richter eine Art und Weise, das aus-
zuführen, was für ihn auch heute noch eine unabdingbare Pflicht ist – die
Verpflichtung nämlich, ein Urteil zu fällen. Ein Richter kann auf der Grund-
lage eines im Gesetzbuch stehenden Artikels oder aufgrund seiner inneren
Überzeugung entscheiden – das einzige, was er nicht tun darf, besteht darin,
keine Entscheidung zu treffen. Man kann sich ohne weiteres vorstellen, daß
das Los – als Ausdruck eines über den Menschen stehenden Willens – lange
Zeit hindurch in dramatischen Fällen eine Möglichkeit zu bieten vermochte,
5
Gemäß der Doktrin der sortes divisoriae wurde die Aufteilung eines Gutes unter
mehreren Personen durch einen Zufallsmechanismus unter bestimmten Bedin-
gungen als legitim erachtet. Das lateinische Wort sors (Plural: sortes) hat u.a.
folgende Bedeutungen: Losstäbchen, Lostäfelchen, Weissagungstäfelchen; Losen,
Verlosung, Los, Orakelspruch; Teil, Anteil; Los = Schicksal, Geschick.
6
Augustinus, Aurelius (354-430): De doctrina christiana. Deutsch von P. Sigisbert
Mitterer; erschienen 1925 in: Bibliothek der Kirchenväter, Bd. 49, München, Kösel
und Pustet.
54 2 Richter und Astronomen

diese schwere Last erträglicher zu machen. Die Verpflichtung, Urteile sogar in


denjenigen Fällen zu verkünden, bei denen ein Zweifel bleibt, kann mit der
Verpflichtung des Kodierens verglichen werden, das heißt mit der Tätigkeit des
Statistikers, wenn er bei einer Erhebung die Antworten (oder Nichtantwor-

ten“) in Äquivalenzklassen einteilt. Auch für den Statistiker sind zweifelhafte
Fälle eine Last und die Versuchung kann groß sein, dann auf den Zufall zurück-
zugreifen, um sich dieser Bürde zu entledigen. Der Rückgriff auf den Zufall
wird in den sogenannten Hot-Deck -Verfahren formalisiert und systematisiert,
bei denen im Falle einer Nichtantwort“ zufällige Antworten zugeordnet wer-

den. Diese Zuordnung erfolgt entsprechend den Gesetzen für bedingte Wahr-
scheinlichkeiten, die auf der Grundlage der gegebenen Antworten konstruiert
werden. Man kann also die sortes divisoriae, den ungebändigten Zufall eines
abgespannten Kodierers und die Hot-Deck-Verfahren als eine ökonomische Art
und Weise betrachten, in problematischen Fällen den Kopf aus der Schlinge
zu ziehen.
Außer diesen ziemlich unzweideutigen Fällen, in denen sich ein Richter
auf zufällige Entscheidungen als letzten Ausweg verlassen konnte, kam der
Zufall auch in verschiedenen anderen Situationen ins Spiel, deren gemeinsa-
mes Merkmal darin bestand, daß sie sich auf zukünftige unsichere Gewinne
bezogen: Investition von Kapital in den Seehandel, Versicherungen, Leibren-
ten und Glücksspiele. In allen diesen Fällen wird etwas, dessen man sich in
der Gegenwart sicher ist, gegen eine zufällige Bereicherung in der Zukunft
eingetauscht. Ist eine derartige grundlos legitime“ Bereicherung statthaft?

Ebenso wie im Falle von Zinsdarlehen oder Wucher diskutierten die Theolo-
gen erbittert über die Gerechtigkeit von Vereinbarungen, bei denen Menschen
durch zukünftige Ereignisse gebunden werden. So stellte etwa der hl. Franz
von Sales Gewinne infrage, die nicht auf die Bemühungen der Vertragspartner
zurückzuführen sind:
Wir haben uns also geeinigt, werden Sie mir sagen? Das taugt, um
zu zeigen, daß derjenige, der gewinnt, keinem Dritten schadet. Aber
daraus folgt nicht, daß auch die Abmachung selbst nicht ebenso un-
vernünftig ist wie der Einsatz. Denn der Gewinn, der ein Preis für den
Fleiß sein sollte, wird ein Preis des Zufalls, der jedoch keinen Preis ver-
dient, da er ganz und gar nicht von uns selbst abhängt. (hl. Franz von
Sales, Introduction à la vie dévote, 1628, zitiert von Coumet, 1970,
[50].)

Während sich diese Mißbilligung vor allem auf Glücksspiele bezog, konnte
das für den Seehandel erforderliche Risikokapital dagegen – und zwar gera-
de aufgrund des Risikos – zu einem Gewinn führen. Für die mittelalterliche
Theologie war dieser Umstand sogar eine mögliche Rechtfertigung für Zins-
darlehen, die im Allgemeinen verboten waren und mit Wucher gleichgesetzt
wurden (Le Goff, 1962, [175]). Im Übrigen wurden Versicherungsverträge als
zulässig angesehen.
Aleatorische Verträge und faire Abmachungen 55

Auf diese Weise entstand ein ganzer Arbeitskomplex, der sich auf unter-
schiedliche Bereiche bezog (sortes divisoriae, risikobehaftete Darlehen, Ver-
sicherungsverträge, Glücksspiele), aber dazu tendierte, den Begriff einer fai-
ren Abmachung zu formalisieren. So konnte man etwa die sortes divisoriae
aus dem Bereich der Heiligen herausnehmen und als Grundlage für derartige
Abmachungen rechtfertigen. Ebenso erwies es sich im Interesse einer soliden
Rechtsgrundlage für Verträge, die zukunftsbezogene Risiken enthielten, oder
im Interesse der Rechtfertigung eines Glücksspiels als notwendig, daß die Ver-
tragspartner oder die Spieler in den Genuß gleicher Voraussetzungen“ kamen.

Diese Forderung nach Gleichheit, die sich vom Gerechtigkeitsgedanken lei-
ten ließ, eröffnete den Weg zur Konstruktion eines gemeinsamen begrifflichen
Rahmens für Aktivitäten, die im Übrigen vollkommen unterschiedlich waren:
Würfelspiele, Lebensversicherungen und Gewinne, die man von ungewissen
Handelsgeschäften erwartete. Die Glücksspiele sind nur ein Beispiel für aleato-
rische Verträge: derartige Verträge beruhten auf freiwilligen Abmachungen,

denen zufolge der Erwerb eines Vermögens eine ungewisse Glückssache war;
um legitim zu sein, mußten diese Abmachungen bestimmten Voraussetzungen
der Fairness7 genügen“ (Coumet, 1970, [50]). Das Problem der Fairness tauch-
te in der Praxis im Zusammenhang mit Aufteilungen auf, wenn ein Geschäft
oder ein Spiel unterbrochen werden mußte: Wie sind die Gewinne oder die
Einsätze aufzuteilen? Hierbei handelt es sich um einen Spezialfall des soge-
nannten Teilungsproblems. Eine ähnliche Frage, die der Chevalier de Méré an
Pascal gerichtet hatte, war die Grundlage der Pascalschen Wahrscheinlich-
keitsrechnung. Aber diese scheinbar harmlose Frage zur belanglosen Tätigkeit
eines Spielers hing tatsächlich mit den alten Debatten über das Problem der
Gerechtigkeit von Abmachungen zusammen, auf denen aleatorische Verträge
beruhten.
Bei der Einführung seiner neuen Formalisierung lieh sich Pascal natürlich
Ausdrücke aus der Sprache der Juristen, denn das war die Sprache, in der die
zeitgenössischen Debatten geführt wurden. Aber Pascal schuf auch eine neue
Art und Weise, die Rolle eines über den besonderen Interessen stehenden
Schiedsrichters zu spielen – eine Rolle, die früher den Theologen zugekommen
war:

... Die Moralisten, welche die Voraussetzungen zu bestimmen versuch-


ten, die ein Spiel erfüllen muß, um fair zu sein, nahmen eine Positi-
on ein, die über den Begehrlichkeiten und Antagonismen der Spieler
stand; ein Mathematiker, der eine faire Verteilung“ berechnen will,

nimmt einfach nur eine Haltung ein, die noch rigoroser als die Einstel-
7
Im Zentrum der juristischen Debatte über die Doktrin der contrats aléatoires
stand die Frage nach der Billigkeit dieser Kontrakte: die Frage, ob die ungewisse
Aussicht auf ein Gut gegen ein sicheres Gut, einen Geldbetrag, billigerweise auf-
gewogen werden kann; es handelt sich also um die Frage, ob und inwieweit dem
Träger eines finanziellen Risikos ein bestimmter Betrag, eine Prämie, rechtmäßig
zusteht. (Vgl. Hauser, 1997, [397].)
56 2 Richter und Astronomen

lung der Moralisten ist: er ist der Schiedsrichter. (Vgl. Coumet, 1970,
[50].)

Aber worauf konnte sich diese Objektivierung stützen, die es Pascal


ermöglichte, die Position des Schiedsrichters zu definieren – zum Beispiel bei
seiner Beantwortung der Frage des Chevalier de Méré (bezüglich einer fairen
Aufteilung der Anteile im Falle einer Spielunterbrechung)? Die berechneten
Erwartungswerte (oder Nützlichkeitswerte) müssen so beschaffen sein, daß die
Alternativen (Spiel beenden oder fortsetzen) für die Spieler belangslos sind:

... die Regelung dessen, was ihnen gehören sollte, muß in angemessener
Weise dem entsprechen, was sie berechtigterweise vom Glück erwarten
konnten, so daß es für jeden von ihnen vollkommen gleichgültig ist,
ob sie das nehmen, was man ihnen zuteilt, oder ob sie das Abenteuer
des Spiels fortsetzen ... (Pascal, zitiert von Coumet, 1970, [50].)

Man führte also zunächst Äquivalenzen zwischen denjenigen Erwartungs-



werten“ 8 ein, die sich unter Umständen unter den Spielern austauschen ließen
– weil die Werte gleich groß waren –, um dann den Begriff der Wahrschein-
lichkeit einzuführen, indem man den Erwartungswert durch die Höhe des Ein-
satzes dividierte. Diese Erwartungswerte gehörten zum gemeinsamen Wissen
der Spieler und stellten einen Punkt dar, an dem die Kontroversen eingestellt
werden konnten: Man hatte eine Regel, auf deren Grundlage sich das Spiel
unterbrechen ließ, ohne daß sich dadurch einer der Beteiligten verletzt fühlte.
Diese Wesensverwandtschaft der Sorgen von Richtern und Vermessungsin-
genieuren implizierte für beide Berufsgruppen einen gewissen Abstand zum
betreffenden Rechtsstreit oder zur betreffenden Entscheidung: sie mußten sich
in die Position von Zuschauern, unvoreingenommenen Schiedsrichtern oder in
die Lage von Beratern eines Fürsten versetzen.
Tatsächlich verhielt es sich so, daß man diesen Abstand zum Sachverhalt
aus unterschiedlichen Gründen wahrte: entweder um zwischen zwei Spielern
zu schlichten, falls das Spiel unterbrochen werden mußte, oder um einen Tat-
menschen zu beraten, der mit der Wahl zwischen mehreren Entscheidungen
konfrontiert war, deren Konsequenzen von ungewissen zukünftigen Ereignis-
sen abhängen. Es handelte sich aber um dieselben Berechnungen von Erwar-
tungswerten oder Nützlichkeitswerten, an denen sich die Urteile von Richtern
oder die Ratschläge von Beratern orientierten. Im erstgenannten Fall strebte
man ein Fairnessprinzip an, das die Aufstellung von harmonischen zwischen-
menschlichen Beziehungen ermöglichte. Im zweiten Fall ging es um die innere
Konsistenz der von Tatmenschen getroffenen Entscheidungen und um die Su-
che nach einer Rationalität, die unterschiedliche Lebensmomente umfaßte.
Diese Umstände förderten die Akzeptanz des neuen Kalküls, der objektivier-
bar war und sich von einem Fall auf einen anderen übertragen ließ.
8
Der Begriff Erwartungswert“ ist hier im eigentlichen Sinne des Wortes zu inter-

pretieren, das heißt als zu erwartender Wert“.

Aleatorische Verträge und faire Abmachungen 57

Wir müssen jedoch erkennen, daß die Konstruktion derartiger Äquiva-


lenzräume für zukünftige, noch nicht eingetretene, inkompatible und hetero-
gene Ereignissen nur mit Schwierigkeiten zugestanden werden konnte. Man
spürt das sogar, wenn man sich das Pascalsche Wett-Argument noch einmal
durchliest, das auf dieser Art des Vergleichs aufbaute. Wir stellen diese Schwie-
rigkeit auch bei scheinbaren Paradoxa fest, die man heute gut versteht: zum
Beispiel, wenn man die schwierige Wahl zwischen Situation A (garantierter
Gewinn von einer Million Euro) und Situation B (Chance von Eins zu Zehn
für einen Gewinn von zwanzig Millionen Euro) treffen muß. Die Berechnung
der Erwartungswerte führt zur Wahl von B, aber nur wenige rational den-

kende“ Menschen würden eine solche Wahl treffen. Viele würden dagegen A
bevorzugen, das heißt einen sicheren, wenn auch geringeren Gewinn. Wir wis-
sen jetzt, daß die Berechnung der Erwartungswerte (was in diesem Fall zur
Wahl von B verleiten würde) nicht wirklich plausibel ist – es sei denn, man
nimmt den Standpunkt der Frequentisten ein: Würde diese (fiktive!) Auswahl
viele Male (zehnmal? zwanzigmal?) wiederholt werden, dann würde man of-
fensichtlich B wählen. Das dürfte auch der Fall sein, wenn es um die einmalige
Wahl kleiner Beträge ginge (sicherer Gewinn von zehn Euro oder eine Chance
von Eins zu Zehn für einen Gewinn von zweihundert Euro).
Anhand dieser verschiedenen Fälle (Schlichtung, Hilfe bei Entscheidungs-
findungen) erkennt man, daß die – häufig nicht sehr intuitive – probabilisti-
sche Rationalität ihre Berechtigung in einer allgemeinen, alles überschauenden
Sichtweise fand: in der Sichtweise des Richters, der über den prozeßführenden
Parteien steht, in der Sichtweise des Bankiers oder des Versicherers, der mit
zahlreichen Risiken umgeht, oder auch in der Sichtweise eines isolierten Indi-
viduums, das mit Mikro-Entscheidungen konfrontiert ist, die kein großes En-
gagement bedeuten (Wahl zwischen kleinen Geldbeträgen). Es gab also einen
engen Zusammenhang zwischen der Fähigkeit, Äquivalenzräume begrifflich zu
erfassen und zu konstruieren, und der Möglichkeit, derartige alles überschau-
ende Positionen einzunehmen. Die Spannung zwischen objektiver und sub-
jektiver Wahrscheinlichkeit läßt sich folgendermaßen in eine Standpunktfrage
zurückübersetzen: Eine einzige und kontingente Auswahl oder eine allumfas-
sende und verallgemeinerungsfähige Position?
Demnach mußten die ersten Probabilisten“ – ausgehend vom Standpunkt

eines Juristen oder Beraters eines Entscheidungsträgers – große Schwierigkei-
ten überwinden, als sie eine Geometrie“ zur Behandlung disparater Größen

entwickelten und die Menschen davon überzeugen wollten, diese Geometrie
zu akzeptieren. Leibniz wies auf die zögerlichen Versuche und Schwierigkeiten
hin, gleichzeitig an den möglichen Gewinn und an die Wahrscheinlichkeit zu
denken, und beides zu einem einzigen Nützlichkeitswert“ zusammenzusetzen,

ähnlich wie sich die Oberfläche eines Rechtecks durch die Multiplikation von
Länge und Breite ergibt:

Da die Größe der Konsequenz und die des Sukzedenten zwei hetero-
gene Betrachtungen sind (oder Betrachtungen, die nicht miteinander
58 2 Richter und Astronomen

verglichen werden können), waren die Moralisten, die einen Vergleich


gewollt hatten, ziemlich verwirrt, wie es im Falle derjenigen Moralisten
offensichtlich ist, die sich mit der Wahrscheinlichkeit befaßt hatten.
Die Wahrheit ist, daß hier – wie bei anderen disparaten und heteroge-
nen Schätzungen, die mehr als eine Dimension umfassen – die betref-
fende Größe das zusammengesetzte Ergebnis der einen oder anderen
Schätzung ist, ähnlich wie bei einem Rechteck, wo es zwei Betrachtun-
gen gibt, nämlich die der Länge und die der Breite; und bezüglich der
Größe der Konsequenz und der Grade der Wahrscheinlichkeit fehlt uns
immer noch dieser Teil der Logik, die eine Schätzung dieser Größen
bewirken muß. (Leibniz, Nouveaux essais sur l’entendement humain.9 )
Das Bestreben, einen Komparabilitätsraum für heterogene Größen zu kon-
struieren, ergab sich aus den Debatten der Juristen des 17. Jahrhunderts, die
darauf bedacht waren, die Fairness der aleatorischen Verträge zu rechtfertigen.
Diese Bestrebungen wurden im 18. Jahrhundert fortgeführt und erweitert, um
einen homogenen Raum von Graden der Sicherheit aufzustellen, der seiner-
seits mit den Erfordernissen von Handlungen und Entscheidungsfindungen
verknüpft war.

Konstruktiver Skeptizismus und Überzeugungsgrad

Die Geschichte der Entfaltung des wahrscheinlichkeitstheoretischen Denkens


im Rahmen einer Gesamtheit von praktischen Problemen, die eine Ungewiß-
heit implizierten, wurde von Lorraine Daston in einem 1989 [55] erschienenen
Artikel zusammengefaßt. Der Artikel setzt die von Coumet begonnene Arbeit
fort und stellt eine andere Wurzel des Werkzeugs vor, das es ermöglichte, die
verschiedenen Aspekte der Ungewißheit innerhalb ein und desselben begriffli-
chen Rahmens zu erfassen: die Debatten über Sicherheit und Wissen, die im
Ergebnis von Reformation und Gegenreformation geführt wurden.
Diese Debatten, welche die Glaubensgrundlagen betonten (die Offenba-
rung für die Protestanten und die Tradition für die Katholiken), löste gegen-
seitige Denunziationen aus, die allmählich die verschiedenen Bestandteile des
Glaubens unterhöhlten und zum Skeptizismus führten. Eine extreme Form
des Skeptizismus – der von gelehrten Freigeistern vertretene Pyrrhonismus10
– leugnete sogar die Evidenz von Empfindungen und mathematischen Bewei-
sen. Zur gleichen Zeit versuchten mehrere Autoren auf halbem Wege zwischen
9
Im Manuskript vollendet um 1705. Deutsche Übersetzung unter dem Titel Neue
Abhandlungen über den menschlichen Verstand. Neuausgabe als Band 498 der
Philosophischen Bibliothek, Felix Meiner Verlag, Hamburg, 1996. (1. Auflage 1873
als Band 56 der Philosophischen Bibliothek).
10
Pyrrhon, griechischer Philosoph aus Elis, um 360–270 v. Chr., gilt als Begründer
des Skeptizismus.
Konstruktiver Skeptizismus und Überzeugungsgrad 59

den dogmatischen Fideisten – die sich auf die Gewißheiten des wahren Glau-
bens stützten – und den äußerst bissigen Skeptikern, eine Vorstellung von dem
zu definieren, was einfach wahrscheinlich“ war, eine Vorstellung vom Über-
” ”
zeugungsgrad, der ausreicht, einen besonnenen Geschäftsmann zum Handeln
zu ermuntern ..., wobei die Überzeugung von einer intuitiven Bewertung der
möglichen Pläne und der damit zusammenhängenden Risiken abhängt“ (Da-
ston, 1989, [55]).
Diese konstruktiven Skeptiker“ (um einen von Popkin 1964 [238] ge-

prägten Ausdruck zu verwenden) betrachteten demnach das Handeln als
Grundlage des Wissens (und nicht umgekehrt). Sie waren – anders als die
Juristen, von denen Pascal seine Inspirationen erhielt – weniger an Fairness
interessiert als am rationalen Glauben, der die Orientierung für eine Entschei-
dung vorgab. Doch auch sie nutzten die Doktrin der aleatorischen Verträge,
um daraus Beispiele zu entnehmen, die zeigten, daß es mitunter vernünftig
war, einen gegenwärtigen sicheren Besitz gegen einen unsicheren zukünfti-
gen Besitz einzutauschen. Diese Erkenntnisphilosohie wies der Wahrschein-
lichkeitsrechnung ein klare epistemische“ Rolle zu, denn sie orientierte sich

am Aspekt des unzulänglichen Wissens und nicht am Aspekt des Zufalls. Die
konstruktiven Skeptiker integrierten jedoch Glücksspiele, riskante Tätigkeiten
(Handel, Impfungen) und Entscheidungen von Geschworenen zur möglichen
Schuld eines Angeklagten in ein und dasselbe Modell und bereiteten dadurch
den Übergang von einem Aspekt zum anderen vor.
Es ist interessant, die philosophische Haltung dieser konstruktiven Skep-
tiker , die zwischen den Fideisten und den radikalen Skeptikern stehen, mit
der Position zu vergleichen, die ich in der Einleitung vorgeschlagen habe, das
heißt mit der Position einer modernen Wissenssoziologie, die sich sowohl vom
wissenschaftlichen Objektivismus – für den Fakten Fakten sind“ – als auch

vom Relativismus unterscheidet, für den Objekte und Niederschriften gänzlich
von kontingenten Situationen abhängen. Die beiden historischen Konfigura-
tionen des 17. und des 20. Jahrhunderts unterscheiden sich jedoch radikal
voneinander, und sei es nur, weil im ersteren Fall der Pol der Gewißheit durch
die Religion, im letzteren Fall aber durch die Wissenschaft verkörpert wird.
Von diesem Standpunkt ist die probabilistische Verfahrensweise – welche die
Ungewißheit durch Quantifizierung objektiviert – Bestandteil eines Säkulari-
sierungsprozesses. Das ist auch der Grund dafür, warum sich heute sowohl
religiöse Menschen als auch (religiöse und nichtreligiöse) Wissenschaftler glei-
chermaßen unwohl fühlen, wenn sie sich mit Pascals Wette befassen: Beide
Gruppen spüren, daß sich in diesem berühmten Text zwei Argumentations-
weisen überschneiden, die fortan getrennt voneinander verliefen.
Hinter der Distanz, welche die konstruktiven Skeptiker“ zur nihilistischen

Skepsis der Pyrrhoneer hielten (die man heute als radikale Relativisten be-
trachten würde), stand die Absicht, Objekte zu erzeugen, auf die man sich
beim Handeln stützen konnte. Diese Objekte waren Überzeugungsgrade“,

das heißt probabilisierte Glaubensakte. Wie Lorraine Daston sagt: Die Be-

tonung des Handelns als Grundlage des Glaubens – und nicht umgekehrt –
60 2 Richter und Astronomen

ist der Schlüssel zur Verteidigung gegen den Skeptizismus. Schriftsteller wie
Wilkins machten häufig die Bemerkung, daß auch der überzeugteste Skep-
tiker sein Abendessen so verspeist, als ob die Außenwelt wirklich existiert“.
(Wilkins führte das Beispiel eines Kaufmanns an, der die Risiken einer langen
Reise in der Hoffnung auf einen höheren Gewinn auf sich nimmt, und empfahl,
derartige Handlungsregeln auch in wissenschaftlichen und religiösen Fragen zu
befolgen). Die wichtigen Wörter in der Fabel vom skeptischen Abendessens-
gast sind so, als ob“. Dadurch bezieht man sich nicht auf ein Problem von

essentieller Realität (wie es ein Fideist oder ein heutiger Realist tun würde),
sondern auf das praktische Verhalten, auf eine Handlungslogik.
Die genannten Autoren konstruierten deswegen einen Rahmen, der eine
gemeinsame Konzeptualisierung von Gewißheitsformen gestattete, die zuvor
voneinander verschieden waren: die mathematische Gewißheit eines Beweises,
die physikalische Gewißheit der sensorischen Evidenz und die moralische Ge-
wißheit von Aussage und Vermutung. Sie ordneten die verschiedenen Formen
der Gewißheit auf einer Ordinalskala an und meinten, daß die meisten Dinge
nur auf der untersten Ebene, das heißt auf der Aussagenebene, gewiß sind. Auf
diese Weise erlangte in Frankreich das Wort probabilité“ 11 , das im Mittelal-

ter eine amtlich beglaubigte Stellungnahme“ bezeichnete, die Bedeutung von

Grad der Zustimmung entsprechend der Evidenz von Dingen und Zeugen“.

Dann fügten Leibniz und Niklaus Bernoulli, die beide Mathematiker und
Juristen waren, drei Ebenen der Gewißheit in ein Kontinuum ein, das jeden
Grad an Zustimmung einschloß12 – vom Unglauben bis hin zur vollständigen
Überzeugung.
Die drei Ebenen der Gewißheit entsprachen drei sehr verschiedenen Wei-
sen der Bewertung von Wahrscheinlichkeiten: (1) gleiche Möglichkeiten auf
11
Das französische Wort geht, ebenso wie das englische probability“, auf das la-

teinische probabilitas“ zurück, das sich vom Adjektiv probabilis“ (annehmbar,
” ”
glaublich, wahrscheinlich, tauglich) ableitet. Dieses Wort hängt seinerseits mit
dem lateinischen probare“ (prüfen, billigen, gutheißen, gelten lassen, anerken-

nen) zusammen. Das deutsche Wort Wahrscheinlichkeit“ leitet sich von wahr-
” ”
scheinlich“ (= mit ziemlicher Sicherheit“) ab und wurde im 17. Jahrhundert ver-

mutlich nach dem Vorbild des gleichbedeutenden niederländischen waarschijn-

lijk“ gebildet. Das niederländische Adjektiv ist wohl eine Lehnübertragung des
lateinischen verisimilis“ (wahrscheinlich), einer Zusammensetzung aus verus“
” ”
(wahr) und similis“ (ähnlich).
12 ”
Leibniz, 1705, [412]: ... wenn die Natur der Dinge nichts enthält, was für oder

gegen ein bestimmtes Faktum spricht, so wird es, sofern es durch das Zeugnis
unverdächtiger Leute bestätigt wird (z.B. daß Julius Caesar gelebt hat), mit ei-
nem festen Glauben aufgenommen. Wenn aber die Zeugnisse dem gewöhnlichen
Naturlauf widerstreiten oder untereinander widersprechend sind, so können die
Wahrscheinlichkeitsgrade sich bis Unendliche verschieden gestalten und daher
stammen alle jene Grade, welche wir Glauben, Vermutung, Ungewißheit, Miß-
trauen nennen; und daher ist denn strenge Prüfung nötig, um ein richtiges Urteil
zu bilden und unsere Zustimmung gemäß den Graden der Wahrscheinlichkeit zu
erteilen.“
Konstruktiver Skeptizismus und Überzeugungsgrad 61

der Grundlage physikalischer Symmetrie (nur für Glücksspiele geeignet); (2)


Beobachtungshäufigkeiten von Ereignissen (die eine Sammlung von Statistiken
voraussetzten, welche ihrerseits – wie Graunts Sterbetafeln aus dem Jahr 1662
– eine hinreichende zeitliche Stabilität aufwiesen); und schließlich (3) Grade
subjektiver Gewißheit oder Glaubensgrade (zum Beispiel juristische Prakti-
ken bei der Gewichtung von Indizien und Mutmaßungen). Dieses Konstrukt
ist deswegen so überraschend, da wir hier bereits eine Zusammenfassung des-
sen finden, was in der Folgezeit erneut in Bezug auf die Unterscheidung zwi-
schen den sogenannten objektiven Wahrscheinlichkeiten und den subjektiven
Wahrscheinlichkeiten zusammengetragen wurde: die ersten hängen mit den
Zuständen der Welt (hier: den ersten beiden Ebenen) zusammen, die letzteren
entsprechen dagegen den Zuständen des Verstandes (dritte Ebene). Aber diese
Unterscheidung gilt nur dann, wenn man die Genese des Problems der Über-
zeugung außer Acht läßt: Wie gelangt man vom Glauben (dritte Ebene) zu
den objektiven Gewißheiten der ersten Ebene und der zweiten Ebene? Dieses
Problem, das ein wenig an die von den Verfechtern des starken Programms“

in der Wissenschaftssoziologie gestellte Frage erinnert, ließ den Philosophen
des Jahrhunderts der Aufklärung, den Trägern des Lichts“, keine Ruhe.

So bekundeten etwa Locke, Hartley und Hume offen eine Assoziations-
theorie, bei der sie den Verstand mit einer Addiermaschine verglichen, welche
die Häufigkeiten vergangener Ereignisse zusammenzählt und deren mögliche
Wiederholung berechnet. Hartley stellte sich vor, daß wiederholt auftretende
Empfindungen Rillen ins Gehirn“ graben und sich dort verfestigen. Hume

sprach von der zusätzlichen Lebhaftigkeit“, die eine wiederholte Erfahrung

einem geistigen Bild verleiht und betonte den Begriff der Gewohnheit – ein
Begriff, der mit dem Habitus von Bourdieu vergleichbar ist (Héran, 1987,
[130]). Das Ziel dieser Konstrukte besteht darin, die Gewißheiten der dritten
Ebene (Glaubensüberzeugungen) mit denen der zweiten Ebene (Häufigkeiten,
wiederholte Empfindungen) zu verbinden. Diese Fragen treten erneut bei der
Wahl des Gegenstandes der Wissenschaftssoziologie auf, deren Ziel es ist, den
Entstehungsprozeß der Wissenschaft und die Herausbildung einer Überzeu-
gung zu beschreiben. Will ein Wissenschaftler von seinesgleichen anerkannt
werden, dann muß er die Experimente in eindeutig formulierten Standardpro-
tokollen aufzeichnen, damit sie wiederholt werden können. Ebenso wird vor
Gericht ein einzelner Zeuge als rechtsunwirksam angesehen. Historiker und
Journalisten müssen ihre Quellen vergleichen und überprüfen. Wiederholun-
gen sind Indizien für Objektivität und können als Beweis geltend gemacht
werden.
Die klassische Wahrscheinlichkeitsrechnung“ des 18. Jahrhunderts ist in

gewisser Weise eine Vorläuferin der großen Trennung“, die zwischen dem

objektiven wissenschaftlichen Wissen – das die vom Menschen unabhängi-
gen Dinge beschreibt – und den Glaubensüberzeugungen stattgefunden hat,
die für primitive Gesellschaften und für vorwissenschaftliches Denken cha-
rakteristisch sind. Tatsächlich fügten die betreffenden Gelehrten die Wahr-
scheinlichkeiten des Würfelspiels, die Regelmäßigkeiten von demographischen
62 2 Richter und Astronomen

Statistiken und die persönlichen Überzeugungen von Richtern in einen einzi-


gen Rahmen ein. Aber durch dieses Integrationsbestreben bereiteten sie den
Boden für die große Trennung vor, indem sie versuchten, das Territorium des
Objektivierbaren immer weiter auszudehnen, und zwar auch auf Probleme wie
zum Beispiel Schwurgerichtsentscheidungen, die von Condorcet und Poisson
diskutiert wurden.
Die Trennung wurde vor allem durch mehrere Debatten vorbereitet, in
denen Zweifel bezüglich des rationalen Charakters von Verhaltensweisen zur
Sprache kamen, die einzig und allein von der Berechnung der Erwartungswer-
te diktiert waren. Ein berühmtes Beispiel hierfür war das St. Petersburger

Paradoxon“ 13 (Jorland, 1987, [140]). Daniel Bernoulli hatte seine interessante
Diskussion des Paradoxons in den Petersburger Commentarien für 1730/31“,

die 1738 erschienen, veröffentlicht. Von dieser Publikation hat das Problem
seinen Namen, und dort wird es folgendermaßen formuliert14 :
Mein sehr verehrter Oheim, der berühmte Nicolaus Bernoulli, Profes-
sor beider Rechte an der Akademie zu Basel, legte einmal dem bekann-
ten Monmort fünf Probleme vor, die man in dem Buche Analyse sur
les jeux de hazard von Herrn De Montmort findet. Das letzte dieser
Probleme lautet folgendermaßen: Peter wirft eine Münze in die Höhe
und zwar so lange, bis sie nach dem Niederfallen die Kopfseite zeigt;
geschieht dies nach dem ersten Wurf, so soll er dem Paul 1 Dukaten
geben; wenn aber erst nach dem zweiten: 2, nach dem dritten: 4, nach
dem vierten: 8, und so fort in der Weise, daß nach jedem Wurfe die
Anzahl der Dukaten verdoppelt wird. Man fragt: Welchen Wert hat
die Gewinnhoffnung für Paul?
Der Gewinnerwartungswert von Paul ist demnach
 2  3  n
1 1 2 1 n−1 1
+2 +2 + ... + 2 + ... .
2 2 2 2
Dieser Wert ist also unendlich groß. Demnach läge es entsprechend der
Theorie der Erwartungswerte in Pauls Interesse, in diesem Spiel eine beliebige
Summe einzusetzen, da der wahrscheinlich erwartete Gewinn“ stets größer

als diese Summe ist. Aber im Gegensatz zur Theorie zeigt der gesunde Men-
schenverstand, daß niemand mehr als ein paar Dukaten einsetzen würde. Die-
ser Sachverhalt verunsicherte die zeitgenössischen Gelehrten sehr. Die heute
übliche Fassung dieses Problems erwuchs aus Diskussionen zwischen Niklaus
Bernoulli, De Monmort und Gabriel Cramer in den Jahren 1713 bis 1728.
Das Problem führte auch zu einer höchst lebhaften Diskussion zwischen Ni-
klaus und Daniel Bernoulli, die von Jorland und Daston analysiert wurde. Es
13
Auch als Petersburger Paradoxon“ oder als Petersburger Problem“ bezeichnet.
14 ” ”
Zitiert nach Daniel Bernoulli, Versuch einer neuen Theorie der Wertbestimmung
von Glücksfällen (Specimen theoriae novae de mensura sortis), (übersetzt von A.
Pringsheim), Leipzig 1896.
Konstruktiver Skeptizismus und Überzeugungsgrad 63

ist das Verdienst dieser Diskussion, die verschiedenen möglichen Bedeutungen


der Berechnung von Wahrscheinlichkeiten aufzuzeigen. Ohne auf Einzelheiten
einzugehen, stellen wir hier nur fest, daß der Gegensatz der Standpunkte der
beiden Bernoullis bedeutsam ist. Für Daniel kommt die klassische Art der
Berechnung von Erwartungswerten in der Person eines unparteiischen Rich-
ters zum Ausdruck, der die individuellen Merkmale des Spielers nicht kennt,
während es sich für den Spieler weniger um Fairness als um Vorsicht handelt.
Dem mathematischen“ Erwartungswert setzt Daniel also einen moralischen“
” ”
Erwartungswert entgegen, der sich durch das Produkt der Wahrscheinlichkeit
des Ereignisses mit dessen Nützlichkeit“ (im Sinne der Wirtschaftstheorie)

ausdrückt.
Daniel entnahm seine Argumentation der Geschäftswelt, während der Ju-
rist Niklaus den Einwand machte, daß dieser moralische Erwartungswert“

nicht der Gleichheit und der Gerechtigkeit“ entspricht.

Hierauf entgegnete Daniel, daß seine Überlegung in vollkommener Über-

einstimmung mit der Erfahrung stehe“. In der Tat stützte sich Niklaus auf die
Gleichheitsbedeutung aleatorischer Verträge, während Daniel eine Art kom-
merzieller Vorsicht verteidigte. Der besonnene Kaufmann stand dem unpartei-
ischen Richter gegenüber. Bezüglich des im vorhergehenden Abschnitt Alea-

torische Verträge und faire Abmachungen“ geschilderten einfacheren Para-
doxons finden wir einerseits den Richter in der Position, die Lage von oben
überschauen zu können (zur Not sehen wir sogar einen utopischen Spieler von
unbegrenztem Reichtum, der das Spiel unendlich oft unter dem Einsatz großer
Summen spielen könnte), und andererseits den normalen“ Spieler, der mit

einem umsichtigen Kaufmann von begrenztem Glück vergleichbar ist und der
es sich nicht leisten kann, eine große Summe auf einen riesigen, wenn auch
sehr unwahrscheinlichen Gewinn zu setzen.
Der Nachteil der hier erwähnten Paradoxa bestand darin, daß sie mit fikti-
ven Problemen zu tun hatten und intellektuelle Spiele zu sein schienen. Ganz
anders verlief die Debatte über die Pockenimpfung, welche die Gelehrten zur
gleichen Zeit gegeneinander aufbrachte (Benzécri, 1982, [12]). Die Präventiv-
maßnahme der allgemeinen Impfung senkte das Auftreten der Krankheit er-
heblich, führte aber unglücklicherweise auch in einem von dreihundert Fällen
zum Tod der geimpften Personen im Jahr der Impfung. Die Bilanz war je-
doch positiv und Daniel Bernoulli rechnete aus, daß die Lebenserwartung
von geimpften Personen trotz dieser fatalen Vorfälle drei Jahre höher ist, als
die Lebenserwartung ungeimpfter Personen. Vom Standpunkt der öffentlichen
Gesundheit konnte diese Maßnahme demnach obligatorisch gemacht oder zu-
mindest mit Nachdruck empfohlen werden. Begreiflicherweise waren jedoch
einige (häufig als Familienväter“ beschriebene) Personen in Bezug auf sich

und ihre Kinder mehr als zurückhaltend. Aus diesem Beispiel ist ersichtlich,
daß der frequentistische Standpunkt mit einer makrosozialen Position (das
heißt mit der Position des Staates oder einer Allgemeinheit) zusammenhing,
während es sich beim epistemischen Standpunkt um die Position einer Person
handelte, die für sich selbst Entscheidungen treffen mußte. Das Problem kam
64 2 Richter und Astronomen

dann im 19. Jahrhundert erneut in anderen Debatten auf, in denen es um die


Anwendung der statistischen Methode in der Medizin ging.
Die Diskussion führte dazu, die Verwendung von Erwartungswerten bei
der rationalen Betrachtung menschlicher Entscheidungen in Zweifel zu ziehen
und bereitete den Weg für die spätere Trennung der wahrscheinlichkeitstheo-
retischen Betrachtungsweisen vor. Im 19. Jahrhundert wurde eine vorläufige
Grenze errichtet, welche die mit den Zuständen des Verstandes“ verknüpf-

te Seite der Wahrscheinlichkeitsrechnung zurückwies und eine Beschränkung
auf die Zustände der Welt“ und insbesondere auf die frequentistische Rich-

tung beinhaltete. Als etwa Auguste Comte die Wahrscheinlichkeitsrechnung
im Allgemeinen attackierte und sie anklagte, daß sie außerstande sei, die
Komplexität der menschlichen Verhaltensweisen zu berücksichtigen, griff er
im Grunde genommen die epistemische Interpretation dieses Kalküls an, die
den Überlegungen der klassischen Probabilisten Nahrung gegeben hatte.
Es gab mehrere Typen von Beispielen, mit denen man diese Art von Kritik
untermauern konnte. In einigen dieser Beispiele – wie etwa im St. Petersbur-
ger Paradoxon oder beim Pockenimpfungsproblem – wurde die Nützlichkeits-
funktion infrage gestellt, die mit der ihrerseits nur wenig diskutierten objekti-
ven Wahrscheinlichkeit assoziiert war (geometrisch15 für das Spiel Kopf oder

Zahl“ und frequentistisch im Falle der Impfung). In anderen Fällen dagegen –
wie etwa bei den auf Abstimmung beruhenden Entscheidungen von Geschwo-
renen in Strafsachen, in denen eine Beurteilung der Schuld unter Berücksich-
tigung von Indizien und Vermutungen erfolgte, aber auf keinem vollständigen
Beweis aufbaute – bezweifelte man sogar die Möglichkeit der Abschätzung
der (subjektiven) Wahrscheinlichkeit einer Ursache“ (der Schuld des Ange-

klagten), weil man wußte, daß bestimmte Effekte“ (Indizien oder unsichere

Zeugenaussagen) eine Rolle gespielt hatten. Die Frage nach der Ursachenwahr-
scheinlichkeit (oder inversen Wahrscheinlichkeit) spielte im 18. Jahrhundert
bei Bayes und Laplace eine wichtige Rolle. Im 19. Jahrhundert hatte man
diese Frage weitgehend verdrängt, bevor sie im 20. Jahrhundert im Rahmen
der Spieltheorie, der Entscheidungstheorie und in der Kognitionswissenschaft
wieder zum Leben erweckt wurde.

Der Bayessche Ansatz


Das Problem der Gerechtigkeit, definiert durch die Gleichheit von Erwar-
tungswerten, beherrschte die Arbeiten der Begründer der Wahrscheinlichkeits-
rechnung: Die Logik von Port Royal“ 16 machte zum Beispiel umfassenden

Gebrauch davon. Der frequentistische Standpunkt, der sich implizit in den
15
Hiermit ist die zugrunde liegende geometrische Folge der Partialsummen gemeint.
16
Das 1662 anonym in Paris erschienene Werk La Logique ou l’Art de penser war
außerordentlich einflußreich. Ein Nachdruck wurde von Baron Freytag von Löring-
hoff, Stuttgart 1965, herausgegeben. Die lateinische Fassung erschien unter dem
Titel Ars cogitandi. Als Verfasser des Buches gelten Antoine Arnauld und Pierre
Der Bayessche Ansatz 65

Glücksspielen wiederfindet, führte Jakob Bernoulli (1654–1705) zum ersten


Beweis des Gesetzes der großen Zahlen, das 1713 nach seinem Tod veröffent-
licht wurde: Die Häufigkeit des Auftretens eines Ereignisses, das eine gegebene
Wahrscheinlichkeit hat, strebt gegen diese Wahrscheinlichkeit, wenn man die
Anzahl der Versuche erhöht17 (Meusnier, 1987, [196]). Danach vervollständig-
te Abraham de Moivre (1667–1754) im Jahre 1738 den Beweis: er berechnete
die Wahrscheinlichkeit dafür, daß diese Häufigkeit in einem beliebig kleinen
Intervall auftritt, wenn man eine hinreichend große Anzahl von Ziehungen
durchführt. Nebenbei gab er die erste präzise Formulierung der späteren Nor-

malverteilung“ 18 , indem er sich auf Stirlings asymptotische Formel19 für n!
(n Fakultät) stützte (n! = 1 × 2 × 3 × . . . × n).
Die vorhergehenden Ergebnisse gestatteten es, erwartete Wirkungen aus
einer bekannten Ursache (Füllung einer Urne) – das heißt die Wahrschein-
lichkeiten der Beobachtung von Häufigkeiten – abzuleiten. Aber das inverse
Problem wurde oft in allen denjenigen Fällen gestellt, in denen es wünschens-
wert war, auf der Grundlage der beobachteten Ereignisse etwas über die (un-
bekannten) Ursachen zu sagen. Erst Bayes (1702–1761) und dann Laplace
(1749–1827) machten sich an die Beantwortung dieser Frage – und ihre Ant-
worten führten zu weiteren Debatten.
Das auf diese Weise von Bayes und Laplace gestellte Problem der inver-

sen Wahrscheinlichkeit“ spielt – bis zum heutigen Tage – eine entscheidende
Rolle in der Geschichte der Anwendung der Wahrscheinlichkeitsrechnung und
der Statistik in den verschiedenen Wissenschaften. In der Tat liegt dieses
Problem an der Nahtstelle zwischen dem objektivistischen Standpunkt (die
Wissenschaft entschleiert eine verborgene Realität – den Inhalt der Urne –
oder nähert sich dieser Realität immer mehr an) und dem konstruktivistischen
Standpunkt (die Wissenschaft konstruiert Objekte und Modelle mit Hilfe von
Kriterien und Werkzeugen, und verleiht dadurch diesen Objekten und Mo-
dellen eine relative Stabilität). Nun ist aber die Methode, bei der man von
Nicole, beide prominente Vertreter der Jansenisten, einer katholischen Reformbe-
wegung im Umkreis des Klosters Port Royal bei Paris, die in scharfem Konflikt
mit der römischen Kirche lag. Auch Blaise Pascal stand dieser Bewegung nahe
und war womöglich ein Mitverfasser des Buches.
17
Formaler ausgedrückt beinhaltet das Gesetz der großen Zahlen: Die Häufigkeit h
eines Ereignisses mit Wahrscheinlichkeit p in n unabhängigen Versuchen unter-
scheidet sich von p mit beliebig großer Wahrscheinlichkeit nur um beliebig wenig,
sobald n hinreichend groß ist. Man drückt dasselbe auch folgendermaßen aus: Die
Häufigkeit h konvergiert fast sicher für n → ∞ gegen p. Oder auch: Für n → ∞
ist h eine konsistente Schätzung für p.
18
Die Bezeichnungsweise ist sowohl im Französischen als auch im Deutschen unein-
heitlich. Der Autor verwendet hier loi normale“, was im Deutschen auch durch

Normalverteilungsgesetz“ wiedergegeben wird. √
19 ”
Stirlingsche Näherungsformel für die Fakultät: n! ≈ ( ne )n 2πn, wobei e die Basis
der natürlichen Logarithmen bezeichnet.
66 2 Richter und Astronomen

registrierten Ereignissen auf Ursachen schließt, beider Interpretationen fähig:


Ursachen werden entweder aufgedeckt oder konstruiert.
Die Bayesschen Formalisierungen zielten darauf ab, Glaubensgründe unter
Berücksichtigung vorheriger Erfahrungen so abzuschätzen, daß eine konkre-
te Situation beurteilt und eine Entscheidung getroffen werden kann. Der von
Bayes 1764 unter dem Titel An Essay Towards Solving a Problem in the Doc-
trine of Chances 20 veröffentlichte Text beginnt bei der Formulierung des zum
Problem von Bernoulli und de Moivre inversen Problems mit Worten, die heu-
te seltsam klingen (die Chance einer Wahrscheinlichkeit“), deren Zweideu-

tigkeit jedoch beim Verständnis dessen helfen kann, wonach damals gesucht
wurde:
Gegeben ist die Anzahl Male, die ein unbekanntes Ereignis eingetreten
und ausgeblieben ist. Gesucht ist die Chance, daß die Wahrscheinlich-
keit seines Eintretens bei einem einzelnen Versuch irgendwo zwischen
zwei angebbaren Graden der Wahrscheinlichkeit liegt (Bayes, 1764,
neu herausgegeben von Pearson und Kendall, 1970, [221]).
Die Wörter Wahrscheinlichkeit“ und Chance“ werden anschließend durch
” ”
Begriffe aus der Theorie der Erwartungswerte definiert, das heißt durch ein
Verhältnis von Werten, die zu schätzen sind, damit eine Wette berechtigt ist.
Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen
dem Werte, welcher einer an das Eintreten des Ereignisses geknüpften
Erwartung zu geben ist, und dem Werte des in diesem Falle erwarteten
Gewinns. Unter Chance verstehe ich dasselbe wie Wahrscheinlichkeit.
(Bayes, op. cit.)

Demnach wird den Wörtern Chance und Wahrscheinlichkeit per Dekla-


ration ein und dieselbe Bedeutung zugewiesen, was aber nicht zur Klärung
des ersten Satzes beiträgt. Jedoch zeigt die nachfolgende Überlegung, daß das
Wort Chance“ im Sinne von Glaubensgrund“ mit Blick auf eine Entschei-
” ”
dung verwendet wird, während das Wort Wahrscheinlichkeit“ eine objektive

Bedeutung hat, ähnlich wie der Begriff Füllung der Urne“. Es handelt sich

demnach um die Wahrscheinlichkeit“, daß die Füllung dieser unbekannten

Urne (also das Verhältnis zwischen den Anzahlen der schwarzen und der wei-
ßen Kugeln) innerhalb eines gegebenen Intervalls liegt. Das heißt es geht um
eine Ursachenwahrscheinlichkeit“, die sich – ebenso wie die Wahrscheinlich-
” ”
keit“ der Schuld eines Angeklagten – nur durch einen Grad der Sicherheit“

interpretieren läßt, der für eine Entscheidung notwendig ist. Die einzige Art
und Weise, dieser Ursachenwahrscheinlichkeit“ eine formalisierte Bedeutung

zu geben, wäre die Annahme, daß die Urne ihrerseits aus einer großen An-
zahl von Urnen verschiedener Füllungen gezogen wurde. Aber das führt auf
20
In deutscher Sprache erschienen unter dem Titel Versuch zur Lösung eines Pro-
blems der Wahrscheinlichkeitsrechnung in Ostwalds Klassikern der exakten Wis-

senschaften“ (Leipzig 1908).
Der Bayessche Ansatz 67

die Frage der Verteilung dieser Zusammensetzungen, das heißt auf eine A-

priori-Wahrscheinlichkeit“ zurück, und genau das ist der Punkt, an dem der
Bayessche Ansatz am meisten kritisiert wird.
Durch die Schaffung des Begriffes der bedingten Wahrscheinlichkeit“

führt das Verfahren die Irreversibilität der Zeit in die Formulierung ein ( A

dann B“) und das ist die Ursache für den Doppelcharakter dieses Begriffes
(Clero, 1986, [48]). In der Tat läßt sich die Überlegung auf der Grundlage der
folgenden doppelten Gleichheit aufbauen:

P (A und B) = P (A falls B) × P (B) = P (B falls A) × P (A)

und hieraus folgt


P (A)
P (A falls B) = P (B falls A) × .
P (B)

Übertragen auf das Problem der Wahrscheinlichkeit einer Ursache Hi (in


einer Menge von n sich gegenseitig ausschließenden Ursachen) für ein Ereignis
E läßt sich dieser Sachverhalt unter Verwendung einer moderneren Schreib-
weise folgendermaßen wiedergeben:
P (E ∩ Hi ) P (E|Hi ) · P (Hi )
P (Hi |E) = = n .
P (E) j=1 P (E|Hj ) · P (Hj )

Diese Formel wurde 1774 von Laplace in einem langen Satz ausgedrückt,
der heute schwer lesbar ist. Die Schwierigkeit läßt sich mit der andersartigen
Schwierigkeit der vorhergehenden mathematischen Formel vergleichen.
Läßt sich ein Ereignis durch eine Anzahl n von verschiedenen Ursachen
erzeugen, dann verhalten sich die Wahrscheinlichkeiten der Existenz
dieser Ursachen für das betreffende Ereignis wie die Wahrscheinlich-
keiten des Ereignisses für diese Ursachen, und die Wahrscheinlichkeit
für die Existenz einer jeden Ursache ist gleich der Wahrscheinlichkeit
des Ereignisses bei Vorliegen dieser Ursache, dividiert durch die Sum-
me aller Wahrscheinlichkeiten des Ereignisses bei Vorliegen aller dieser
Ursachen. (Laplace, 1774, Mémoire sur la probabilité des causes par
les événements. In: Oeuvres complètes, t. VIII, S. 28.)
Aber der entscheidende Punkt im Beweis von Bayes besteht darin, daß
die Symmetrie der doppelten Gleichheit, welche die bedingten Wahrschein-
lichkeiten P (A falls B) und P (B falls A) definiert, für ihn nicht existier-
te und daß beide Gleichheiten gesondert und unabhängig voneinander be-
wiesen werden (Stigler, 1986, [267]), und zwar mit Hilfe von zwei verschie-
denen Propositionen“. Diese Überlegungen stützen sich auf Zunahmen der

Gewinnerwartungswerte, die durch das Auftreten eines Anfangsereignisses A
eingeführt wurden. Jeder Beweis ist die Schilderung einer Folge von hypo-
thetischen Ereignissen und deren Konsequenzen in Bezug auf Gewinne. Aber
68 2 Richter und Astronomen

diese Schilderungen können nur dann zu einer Schlußfolgerung führen, wenn


man den Ursachen A-priori -Wahrscheinlichkeiten zuordnet, das heißt in die-
sem Fall die Wahrscheinlichkeit P (Hi ) – und das sogar tut, bevor man ir-
gendein partielles Wissen erlangt hat. Die Hypothesen der gleichbleibenden“

A-priori -Wahrscheinlichkeit derartiger Ursachen sind häufig angefochten wor-
den, indem man mit Hilfe von Beispielen zeigte, daß diese gleichbleibenden“

Wahrscheinlichkeiten auf verschiedene Weisen gewählt werden können und
daher reine Konventionen sind.
Die Spannung und die Fruchtbarkeit des Bayesschen Ansatzes ist auf
den Doppelcharakter des Anfangsausdrucks zurückzuführen: die ursprüngli-
che doppelte Gleichheit ist formal symmetrisch, aber logisch asymmetrisch,
da die Zeit eine Rolle spielt und da die Ereignisse bekannt sind, während die
Ursachen aus ihnen geschlußfolgert werden. Dieser Doppelcharakter war übri-
gens ein inhärenter Bestandteil des Apparates, den Bayes zur Untermauerung
seiner Überlegungen ersonnen hatte. In der Tat erwies sich das Beispiel der
Urne als unzulänglich, denn es war schwierig, eine Reihe von Ereignissen zu
konstruieren, bei denen man zuerst Urnen und dann Kugeln ziehen mußte:
die Asymmetrie war zu stark. Bayes schlug deswegen vor, nacheinander zwei
Kugeln auf einem quadratischen Billardtisch derart in Bewegung zu setzen,
daß die Wahrscheinlichkeitsdichten ihrer Haltepunkte auf dem grünen Tuch
gleichmäßig verteilt sind. Die Kugel A wird zuerst gestoßen und nachdem sie
zum Stillstand gekommen ist, wird eine vertikale Gerade durch ihren Halte-
punkt gelegt, wodurch das Quadrat in zwei Rechtecke P und Q zerlegt wird.
Danach wird die Kugel B gestoßen und die Wahrscheinlichkeit dessen unter-
sucht, daß sie im Rechteck Q zum Stehen kommt. Man hat demnach eine
Folge von zwei Ereignissen und kann die damit zusammenhängenden beding-
ten Wahrscheinlichkeiten berechnen, indem man sowohl deren symmetrischen
Charakter (geometrisch) als auch ihren asymmetrischen Charakter (zeitlich)
aufrecht erhält.
Die Methode der Bayesschen Inferenz kann aus der Sicht des vorliegenden
Buches vom Standpunkt der Konstruktion von Äquivalenzklassen, Taxono-
mien und Kodierungen interpretiert werden. Tatsächlich impliziert der aus
dieser Sichtweise postulierte Kausalitätsbegriff, daß ähnliche Ursachen zu ähn-
lichen Folgen führen können. Mit anderen Worten: man kann sich Kategorien
von Ursachen und Wirkungen vorstellen und zukünftige Ereignisse können mit
vergangenen Beobachtungen derart verknüpft werden, daß die Ungewißheit
der zukünftigen Ereignisse dadurch umschrieben wird. Diese Herangehens-
weise steht im Gegensatz zur Einstellung des nominalistischen Skeptizismus,
der in der Philosophie des 18. Jahrhunderts (zum Beispiel bei Berkeley) sehr
verbreitet war. In dieser Philosophie kann nichts mit etwas anderem vergli-
chen werden und es ist keine allgemeine Darstellung möglich (Clero, 1986,
[48]). In dieser Hinsicht schloß sie sich an die Philosophie von Hume an, der
das menschliche Wissen als Produkt einer Akkumulation von Bleistiftstri-

chen“ beschrieb, die Rillen in das Gehirn“ eingraben, denen jede weitere

Erfahrung eine zusätzliche Lebhaftigkeit“ verleiht. Die Vorstellung von der

Der Bayessche Ansatz 69

mit neuem Wissen zusammenhängenden Zusätzlichkeit ist im Text von Bayes


außerordentlich gegenwärtig.
Dieser Umstand ist auch für die Indizienwissenschaften typisch, die Ginz-
burg (1980) den Galileischen Wissenschaften gegenüberstellt. Während die
letzteren mit Hilfe mathematischer und statistischer Methoden eine große
Masse von Informationen gleichzeitig verarbeiten, um daraus allgemeine Ge-
setze abzuleiten, gehen die ersteren von einzelnen Merkmalen aus, um Ge-

schichten“ zu konstruieren oder um einzelne Fälle allgemeinen Familien von
Ursachen zuzuordnen. Das ist die Vorgehensweise des Historikers, des Polizi-
sten und des Arztes, der auf der Grundlage von Symptomen eine Diagnose
stellt.
Folglich kann die Kodierung von Todesursachen“ – durch Verarbeitung

der medizinischen Meldepflicht auf Totenscheinen – entsprechend der Inter-
nationalen Klassifikation der Krankheiten, Verletzungen und Todesursachen 21
als Bayessches Verfahren beschrieben werden (Fagot-Largeault, 1989, [90]): so-
wohl die einzelnen Symptome (Ereignisse) als auch der bereits bekannte Ver-
breitungsgrad einer Krankheit (A-priori -Wahrscheinlichkeit) werden berück-
sichtigt. In diesem Fall, der eine Feinanalyse der Entstehung und Entwicklung
der ICD-Nomenklatur darstellt, tritt die Kodierung der Todesursachen als
Konvention auf. Tatsächlich darf eine Ursache, deren statistische Beschrei-
bung als aufschlußreich beurteilt wird, in der Folge der dem Tod vorangehen-
den Ereignisse nicht zu früh auftreten (andernfalls wäre ihr Einfluß indirekt,
schwach und verwässert), aber diese Ursache darf auch nicht zu eng mit Tod
verknüpft sein (für den sie ein Synonym wäre: das Herz schlägt nicht mehr).
Vielmehr muß es sich um eine Kategorie handeln, die zwischen den beiden
genannten Kategorien steht und den Effekt hat, die Wahrscheinlichkeit des
Todes signifikant zu steigern, ohne ihn jedoch zur Gewißheit zu machen. Da-
bei wird angenommen, daß man auf die betreffende Ursache durch Prävention
oder durch geeignete therapeutische Maßnahmen einwirken kann, um diese
Wahrscheinlichkeit zu senken. Die Analyse der medizinischen Diagnose und
der Kodierung eines Totenscheins ist in doppelter Hinsicht für den Bayes-
schen Ansatz typisch (vgl. Fagot-Largeault, 1989, [90]): einerseits durch die
Konventionen, welche die Kausalität durch eine Kategorisierung der Ereig-
nisse definieren, deren Kenntnis wiederum Wahrscheinlichkeitsschwankungen
impliziert – andererseits durch die Verarbeitung des Kodierungsmoments, das
als Entscheidung angesehen wird, die sowohl einzelne Ereignisse als auch A-
priori-Wahrscheinlichkeiten berücksichtigt.
Der Bayessche Ansatz war also eine wesentliche Episode in der Geschichte
der Wahrscheinlichkeitsrechnung, denn dieser Ansatz war der Ursprung des
Begriffes der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit.
Dieser Begriff hat keine Bedeutung in einer rein axiomatischen Theorie der
Wahrscheinlichkeitsrechnung (etwa in der Theorie von Kolmogorow), erweist
sich aber als sinnvoll in der Analyse so manchen Entscheidungsverhaltens und
21
International Classification of Diseases, Injuries and Causes of Death (ICD).
70 2 Richter und Astronomen

bei der praktischen Konstruktion von Äquivalenzklassen – einer Schlüsselpha-


se der statistischen Tätigkeit. Das Moment der Kodierung und seine speziellen
Randbedingungen geraten mitunter in Vergessenheit, wenn man statistische
Tabellen verarbeitet und interpretiert – ebenso wie der Bayesianismus lange
Zeit in der statistischen Denkweise verdrängt worden ist.

Der goldene Mittelweg“:



Mittelwerte und kleinste Quadrate

Im Rahmen der Techniken, die heute zur Konstruktion und Stabilisierung


der sozialen Welt beitragen, spielt die Statistik eine doppelte Rolle. Einerseits
bestimmt sie Objekte, indem sie für diese Objekte mittels standardisierter
Definitionen Äquivalenzen festlegt. Dadurch wird es möglich, die Objekte zu
messen: Mit Hilfe der Sprache der Wahrscheinlichkeitstheorie präzisiert man
den Vertrauensgrad22 , der sich diesen Messungen zuordnen läßt. Andererseits
liefert die Statistik Formen, und zwar sowohl zur Beschreibung der Relationen
zwischen den so konstruierten Objekten als auch zur Prüfung der Konsistenz
dieser Relationen. Diese beiden Aspekte, das heißt die Konstruktion von Ob-
jekten und die Analyse der Relationen zwischen diesen Objekten, scheinen
eng miteinander zusammenzuhängen. Dennoch gehen beide Aspekte aus zwei
deutlich voneinander verschiedenen Traditionen hervor, die erst zu Beginn des
20. Jahrhunderts konvergierten. Mitunter konnte am Ende ein und derselbe
Formalismus auf ganz verschiedene Fragen angewendet werden, aber die ein-
fache Übertragung dieses geistigen Werkzeugs von einem Bereich auf einen
anderen dauerte ein volles Jahrhundert und bei diesem Prozeß waren aufwen-
dige begriffliche Übersetzungen erforderlich.
Ein Beispiel hierfür ist die als Methode der kleinsten Quadrate bezeich-
nete Anpassungsmethode (Armatte, 1991, [5]). Diese Methode war 1805 von
Legendre in Antwort auf eine Frage formuliert worden, die während des gesam-
ten 18. Jahrhunderts von Astronomen und Geodäten immer wieder gestellt
wurde: Wie kann man die unter verschiedenen Voraussetzungen gemachten
Beobachtungen kombinieren, um bestmögliche Schätzungen einer Reihe von
astronomischen und terrestrischen Größen zu erhalten, die ihrerseits durch
lineare Relationen verknüpft sind? Diese Größen waren mit unvollkommenen
Instrumenten unter unterschiedlichen Bedingungen gemessen worden, zum
Beispiel in verschiedenen historischen Epochen oder an mehreren Punkten
der Erde. Wie ließ sich diese Fülle von Messungen unter Berücksichtigung
des Umstandes am besten nutzen, daß sie die theoretisch vorgegebene Relati-
on niemals vollständig bestätigten, sondern das Vorhandensein einer kleinen
(auch als Fehler , Residuum oder Rest bezeichneten) Abweichung an derje-
nigen Stelle gestatteten, wo eigentlich der Wert Null auftreten müßte. Mit
anderen Worten: die zwei oder drei unbekannten Größen traten als Lösungen
22
Auch Konfidenzgrad“ genannt.

Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate 71

eines Systems auf, das zu viele Gleichungen hatte (soviele Gleichungen wie
Beobachtungspunkte). Man muß also diese Gleichungen optimal kombinieren,
um eine Schätzung der gesuchten Größen zu erhalten. Das war das Problem,
das Legendre im Jahr 1805 mit Hilfe einer Methode löste, bei der die Summe
der Quadrate dieser Abweichungen minimiert wird (Stigler, 1986, [267]).
Es handelte sich also darum, die Messung von Objekten mit größtmöglicher
Präzision durchzuführen, indem man die unterschiedlichen Beobachtungen ein
und derselben Größe bestmöglich miteinander kombiniert. Dagegen war das
in den 1890er Jahren von den englischen Eugenikern Galton und Pearson
– den Erfindern der Regression und der Korrelation – gestellte und gelöste
Problem gänzlich andersartig: Wie sind die Relationen und wechselseitigen
Beziehungen zwischen Objekten zu beschreiben, die weder voneinander un-
abhängig noch vollständig voneinander abhängig sind? Derartige Fälle treten
bei Problemen der Vererbung auf. Die Anpassung einer Variablen an eine an-
dere Variable mit Hilfe eines linearen Regressionsmodells führte nichtsdesto-
weniger zu einem System von Gleichungen und zu einem Lösungsansatz, der
formal analog zum Verfahren von Legendre war. Aber die Bedeutungsinhalte
der mathematischen Konstruktion wichen in beiden Fällen derart voneinander
ab, daß die Übertragung des Formalismus von Legendre – die dieser 1810 auf
der Grundlage seiner auf Gauß und Laplace zurückgehenden probabilistischen
Interpretation schuf – nicht wirklich vor 1930 stattfand.
Die gegen 1810 von Laplace und Gauß durchgeführte Synthese ergab sich
ihrerseits aus der Vereinigung zweier ganz unterschiedlicher Traditionen. Ei-
nerseits waren die Astronomen und die Physiker daran gewöhnt, empirisch
ungenaue Beobachtungen zu kombinieren – zum Beispiel durch Mittelwertbe-
rechnungen (das heißt durch den Mittelweg“, den man einschlagen muß), um

die Werte von Naturgrößen so gut wie möglich“ abzuschätzen. Andererseits

hatten die probabilistisch orientierten Mathematiker und Philosophen an der
Frage des Grades der Sicherheit gearbeitet, der sich einem Wissen oder ei-
nem Glauben zuordnen läßt. Die Philosophen gelangten auf diese Weise an
einen Punkt, an dem sie den von den Mathematikern verwendeten Ausdruck
so gut wie möglich“ infrage stellten: Wie soll man den Vertrauensgrad von

etwas abschätzen, das eine Schätzung verdient? Vor Gauß und Laplace hatte
niemand eine Antwort auf diese Frage gegeben.
Die erstgenannte Tradition, die sich mit der Messung astronomischer und
terrestrischer Größen befaßte, blickte bereits auf eine lange Geschichte zurück
(Stigler, 1986, [267]). Dieses Problem versprach bedeutende ökonomische und
militärische Anwendungen. Deswegen hat im gesamten 18. Jahrhundert das
Streben nach Perfektionierung der Techniken zur Berechnung von Schiffsposi-
tionen (Längen- und Breitenbestimmung) zahlreiche Forschungsarbeiten sti-
muliert. Seit 1700 war die Berechnung der Breite (auf der Grundlage der
Höhe der Fixsterne) ziemlich einfach. Dagegen machte die Längenberechnung
beträchtliche Schwierigkeiten. In England wurde 1714 eine Kommission ge-
gründet, um diese Frage zu untersuchen und Forschungen zu subventionieren,
die zur Problemlösung beitragen (zwischen dem Gründungsdatum und 1815
72 2 Richter und Astronomen

gab man mehr als 100000 englische Pfund zu diesem Zweck aus). Zwei Tech-
niken wurden damals entwickelt: die Präzision der Uhren, die an Bord von
Schiffen die Greenwich-Zeit anzeigen, und die Aufstellung von Tabellen, die
eine detaillierte Beschreibung der Mondpositionen lieferten.
Im zweitgenannten Fall besteht das Problem darin, daß sich der Mond ge-
genüber der Erde nicht immer unter ein und demselben Winkel zeigt und daß
leichte Schwankungen der Mondrotation (die Librationen“) die Berechnung

der Mondposition außerordentlich komplizieren. Der deutsche Astronom Tobi-
as Mayer (1723–1762) veröffentlichte hierzu eine geistreiche Lösung23 , indem
er die Beobachtungen in geeigneter Weise miteinander kombinierte. Berech-
nungen hatten ihn dazu geführt, zu verschiedenen Zeitpunkten die Position
eines gewissen Mondkraters präzise zu beobachten und diese Beobachtun-
gen führten zur Messung dreier unterschiedlicher astronomischer Größen, die
miteinander durch eine Gleichung der sphärischen Trigonometrie verknüpft
waren. Da er diese Beobachtungen insgesamt siebenundzwanzigmal gemacht
hatte, mußte er ein überbestimmtes System von siebenundzwanzig Gleichun-
gen in drei Unbekannten lösen.
Mayer verfügte über keine Regel zur Minimierung der Fehler zwischen
den Erwartungswerten und den durch zufällige Näherung berechneten Wer-
ten. Deswegen führte er eine gut durchdachte Umgruppierung seiner sieben-
undzwanzig Gleichungen in drei Gruppen zu je neun Gleichungen durch und
addierte dann gesondert jede der drei Gruppen. Auf diese Weise erhielt er
schließlich ein System von drei Gleichungen in drei Unbekannten, und die-
se Gleichungen lieferten ihm die gesuchten Abschätzungen. Die Richtigkeit
der Methode ist auf die scharfsinnige Auswahl dreier Teilwolken von Punk-
ten zurückzuführen, die durch ihre jeweiligen Schwerpunkte ersetzt wurden,
so daß der größtmögliche Anteil der ursprünglichen Informationen der sie-
benundzwanzig Beobachtungen erhalten blieb. Die Tatsache, daß Mayer die
Messungen selbst durchgeführt hatte und mit ihnen gründlich vertraut war,
verlieh ihm die Kühnheit, die Gleichungen umzugruppieren, und gab ihm die
erforderliche Intuition, diese Umgruppierung auf einfallsreiche Weise vorzu-
nehmen. Aber diese empirische Lösung stützte sich auf kein allgemeines Kri-
terium und konnte deswegen kaum auf andere Situationen übertragen werden.
Es handelte sich um eine Ad-hoc-Lösung, wie sie für einen Handwerker typisch
ist.
Ein allgemeines Kriterium dafür, eine Anpassung zu optimieren, wurde
wenig später im Jahre 1755 von Roger Joseph Boscovich24 in Bezug auf ein
anderes Problem vorgeschlagen, das ebenfalls viele Gelehrte des 18. Jahrhun-
23
Tobias Mayer, Abhandlungen über die Umwälzung des Mondes um seine Axe. In:
Kosmographische Nachrichten und Sammlungen, von den Mitgliedern der Kos-
mographischen Gesellschaft zusammengetragen, 1(1748), S. 52–148.
24
Ursprünglich: Rudjer Josip Bošcović (1711–1787). Kroatischer Jesuit, der seit
1740 als Professor für Mathematik am Collegium Romanum in Rom lehrte und
1764 Professor für Mathematik in Pavia wurde. Sein italianisierter Name ist Rug-
giero Guiseppe Boscovich.
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate 73

derts in Unruhe versetzt hatte: das Problem der Erdgestalt. Man vermutete,
daß die Erde keine vollkommene Kugel ist, sondern an den Polen leicht abge-
plattet25 , am Äquator dagegen verbreitert ist (einige Gelehrte vertraten übri-
gens die entgegengesetzte These). Die Überprüfung dieses Problems machte es
erforderlich, die Länge eines Meridianbogens an ganz unterschiedlichen Brei-
ten zu messen. Die Messungen wurden in Paris, Rom, Quito, Lappland und
am Kap der Guten Hoffnung durchgeführt. In diesem Fall erwies es sich als
notwendig, ein System von fünf Gleichungen in zwei Unbekannten zu lösen.
Boscovich argumentierte ganz anders als Mayer – möglicherweise weil er
eine kleinere Anzahl von Daten zur Verfügung hatte. Er erfand eine geome-
trische Technik zur Minimierung der Summe der absoluten Werte der Reste,
das heißt der Abweichungen zwischen den beobachteten Werten und den an-
gepaßten Werten. Als allgemeines Kriterium ließ sich diese Technik jedoch nur
sehr schwer handhaben und die geometrische“ Lösung war nur aufgrund der

kleinen Anzahl von Beobachtungen und unbekannten Größen möglich (Stigler,
1986, [267]). Laplace hatte versucht, die Summe der absoluten Werte mathe-
matisch zu behandeln, mußte aber wegen der Komplexität der damit verbun-
denen Berechnungen von seinem Vorhaben Abstand nehmen.
Die Lösung durch Minimierung der Summe der Quadrate der Abweichun-
gen scheint zuerst von Gauß bereits 1795 verwendet worden zu sein (zumindest
behauptete er das), aber er gab keine explizite Formulierung dafür an. Un-
abhängig von Gauß konzipierte, formulierte und veröffentlichte Legendre diese
Lösung im Jahre 1805, was einen lebhaften Prioritätsstreit zwischen beiden
zur Folge hatte (Plackett, 1972, [232]).26 Gauß behauptete, dieses Kriterium –
die Methode der kleinsten Quadrate – bereits 1795 benutzt zu haben, äußerte
aber später während der Kontroverse, ihm sei das Kriterium so trivial erschie-
nen, daß er es weder für nützlich befunden hätte, es zu veröffentlichen, noch
ihm einen Namen für die Nachwelt zu geben. Für Gauß war das Kriterium nur
ein Rechenmittel; das Wesentliche für ihn war das damit erzielte Forschungs-
resultat. Dagegen nutzten Legendre im Jahre 1805, vor allem aber Gauß selbst
im Jahre 1809 und Laplace im Jahre 1810 sehr spezielle Eigenschaften dieser
Methode. Insbesondere verwendeten Laplace und Gauß die Beziehungen, die
unter den Gesetzen der Wahrscheinlichkeitsrechnung als Gaußsches Fehler-

gesetz“ (der zukünftigen Normalverteilung“) etabliert wurden.

Wir müssen jetzt in unserer Darstellung noch einmal zurückgehen, um
kurz die andere Tradition zu verfolgen, die zur Synthese von Gauß-Laplace
25
Unter der Voraussetzung, daß die Erde wie eine homogene, mit gleichförmiger
Winkelgeschwindigkeit rotierende Flüssigkeit behandelt werden kann, hatte New-
ton in den Principia (1687) gezeigt, daß die Erde ein abgeplattetes Rotationsel-
lipsoid ist, wobei der Radius am Äquator um ca. 1/230 länger ist als der Radius
am Pol. Die Abplattung der Erde, das heißt der Längenunterschied zwischen der
Achse der Erdkugel und des Erdellipsoids, beträgt ca. 42 km.
26
Dieser Streit ist nicht nur von anekdotischem Interesse, denn er zeigt, wie sich ein
wissenschaftliches Werkzeug verfestigt, wie es übertragbar wird und sich in einen
anderen Kontext transportieren läßt.
74 2 Richter und Astronomen

führte. Es geht um die Tradition der Philosophen, die – ausgehend von pro-
babilistischen Beschreibungen – über den Grad der Sicherheit des Wissens
arbeiteten. Um ein Wahrscheinlichkeitsgesetz der statistischen Erwartung zu
formulieren, muß man sich zunächst über die entsprechenden Gesetze für ele-
mentare Beobachtungsfehler verständigen. Danach müssen diese elementaren

Gesetze“ mathematisch kombiniert“ werden, um daraus ein Gesetz für sta-

tistische Berechnungen abzuleiten. Für die Verteilungen der Elementarfehler
sind verschiedene Formen vorgeschlagen worden. Simpson (1757) versuchte es
mit einer Linearform, die zu einem gleichschenkligen Dreieck führt: −a|x| + b.
Laplace schlug 1774 zunächst eine exponentielle Form [ m 2e
−m|x|
] und 1777
1 a
einen Logarithmus [ 2a log( |x| )] vor. Laplace kam während seiner Arbeit zur
theoretischen Fehlerverteilung einer empirischen Verteilung darauf, das Pro-
blem der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit aus
einer Sicht zu betrachten, die der Auffassung von Bayes nahe stand.
Nach der von Gauß und Laplace im Jahre 1810 durchgeführten Synthese
der empiristischen und der probabilistischen Auffassung setzte sich die Gauß-
2
sche Formel e−x aufgrund ihrer mathematischen Eigenschaften und ihrer
guten Übereinstimmung mit den Beobachtungen fast vollständig durch. Die
Frage der Verteilung der Elementarfehler hatte im Übrigen einen Teil ih-
rer Bedeutung verloren, nachdem Laplace 1810 den Zentralen Grenzwertsatz
bewiesen hatte. Dieser Satz zeigt, daß sogar dann, wenn die Wahrscheinlich-
keitsverteilung der Fehler keine Normalverteilung ist, die Verteilung der Mit-
telwerte der Fehler gegen eine solche Verteilung strebt, falls die Anzahl der
Beobachtungen unbegrenzt wächst.27 Dieser Umstand verlieh der Gaußschen
Form einen entscheidenden Vorteil, auf dem – seit Quetelet und seinem Durch-
schnittsmenschen – die gesamte Statistik des 19. Jahrhunderts beruhte.
Die Ergebnisse von Gauß und Laplace führten also zu einer außerordentlich
fundierten Synthese, auf der die Experimentalwissenschaften des 19. Jahrhun-
derts aufbauten. Diese Synthese vereinigte in sich einerseits die empirischen
Arbeiten, die zur Methode der kleinsten Quadrate führten, und andererseits
die wahrscheinlichkeitstheoretischen Formalismen, die im Normalverteilungs-
gesetz und dessen zahlreichen mathematischen Eigenschaften gipfelten. Je-
doch sollte es ein ganzes Jahrhundert dauern, bis diese Techniken in den
Sozialwissenschaften und insbesondere in den Wirtschaftswissenschaften ein-
gesetzt und formalisiert wurden. Die Gründe hierfür werden wir nachfolgend
präzisieren. Eine der möglichen Hypothesen zur Erklärung dieser Verschie-
bung besteht darin, daß es noch keine Datenaufzeichnungsverfahren gab, die
ihrerseits mit der Schaffung moderner Staaten und der Konstruktion der ent-
sprechenden institutionellen Äquivalenzräume zusammenhängen – das heißt
mit der Konstruktion von Äquivalenzklassen im institutionellen Bereich und
27
Genauer gesagt beinhaltet der Zentrale Grenzwertsatz, daß die Verteilungsfunk-
N
tion einer Summe X = n=1
Xn von unabhängigen oder hinreichend schwach
korrelierten Zufallsvariablen Xn nach geeigneter Normierung unter ziemlich all-
gemeinen Voraussetzungen für N → ∞ gegen die Normalverteilung strebt.
Messungsanpassungen als Grundlage für Übereinkünfte 75

in den Bereichen der Rechtsprechung, der Gesetzgebung oder der Gewohn-


heitsrechte.

Messungsanpassungen als Grundlage für Übereinkünfte


Wurde ein Richter im 17. Jahrhundert ersucht, einen Konflikt beizulegen, der
spätere und somit noch unbekannte Ereignisse implizierte, dann hat er bei sei-
ner Entscheidung gefordert, daß die Prozeßparteien eine Übereinkunft über
äquivalente Erwartungswerte erzielen. Daher erschien die Wahrscheinlichkeit,
das heißt das Verhältnis zwischen Erwartungswert und Einsatz, als ein Maß,
auf dessen Grundlage eine Übereinkunft zwischen Personen aufgebaut wer-
den konnte. Im 18. Jahrhundert versuchten dann die Vermessungsingenieu-
re, Astronomen und Physiker, die sich mit einer Vielfalt unterschiedlicher
Naturbeobachtungen konfrontiert sahen, diese Beobachtungen in Messungen
zusammenzufassen, die von anderen Wissenschaftlern weiterverwendet wer-
den konnten. Zu diesem Zweck konstruierte man Verfahren (Berechnung von
Mittelwerten, Anpassung durch kleinste Quadrate), deren Optimalitätseigen-
schaften es ermöglichten, Übereinkünfte zu treffen. Und schließlich waren es
zu Beginn des 19. Jahrhunderts die Präfekten, die mit dem Stock in der Hand
die Wege ihres Departements entlang gingen, um Besonderheiten zu erkun-
den und zu registrieren. Mit ihren noch unbeholfenen Beobachtungen trugen
die Präfekten zum Aufbau der künftigen neuen Administration bei. Die Auf-
gabe dieser Administration bestand darin, der ganzen Nation Messungen zu
liefern, die mit hinreichender Übereinstimmung akzeptiert werden und damit
eine sichere Grundlage für öffentliche Debatten und für Entscheidungsfindun-
gen darstellen.
In den betrachteten vier Fällen – das heißt in Bezug auf Richter, Astro-
nomen, Vermessungsingenieure und Präfekten – haben wir es mit Abwand-
lungen des Wortes messen zu tun, das in scheinbar unterschiedlichen Bedeu-
tungen verwendet wird. Die Richter trafen ihre Entscheidungen mit Maß (das
heißt maßvoll), die Astronomen und die Vermessungsingenieure optimierten
ihre Messungen und die Präfekten setzten die (auf Messungen beruhenden)
Maßnahmen ihrer Minister um.28 Die Nebeneinanderstellung dieser unter-
schiedlichen Bedeutungen erscheint jedoch nicht als Zufall, sobald man hinter
den Messungen (oder den auf ihnen beruhenden Maßnahmen) die Absicht
erkennt, eine Übereinkunft zwischen prozeßführenden Parteien, unter Wissen-
schaftlern oder zwischen Bürgern zu erzielen. Demnach haben die scheinbar
heteroklitischen Personen und Situationen – die in diesem Buch als Vorläufer
im Stammbaum der modernen Verfahren der statistischen Objektivierung auf-
treten – eine Gemeinsamkeit: sie verbinden die Konstruktion der Objektivität
mit der Konstruktion von Intersubjektivitätstechnologien“ (Hacking, 1991,

[120]), das heißt mit Übereinkunftsformeln.
28
Das im französischen Original verwendete Wort mesure läßt sich im Deutschen
je nach Zusammenhang durch Messung, Maß oder Maßnahme wiedergeben.
76 2 Richter und Astronomen

Um 1820 existierten jedoch noch keine vereinheitlichten statistischen Ver-


fahren zur Bereitstellung derartiger Übereinkunftsformeln, die heute aufgrund
ihrer Solidität allgegenwärtig sind. Die spätere Geschichte läßt sich als eine
Folge von Synthesen schildern, die zwischen a priori unterschiedlichen Tra-
ditionen erfolgten. Ein erstes Beispiel hierfür ist die Laplace-Gauß-Synthese.
Diese Synthese erfolgte durch die Verschmelzung der wahrscheinlichkeitstheo-
retischen Formalisierung der Binomialgesetze von Jakob Bernoulli und Abra-
ham de Moivre mit der Legendreschen Anpassung durch die Methode der
kleinsten Quadrate. Weitere Synthesen sollten folgen. In den 1830er Jahren
verglich Quetelet die von den Bureaus für Verwaltungsstatistik beobachteten
Regelmäßigkeiten mit den Regelmäßigkeiten der astronomischen Messungen
und leitete daraus statistische Gesetze ab, die unabhängig von den Individu-
en waren. Zwischen 1880 und 1900 verknüpften Galton und Pearson die auf
Darwin zurückgehenden Fragen der Vererbung mit der von Quetelet festge-
stellten Normalverteilung der Merkmale der menschlichen Spezies und mit
den Anpassungstechniken, die ihren Ursprung in der Theorie der Meßfehler
hatten.29

29
Am Anfang von Kapitel 9 unterbreiten wir in einer schematischen Darstellung
einen Vorschlag für einen Stammbaum der Ökonometrie.
3
Mittelwerte und Aggregatrealismus

Wie kann man aus Vielem Eines machen? Und was macht man, wenn man
dieses Eine wieder zerlegen möchte, um erneut die Diversität herzustellen?
Und warum soll man das machen? Es handelt sich hierbei um drei verschie-
dene, aber untrennbar miteinander zusammenhängende Fragen. Diese Fragen
treten bei der Entwicklung und Ausarbeitung der statistischen Werkzeuge zur
Objektivierung der sozialen Welt immer wieder auf. Mit der Verwendung des
Verbs machen“ in den obigen Formulierungen möchten wir nicht suggerie-

ren, daß dieser Prozeß der Realitätsproduktion künstlich und somit unwahr“

ist. Vielmehr möchten wir an die Kontinuität erinnern, die zwischen den bei-
den Analyse-Aspekten besteht, das heißt an die Kontinuität zwischen dem
kognitiven und dem aktiven Aspekt. Diese innige Überschneidung, die für die
probabilistische und statistische Erkenntnisweise charakteristisch ist, erklärt
vielleicht, warum diese Techniken von der Wissenschaftsphilosophie nur selten
in subtiler Weise angeschnitten werden. Die offensichtliche Komplexität eines
Gebietes, dessen Technizität dieses relative Schweigen rechtfertigen könnte,
ist ihrerseits das Produkt dieser besonderen Situation, in der die Welten des
Handelns und des Wissens miteinander verknüpft sind.
Die Geschichte dieser Techniken besteht aus einer Reihe von intellektuellen
Destillationen und Läuterungsprozessen, die dazu bestimmt sind, schlüsselfer-
tige Werkzeuge herzustellen – Werkzeuge, die von den unterschiedlichen Kon-
tingenzen ihrer Entstehung befreit sind. Exemplarisch für diese Auffassung
sind die häufigen und lebhaften Debatten, die im 19. Jahrhundert zum Be-
griff des Mittelwertes, seines Status und seiner Interpretation geführt wurden.
Jenseits der scheinbaren Trivialität der Rechenweise dieses elementaren Werk-
zeugs der Statistik ging es jedoch um viel mehr: Die Debatten bezogen sich auf
die Natur des vom Kalkül bereitgestellten neuen Objekts und auf die Möglich-
keit, dieses Objekt mit einer autonomen Existenz auszustatten, die von den
elementaren Individuen unabhängig ist. Der Streit um den Durchschnitts-
menschen war lebhaft, denn es wurde ein ganz neues Werkzeug eingeführt –
einschließlich des binomischen Gesetzes“ der Verteilung der Meßfehler – um

78 3 Mittelwerte und Aggregatrealismus

eine sehr alte philosophische Frage zu behandeln, nämlich die Frage nach dem
Realismus der Aggregate von Dingen oder von Personen.
Das vorliegende Kapitel beschreibt einige Momente dieser Debatten über
den realen oder nominalen Charakter derartiger Aggregate und über die Werk-
zeuge – insbesondere die probabilistischen Werkzeuge – die bei dieser Gelegen-
heit verwendet wurden. So stellte etwa Quetelet tatsächlich drei – aus unter-
schiedlichen Denkhorizonten hervorgegangene – Möglichkeiten zusammen, die
Einheit des Diversen“ begrifflich zu erfassen. Mit Wilhelm von Ockham und

dem Gegensatz zwischen der nominalistischen und der realistischen Philoso-
phie hatte die mittelalterliche Theologie bereits die Frage nach dem Umfang
einer mehrelementigen Menge aufgeworfen. Diese Frage ist vom Standpunkt
des vorliegenden Buches wesentlich, in dem wir die Genese der Konventionen
untersuchen, die bei der Konstruktion von Äquivalenzen und bei der stati-
stischen Kodierung getroffen wurden. Die Ingenieure und Ökonomen des 17.
und 18. Jahrhunderts, zum Beispiel Vauban, hatten bereits Mittelwerte be-
rechnet, und zwar sowohl im Hinblick auf die Schätzung eines existierenden
Objekts als auch zur Schaffung neuer Entitäten. Und schließlich hatten die
im Kapitel 2 genannten Probabilisten des 18. Jahrhunderts im Ergebnis der
Fragen, die sie zu Meßfehlern und zu den hieraus geschlußfolgerten Ursachen-
wahrscheinlichkeiten stellten, leistungsstarke Werkzeuge geschaffen, um Äqui-
valenzen aufzustellen. Zu diesen Werkzeugen gehören das Gesetz der großen
Zahlen von Jakob Bernoulli und die Synthese von Gauß-Laplace, die zum
Zentralen Grenzwertsatz führte.
Quetelet stützte sich auf diese unterschiedlichen Traditionen und auf die
immer ergiebiger werdenden statistischen Aufzeichnungen der Institutionen,
deren Entstehung wir im Kapitel 1 beschrieben hatten. Durch die Nutzung
dieser Quellen schuf er eine neue Sprache, die es ermöglichte, neue Objek-
te anzubieten, die mit der Gesellschaft und deren Stabilität zu tun hatten.
Diese neue Sprache befaßte sich nicht mehr mit Individuen und der Ratio-
nalität ihrer Entscheidungen, wie es noch die Probabilisten bis hin zu La-
place und Poisson getan hatten. Die bei der Verwendung des Gesetzes der
großen Zahlen vorausgesetzten Homogenitätskonventionen wurden von Pois-
son, Bienaymé, Cournot und Lexis diskutiert und die Diskussionen führten zu
weiteren Werkzeugen, mit denen sich der Realismus der makrosozialen Objek-
te testen ließ und immer feinere Zerlegungen dieser Objekte konstruiert wer-
den konnten. Schließlich nahm die Durkheimsche Soziologie diese Werkzeuge
in ihren Besitz, um den Begriff der außerhalb der Individuen existierenden
sozialen Gruppe zu erschaffen. Diese Werkzeuge wurden später im Namen
einer Totalitätskonzeption verworfen, die nicht mehr den Berechnungen von
Mittelwerten verpflichtet war. Der in den modernen Sozialwissenschaften im-
mer wieder auftretende Gegensatz zwischen dem individualistischen und dem
holistischen Standpunkt läßt sich anhand der – in der zweiten Hälfte des 19.
Jahrhunderts äußerst lebhaften – Debatten über Statistiken und Mittelwer-
te verfolgen, wobei die Mittelwerte von beiden Gruppen mal verwendet und
dann wieder denunziert wurden.
Nominalismus, Realismus und statistische Magie 79

Nominalismus, Realismus und statistische Magie

Warum eigentlich sollte man vor der Behandlung der Mittelwertdebatten des
19. Jahrhunderts auf die mittelalterlichen Kontroversen zwischen Realisten
und Nominalisten zu sprechen kommen und damit eine Verquickung von voll-
kommen unterschiedlichen intellektuellen Kontexten riskieren? Es stellt sich
heraus, daß dieses Moment aufschlußreich ist – einerseits wegen der damals
benutzten Denkschemata (logischer Vorrang des Ganzen oder der Individu-
en, aus denen es sich zusammensetzt) und andererseits deswegen, weil die
gleichen Denkschemata in einem Streit zwischen Papsttum und Franziskaner-
orden bemüht wurden, in dem es um das Eigentum der Güter der Franziskaner
ging (Villey, 1975, [282]).
Die Debatten über die Beziehungen zwischen universellen Ideen, Wörtern
von allgemeinem Charakter und individualisierten Dingen sind selbstverständ-
lich genauso alt wie die klassische Philosophie. So unterscheidet die klassische
Philosophie drei verschiedene Bezugnahmen des lateinischen Wortes homo
(Mensch): die beiden Silben, aus denen das Wort besteht, einen besonderen
Menschen und die Menschen im Allgemeinen (das heißt den Signifikanten und
die beiden Signifikat-Ebenen: Singulärität und Allgemeinheit). Im 14. Jahr-
hundert, zur Zeit der Kontroverse zwischen Realisten und Nominalisten (die
bildhaft im Roman Der Name der Rose von Umberto Eco gezeichnet wird),
behaupteten die Realisten, daß nur Ideen und allgemeine Konzepte eine reale
Existenz haben – eine Ansicht, die wie das Gegenteil von dem anmutet, was
wir heute als Realismus bezeichnen würden (Schumpeter, 1983, [254]). Dage-
gen behaupteten die Nominalisten, deren maßgeblicher Theoretiker Wilhelm
von Ockham (William Occam, ca. 1300–1350) war, daß es nur einzelne Indi-
viduen gibt und daß die Wörter, die zur Bezeichnung einer Gesamtheit von
Individuen oder zur Bezeichnung eines Konzeptes dienen, praktische Konven-
tionen sind, aber keine Realität bezeichnen, weswegen man diesen Wörtern
gegenüber mißtrauisch sein muß. Als exponierter Vertreter des Nominalismus
ließ sich Ockham von folgendem Prinzip leiten: Wesen soll man nicht über

Gebühr vermehren“ 1 – ein Sparsamkeitsprinzip, das oft als Ockhamsches

Rasiermesser“ (Occam’s razor) oder Ockhamsches Messer“ bezeichnet wird

(Largeault, 1971, [165]).
Die nominalistische Position ist bedeutsam, da sie den Niedergang der al-
ten Scholastik ankündigte und den Weg für ein subjektives Recht“ sowie

für die individualistischen und empiristischen Philosophien der nachfolgenden
Jahrhunderte freimachte. Selbstverständlich änderte sich der Bedeutungsin-
halt dieses Nominalismus in dem Maße, wie er die Abstraktionskraft betonte,
die der Benennung von Dingen innewohnt. So hat für Paul Vignaux (1991)
1
Nach Ockham besteht die Welt aus einzelnen Dingen und verborgenen Qua-

litäten“, die nirgends entdeckt wurden. In diesem Zusammenhang wendete er
sein Messer“ an, das die nichtexistenten Wesen abschnitt“: entia non sunt
” ” ”
multiplicanda praeter necessitatem“.
80 3 Mittelwerte und Aggregatrealismus

der Nominalismus der modernen Empiriker den Akzent auf die aktive Funkti-

on des Wortes gesetzt, das einen Faktor des mentalen Abstraktionsverhaltens
darstellt, indem es gewisse Eigenschaften des Dinges nicht erwähnt“. Diese
Formulierung beschreibt präzise die Operationen der Kriterienbildung und der
statistischen Kodierung, die es durch Weglassen gewisser Eigenschaften des

Dinges“ ermöglichen, die Abstraktionsweisen zu diversifizieren und dadurch
eine Vervielfachung der Standpunkte bezüglich dieses Dinges zuzulassen.
Auch die realistische Position entwickelte sich von ihrer ontologischen und
idealistischen mittelalterlichen Version (Ideenrealismus) weiter und nahm ma-
terialistischere und empirizistischere Formen an. Hierzu waren Werkzeuge er-
forderlich, mit deren Hilfe man die Dinge miteinander verknüpfen und sie
dadurch zu Realitäten einer höheren Ebene machen konnte: die Nomenkla-
turen der Naturalisten des 18. Jahrhunderts (Linné) und die statistischen
Mittelwerte des 19. Jahrhunderts (Quetelet). Dieser werkzeugmäßig gut aus-
gerüstete Realismus neuen Typus stand also zum individualistischen Nomi-
nalismus – der für die Aufzeichnung und Kodierung der einzelnen Elemente
unerläßlich war – in einem für die statistische Erkenntnisweise charakteristi-
schen Spannungsverhältnis. Diese Erkenntnisweise zielt darauf ab, auf einer
höheren Ebene Realitäten zu bilden und zu verfestigen, die dazu fähig sind,
als synthetische Substitute für viele Dinge zu zirkulieren (zum Beispiel als
der Preisindex für die Preissteigerungen von Produkten, als die Arbeitslo-
senquote für die Arbeitslosen usw.). Aus diesem Grund war es notwendig,
die statistische Erkenntnisweise in den nominalistischen und individualisti-
schen Konventionen zu verankern. Diese Spannung ist inhärenter Bestandteil
der magischen Transmutation der statistischen Arbeit: der Übergang von ei-
ner Realitätsebene zu einer anderen impliziert auch den Übergang von einer
Sprache zu einer anderen (zum Beispiel von den Arbeitslosen zur Arbeitslo-
sigkeit). Der seit Ockham beschrittene Weg zeigt den Realitätsstatus, der den
beiden Ebenen zugeordnet werden kann, wobei diese Ebenen ihr Dasein in
partieller Autonomie verbringen können.
Diese Vielfalt der möglichen Realitätsregister wird heute durch die Tat-
sache gerechtfertigt, daß jedes von ihnen in ein Konstrukt, einen Zusammen-
hang von Dingen eingebettet ist. Die verschiedenen Mechanismen verfügen
(zumindest partiell) über autonome innere Zusammenhänge. Die Statistiken
(im Sinne der Zusammenfassung einer großen Anzahl von Aufzeichnungen)
spielen oft eine wichtige Rolle bei der Herstellung von Zusammenhängen. Die-
se komplexen Konstrukte sind gleichzeitig kognitiv und aktiv: die nationale
Arbeitslosenquote wurde erst dann berechnet und veröffentlicht, nachdem ei-
ne nationale Politik des Kampfes gegen die Arbeitslosigkeit konzipiert und
umgesetzt worden war. Vorher half man den Arbeitslosen auf lokaler Ebene
(Salais, Baverez, Reynaud, 1986, [247]).
An dieser Stelle ist es verführerisch, die politische und philosophische Kon-
troverse zu erwähnen, bei deren Gelegenheit Ockham seine nominalistische
Position in so entschiedener Weise bekräftigt hatte (Villey, 1975, [282]). Das
Überraschungsmoment ist der scheinbar paradoxe Charakter der Situation
Das Ganze und seine Trugbilder 81

und somit auch der Argumentation. Ausgangspunkt hierfür war das im 13.
Jahrhundert vom hl. Franz von Assisi ausgesprochene Armutsgelübde, das als
Vorschrift in den Regeln des Franziskanerordens verankert war. Die Franzis-
kaner waren nun aber so erfolgreich, daß sie rasch an der Spitze zahlreicher
Klöster standen und über fruchtbare landwirtschaftliche Böden verfügten. Da-
mit die Franziskaner jedoch die Möglichkeit hatten, ihr Armutsgelübde wenig-
stens dem Buchstaben nach einzuhalten, erklärte sich der Papst damit einver-
standen, diese Güter als Eigentum zu übernehmen, gleichzeitig aber den Fran-
ziskanern zur Nutzung zu überlassen. Im 14. Jahrhundert war dieses subtile
Konstrukt jedoch heftigen Kritiken ausgesetzt. Der Papst war der mühseligen
Aufgaben überdrüssig geworden, die mit der Verwaltung dieser Güter ein-
hergingen und deswegen entschloß er sich, die Güter dem Franziskanerorden
zurückzugeben. Das hätte die Franziskaner selbstverständlich reicher gemacht,
aber es hätte auch zur Kritik innerhalb des Ordens geführt – ein rebellieren-
der Flügel hätte die Rückkehr zur ursprünglichen Reinheit des Gelübdes des
hl. Franz verlangt. Das also war der komplexe Kontext, der Ockham in seiner
Intervention veranlaßt hatte, die Position der Franziskaner gegenüber dem
Papst zu verteidigen. Er argumentierte, daß es nicht möglich sei, die betref-
fenden Güter dem Orden als Ganzem zurückzugeben, da Franziskanerorden“

lediglich ein Name war, mit dem individuelle Franziskaner bezeichnet wurden.
Demnach leugnete Ockham die Möglichkeit der Existenz kollektiver Per-
sonen, die sich von Einzelpersonen unterscheiden. Dieses Problem sollte eine
fruchtbare Zukunft haben. Mit dem logischen Individualismus des Nomina-
lismus ist demnach ein moralischer Individualismus verknüpft, der seinerseits
mit einer Auffassung der Freiheit des Individuums zusammenhängt, das allein
dem Schöpfer gegenübersteht (Dumont, 1983, [73]). Wir gehen hier nicht wei-
ter auf diese Analyse ein, die auf subtile theologische und juristische Konstruk-
te verweist, deren Aufbau und Sprache uns heute weitgehend fremd sind. Aus
diesem Grund wäre auch ein allzu direkter Vergleich zwischen scheinbar nahe-
stehenden Themen (hier der Gegensatz Realismus-Nominalismus) aus einem
Abstand von fünf Jahrhunderten reichlich unvorsichtig. Die obige kurze Ge-
schichte soll lediglich auf folgenden Umstand hinweisen: Begriffliche Schemata,
die zu einem gegebenen Zeitpunkt in ein sehr viel umfassenderes Gebäude ein-
gegliedert waren, können weitergegeben werden – wobei sie sich mitunter in
ihr Gegenteil verwandeln – und lassen sich dann erneut in andere, radikal
unterschiedliche Gebäude einbinden.

Das Ganze und seine Trugbilder

Die Möglichkeit, auf der Grundlage statistischer Berechnungen mit makroso-


zialen Objekten umzugehen, ohne diese Objekte zu deformieren, führt heute
dazu, daß wir uns mühelos zwischen mehreren Realitätsebenen hin und herbe-
wegen können, deren Konstruktionsweisen stark voneinander abweichen. Hier
kommt die oben erwähnte statistische Magie“ ins Spiel. Aus dieser Sicht stell-

82 3 Mittelwerte und Aggregatrealismus

te der Zusammenhang zweier Typen von Mittelwertberechnungen, die formal


identisch, aber logisch sehr wohl voneinander verschieden waren, ein Schlüssel-
moment dar. Einerseits handelte es sich um die bestmögliche Approximation
einer Größe der Natur, wobei man von verschiedenen Messungen eines einzigen
Objekts auf der Grundlage unvollständiger Beobachtungen ausging; anderer-
seits ging es um die Schaffung einer neuen Realität auf der Grundlage von
Beobachtungen unterschiedlicher Objekte, die aber bei der betreffenden Ge-
legenheit miteinander verknüpft wurden. Der durch Quetelet berühmt gewor-
dene Zusammenhang zwischen der Permanenz eines mehrmals beobachteten
Objekts im erstgenannten Fall und der Existenz einer verschiedenen Objekten
gemeinsamen Sache im zweiten Fall verlieh dem Zusammenhang, der damals
zwischen diesen Objekten hergestellt wurde, eine ganz neue Stabilität. Aber
dieses Werkzeug ist nicht sofort akzeptiert worden und gab im gesamten 19.
Jahrhundert Anlaß zu erbitterten Kontroversen.
Wir ahnen die Bedeutung des Schrittes, den Quetelet mit Hilfe der proba-
bilistischen Formulierung des Gesetzes der großen Zahlen ging, wenn wir – wie
es Jean-Claude Perrot (1992, [227]) tat – die Terminologie prüfen, die Vauban
um 1700 bei verschiedenen Berechnungen verwendete, um eine neue nationale
Steuer, den Königszehnt, zu rechtfertigen. Hierzu benötigte der Minister ver-
schiedene Schätzungen der Fläche des Königreichs, der landwirtschaftlichen
Erträge und der Steuerlasten. In gewissen Fällen verfügte er über mehrere
Schätzungen einer unbekannten Größe (der Gesamtfläche Frankreichs), aus
denen er ein proportionales Mittel“ ableitete. In anderen Fällen nutzte er

hingegen beispielsweise Informationen über die landwirtschaftlichen Erträge
in unterschiedlichen Kirchengemeinden und in verschiedenen Jahren. Er führ-
te dann eine Berechnung durch, die der vorhergehenden ähnelte, bezeichnete
aber das Ergebnis nicht als Mittelwert“, sondern als gewöhnlichen Wert:

gewöhnliche Quadratmeile, gewöhnliches Jahr.
Diese Verfahrensweise existierte schon seit langem in den intuitiven Prak-
tiken, deren Merkmal die wechselseitige Kompensation abweichender Werte
war, die entgegengesetzte Tendenzen aufwiesen. Spuren hiervon erkennen wir
in einer Reihe von Ausdrücken der Alltagssprache. Manche dieser Ausdrücke,
die im 18. Jahrhundert verwendet wurden, sind heute verschwunden, andere
wiederum sind bis zum heutigen Tag erhalten geblieben. Beispielsweise ver-
wendet Graunt bei der Bildung des arithmetischen Mittels (medium) meist die
feststehende Wendung one with another 2 , die dem deutschen das eine in das
andere gerechnet bzw. dem französischen l’un portant l’autre (Neufranzösisch:
en faisant la compensation des différences les unes par les autres“ (1611))

entsprechen dürfte. Die französische Wendung wurde von Vauban benutzt,
2
So schreibt Graunt etwa, daß in der Landpfarrei auf eine Ehe one with another
vier Kinder kämen: Upon which Tables we observe, That every Wedding, one

with another, produces four children, and consequently that that is the proportion
of Children which any Marriageable Man or Woman may be presumed shall have“
(vgl. Hauser, 1997, [397]).
Das Ganze und seine Trugbilder 83

kommt aber auch in Briefen vor, die Lodewijk Huygens an seinen Bruder
Christiaan schrieb. In einem dieser Briefe legt Lodewijk seinen calcul des

âges“ ausführlich dar: Er rechnet alle in der Tabelle auftretenden Lebens-
dauern zu einem Mittel ineinander“ – l’un portant l’autre, wie er sagt – das

heißt er addiert die Lebensjahre aller hundert Personen in der Tabelle auf und
teilt ihre Summe durch hundert. Die Operation der Addition läßt die lokalen
Singularitäten verschwinden und führt zu einem neuen Objekt allgemeine-
rer Ordnung, wobei die unwesentlichen Kontingenzen eliminiert werden. Der
Sprung von einem Register zu einem anderen spiegelt sich auch im italieni-
schen Ausdruck in fin dei conti 3 ( alles in allem“) und in den französischen

Wendungen au bout du compte ( letzten Endes“) und tous comptes faits ( al-
” ”
les in allem“) wider.
Perrot hat (hauptsächlich auf der Grundlage des Wörterbuchs der Aka-
demie) die im 18. Jahrhundert existierenden Konnotationen der von Vauban
verwendeten Begriffe analysiert und auf die unterschiedlichen Logiken hin-
gewiesen, die in jedem der beiden Kalküle verwendet werden. Das Mittel be-
zeichnet das, was sich zwischen zwei Extremen befindet“. Eine Größe wird als

proportional bezeichnet, wenn sie in einem Verhältnis zu anderen Größen der

gleichen Art“ steht. Der Begriff Art wird in präziser Weise mit der Identität
assoziiert, das heißt mit dem, was die Permanenz ausmacht. Die Berechnung
des Mittelwertes setzte demnach voraus, daß die Größen in diesem einge-
schränkten Sinn gleichartig sind. Dagegen weist der Ausdruck gewöhnlich“

auf etwas übliches, abgedroschenes, universelles hin beziehungsweise auf et-
was, das nach Ablauf einer kontinuierlichen Folge von Okkurrenzen geändert

wird“ (gewöhnliches Jahr). In ihrem Kommentar zum Ausdruck l’un portant
l’autre führte die Akademie eine Formel ein, die bei Gegensätzen Ockhamscher
Art kaum vorstellbar war. Ein Resultat ergab sich, wenn man das Eine durch

das Andere kompensiert und eine Art Ganzes daraus zusammensetzt“ – eine
Redeweise, die Vauban bei der Untersuchung von Saaterträgen verwendete.
Diese Art Ganzes“ bezeichnete eine fließende Zone zwischen einem fest aufge-

stellten Objekt und der Diversität inkommensurabler Objekte. Die Kommen-
surabilität und die Möglichkeit der Berechnung eines gewöhnlichen Wertes“

gestatteten es, den Begriff einer Art Ganzes“ zu bilden. Noch aber war man

nicht dazu imstande, die Stabilität dieses gewöhnlichen Wertes“ zu beweisen.

Ebenso war es noch nicht möglich, die Ähnlichkeit der Fehlerabweichungen in
diesen beiden Fällen und im Falle des proportionalen Mittelwertes“ zu be-

weisen, um ein konsistentes Ganzes zu erzeugen: den Durchschnittsmenschen.
Diese Fragen führten zu einer vollständigen Neuformulierung des alten
Problems der Existenz einer allgemeinen Entität, die auf einer logisch höheren
Ebene steht als die Elemente, aus denen sich diese Entität zusammensetzt. Das
im Entstehen begriffene Ganze sollte auch noch für einige Zeit ein Trugbild
3
Wörtlich: am Ende der Rechnungen“. Das italienische conto“ (Rechnung, Kon-
” ”
to) geht ebenso wie das französische compte“ auf das spätlateinische computus“
” ”
(Berechnung) zurück.
84 3 Mittelwerte und Aggregatrealismus

des Ganzen bleiben. Dieses Trugbild tauchte zu einem Zeitpunkt auf, als Vau-
ban versuchte, die vorher verstreut auftretenden Elemente in einem einzigen
Kalkül zusammenzufassen, um die Produktionskapazitäten des Königreichs
zu verstehen und zu beschreiben. Darüber hinaus wollte er schätzen, was eine
neue Steuer aufbringen könnte, die sich aus diesen Kapazitäten ableitet. Die
neue Art und Weise der Aufstellung von Äquivalenzen, die mit wesentlichen
Eigenschaften der Addition im Einklang steht, wurde zur gleichen Zeit vorge-
schlagen, als eine neue Art von Staat im Entstehen begriffen war – ein Staat,
der den Ursprung und die Kreisläufe seines Steueraufkommens tiefgründig zu
überdenken versuchte. Aber das hierzu erforderliche begriffliche Werkzeug war
noch nicht formalisiert. Daher konnte dieses Werkzeug auch nicht zirkulieren
und mühelos in unterschiedlichen Kontexten wiederverwendet werden. Einer
der Gründe, warum diese Formalisierung noch kaum möglich war, ist in der
Abwesenheit eines zentralisierten Systems zum Sammeln der Aufzeichnungen
und im Fehlen eines elementaren Kalküls zu suchen, das heißt im Fehlen eines
– und sei es auch nur rudimentären – Apparates für eine nationale Statistik.

Quetelet und der Durchschnittsmensch“ 4



Die Existenz eines derartigen kumulativen Systems einzelner Messungen und
Kodierungen ist in der Tat notwendig, um eine Verbindung zwischen den bei-
den von Vauban vorgelegten Berechnungen zu ermöglichen. Diese Verbindung
impliziert auf zwei unterschiedliche Weisen, daß man auf eine große Anzahl
von Beobachtungen zurückgreift. Die relative Regelmäßigkeit der jährlichen
Anzahlen von Geburten, Sterbefällen, Heiraten, Verbrechen und Selbstmor-
den in einem Land wies nämlich einerseits – im Gegensatz zum zufälligen
Charakter des Auftretens eines jeden einzelnen dieser Ereignisse – darauf hin,
daß die betreffenden Totalisierungen mit Konsistenzeigenschaften ausgestattet
sind, die sich fundamental von den Eigenschaften der Einzelereignisse unter-
scheiden. Zum anderen verfestigte die frappierende Ähnlichkeit zwischen den
Verteilungsformen großer Anzahlen von Messungen – unabhängig davon, ob
diese Messungen mehrmals an ein und demselben Objekt oder einmal an meh-
reren Objekten (zum Beispiel an einer Gruppe von Rekruten) vorgenommen
wurden – die Vorstellung, daß beide Operationen von gleicher Beschaffenheit
sind, falls man über die kontingenten Einzelfälle hinaus die Existenz eines
Durchschnittsmenschen voraussetzt, von dem die besagten Einzelfälle lediglich
unvollkommene Kopien sind. Beide Arten des Zurückgreifens auf statistische
4
Quetelet prägte Mitte des 19. Jahrhunderts den Begriff des homme moyen“, d.h.

die durch die arithmetischen Mittel“ der Merkmale einer Population definierte

Person, die hier als Durchschnittsmensch“ bezeichnet wird (vgl. E. Durkheim,

Der Selbstmord, 1897 [78]; deutsche Übersetzung 1983). Obwohl es diese Person
faktisch nicht gibt, ist sie die Richtschnur für politische Entscheidungen. Diese
Personifikation des Mittelwertes als gedachte Größe ist für die Feststellung von
statistischen Regelmäßigkeiten gesellschaftlicher Phänomene von Bedeutung.
Quetelet und der Durchschnittsmensch“ 85

Aufzeichnungen und ihre Totalisierungen setzten das zentralisierte Sammeln
einer großen Anzahl von Fällen voraus, wenn man eine neue Entität schaffen
wollte. Die Verbindung und die Vertonung“ dieser beiden unterschiedlichen

Ideen waren – ebenso wie die Organisation der zur Erzeugung dieser Zah-
len erforderlichen nationalen und internationalen statistischen Systeme und
Zählungen – das Werk des Einmann-Orchesters der Statistik des 19. Jahrhun-
derts, des belgischen Astronomen Adolphe Quetelet.5
Die erste dieser Ideen, das heißt die Idee von der relativen Regelmäßig-
keit der Anzahlen der Geburten, Heiraten und Todesfälle, war bereits im 18.
Jahrhundert zum Ausdruck gebracht worden. Diese Idee war damals als Ma-
nifestation einer – über den vergänglichen und unberechenbaren Individuen
stehenden – Vorsehung oder göttlichen Ordnung interpretiert worden, von der
die Gesellschaft in ihrer Gesamtheit regiert wird. In diesem Sinne hatte Ar-
buthnot6 , Leibarzt der Königin von England und Übersetzer des von Huygens
im Jahre 1657 verfaßten ersten Lehrbuchs über die Wahrscheinlichkeitsrech-
nung, den leichten systematischen Überschuß der männlichen Geburten über
die weiblichen Geburten interpretiert. Er war auch der Erste, der Sozialstati-
stiken einem Wahrscheinlichkeitsmodell gegenüberstellte – dem Modell Kopf

oder Zahl“. Ist das Geschlecht eines neugeborenen Kindes das Ergebnis einer
derartigen Ziehung“, dann wäre die Chance Eins zu Zwei, daß in einem ge-

gebenen Jahr mehr Jungen als Mädchen geboren werden. Da aber der Über-
schuß an Jungen über einen Zeitraum von 82 aufeinanderfolgenden Jahren
beobachtet werden konnte, mußte der Vorgang mit einer Wahrscheinlichkeit
von (1/2)82 erfolgen, das heißt ca. 1/(4, 8 × 1024 ), und war deswegen ver-
nachlässigbar. Es hatte jedoch den Anschein, daß auch während der Kindheit
und in der Jugend die Sterblichkeit der Jungen größer als die der Mädchen
war. Demnach war es verführerisch, eine göttliche Vorsehung anzunehmen,
die diese höhere Sterblichkeit voraussieht und mehr Jungen als Mädchen auf
die Welt kommen läßt, damit später keine Frau dem traurigen Zustand der
Ehelosigkeit ausgesetzt ist.
Johann Peter Süssmilch (1707–1767), ein aus Berlin stammender evangeli-
scher Pastor, hatte seinerseits eine große Anzahl demographischer Informatio-
nen aus ganz Preußen zusammengetragen. Er tat dies aus einem Blickwinkel,
der dem Standpunkt der englischen politischen Arithmetiker näher stand als
der Sichtweise seiner eigenen Landsleute, die eine Statistik nach deutscher

Art“ betrieben (vgl. Kapitel 1). Sein großes Werk Die göttliche Ordnung in
den Veränderungen des menschlichen Geschlechts aus der Geburt, dem To-
de und der Fortpflanzung desselben erwiesen (1741) – das in ganz Europa
5
Lambert-Adolphe-Jacques Quetelet (1796–1874). Promotion in Mathematik; 1819
Professor für elementare Mathematik am Athenäum in Brüssel; seit 1820 Mitglied
der Königlichen Akademie in Brüssel; seit 1828 Direktor der erst 1833 fertigge-
stellten Sternwarte in Brüssel. Befaßte sich ab 1825 mit Arbeiten zur Statistik,
insbesondere zur Sozialstatistik.
6
John Arbuthnot (1667–1735), schottischer Mediziner, seit 1704 Fellow der Royal
Society. Bekannt als politischer Satiriker und Schöpfer der Figur des John Bull.
86 3 Mittelwerte und Aggregatrealismus

großen Anklang gefunden hatte – interpretierte diese Regelmäßigkeiten als


Manifestation einer Ordnung, die außerhalb der Menschen und über ihnen
stand. Bei Arbuthnot und Süssmilch wurden diese statistischen Ergebnisse –
obwohl sie sich auf individuelle Aufzeichnungen stützten – durch den Begriff
einer universellen Ordnung interpretiert, das heißt durch einen Realismus“

im oben beschriebenen mittelalterlichen Sinne. Ebenso gaben Quetelet und
später Durkheim eine holistische“ Interpretation dieser Regelmäßigkeiten:

die göttliche Ordnung von Süssmilch, der Durchschnittsmensch von Quetelet
und die Gesellschaft von Durkheim waren Realitäten sui generis, die sich von
den Individuen unterschieden und spezifische Methoden der Analyse erforder-
ten.
Aber das auf makrosoziale Regelmäßigkeiten ausgerichtete Konstrukt ließ,
selbst wenn es als Zeichen einer göttlichen Ordnung gedeutet wurde, eine Fra-
ge offen: Wie läßt sich die Diversität der körperlichen Merkmale oder des
moralischen Verhaltens der Individuen mit den Regelmäßigkeiten in Einklang
bringen, die bei einer großen Anzahl von Menschen insbesondere bezüglich
der Körpergrößen, der Heiraten, der Verbrechen und der Selbstmorde festge-
stellt wurden? Auf einer tieferliegenden Ebene stellte sich folgendes Problem:
Wurde die von den Menschen geforderte Freiheit nicht durch eine Art statisti-
scher Zwangsläufigkeit null und nichtig gemacht, die sich in diesen Ergebnissen
widerspiegelte? Das war die Frage, auf die Quetelet eine neue Antwort gab.
Er untersuchte zunächst die Diversität der leicht meßbaren körperlichen
Merkmale und suchte dabei nach einer Einheitlichkeit in dieser Diversität. Er
stellte die Häufigkeitsverteilung der Körpergrößen in einem Histogramm gra-
fisch dar und konnte dadurch eine Form nachweisen, die – trotz der Diskonti-
nuitäten, welche auf die notwendigerweise diskreten Abstufungen der Körper-
größen zurückzuführen waren – für eine gegebene Größe einer Verteilung der
Ergebnisse einer Reihe von fehlerbehafteten Messungen ähnelte. Diese Form,
die später üblicherweise als Glockenkurve“ oder Gaußsche Kurve“ bezeich-
” ”
net werden sollte, hieß damals Fehlerverteilung“ oder Möglichkeitsvertei-
” 2 ”
lung“. Der entsprechende analytische Ausdruck ke−x war von Abraham de
Moivre und Gauß formuliert worden – als Grenzwert einer Binomialverteilung
für die Ziehung von Kugeln aus einer Urne (mit Zurücklegung der Kugeln),
wobei die Füllung der Urne vorgegeben ist und die Anzahl der Ziehungen ge-
gen Unendlich geht. Das war der Grund, warum Quetelet für diese Form den
Namen Binomialverteilung“ oder Möglichkeitsverteilung“ verwendete (der
” ”
Ausdruck Normalverteilung“ entstand erst im Jahre 1894 unter der Feder von

Pearson (Porter, 1986, [240])). Diese Verteilung ist eine gute Approximation
für eine Verteilung von ungenauen Meßwerten einer Größe, die unabhängig
von diesen Messungen existiert (zum Beispiel die Rektaszension eines Sterns
oder die Verteilung der Auftreffpunkte von Geschossen auf einer Schießschei-
be). In diesen unterschiedlichen Fällen kann man zeigen, daß diese Form aus
der Zusammensetzung einer großen Anzahl von kleinen und voneinander un-
abhängigen Fehlern resultiert.
Quetelet und der Durchschnittsmensch“ 87

Auf der Grundlage dieser ersten Anpassung“ an ein Modell“ im zeit-
” ”
genössischen Sinne – das sich aus der Ähnlichkeit zwischen der Verteilung der
Rekrutengrößen und der Verteilung von ungenauen Messungen einer einzigen
Größe ableitete – zog Quetelet die Schlußfolgerung, daß die Abweichungen von
ihrer zentralen Tendenz die gleiche Beschaffenheit hatten: Es handelte sich
um Unvollkommenheiten bei der effektiven Realisierung eines Modells“ im

ursprünglichen Sinne des Wortes. Um eine Verbindung zwischen den beiden
Formen zu herzustellen, verwendete Quetelet die metaphorische Geschichte
des Königs von Preußen, der – in übergroßer Bewunderung einer vollkomme-
nen Statue des Apollo – bei tausend Bildhauern des Königreichs tausend Ko-
pien der Statue in Auftrag gegeben hatte. Die Bildhauer waren nicht perfekt
und ihre Werke verteilten sich mit Abweichungen im Vergleich zum Modell auf
die gleiche Weise, wie sich die konkreten Individuen um den Durchschnitts-
menschen verteilen. Gott der Schöpfer war also das Äquivalent des Königs
von Preußen und die Individuen waren unvollkommene Realisierungen des
perfekten Modells:

Die Dinge geschehen so, als ob die Schöpfungsursache, die das Modell
des Menschen geformt hat, ihr Modell anschließend wie ein mißgünsti-
ger Künstler zerbrach und schlechteren Künstlern die Reproduktion
des Modells überließ. (Quetelet, zitiert von Adolphe Bertillon, 1876,
[13].)

Mit Hilfe der Normalverteilung verlagerte Quetelet den Unterschied zwi-


schen den von Vauban geprägten Begriffen des proportionalen Mittels“ und

des gewöhnlichen Wertes“ auf eine andere Ebene. Quetelet unterschied drei

Arten von Mittelwerten, die bis zum Beginn des 20. Jahrhunderts den Kern
etlicher statistischer Debatten liefern sollten. Als Adolphe Bertillon (1876)
diese Unterschiede dreißig Jahre nach Quetelet vorstellte, umriß er sie in aus-
serordentlich klarer Weise. Der objektive Mittelwert entspricht einem realen
Objekt, das einer gewissen Anzahl von Messungen unterzogen wird. Der sub-
jektive Mittelwert ist das Ergebnis der Berechnung einer zentralen Tendenz,
falls die Verteilung eine Form aufweist, die sich an die Form der Binomi-

alverteilung“ anpassen läßt (Fall der Körpergrößen). Nur diese beiden Fälle
verdienen wirklich den Namen Mittelwert“. Der dritte Fall tritt auf, falls die

Verteilung nicht diese normale“ Form hat. Bertillon bezeichnete sie als arith-

metisches Mittel und wollte damit die Tatsache unterstreichen, daß es sich um
eine reine Fiktion handelt (als Beispiel nannte er die Höhen der Häuser einer
Straße, ohne aber eine konkrete derartige Verteilung anzugeben). Im zweiten
Fall hingegen bestätigte die Normalverteilung des Häufigkeitshistogramms die
Existenz einer – hinter der Vielfalt der Einzelfälle – unsichtbar vorhandenen
Vollkommenheit und rechtfertigte die Berechnung eines wahren“ Mittels.

Nach der Untersuchung der Körpergrößen setzte Quetelet seine Messun-
gen mit anderen körperlichen Merkmalen fort: Arme und Beine, Schädel und
Gewichte, für die er ebenfalls Binomialverteilungen beobachtete. Er leitete
88 3 Mittelwerte und Aggregatrealismus

hieraus die Existenz eines idealen Durchschnittsmenschen ab, der in sich sämt-
liche Durchschnittsmerkmale vereinigt und das Ziel des Schöpfers verkörpert:
die Vollkommenheit. Diese Vollkommenheit resultierte demnach aus einem ur-
sprünglichen, entscheidenden Zusammenhang zwischen mehreren Messungen
eines einzigen Objekts und der Messung mehrerer Objekte.
Der zweite entscheidende Zusammenhang in dem von Quetelet geschaffe-
nen Konstrukt gestattete es ihm, die moralischen Verhaltensweisen mit den
zuvor untersuchten körperlichen Merkmalen zu vergleichen. Tatsächlich wei-
sen – wie wir gesehen hatten – sowohl die moralischen Verhaltensweisen als
auch die körperlichen Merkmale eine beträchtliche Regelmäßigkeit auf, sofern
man massenhafte Erscheinungen betrachtet. Die durchschnittlichen Größen
und die durchschnittlichen Formen des menschlichen Körpers variieren nur
geringfügig. Das erklärt sich durch das Gesetz der großen Zahlen, falls man die
Diversität der Einzelfälle – ausgedrückt durch Realisierungen, die in zufälli-
ger Weise von einem Modell abweichen – durch eine Gesamtheit von zahl-
reichen, kleinen und voneinander unabhängigen Ursachen interpretiert. Sind
also die Körpergrößen der einzelnen Menschen hinlänglich gestreut, dann sind
die Mittelwerte der Körpergrößen zweier oder mehrerer Gruppen von Men-
schen ziemlich benachbart, falls sich diese Gruppen nach dem Zufallsprinzip
zusammensetzen. Die Anzahlen der Heiraten, Verbrechen und Selbstmorde
weisen den gleichen Stabilitätstyp auf, obwohl jede der drei entsprechenden
Handlungen einen höchst individuellen und freien Charakter hat. Der Zusam-
menhang zwischen den beiden Typen von Regelmäßigkeiten, die sich nicht
auf Einzelfälle, sondern auf massenhafte Erscheinungen beziehen – die einen
auf körperliche und die anderen auf moralische Merkmale – ermöglicht es
uns, zum Ausgangspunkt der Überlegung zurückzukehren: Die Entscheidun-
gen moralischen Typs sind Manifestationen von Tendenzen, die zufällig um
Durchschnittstypen herum verteilt sind und deren Vereinigung die morali-
schen Merkmale des Durchschnittsmenschen ausmachen – eines vom Schöpfer
gewollten Ideals, das ein Symbol der Vollkommenheit ist.

Konstante Ursache und freier Wille

Quetelet hatte die Grenze zwischen den beiden formal identischen, aber ganz
unterschiedlich interpretierten Berechnungen verschoben, die Vauban als Mit-
telwert beziehungsweise gewöhnlichen Wert bezeichnete. Von nun an gab es
einerseits die wahren Ganzen“, für welche die Berechnung des Mittelwertes

vollauf gerechtfertigt war. Andererseits gab es Gesamtheiten von Objekten,
deren Verteilung nicht Gaußsch war und die keine Arten von Ganzen“ bilde-

ten, wie man vor einem Jahrhundert sagte. Die Gleichsetzung der beiden Mit-
telwerte, die als objektiv und als subjektiv bezeichnet wurden, war durch die
Vorstellung von der konstanten Ursache gewährleistet. Diese Idee ermöglichte
es, ständig von einem Mittelwert zum anderen überzugehen. Demnach stell-
ten die aufeinanderfolgenden Messungen eines reellen Objekts eine Folge von
Konstante Ursache und freier Wille 89

Operationen dar, die einen Teil des unvorhersehbaren Zufalls in sich trugen
(akzidentielle Ursachen), aber diese Folge war vom Bemühen einer Anpassung
an das Objekt getragen, das die konstante Ursache bildete. Durch ihr Abwei-
chen von diesem Modell – das ein reales Objekt“ einschließt – implizieren

die Einschläge einer Folge von Schüssen, die auf die Mitte einer Zielscheibe
gerichtet sind, einen Teil der akzidentiellen Ursachen, welche eine konstante
Ursache stören, die ihrerseits auf das Bestreben des Schützen zurückzuführen
ist, in die Mitte der Zielscheibe zu treffen.
Und schließlich könnte diese konstante Ursache bei der Verteilung der
Merkmale einer Population ihren Ursprung in der göttlichen Absicht ha-
ben, ein vollkommenes Modell zu reproduzieren (Quetelet) oder aber auf
die Auswirkungen der materiellen, klimatischen und geographischen Umge-
bung zurückzuführen sein (hippokratisches Modell des 18. Jahrhunderts). Der
Grund könnte aber auch in der natürlichen Auslese liegen (Darwin) oder vom
sozialen und kulturellen Milieu herrühren (Soziologie des 20. Jahrhunderts).
Eine Normalverteilung von Meßwerten um einen Modalwert ermöglichte es
also, auf die Existenz einer konstanten Ursache oder einer Gesamtheit von
Ursachen zu schließen, deren Kombination in der betreffenden Beobachtungs-
reihe konstante Wirkungen zeitigt. Diese Normalverteilung gestattete die Kon-
struktion einer Äquivalenzklasse von Ereignissen, die dadurch zueinander in
Relation stehen, daß sie zum Teil durch eine gemeinsame Ursache bestimmt
sind. Ein anderer Teil dieser bestimmenden Faktoren leitet sich jedoch aus ak-
zidentiellen Ursachen ab, die für jedes der betreffenden Ereignisse unterschied-
lich sind. Mit dieser Konstruktion verschwand der Unterschied zwischen dem
objektiven“ und dem subjektiven“ Mittelwert vollständig. Der Begriff der
” ”
gemeinsamen Ursache für verschiedene Ereignisse lieferte in beiden Fällen eine
Exteriorität in Bezug auf diese Ereignisse, nämlich ein reelles Objekt“, das

unabhängig von seinen kontingenten Manifestationen existiert. Wahrschein-
lichkeitstheoretisch ausgedrückt hat dieses Objekt die Form der Füllung einer
Urne, mit deren Hilfe zufällige Ziehungen durchgeführt werden.
Aber Quetelet und seine Nachfolger waren von der Neuheit des von diesem
Modell induzierten makrosozialen Konstruktes derart fasziniert, daß sie – im
Unterschied zu Bayes, Laplace oder Poisson – nicht daran gedacht hatten,
Überlegungen zu den Ursachenwahrscheinlichkeiten anzustellen, das heißt die
Wirkungen auf eine Abschätzung der Grade der Sicherheit der betreffenden
Ursachen zurückzuführen. Der frequentistische“ Standpunkt stützt sich auf

einen objektiven Begriff von Wahrscheinlichkeiten, die mit den Dingen ver-
knüpft sind – also auf variable Kombinationen von konstanten Ursachen und
akzidentiellen Ursachen. Demgegenüber beruhte der epistemische“ Stand-

punkt der Probabilisten des 18. Jahrhunderts auf subjektiven Wahrscheinlich-
keiten, die mit dem Verstand und mit dem Glaubensgrad zusammenhängen,
den der Verstand einer Ursache oder einem Ereignis zuordnen kann. Die Spe-
kulationen der Philosophen des Zeitalters der Aufklärung zielten darauf ab,
explizite Rationalitätskriterien für die von aufgeklärten Personen getroffenen
Entscheidungen zu formulieren. Diese Personen waren ihrerseits die Verkörpe-
90 3 Mittelwerte und Aggregatrealismus

rung einer universellen menschlichen Natur, die auf dem Verstand beruhte. Im
19. Jahrhundert dagegen hatten die Französische Revolution und deren un-
berechenbare Erschütterungen die Fragen zur Rationalität des Menschen und
zur Vernunft seiner Entscheidungen durch Fragen ersetzt, die sich auf die Ge-
sellschaft und deren Undurchsichtigkeit bezogen. Von nun an wurde die Ge-
sellschaft nicht nur als ein mysteriöses Ganzes aufgefaßt, sondern sozusagen
auch von außen betrachtet. Die von Quetelet vorgestellten Objektivierungen
und makrosozialen Regelmäßigkeiten entsprachen dieser Art von Sorge, die
für die im Entstehen begriffenen Sozialwissenschaften des 19. Jahrhunderts
charakteristisch war. Der rationalen und besonnenen menschlichen Natur des
aufgeklärten Gelehrten des 18. Jahrhunderts folgte der normale Mensch –
der Durchschnitt“ einer großen Anzahl verschiedener Menschen, die aber

alle an einer über die Individuen hinausgehenden Totalität teilhatten. Mit
diesen beiden Sichtweisen waren zwei unterschiedliche Wahrscheinlichkeitsbe-
griffe verknüpft. Eine deutliche Linie trennte Condorcet, Laplace und Poisson
von Quetelet, den Bertillons und den Moralstatistikern“ des 19. Jahrhun-

derts. Sie stellten sich nicht die gleichen Fragen und sie hatten einander auch
nicht viel zu sagen, wie aus dem geringfügigen Meinungsaustausch zwischen
Poisson, Cournot und Quetelet hervorgeht.
Das Auftreten dieser neuen Entität Gesellschaft – die objektiviert und von
außen betrachtet wird und mit Gesetzen ausgestattet ist, die unabhängig von
den Individuen sind – kennzeichnet die Denkweise aller Gründungsväter der
damals entstehenden Soziologie. Man denke etwa an Comte, Marx, Le Play,
Tocqueville oder Durkheim – bei allem, was sie sonst voneinander trennte
(Nisbet, 1984, [212]). Alle sahen sich mit Unruhen und dem Zerfall des alten
sozialen Gefüges konfrontiert – Prozesse, die von den politischen Umbrüchen
in Frankreich und durch die industrielle Revolution in England ausgelöst wor-
den waren. Wie sollte man die sozialen Bindungen neu konzipieren, die der
Individualismus der Marktwirtschaft und der Demokratie zerstört hatten?
Nisbet (1984, [212]) entwickelt in seinem Werk Die soziologische Tradi-
tion diese scheinbar paradoxe Idee, indem er all diese Autoren hinter einer
konstanten Ursache“ versammelte. Die konstante Ursache besteht hierbei in

der Sorge, auf die sozialen Unruhen und Krisen der Gesellschaft zu reagieren,
die im Ergebnis der beiden Revolutionen entstanden – der politischen Revo-
lution in Frankreich und der ökonomischen Revolution in England. (Die von
den betreffenden Autoren gegebenen Antworten unterschieden sich natürlich
wesentlich voneinander.) In der von Nisbet gezeichneten Gemäldegalerie“

wurde Quetelet gar nicht erwähnt. Dessen eigene und eigentlich soziologische
Denkweise schien im Vergleich zu den anderen eher einseitig zu sein. Den-
noch hatte auch Quetelets Denkweise in Bezug auf die politischen Unruhen
einen sehr vergleichbaren Horizont. Sein mit allen Tugenden ausgestatteter
Durchschnittsmensch“ wurde als eine Art vorsichtiger Anhänger der Mitte

vorgestellt, der Exzesse jeglicher Art meidet, denn Vollkommenheit liegt in der
Mäßigung. Aber jenseits dieser Naivität, die bereits einige der Zeitgenossen
Quetelets gespürt hatten, sollte seine Denkweise ein mindestens ebenso be-
Konstante Ursache und freier Wille 91

deutendes Nachleben haben, wie das der berühmteren Sozialwissenschaftler.


Diese Denkweise ermöglichte die Erzeugung und Instrumentierung7 neuer En-
titäten, die nach ihrer Entstehung autonom waren und unabhängig von ihren
Ursprüngen zirkulierten. Zwar genossen seine zahlreichen Aktivitäten seiner-
zeit großes Ansehen (man nannte ihn oft den illustren Quetelet“), aber sein

Name verliert sich zum Teil – ähnlich wie bei einem statistischen Prozeß, der
die einzelnen Individuen und ihre Entstehungsbedingungen ausradiert. Das
schlüsselfertige Werkzeug der Mittelwerte ist so trivial geworden, daß zwar
vielleicht nicht seine Erfindung, zumindest aber die praktische Umsetzung
heute kaum mehr als bedeutende Tat gilt. Insbesondere hat die intellektuelle
Schlagkraft, die zur Verschmelzung der objektiven und subjektiven Mittel-
werte im Kontext des Begriffes der konstanten Ursache“ führte, heute nichts

Überraschendes mehr an sich. Das Nachdenken über die Konsistenz“ der

Objekte der Statistik sollte jedoch auch im Rahmen anderer Formen von Be-
deutung bleiben, und zwar im Zusammenhang mit der Frage der Identifikation
und der Eignung dieser Objekte.
Die Bekanntheit, der sich Quetelet im 19. Jahrhundert erfreute, steht im
Gegensatz zu der Tatsache, daß er im 20. Jahrhundert in relative Verges-
senheit geriet. Dieser Umstand erklärt sich teilweise auch dadurch, daß sein
Beitrag – vom Standpunkt der Geschichte der mathematischen Techniken der
Statistik – sehr viel geringer zu sein scheint, als die Beiträge von Gauß und
Laplace vor ihm oder die Arbeiten von Pearson und Fisher nach ihm. Seine
damalige Berühmtheit war darauf zurückzuführen, daß er es fertiggebracht
hatte, ein riesiges internationales soziopolitisches Netzwerk zu schaffen, in-
dem er auf neue Weise Universen zueinander in Beziehung setzte, die zuvor
getrennt voneinander existierten. Er stützte sich zunächst auf die Arbeiten
der früheren französischen Wahrscheinlichkeitstheoretiker, behielt aber dabei
nur denjenigen Teil ihrer Arbeiten bei, der sich auf das Gesetz der großen
Zahlen und auf die Binomialverteilung bezog – Überlegungen zu den Ursa-
chenwahrscheinlichkeiten ließ er unberücksichtigt. Im Übrigen schuf er stati-
stische Dienste oder regte deren Gründung an. Durch den Anklang, den seine
zahlreichen Aktivitäten fanden, trug er zur Untermauerung der Legitimität
dieser Einrichtungen bei und sorgte dafür, daß sie beachtet wurden. Er or-
ganisierte Volkszählungen und versammelte die Statistiker der verschiedenen
Länder in Internationalen Statistischen Kongressen“, die in der Zeit von 1853

bis 1878 regelmäßig stattfanden und direkte Vorläufer des 1885 gegründeten
Internationalen Instituts für Statistik“ 8 (IIS) waren, das immer noch exi-

stiert (Brian, 1991, [35]). Und schließlich nahm er durch seine Schriften zum
Durchschnittsmenschen und über soziale Physik“ auf indirekte Weise an den

7
Genauere Ausführungen zum Begriff der Instrumentierung“ von mathematischen

und insbesondere wahrscheinlichkeitstheoretischen Leitmotiven findet man bei
Loève, 1985, [415].
8
International Statistical Institute (ISI); Institut international de statistique (IIS).
92 3 Mittelwerte und Aggregatrealismus

seinerzeit äußerst lebhaften Debatten der politischen Philosophie teil, führte


aber dabei eine gänzlich neue Rhetorik ein.
Diese Debatte bezog sich auf den scheinbaren Widerspruch zwischen Deter-
minismus und Fatalismus einerseits – die aus den makrosozialen Regelmäßig-
keiten, zum Beispiel aus den Anzahlen der Verbrechen und der Selbstmor-
de, zu folgen schienen – und der Freiheit des Willens sowie der moralischen
Idee andererseits, daß der für seine Handlungen verantwortliche Mensch nicht
von Kräften getrieben wird, die über ihn hinausgehen. Die zeitgenössischen
Kommentare zeigten sich beunruhigt über diese Frage, die zu lebhaften Kon-
troversen führte. In dieser Hinsicht fand die Arbeit von Quetelet ihren Platz
in der alten – zu Beginn dieses Kapitels erwähnten – Diskussion über den
Realismus und den Nominalismus, über den logischen Vorrang des Univer-
sellen oder des Individuellen. Im 19. Jahrhundert hatte das Universelle eine
neue Form angenommen: die Gesellschaft. Die seit Rousseau gestellte Frage
lautete: In welcher Weise schließen sich die Individuen (die Bürger) dieser Ge-
samtheit an? Im Jahre 1912 wurde die Frage erneut und ausführlich von dem
belgischen katholischen Philosophen Lottin diskutiert, der dazu ein zusam-
menfassendes Werk unter dem Titel Quetelet, Statistiker und Soziologe (1912,
[180]) verfaßte. Das Problem für Lottin war der Nachweis dessen, daß kein
Widerspruch zwischen der individuellen Verantwortung und der Unausweich-
lichkeit der gesellschaftlichen Gesetze besteht. Er stützte sich hierbei auf zwei
Zitate von Quetelet, die einen synthetischen Vorschlag darstellten, der von
Rousseau und dessen Gesellschaftsvertrag inspiriert worden war:

Als Mitglied der Gesellschaft erfährt er (der Mensch im Allgemeinen)


in jedem Augenblick die Notwendigkeit von Ursachen und entrichtet
ihnen regelmäßig Tribut; aber als Mensch (Individuum), der die ge-
samte Energie seiner intellektuellen Fähigkeiten aufwendet, beherrscht
er einige dieser Ursachen, modifiziert ihre Wirkungen und kann versu-
chen, sich einem besseren Zustand zu nähern. (Quetelet, 1832, [241].)
Ein Mensch kann unter verschiedenen Aspekten betrachtet werden;
vor allem besitzt er eine Individualität, aber er zeichnet sich auch
noch durch ein anderes Privileg aus. Er ist überaus gesellig; er verzich-
tet freiwillig auf ein Stück seiner Individualität, um Teil eines großen
Komplexes (des Staates) zu werden, der ebenfalls ein eigenes Leben
führt und verschiedene Phasen durchläuft ... Der auf diese Weise ver-
wendete Teil der Individualität wird zum Regulator der hauptsächli-
chen sozialen Ereignisse ... Dieser Teil ist es, der die Bräuche, Bedürf-
nisse und den nationalen Geist der Völker bestimmt und das Budget
ihrer Moralstatistik regelt. (Quetelet, 1846, [243].)

Diese Spannung zwischen kollektivem Fatalismus und individueller Frei-


heit findet sich in fast derselben Form bei Durkheim und den Soziologen des
20. Jahrhunderts wieder, die sich davon inspirieren ließen. Was sich hingegen
änderte, war der administrative Gebrauch der statistischen Totalisierungen,
Zwei kontroverse Fälle aus der medizinischen Statistik 93

die von nun an mit Diagnosen, standardisierten Verfahren und deren Auswer-
tungen verknüpft waren. Sämtliche Spielarten der Makrosozialpolitik, die seit
Beginn des 20. Jahrhunderts entwickelt worden waren, implizieren ein Wis-
sensmanagement und eine Erkenntnisweise, die voneinander abhängen. Eine
Illustration dieser wiederentdeckten Gleichsetzung ist das Kommen und Ge-
hen von Maßnahmen – im Sinne von Entscheidungen, die sich auf eine große
Anzahl von Fällen anwenden lassen – und die Messungen der Wirkungen
dieser Maßnahmen. Ein gutes Beispiel hierfür ist der Aufbau von sozialen Si-
cherungssystemen, die eine statistische Abdeckung der individuellen Risiken
gewährleisten (Ewald, 1986, [87]).

Zwei kontroverse Fälle aus der medizinischen Statistik


Die Schwierigkeit, gleichzeitig über Einzelfälle und statistische Regelmäßigkei-
ten nachzudenken, wurde in den philosophischen Debatten über den Durch-
schnittsmenschen durch den Begriff des Widerspruchs zwischen Schicksal und
Freiheit ausgedrückt. Aber ungefähr zur gleichen Zeit in den 1830er Jahren
war die Verwendung der Mittelwerte Gegenstand von Kontroversen, in denen
es um sehr konkrete Fragen ging und nicht nur um philosophische Diskus-
sionen. Das Gebiet der Medizin bietet hierfür zwei Beispiele, von denen sich
das eine auf Kliniken und therapeutische Verfahren bezieht, das andere hinge-
gen auf Präventivmaßnahmen im Kampf gegen Epidemien. In diesen beiden
Fällen lassen sich die unterschiedlichen einschlägigen Positionen als spezifische
Kombinationen analysieren: kognitive Schemata wurden mit Modalitäten des
Handelns und der Eingliederung in größere Netze kombiniert. Genauer gesagt
fiel die Identifizierung der Objekte, die den höchsten Realitätsgrad hatten (das
heißt die Gesellschaft, die Armen, der Typhus, die Stadtbezirke von Paris, der
Kranke, der Arzt, das Miasma, der Choleravibrio9 ...), nicht in den Bereich
des Gegensatzes zwischen Determinismus und Willensfreiheit. Vielmehr ging
es einerseits um eine möglichst umfassende explizite Formulierung der Lage, in
der sich die Protagonisten befanden. Andererseits strebte man eine möglichst
vollständige explizite Formulierung der relevanten Objekte an, auf die sich
die Akteure stützen konnten, um miteinander entsprechende Vereinbarungen
zu treffen. Reale Objekte spielten demnach die Rolle von zu rekonstruieren-
den allgemeinen Übergangs- und Bezugspunkten in sich ständig ändernden
Konstellationen.
Eine Krankheit und deren ärztliche Behandlung stellten ein Einzelereig-
nis dar und diese Singularität wurde lange Zeit hindurch von der Ärzteschaft
geltend gemacht, die sich gegenüber jeglicher Form der Kategorisierung und
Totalisierung reserviert verhielt. Derartige Kategorisierungen und Totalisie-
rungen wären nämlich mit der Gefahr einhergegangen, das singuläre Kollo-

quium“ zwischen Arzt und Patient zu zerstören. Aber der Widerstand legte
9
Der vibrio cholerae“, ein kommaförmiger, stark beweglicher Keim, ist der Erreger

der Cholera asiatica.
94 3 Mittelwerte und Aggregatrealismus

sich schnell, als Krankheiten zu einem kollektiven Problem wurden, das glo-
bale Lösungen erforderte – man denke nur an Epidemien und insbesondere an
deren Prävention. In diesem Falle bestand die mitunter dringende Notwen-
digkeit, im Rahmen der öffentliche Gesundheit Maßnahmen zu ergreifen, um
eine Epidemie vorherzusehen oder sie zu stoppen. Das wiederum bedeutete,
daß die Epidemie als ein Ganzes zu betrachten war, dessen konstante Ursa-
chen festgestellt werden mußten – das heißt man mußte nach den Faktoren
suchen, die eine Ausbreitung der Epidemie begünstigten. Zu diesem Zweck
lieferten die Berechnungen der durchschnittlichen Anzahlen der Todesfälle
der Bevölkerungsschichten – die nach unterschiedlichen Kriterien klassifiziert
wurden (Stadtteile von Paris, Wohnungstypen, Wohlstandsniveau, Alter) –
Hinweise auf mögliche Vorbeugungsmaßnahmen (die Risikogruppen“ in den

Debatten zur Aids-Epidemie unterliegen der gleichen Logik). Diese Form der
medizinischen Statistik“ wurde von der Ärzteschaft ohne weiteres akzep-

tiert, denn sie erlaubte es den Ärzten, sowohl in den öffentlichen Debatten als
auch bei der Organisation der Gesellschaft eine Rolle zu spielen. Eine 1829
gegründete Zeitschrift, die Annales d’hygiène publique et de médecine légale
fungierte als Träger von – statistischen oder nichtstatistischen – Erhebungen
in Bezug auf diejenigen sozialen Gruppen, die Elend, Krankheiten, Alkoholis-
mus, Prostitution oder Kriminalität am ehesten ausgesetzt waren (Lécuyer,
1977, [172]). Das Ziel dieser Untersuchungen bestand darin, den betreffenden
Gruppen Moral zu predigen und gleichzeitig ihre hygienischen Verhältnisse
und Lebensbedingungen – vor allem durch die Gesetzgebung – zu verbessern.
Die bekanntesten dieser gelehrten und politisch aktiven Reformer waren Vil-
lermé (1782–1863), ein guter Freund Quetelets, und Parent-Duchatelet. Die
Cholera-Epidemie von 1832 war eine Zeit intensiver Aktivität dieser im sozia-
len Bereich tätigen Demoskopen.
Die Akzeptanz quantitativer Methoden war hingegen im Falle von Klini-
ken zur damaligen Zeit viel weniger offensichtlich, als der Vorschlag gemacht
wurde, die statistische Wirksamkeit der verschiedenen Behandlungsweisen ei-
ner Krankheit zu prüfen. Die Anhänger der numerischen Methode“ 10 – zum

Beispiel Doktor Louis – stützten sich auf den prozentualen Anteil von Ge-
nesungsfällen, um bei der Behandlung des Typhusfiebers zu beweisen, daß
Abführmittel dem Verfahren des Aderlasses überlegen sind. Aber sie stießen
auf äußerst heftige (wenn auch ziemlich gegensätzliche) Kritik, in der man die
Aufstellung der betreffenden Äquivalenzen anprangerte. Die kritischen Be-
merkungen wurden von Ärzten geäußert, die ansonsten in Bezug auf andere
Dinge immer unterschiedlicher Meinung waren – von Risueño d’Amador, der
sich vom Vitalismus des 18. Jahrhunderts inspirieren ließ, bis hin zu Claude
Bernard (etwas später), dem Begründer der modernen experimentellen Medi-
zin (Murphy, 1981, [206]). Für die traditionell eingestellten Ärzte, wie etwa
10
Sheynin (1982, [439]) gibt eine ausführliche Darstellung der Geschiche der medi-
zinischen Statistik, einschließlich der von Louis und anderen verwendeten nume-
rischen Methode.
Zwei kontroverse Fälle aus der medizinischen Statistik 95

d’Amador, war die Medizin eine Kunst, die auf der Intuition und dem Instinkt
des Praktikers aufbaute: Intuition und Instinkt manifestierten sich im Verlauf
des singulären Kolloquiums zwischen Arzt und Patient und führten zu einer
Indikation, die aus der Individualität des betreffenden Falles resultierte. Je-
der Versuch, diesen Fall mit einer generischen Kategorie zu vergleichen, würde
die Spezifität dieser persönlichen Wechselwirkung und die auf Erfahrung be-
gründete Intuition des Falls zerstören. Nach Meinung von Louis mußte man
jedoch die Krankheiten klassifizieren, die Behandlungen mit Hilfe von Stan-
dards auswerten sowie nach konstanten Beziehungen zwischen Krankheiten
und Behandlungstechniken suchen. Zu diesem Zweck erhob man Anspruch
auf die bewährten Methoden der anderen Naturwissenschaften (Piquemal,
1974, [231]).
Jedes der von diesen beiden Lagern verwendeten Vokabulare war in sich
schlüssig und verwies auf die beiden gut typisierten Arten des Wissens und
des Handelns. Die Frage war: Wie sind Entscheidungen zu treffen? Soll man –
wie von Louis vorgeschlagen – in Abhängigkeit von dem Wissen handeln, das
auf der systematischen Aufzeichnung einer großen Anzahl ärztlicher Leistun-
gen aufbaut, und sollte man dabei auf die mit Hilfe von Theorien kodifizierten
Resultate zurückgreifen? Oder sollte man sich vielmehr – wie von d’Amador
empfohlen – an die fallbezogene Intuition halten, die sich auf altüberliefer-
te und häufig mündlich weitergegebene Traditionen stützte, an die sich der
Praktiker – ein Mann mit Erfahrung, der sich in derartigen Fällen auskannte
– getreulich hielt? Es handelte sich also weniger darum, die Allgemeinheit der
numerischen Methode mit der Singularität der Wechselwirkung der traditio-
nellen Medizin zu vergleichen. Vielmehr ging es darum, zwischen den beiden
Methoden zu unterscheiden, auf deren Grundlage frühere Fälle kumuliert und
zueinander in Beziehung gesetzt worden sind. In beiden Fällen berief man sich
auf eine Form von Allgemeinheit: auf die Statistik oder auf die Tradition.
Der Fall von Claude Bernard ist komplexer, denn Bernard akzeptierte die
wissenschaftliche Methode voll und ganz und popularisierte sie sogar, stand
aber dennoch der numerischen Methode“ feindselig gegenüber (Schiller, 1963,

[252]). Er machte dieser Methode den Vorwurf, daß sie die Aufmerksamkeit
von den präzisen Ursachen der betreffenden Krankheit ablenkte und unter
dem Deckmantel der Wahrscheinlichkeit“ einen Teil des Sachverhaltes der

Ungewißheit und der näherungsweisen Betrachtung überließ. Für ihn bestand
die Pflicht eines Wissenschaftlers darin, mit Hilfe der experimentellen Metho-
de eine vollständige Analyse der deterministischen Verkettung von Ursachen
und Wirkungen zu geben. Diese Kritik scheint Gemeinsamkeiten mit den von
d’Amador vorgebrachten Bedenken zu haben. Aber für Claude Bernard, der
nichts von einem Vitalisten alten Schlages an sich hatte, konnte ein Arzt sei-
ne Patienten zwar mit Mitteln“, aber nicht im Mittel“ behandeln. Vielmehr
” ”
mußte der Arzt die unmittelbaren Ursachen des Übels finden, um es völlig zu
beseitigen. Die Feindseligkeit gegenüber der Statistik und ihren Regelmäßig-
keiten hing mit einer deterministischen Auffassung von der Mikrokausalität
zusammen. Nach dieser Auffassung sind Wahrscheinlichkeit und numerische
96 3 Mittelwerte und Aggregatrealismus

Methode Begriffe, die gleichbedeutend mit Vagheit und mangelnder Strenge


sind. Und so hat es den Anschein, daß jeder der drei Protagonisten dieser
Debatten auf seine eigene Weise und in seinem eigenen logischen Universum
Recht hatte: die kognitiven Werkzeuge hingen mit den Handlungen zusam-
men, die mit Hilfe dieser Werkzeuge ausgeführt wurden. Bei diesen Universen
handelte es sich um Hygienik, präventive und kollektive Sozialmedizin für
Louis (Lécuyer, 1982, [173]), um patientennahe und tägliche Familienmedizin
für d’Amador und um experimentelle Medizin und Kliniktechnisierung für
Claude Bernard. Alle drei Positionen gibt es auch heute noch und jede hat
ihre eigene Kohärenz.
Die Verwendung statistischer Mittelwerte kam auf indirektere Weise auch
in einer anderen medizinischen Kontroverse zur Sprache, die zur Zeit der
Cholera-Epidemie geführt wurde (Delaporte, 1990, [56]). Die Epidemie trat
in Asien in den 1820er Jahren auf, breitete sich dann in Westeuropa aus und
erreichte Frankreich im Jahre 1832. Moreau de Jonnès (1778–1870), ein Mari-
neoffizier und früherer Kolonialbeamter verfolgte das schrittweise Vorrücken
der Krankheit und verfaßte 1831 einen Bericht darüber. Dabei forderte er
Maßnahmen wie zum Beispiel die Schließung von Häfen, die Quarantäne für
Schiffe und die Errichtung von Lazaretten (Bourdelais und Raulot, 1987, [24]).
Vergebliche Mühe! Das Schließen der Grenzen hätte wichtige Wirtschaftsin-
teressen beschädigt. Die Cholera griff im Frühjahr 1832 in Frankreich um sich.
Die Ärzte waren geteilter Ansicht darüber, wie die Krankheit zu erklären
sei. Die Kontagionisten behaupteten, daß sie durch Kontakt mit den Kranken
übertragen wird. Moreau de Jonnès war Kontagionist. Hingegen meinten die
Infektionisten, die in der Mehrheit waren, daß die Ausbreitung der Krank-
heit durch die Elendsviertel begünstigt wurde, die in manchen Stadtteilen
häufig anzutreffen waren. Die Infektionisten stützten ihre Überzeugung auf
Sterbestatistiken, die für die Straßen von Paris erstellt und entsprechend dem
wirtschaftlichen Niveau der Bewohner aufgeschlüsselt worden waren. Diese
Anhänger der Theorie der Miasmen“, die unter den Hygienikern“ besonders
” ”
zahlreich waren, gruppierten sich im Umfeld der Zeitschrift Annales d’hygiène.
Sie fanden in den statistischen Mittelwerten, die für eine Umgebung“ oder für

ein Milieu“ charakteristisch waren, ein adäquates Werkzeug für Eingriffe auf

dem politischen Terrain – sie forderten Sanierungsmaßnahmen, den Bau von
Abwasserkanälen und Regelungen in Bezug auf den Wohnungsstandard. Zwar
hingen diese Mittelwerte mit der makrosozialen Vorgehensweise zusammen.
Aber eigneten sie sich auch dazu, die unmittelbaren und präzisen Ursachen
einer Krankheit aufzudecken? Diese Debatte war interessant, denn sie entzog
sich einer teleologischen Deutung des Fortschritts der Wissenschaft als Kampf
des Lichts gegen die Nacht der Vorurteile. An diesem Punkt gab die Geschich-
te in gewisser Weise beiden Lagern Recht: dem Lager der Kontagionisten, wie
die Entdeckung des Choleravibrio im Jahre 1833 zeigte, und dem Lager der
Infektionisten, die als Verfechter der Mittelwerte und der öffentlichen Gesund-
heit auftraten, denn die Ausbreitung des Vibrio wurde durch das Fehlen der
Kanalisation begünstigt.
Zwei kontroverse Fälle aus der medizinischen Statistik 97

Wie sich herausstellte, waren die Mittelwerte zum Gegenstand der De-
batten zwischen den gleichen Protagonisten geworden, nämlich zwischen dem
Hygieniker Villermé und dem Kontagionisten Moreau de Jonnès. Letzterer
war zwar auch an Statistik interessiert, aber das war eine andere Sache. Und
so wurde er 1833 (ein Jahr nach der Cholera) damit beauftragt, das im Jah-
re 1812 abgeschaffte Bureau für Verwaltungsstatistik wieder aufzubauen: das
war die neue Statistique générale de la France (SGF), die er bis 1851 leitete.
Aber seine Auffassung von Statistik unterschied sich von der Auffassung der
Hygieniker, gegen die er polemisierte. In seinem Werk Éléments de Statistique
stellte er 1847 die Statistik in einer mehr administrativ und weniger wahr-
scheinlichkeitstheoretisch ausgelegten Weise vor, als es die Moralstatistiker“

– die Schüler von Quetelet und Villermé – taten. Für Moreau de Jonnès hing
die Statistik mit der Verwaltung des Staatsapparates zusammen – sowohl hin-
sichtlich der Datenerfassung als auch in Bezug auf die Verwendung der Daten
beim eigentlichen Verwaltungsablauf. Er bestand mit Nachdruck auf den Ei-
genschaften der Kohärenz, der Logik und der minutiösen Sorgfalt, die ein
Statistiker benötigt, um wahre Zahlen“ zu erhalten. Mittelwerte erschienen

ihm als Fiktionen, mit denen sich wohl einige Leute begnügten – aber diese
Mittelwerte konnten seiner Meinung nach die wahren Zahlen“ nicht erset-

zen. Er kritisierte die Berechnungen der Lebenserwartung und die von den
Versicherungsmathematikern verwendeten Sterbetafeln.
Anhand dieses Falles erkennen wir, daß der von Quetelet hergestellte Zu-
sammenhang zwischen den beiden Typen von Mittelwerten (das heißt – in
der Terminologie von Bertillon – zwischen dem objektiven und dem subjekti-
ven Mittelwert) ganz und gar nicht selbstverständlich war: der Realismus der
Aggregate wurde in dieser buchhalterischen und verwaltungsbezogenen Auf-
fassung der Statistik geleugnet. Die Statistiker sahen sich häufig Vorwürfen
ausgesetzt wie: Wirf doch bitte nicht Dinge in einen Topf, die in Wirklichkeit

voneinander verschieden sind!“ Die hier zitierte Realität ist nicht die gleiche
Realität, wie die des statistischen Mittelwertes – jede dieser Realitäten hat ih-
ren eigenen Anwendungsbereich. Die Kritik in Bezug auf die Kodierung ist die
Grundlage zahlreicher Anschuldigungen, die gegen die quantitativen Sozial-
wissenschaften (Cicourel, 1964, [47]) und gegen die bürokratische und anony-
me Verwaltung von Massengesellschaften erhoben werden. Die Ironie besteht
hier darin, daß die Attacke vom Leiter des Bureaus für Verwaltungsstatistik
geritten wurde. Zu diesem Zeitpunkt gab es jedoch noch keine hinreichen-
de Kohärenz zwischen den administrativen und den kognitiven Werkzeugen,
weswegen ein derartiger Widerspruch noch möglich war.
Die Hygieniker, Moralstatistiker und Liebhaber von Mittelwerten waren
Ärzte und angesehene Persönlichkeiten, die versuchten, neue Positionen auf-
zubauen, indem sie für soziale Antworten kämpften. Ihre in Form von Mittel-
werten ausgedrückte makrosoziale Argumentation eignete sich zur Förderung
der Massenhygiene und der Präventivmedizin. Diese einflußreiche Lobby war
außerdem mit den Vertretern des Freihandels liiert – vor allem mit Kaufleu-
ten und Importeuren –, die den staatlichen Reglementierungen hinsichtlich
98 3 Mittelwerte und Aggregatrealismus

des Warenverkehrs und der Schließung der Grenzen feindselig gegenüberstan-


den. Im Gegensatz hierzu hatten Moreau de Jonnès und die Kontagionisten
eine mehr administrativ orientierte Vision. Die Statistik durfte sich (ihrer Mei-
nung nach) nicht mit wahrscheinlichen Fakten zufriedengeben, sondern mußte
sichere Fakten sammeln, die in strenger Weise aufgezeichnet waren. Im Übri-
gen durfte man sich bei der Behandlung der Cholera nicht mit Maßnahmen
begnügen, die im doppelten Sinne (das heißt im Sinne der verordnenden Ge-
walt und im wissenschaftlichen Sinne) unsicher waren und nur probabilistisch,
das heißt in der Masse wirkten: man mußte den Keim“ isolieren (der später

als Vibrio bezeichnet wurde) und nicht irgendwelche vagen Umwelt-Miasmen.
Diese Position stand der oben beschriebenen Position von Claude Bernard
nahe.
Falls sich die Statistik auf individuelle Aufzeichnungen stützt, dann hatten
die damit verbundenen Interpretationen – wie sie damals von Quetelet, Vil-
lermé oder Louis gegeben wurden – eine größere Wesensverwandtschaft mit
der philosophischen Position, die als realistisch (im mittelalterlichen Sinne)
bezeichnet wurde und später unter dem Namen universalistisch oder holi-
stisch bekannt wurde. Diese Position ordnete Kategorien oder Gesamtheiten
von Individuen eine intrinsische Realität zu. Im Gegensatz hierzu bestritten
die Gegner dieser Position – d’Amador, Claude Bernard, Moreau de Jonnès
und andere – die Existenz von Äquivalenzklassen und standen der von Ockham
vertretenen nominalistischen oder individualistischen Position näher, deren
einzige Realität die Realität des Individuums war. Die Auswahl der relevan-
ten Objekte, auf die sich die verschiedenen Akteure stützten und in Bezug auf
die sie sich verständigen konnten, stand in Beziehung zur Gesamtsituation und
hing vor allem von der Bedeutung der betreffenden Akteure ab (bei den Hy-
gienikern waren es die Armen und die Armut; bei Keynes die Arbeitslosen und
die Arbeitslosigkeit). Aber zwischen diesen beiden extremen Positionen – das
heißt zwischen dem Realismus des durch seine konstante Ursache vereinheit-
lichten Aggregats und dem individualistischen Nominalismus, der diese Totali-
sierungen ablehnte – sollte sich ein neuer Raum auftun. Zunächst unternahm
man Versuche, die Homogenität der durch ihren Mittelwert repräsentierten
Gesamtheit zu testen. Danach wurden komplexere statistische Formalismen
vorgeschlagen, mit deren Hilfe beide Standpunkte – das heißt der realistische
und der nominalistische Standpunkt – zusammen erfaßt werden konnten. Aus
dieser Sicht sollten sich die von Karl Pearson vorgenommenen Formulierungen
der Regression und der Korrelation als entscheidender Wendepunkt erweisen
– als Wendepunkt zwischen den Fragen des 19. Jahrhunderts, die noch mit
der Rhetorik Quetelets zusammenhingen, und den gänzlich anderen Formali-
sierungen der mathematischen Statistik der 20. Jahrhunderts.
Eine Urne oder mehrere Urnen? 99

Eine Urne oder mehrere Urnen?

Das intellektuelle Konstrukt Quetelets stützte sich auf das Wahrscheinlich-


keitsmodell einer Urne konstanter Füllung mit weißen und schwarzen Kugeln:
aus der Urne wird eine Kugel gezogen und dann viele Male wieder zurück-
gelegt. Die Wahrscheinlichkeit des Auftretens eines gegebenen Verhältnisses
zwischen den weißen und schwarzen Kugeln folgt einer Binomialverteilung.
Diese konvergiert gegen eine Normalverteilung, falls die Anzahl der Ziehun-
gen unbegrenzt wächst: das ist das Bernoullische Gesetz der großen Zahlen“.

Was passiert, wenn die Vorgabe oder die Eindeutigkeit der Urnenfüllung nicht
gewährleistet sind? Quetelet argumentierte in umgekehrter Richtung: aus der
Normalverteilung schloß er auf die Existenz eines Systems von konstanten
Ursachen.
Diese Frage war bereits zu Beginn des 19. Jahrhunderts gestellt worden,
als einige Forscher die Schätzmethoden der politischen Arithmetik des 18.
Jahrhunderts wiederverwenden wollten, um beispielsweise ohne Durchführung
einer Vollerhebung die Bevölkerungszahl eines Landes zu schätzen: man ging
von dem – im gesamten Territorium als gleichmäßig vorausgesetzten – Verhält-
nis zwischen der betreffenden Bevölkerungszahl und der Anzahl der jährlichen
Geburten aus, wobei dieses Verhältnis in einigen Kirchengemeinden ermittelt
worden war (Kalkül von Laplace, vgl. Kapitel 1). Quetelet fand diese Metho-
de verlockend, als er 1825 die Bevölkerung der Niederlande schätzen wollte –
von diesem Vorhaben wurde er jedoch durch die Kritik eines hohen Beamten,
des Barons von Keverberg, abgehalten. Deswegen konzentrierte Quetelet seine
Energie auf die Organisierung von Vollerhebungen. Keverberg zog in Zweifel,
daß es für das gesamte Territorium ein einziges Gesetz geben könne, mit dem
sich das Verhältnis zwischen Bevölkerungszahl und Anzahl der Geburten be-
schreiben ließe, und daß man diesen – für einige Orte berechneten – Wert
extrapolieren könne:

Das Gesetz, welches die Geburtenziffern oder die Sterblichkeit regelt,


setzt sich aus einer großen Anzahl von Bestandteilen zusammen: es ist
verschieden für Städte und für das flache Land, für reiche Großstädte
und für kleine und weniger reiche Dörfer und es hängt davon ab,
ob die Bevölkerungsdichte hoch oder niedrig ist. Dieses Gesetz hängt
vom Gelände ab (Höhenlage oder nicht), von der Bodenbeschaffenheit
(trocken oder sumpfig), von der Entfernung zum Meer, vom Wohl-
stand oder vom Elend der Bevölkerung, von ihrer Ernährung, ihrer
Kleidung, von der allgemeinen Lebensweise und von einer Vielzahl
von lokalen Umständen, die bei jeder A-priori -Aufzählung übergan-
gen würden. Die tatsächlich wirkende Kombination dieser Elemente
kann schwerlich im Voraus präzise bestimmt werden, zumal sie sich
auf ein unvollständiges und spekulatives Wissen stützt. In Bezug auf
die Natur, die Anzahl und die Intensität dieser Bestandteile sowie hin-
sichtlich ihrer relativen Anteile scheint es eine unendliche Vielfalt zu
100 3 Mittelwerte und Aggregatrealismus

geben ... Ich meine, daß es nur ein einziges Mittel gibt, eine korrek-
te Kenntnis der Bevölkerungszahl und ihrer Bestandteile zu erlangen:
nämlich eine wirkliche und vollständige Volkszählung durchzuführen
und ein Register der Namen sämtlicher Einwohner, einschließlich ih-
res Alters und ihrer Berufe, zu erstellen. (Keverberg, 1827, zitiert von
Stigler, 1986, [267].)

Diese Argumentation unterschied sich nicht wesentlich von der Argumen-


tation, die später von Moreau de Jonnès – einem ebenfalls hohen Beamten
– formuliert und gegen Quetelet und andere ins Feld geführt wurde, die bei
ihrer Arbeit Mittelwerte verwendeten. Dennoch bezog sich die Argumentati-
on auf eine Methode der Verallgemeinerung von wenigen Einzelfällen auf eine
Gesamtheit. Bereits als junger Mann war Quetelet darauf bedacht, eine Stelle
im Verwaltungsapparat zu finden. Er reagierte auf die besagte Argumentation
so sensibel, daß er und seine Nachfolger bis zum Ende des Jahrhunderts un-
aufhörlich die Vollerhebungen rühmten und den Umfragen mißtrauten, die von
den politischen Arithmetikern des 17. und 18. Jahrhunderts auf der Grundlage
von unvollständigen Aufzeichnungen zu riskanten Extrapolationen verarbeitet
wurden. Die von Keverberg vorgebrachte Kritik bezog sich auf die fundamen-
tale Heterogenität der Bevölkerung sowie auf die Diversität und Komplexität
der Faktoren, welche die untersuchten Variablen bestimmen. Diese Diversität
und Komplexität waren so groß, daß eine auf Verallgemeinerung basierende
Kenntnis der Sachlage undenkbar erschien.
Die Zweifel an der Homogenität und der eindeutigen Vorgabe der Urne
wurden in präziserer Weise von Poisson (1837) formuliert und formalisiert.
Poisson behandelte dabei ein ganz anderes Problem: es ging um die Mehr-
heit, die bei den Abstimmungen von Schwurgerichten erforderlich war (Stig-
ler, 1986, [267]; Hacking, 1990, [119]). Seit der Gründung der Institution der
Volksgeschworenen im Jahre 1789 waren die Gesetzgeber verunsichert, da die
Möglichkeit eines Justizirrtums nicht ausgeschlossen war. Wie konnte man die
Wahrscheinlichkeit minimieren, einen Unschuldigen aufs Schafott zu schicken
und gleichzeitig gewährleisten, daß kein Schuldiger seiner Strafe entkommt?
Dabei wußte man natürlich einerseits, daß die Schuldfrage häufig eine unsiche-
re Sache war und daß sich andererseits die Geschworenen auch irren konnten.
Es bestand demnach eine doppelte Ungewißheit: zum einen die Unsicherheit in
Bezug auf die Wirklichkeit der dem Angeschuldigten zur Last gelegten Taten
und zum anderen die Unsicherheit hinsichtlich der Unfehlbarkeit des Urteils
der Geschworenen. Im Anschluß an Condorcet und Laplace hatte Poisson ver-
sucht, die Wahrscheinlichkeit eines Justizirrtums abzuschätzen, wobei er von
unterschiedlichen Voraussetzungen bezüglich einer qualifizierten Mehrheit in
einem aus zwölf Mitgliedern bestehenden Schwurgericht ausging (sieben ge-
gen fünf; acht gegen vier ...). Diese Frage hielt die öffentliche Meinung in
Atem und spaltete das Parlament: Diejenigen Parlamentsmitglieder, denen
die Unumkehrbarkeit eines Justizirrtums Angst einjagte, standen denjenigen
gegenüber, die eine allzu große Nachgiebigkeit der Justiz befürchteten. Jedes
Eine Urne oder mehrere Urnen? 101

Lager wollte seine Position mit einem Maximum an Argumenten und objek-
tiven Tatsachen untermauern.
Im Unterschied zu seinen beiden Vorgängern konnte sich Poisson auf die
statistischen Verzeichnisse stützen, die seit 1825 im neuen Compte général de
l’administration de la justice criminelle bereitgestellt wurden. Diese Verzeich-
nisse enthielten die jährlichen Zahlen der Anschuldigungen und Verurteilun-
gen. Außerdem wurde das Gesetz im Jahre 1831 geändert. Vor dieser Zeit
war für eine Verurteilung lediglich eine Stimmenmehrheit von sieben gegen
fünf erforderlich. Nun waren es acht gegen vier Stimmen und diese Ände-
rung in der Gesetzgebung konnte bei der Berechnung berücksichtigt werden.
Diese – durch die Überlegungen von Bayes inspirierte – Berechnung impli-
zierte die Ermittlung der beiden Ursachenwahrscheinlichkeiten“, die a priori

unbekannt waren: die Wahrscheinlichkeit der Schuld des Angeklagten und
die Wahrscheinlichkeit der Fehlbarkeit der Geschworenen. Poisson nahm nun
zunächst an, daß die Angeklagten aus unterschiedlichen Gruppen kommen,
bei denen die Wahrscheinlichkeiten für eine Schuld nicht gleich groß waren
(man denke etwa an die heutigen Risikogruppen“). Zweitens nahm er an,

daß die Geschworenen in unterschiedlicher Weise geeignet sind, die Tatsachen
so einzuschätzen, daß kein Irrtum auftritt. Ausgehend von diesen Annahmen
sah sich Poisson veranlaßt, bei seinen Überlegungen Urnen von ungewisser
Füllung einzuführen. Das wiederum brachte ihn auf die Formulierung seines
starken Gesetzes der großen Zahlen“, das eine Verallgemeinerung des Geset-

zes von Bernoulli ist. Beim Gesetz von Bernoulli hat die Urne, aus der die Zie-
hungen erfolgen, eine vorgegebene Füllung. In dem von Poisson untersuchten
Fall ergeben sich jedoch die Urnen ihrerseits aus einer ersten Serie von Ziehun-
gen. Dieses neue starke Gesetz“ besagte, daß unter gewissen Voraussetzun-

gen (bezüglich der Anfangsverteilung der Urnen unterschiedlicher Füllung) die
Ziehungswahrscheinlichkeiten11 gegen eine Normalverteilung konvergieren.
Nach Auffassung von Poisson war dieses Ergebnis wichtig, denn es erlaubte
die Beibehaltung der Konvergenzformeln – welche die Stärke des Gesetzes
von Bernoulli ausmachten – und zwar auch in ungewissen Fällen, ja sogar
im Fall der Heterogenität der ursprünglichen Urnen. Er meinte, daß dieser
Umstand den realen Situationen der Anwendung dieses Gesetzes sehr viel
näher käme. Bienaymé gab sich zwar als Bewunderer von Poisson aus, wertete
aber rasch die Originalität dieses neuen starken Gesetzes der großen Zahlen“

in einem 1855 veröffentlichten Artikel ab, der den folgenden leicht boshaften
Titel trägt: Zu einem Prinzip, das Monsieur Poisson zu entdecken geglaubt

hatte und als Gesetz der großen Zahlen bezeichnete“. Bienaymé bemerkte,
daß – wenn man die Gesamtheit der beiden aufeinanderfolgenden Ziehungen
global als einen einzigen probabilistischen Prozeß betrachtet – dieses starke

Gesetz“ von Poisson nicht sehr weit über das Gesetz von Bernoulli hinausgeht.
11
Gemeint sind hier die Ziehungswahrscheinlichkeiten der unterschiedlich gefärbten
Kugeln. Diese lassen sich auch in dieser allgemeinen Situation in ihrer Gesamtheit
durch eine Normalverteilung approximieren.
102 3 Mittelwerte und Aggregatrealismus

Die Überlegungen von Bienaymé drehten sich um den Begriff der konstanten
Ursache und um die Einschränkung, mit der die Probabilisten nach seiner
Auffassung die Bedeutung des Wortes Ursache“ besetzt hatten:

... sie sprechen nicht davon, was eine Wirkung oder ein Ereignis her-
vorruft oder was dessen Eintreten gewährleistet; sie wollen nur über
den Zustand der Dinge reden, über die Gesamtheit der Umstände,
unter denen dieses Ereignis eine bestimmte Wahrscheinlichkeit hat.
(Bienaymé, 1855, [16].)

Aus diesem Grund machte er keinen Unterschied zwischen einer konstanten


Ursache und einer Ursache, die sich gemäß einem konstanten Gesetz ändert.

Die Geringfügigkeit des Umfangs der Abweichungen bleibt dieselbe,


wenn man sich die konstante Wahrscheinlichkeit nicht mehr als abso-
lut fest vorstellt, sondern als konstanten Mittelwert einer gewissen An-
zahl von Wahrscheinlichkeiten, die von variablen Ursachen herrühren,
von denen jede – entsprechend einer im Voraus festgelegten Möglich-
keitsverteilung – gleichermaßen jedem Test unterzogen werden kann.
(Bienaymé, 1855, [16].)
Diese Schrift wurde 1855 veröffentlicht, aber bereits 1842 geschrieben, das
heißt zu einer Zeit, in der Quetelet das Konstrukt seines Durchschnittsmen-
schen mit der erstaunlichen Regelmäßigkeit der Moralstatistik, der Heiraten,

Selbstmorde und Verbrechen“ untermauerte. In dieser Schrift schlug Bienaymé
eine skeptizistische Tonart an, die man später (in vermutlich unabhängiger
Form) auch bei dem deutschen Statistiker Lexis findet:

Führt man wirklich ernsthafte wissenschaftliche Forschungen durch


und hat man die Fakten mehrerer Jahre zu vergleichen, dann kommt
man kaum um die Feststellung herum, daß die vom Bernoullischen
Satz festgelegten Abweichungen weit von den beträchtlichen Un-
terschieden entfernt sind, die man bei den mit größter Genauig-
keit erfaßten Zahlenverhältnissen der natürlichen Phänomene antrifft.
(Bienaymé, 1855, [16].)

Welches auch immer die Kritikpunkte gewesen sein mögen, die Bienaymé
an die Adresse von Poisson gerichtet hat – beide stellten den Begriff der
konstanten Ursache als Prinzip der Äquivalenzklassenbildung infrage, die es
ermöglicht, Ereignisse zusammenzufassen, indem man sie als kontingente Ma-
nifestationen einer Ursache auftreten läßt, die allgemeiner ist und auf einer
höheren Ebene steht. Die Position von Bienaymé und Poisson ist nominalisti-

scher“ als die Auffassung Quetelets: Poisson versuchte jedoch, die Errungen-
schaften der konstanten Ursache durch seine – gemäß einem konstanten Ge-
setz – variierende Ursache wenigstens teilweise zu retten, während Bienaymé
den Konventionscharakter der Kausalitätsdefinition besser erfaßte. Seine For-
mulierung steht dem modernen Begriff des Modells näher, denn sie erfaßt
Der angefochtene Realismus: Cournot und Lexis 103

Konventionen und Abstraktionen als getrennt von der wahrnehmbaren In-


tuition. Im Gegensatz hierzu bewahrte die Unterscheidung, welche Poisson
zwischen den unterschiedlichen Zeitpunkten des Auftretens einer Ungewißheit
vornahm, den subjektiven Aspekt der Wahrscheinlichkeiten im Sinne der vom
18. Jahrhundert überkommenen Terminologie der Glaubensgründe (im vorlie-
genden Fall der Glaube an die Schuld des zum Tode Verurteilten). An dieser
Stelle findet man übrigens auch den Hauptunterschied zwischen Poisson und
Quetelet: Poisson befand sich noch im mentalen Universum von Condorcet
und Laplace (obwohl er sich auf Verwaltungsstatistiken stützen konnte). Für
Poisson waren die Wahrscheinlichkeiten nichts anderes als die von rationa-
len Individuen geäußerten Glaubensgrade, welche die betreffenden Individuen
ihren eigenen Urteilen zuordneten. Für Quetelet hingegen, der sich für die
Gesellschaft in ihrer Gesamtheit und für deren Beständigkeiten interessierte,
hatten die Wahrscheinlichkeiten fortan mit der Variabilität der Dinge und mit
den Abweichungen von den Mittelwerten zu tun.
In allen oben angeführten Formalisierungen und Kontroversen – das heißt
bei Quetelet und der von ihm festgestellten erschreckenden Regelmäßigkeit
von Verbrechen, bei den Ärzten und der von ihnen behandelten Cholera so-
wie bei Poisson und dessen Überlegungen zu Schwurgerichten – hingen die
theoretischen Formulierungen eng mit den debattierten Themen zusammen
und hatten deutliche Auswirkungen auf die brennende Aktualität dieser The-
men. Umgekehrt war das Auftreten der kognitiven Schemata mit der Art
und Weise verknüpft, in der die genannten Autoren auf der Grundlage ihrer
Tätigkeit unterschiedliche Realitäten konstruierten. An späterer Stelle in die-
sem Buch findet man – in Bezug auf Eugenik und mathematische Statistik –
eine analoge Übereinstimmung in den Aktivitäten von Galton und Pearson.
Gleichwohl stimmt es, daß eine derartige Übereinstimmung für einige Autoren
– wie zum Beispiel Bienaymé oder Cournot – weniger offensichtlich ist und
daß ihre Tätigkeit interner Bestandteil einer eigenständigen epistemologischen
Überlegung zu sein scheint. Aus diesem Grunde haben sich nur wenige Au-
toren auf Bienaymé und Cournot bezogen und beide sind zum Teil verkannt
worden.

Der angefochtene Realismus: Cournot und Lexis


Antoine Augustin Cournot (1801–1877), Philosoph, Mathematiker und Ge-
neralinspektor des öffentlichen Schulwesens war im Unterschied zu Quetelet
vor allem auf theoretische Überlegungen orientiert. Die von ihm behandel-
te Hauptfrage bezog sich auf die Mittel, über die der Verstand verfügt, um
objektives Wissen zu erlangen. Bei diesem Bestreben nahm die Wahrschein-
lichkeitsrechnung einen wesentlichen Platz ein. Unter dem Titel Exposition de
la théorie des chances et des probabilités 12 veröffentlichte er 1843 ein Werk, in
12
In deutscher Sprache unter dem Titel Die Grundlehren der Wahrscheinlichkeits-

rechnung, leichtfaßlich dargestellt für Philosophen, Staatsmänner, Juristen, Ka-
104 3 Mittelwerte und Aggregatrealismus

dem er den philosophischen Status der wahrscheinlichkeitstheoretischen Über-


legungen auf nuancierte Weise analysierte. Cournot versuchte, das Chaos der
individuellen Wahrnehmungen zu ordnen, besser gesagt: er wollte diese Wahr-
nehmungen von der Existenz einer rationalen Ordnung der Dinge abhängig
zu machen, die über den Subjektivitäten steht. Das war eine eher realisti-

sche“ Position (im mittelalterlichen Sinne), aber seine Feinanalyse der Art und
Weise, wie Beweise konstruiert und vor allem durch die Statistik untermauert
werden, führten ihn zu einer Position, die man de facto eher als nominali-
stisch bezeichnen kann. Als er versuchte, seine Gedanken auf der Grundlage
allgemeiner Prinzipien zusammenzutragen, berief er sich auf eine rationale
Ordnung, die im Gegensatz zu subjektiven Fehlern steht:

Unser Glaube an gewisse Wahrheiten fußt also weder auf der Wie-
derholung ein und derselben Urteile noch auf einer einstimmigen oder
fast einstimmigen Billigung: er beruht hauptsächlich auf der Wahrneh-
mung einer rationalen Ordnung – auf deren Grundlage diese Wahrhei-
ten miteinander verkettet sind – und auf der Überzeugung, daß es sich
bei den Fehlerursachen um anormale, irreguläre und subjektive Ursa-
chen handelt, die keine so regelmäßige und objektive Koordinierung
erzeugen können. (Cournot, 1843, [51].)
Dieses Gespür für die Spannung zwischen der gesuchten Objektivität der
rationalen Ordnung und den Unvollkommenheiten des subjektiven mensch-
lichen Urteils brachte Cournot darauf, klar zwischen den beiden möglichen
Bedeutungen des Begriffes Wahrscheinlichkeit“ zu unterscheiden (er war ei-

ner der Ersten, die dies taten) und die entsprechenden Zusammenhänge zu
untersuchen, wobei er den Bayesschen Standpunkt vehement kritisierte:

Eine Regel, die zuerst von dem Engländer Bayes ausgesprochen wur-
de, und auf der Condorcet und Laplace die Doktrin der A-posteriori-
Wahrscheinlichkeiten aufbauen wollten, wurde zur Quelle zahlreicher
Zweideutigkeiten, die zunächst geklärt werden müssen. Diese Regel
führte auch zu schweren Fehlern, die man beheben muß. Und die Feh-
ler werden behoben, sobald wir an den fundamentalen Unterschied
denken, der zwischen den beiden Arten von Wahrscheinlichkeiten be-
steht: nämlich zwischen den Wahrscheinlichkeiten, die eine objektive
Existenz besitzen und ein Maß für die Möglichkeit der Dinge liefern,
und den subjektiven Wahrscheinlichkeiten, die teils auf unser Wissen
und teils auf unsere Unwissenheit zurückzuführen sind und von der In-
telligenz, den entsprechenden Fähigkeiten und den gelieferten Daten
abhängen. (Cournot, 1843, [51].)

Cournot war davon überzeugt, daß eine Akkumulation von Statistiken über
die verschiedensten Themen dazu führen würde, das Wesen und die Tragweite
meralisten und Gebildete überhaupt“ erschienen (herausgegegen von Dr. C.H.
Schnuse, Braunschweig 1849).
Der angefochtene Realismus: Cournot und Lexis 105

des Wissens über die Gesellschaft tiefgründig zu transformieren. Aber im Un-


terschied zu den vorhergehenden Autoren blieb er bei dieser philosophischen
Reflexion und griff nicht in die Themen ein, die man damals diskutierte. Auch
war Cournot – im Gegensatz zu Quetelet und Moreau de Jonnès – nicht in
die administrativen und politischen Probleme einbezogen, die mit der Kompi-
lierung und Aufbereitung statistischer Ergebnisse zu tun hatten. Ihm reichte
die subtile Handhabung komplizierter kognitiver Schemata.
Er stellte beispielsweise die Frage nach der Bedeutung der Abweichungen
zwischen den Messungen ein und derselben Größe, die bei mehreren Teilen der
Bevölkerung durchgeführt wurden, wobei diese Teile aus einer Aufteilung der
Gesamtbevölkerung hervorgingen. Damit führte er eine Art Homogenitätstest
der betreffenden Bevölkerung ein und gab eine Antwort auf die Einwände, die
Keverberg gegen die Extrapolationen von Laplace erhoben hatte. Als er aber
mit Hilfe von Begriffen der Wahrscheinlichkeitsrechnung argumentierte, daß
diese Abweichungen von Null verschieden seien, stolperte er über die Tatsa-
che, daß derartige Tests lediglich Antworten liefern, die innerhalb einer gewis-
sen Signifikanzschwelle liegen, für die man beispielsweise 5% oder 1% wählen
kann. Nun ist aber die Anzahl der möglichen Aufteilungen einer Bevölkerung
a priori unendlich – mit etwas Geduld und viel Mühe lassen sich immer ir-
gendwelche Aufteilungen finden, bei denen die Abweichungen signifikant sind
(natürlich ist das bei einer Schwelle von 1% schwieriger, als bei einer Schwelle
von 5%). Das von Cournot gegebene Beispiel bezog sich auf das Verhältnis
von männlichen zu weiblichen Geburten, das für ganz Frankreich und für jedes
der 86 Departements berechnet worden war. Stellen wir uns nun vor, daß man
dasjenige Departement isoliert, bei dem die Abweichung zwischen dem besag-
ten Verhältnis und dem auf ganz Frankreich bezogenen Verhältnis am größten
ist. Kann man dann für das so ausgewählte Departement die Signifikanz einer
Schwellenabweichung von 5% oder sogar von 1% auf legitime Weise testen?
Hätte sich dieses Departement früher durch nichts ausgezeichnet, dann lau-
tete die Antwort gewiß nein. Wenn es sich aber um das Departement Seine
oder Korsika gehandelt hätte, dann waren Zweifel angebracht. Warum? Weil
die Menschen a priori wußten (oder zu wissen glaubten), daß diese Standorte
einige Besonderheiten aufweisen.
Bei dieser Argumentation warf Cournot die Frage des Zusammenhangs
zwischen Wissensformen auf, deren Verarbeitungsweisen heterogen sind. Wel-
che spezifischen Probleme entstanden durch die Konstruktion von zusammen-
gesetzten Argumentationsrhetoriken, deren Bestandteile sich auf unterschied-
liche Beweistechniken bezogen? Wie konnte man überzeugende statistische
Argumente anführen? Wie soll man Normen aufstellen, auf deren Grundlage
sich Konventionen hinsichtlich des Überzeugungscharakters eines statistischen
Arguments erzielen lassen? Die besondere Schwierigkeit dieser Frage besteht
im Falle der Statistik darin, daß ein extrem formalisierbares Universum –
das sich auf sich selbst zurückziehen kann – mit dem Erfahrungsuniversum in
Kontakt tritt, das eine wesentlich andere Beschaffenheit hat. Die Konstruktion
von Taxonomien und Äquivalenzklassen erfolgt exakt in dieser Kontaktzone –
106 3 Mittelwerte und Aggregatrealismus

das ist es, was Cournot mit seinem Begriff des Voraburteils“ bemerkt hatte,

das den Schnitt“ (das heißt die Nomenklatur) bestimmte. Er erklärte, daß

ein sich auf eine Abweichung beziehendes Urteil von zwei Elementen abhängt.
Das erste Element ergibt sich im Ergebnis einer klar formalisierten Wahr-
scheinlichkeitsrechnung, aber:
Das andere Element besteht aus einem Voraburteil, kraft dessen wir
den Schnitt – der zur beobachteten Abweichung geführt hat – als einen
solchen betrachten, den man in der unendlichen Vielfalt der möglichen
Aufteilungen natürlicherweise durchzuführen versucht, und nicht als
einen, der unsere Aufmerksamkeit ausschließlich in Anbetracht der
beobachteten Abweichung in Bann zieht. Nun leitet sich aber dieses
Voraburteil – durch das es für uns den Anschein hat, daß die sta-
tistische Erfahrung eher auf einen bestimmten Schnitt als auf einen
anderen gelenkt sein mußte – aus Gründen ab, deren Wert sich nicht
streng beurteilen läßt und von anderen Geistern auf andere Weise be-
urteilt werden kann. Es handelt sich um ein Urteil mit Vermutungs-
charakter, das seinerseits auf Wahrscheinlichkeiten beruht – aber auf
Wahrscheinlichkeiten, die sich nicht auf eine Aufzählung der Chancen
zurückführen lassen und deren Diskussion nicht zur eigentlichen Dok-
trin der mathematischen Wahrscheinlichkeitsrechnung gehört. (Cour-
not, 1843, [51].)
Durch die Einführung dieser Art von Fragestellung modifizierte Cournot
das obengestellte Problem des Aggregatrealismus“ auf tiefgründige Weise.

Er machte den Weg für die Möglichkeit von zusammengesetzten Urteilen frei,
von denen sich einige Bestandteile objektivieren lassen, während andere von

verschiedenen Geistern unterschiedlich beurteilt werden können“. Die durch-
geführten Schnitte“ können sich also nur aus einer Konvention ableiten, die

auf die Installierung des gesunden Menschenverstandes abzielt. Diese Auffas-
sung ist teilweise nominalistisch – trotz einer an anderer Stelle erkennbaren
Nostalgie nach einer rationalen Ordnung, auf deren Grundlage die Wahrhei-

ten miteinander verkettet sind, einer Ordnung, für welche die Fehlerursachen
anormal, irregulär und subjektiv sind“. Diese Spannung und das Bestreben,
sie zu durchdenken, machen das Werk Cournots zu einem der reichhaltigsten
Werke der hier zitierten Autoren, denn es stellt explizit die Frage nach der
relativen Position der auf Wahrscheinlichkeitsrechnung und Statistik aufge-
bauten Wissensformen im Vergleich zu anderen Wissensformen, die vor allem
bei der Begründung des Realismus der Aggregate verwendet werden. Dieser
Realismus sollte von Lexis auch noch auf andere Weise bestritten werden.
Quetelets Begriff der konstanten Ursache“, welche die Realität eines Ob-

jekts auf der Grundlage der Regelmäßigkeit einer statistischen Reihe unter-
mauerte, wurde durch eine Argumentation kritisiert und zerstört, die zwar
dieselben Werkzeuge benutzte, aber mit deren Hilfe die inneren Widersprüche
aufzeigte. Diese Kritik wurde in den 1870er Jahren durch den deutschen Sta-
tistiker Lexis (1837–1914) und den französischen Versicherungsmathematiker
Der angefochtene Realismus: Cournot und Lexis 107

Dormoy in ähnlicher Weise formuliert, wobei jedoch beide unabhängig vonein-


ander arbeiteten (Porter, 1986, [240]). Lexis wollte die Signifikanz der schein-
baren Regelmäßigkeit einer Reihe testen und hatte die Idee, jedes der jährli-
chen Ergebnisse als Ziehung einer Gesamtheit von Kugeln aus einer Urne zu
betrachten, die mit schwarzen und weißen Kugeln gefüllt ist. Ist diese Füllung
konstant, dann läßt sich die Verteilung der Anteile an weißen Kugeln bei den
jährlichen Ziehungen durch eine Binomialverteilung beschreiben. Handelt es
sich dabei um eine große Urne und eine große Anzahl von Ziehungen, dann
nähert sich die Binomialverteilung einer Normalverteilung, deren theoretische
Streuung sich berechnen läßt, die wir mit r bezeichnen wollen. Danach mißt
man R, also die in der untersuchten Reihe tatsächlich beobachtete Streuung.
Schließlich berechnete Lexis das Verhältnis Q = R/r und verglich es mit 1.
Ist Q kleiner als 1 (R < r), dann konnte man von einer subnormalen Vari-
anz sprechen und hieraus die Existenz einer makrosozialen Ursache ableiten:
die göttliche Vorsehung, eine Neigung zu ...“ oder einen Gruppeneffekt. Ist

Q = 1, dann verifiziert man, daß die Urne konstant ist und das Binomialmo-
dell angewendet werden kann. Ist schließlich Q > 1 (R > r), dann konnte man
nicht mehr behaupten, daß die analysierte Variable konstant ist: alles lief so
ab, als ob sich die Füllung der Urnen ändern würde.13
Lexis wendete diese Methode auf eine große Anzahl von Reihen an, die
in den vorausgegangenen Jahrzehnten von Quetelet und seinen Schülern mit
enthusiastischen Kommentaren bedacht worden waren. Das Ergebnis war ver-
nichtend. Der Fall Q < 1 kam nie vor. Der Fall Q = 1 trat nur beim Verhältnis
der männlichen und weiblichen Geburten auf (das heißt bei der Sexualpropor-
tion). In allen anderen Fällen liegt die beobachtete Streuung über der theore-
tischen Streuung und deswegen kann man nicht auf die Konstanz des beschrie-
benen Phänomens schließen. Lexis leitete hieraus ab, daß Quetelets konstante
Ursachen gegebenenfalls für gewisse physikalische Beobachtungen geltend ge-
macht werden können (Sexualproportion), nicht aber für die Moral statistik
und nicht einmal für die Körpergrößen. Deswegen änderte Lexis den Beweis-
apparat, das heißt das erforderliche Werkzeug, wobei er das Ziel verfolgte,
die Dinge solide und stabil zu machen. Quetelet hatte die Regelmäßigkeit der
Mittelwerte mit der Normalverteilung kombiniert und schloß daraus auf eine
konstante Ursache. Für Lexis reichte das nicht aus, denn er zeigte, daß die
scheinbaren Normalverteilungen eine größere Streuung aufweisen konnten, als
es beim Binomialmodell der Fall war – daher ließ sich das Ergebnis auf ei-
ne Vielzahl von Urnen zurückführen. Nun war es erforderlich, die Bedingung
R = r zu erfüllen, wenn man von einer konstanten Ursache sprechen wollte.
Einzig und allein die Sexualproportion überlebte dieses Massaker.
Der Durchschnittsmensch von Quetelet war also zur Zielscheibe hitzi-
ger Attacken geworden. Cournot verspottete den Durchschnittsmenschen: ein
13
Man kann einen Indikator p dieser Variation der Urnenfüllung abschätzen, indem
man feststellt, daß R2 = r2 +p2 gilt. Das erklärt die Zerlegung der Gesamtvarianz
in Intraklassen-Varianzen“ und Interklassen-Varianzen“.
” ”
108 3 Mittelwerte und Aggregatrealismus

Mensch, dessen körperliche Merkmale die Mittelwerte der bei vielen Individu-
en gemessenen entsprechenden Merkmale sind, wäre weit davon entfernt, ein

Modell für die menschliche Spezies zu sein – vielmehr wäre es ein unmöglicher
Mensch oder zumindest haben wir bislang keinerlei Anlaß, ihn als möglich an-
zusehen. (Cournot, 1843, [51].) Darüber hinaus hob Cournot den Konventions-
charakter der statistischen Nomenklatur hervor und versetzte dadurch dem
Begriff der konstanten Ursache“ einen Schlag. Lexis hatte seinerseits diesen

Begriff bereits einer rein internen Kritik unterzogen. Jedoch waren die Effizi-
enz der Argumentation von Quetelet und seine Fähigkeit, von unbeständigen
Individuen auf eine soziale Beständigkeit zu schließen, so stark, daß die Sozi-
alwissenschaften häufig der Versuchung nicht widerstehen konnten, auf diese
Argumentation mit folgendem Ziel zurückzugreifen: man wollte eine auto-
nome Existenz des Ganzen begründen, auch wenn der Durchschnittsmensch
gleichzeitig als Trugbild des Menschen im Allgemeinen – und des moralischen
Menschen im Besonderen – in Erscheinung trat. Dieser für die statistische
Rhetorik ganz besondere Widerspruch läßt sich zum Beispiel bei Durkheim
und in der von ihm inspirierten Soziologie erkennen, wenn auf die schweren
Geschütze umfangreicher Erhebungen zurückgegriffen wird, deren Überzeu-
gungskraft man oft gleichzeitig zur Schau stellt und leugnet. Eines der Zie-
le des vorliegenden Buches besteht darin, diese zumeist implizit auftretende
Spannung explizit zu machen.

Durchschnittstyp und Kollektivtyp bei Durkheim

Ab etwa 1830 wurde die Statistik von den Sozialwissenschaften in umfassen-


der Weise bei Argumentationen und Beweisen eingesetzt. Dieser massive Ein-
satz warf unterschiedliche Fragen auf: Zu welchem Zweck? (Was soll bewiesen
werden?); Auf welche Art und Weise? (Welche Werkzeuge und welche Rheto-
rik sollen verwendet werden?). Die Antworten auf diese Fragen änderten sich
deutlich um das Jahr 1900, als die mathematische Statistik englischen Stils die
Bühne betrat. Im 19. Jahrhundert wurden statistische Argumente vor allem
dazu benutzt, makrosoziale Totalitäten festzumachen, indem man – durch die
von Quetelet eröffnete Sichtweise – auf Mittelwerte zurückgriff (obschon Ana-
lysen in Form von Abweichungen oder Mittelwertdifferenzen“ bereits früher

verwendet worden waren, wie wir am Beispiel der numerischen Methode“ der

Ärzte oder bei Cournot gesehen hatten). Im 20. Jahrhundert dagegen diente
die Statistik dazu, den gefundenen Beziehungen einen festen Zusammenhalt
zu verleihen, was Karl Pearson und Ronald Fisher sowie den von ihnen ge-
prägten Begriffen der Regressionsgeraden, des Korrelationskoeffizienten und
der Varianzanalyse zu verdanken war (auch wenn die Identifikation der Ob-
jekte dabei immer weiter instrumentiert worden ist – insbesondere durch die
Testtheorie und die inferentielle Statistik, die von Jerzy Neyman, Egon Pear-
son und Ronald Fisher geschaffen wurden).
Durchschnittstyp und Kollektivtyp bei Durkheim 109

Der Durchschnittsmensch von Quetelet beruhte auf der Kombination zwei-


er Elemente: zeitliche Regelmäßigkeiten wurden mit Gaußschen Verteilun-
gen14 zusammengebracht. Das erste Element hielt den Anwendungen besser
stand als das zweite und wurde – zum Beispiel in der Durkheimschen Sozio-
logie – häufig als ausreichend beurteilt. Aber das zweite Element war noch
im 19. Jahrhundert ein gewichtiges Argument, mit dem man die Existenz
der Tierarten und der menschlichen Spezies begründete. Man denke hier bei-
spielsweise an Adolphe Bertillon und seine berühmten Rekruten von Doubs
(1876, [13]). Die Verteilung der Körpergrößen der Soldaten aus diesem Depar-
tement war weder Gaußsch noch eingipflig wie anderswo, sondern wies zwei
merkwürdige Buckel auf (zweigipflige Verteilung). Bertillon leitete hieraus ab,
daß diese bizarre Form das Ergebnis der Superposition zweier Normalvertei-
lungen war und daß es sich bei der Bevölkerung von Doubs um eine Mischung
zweier verschiedener ethnischer Gruppen handelte: Burgunder und Kelten.15
Der statistische Durchschnittstyp und seine zeitliche Regelmäßigkeit wur-
den von Durkheim in massiver Weise dazu verwendet, die Existenz eines aus-
serhalb der Individuen stehenden Kollektivtyps zu untermauern – zumindest
tat Durkheim dies in seinen ersten beiden Büchern: Über soziale Arbeitsteilung
(La Division du travail social, 1893, [76]) und Die Regeln der soziologischen
Methode (Les Règles de la méthode sociologique, 1894, [77]). Im Gegensatz
hierzu distanzierte er sich in Der Selbstmord (Le Suicide, 1897, [78]) vom Que-
teletschen Durchschnittstyp, den er sorgfältig vom Kollektivtyp unterschied.
Dieser Sprachwechsel kann mit verschiedenen Konstrukten zusammenhängen,
in denen er den Durchschnittsmenschen in jedem der drei Fälle auftreten läßt:
es handelt sich um die Effekte der Vererbung in Über soziale Arbeitsteilung,
um die Definition der Begriffe normal“ und pathologisch“ in Die Regeln der
” ”
soziologischen Methode und um die Interpretation einer seltenen statistischen
Tatsache in Der Selbstmord.
Im Jahre 1893 bestand Durkheim (ausgehend von den Ergebnissen Gal-
tons) in der Diskussion, die über das relative Gewicht der Vererbung und des
sozialen Milieus geführt wurde, auf der Konstanz des Durchschnittstyps, des-
sen Merkmale durch Vererbung übertragen werden, während die individuellen
Züge volatil und transitorisch sind:

Nun ist aber der Durchschnittstyp einer natürlichen Gruppe derje-


nige, der den Bedingungen des durchschnittlichen Lebens, das heißt
14
Außer der Bezeichnung Gaußsche Verteilung verwendet man für die Normalver-
teilung auch den Begriff Gauß-Verteilung.
15
Der Italiener Livi (zitiert von Stigler [267]) behauptete 1896, daß es sich bei die-
sem Ergebnis um ein Artefakt handelte, das auf einen Umrechnungsfehler von
Zoll in Zentimeter zurückzuführen sei. Der Text von Bertillon (1876, [13], S. 287–
291) scheint diese Kritik nicht zu bestätigen. Ohne sich weiter damit aufzuhalten,
machte Bertillon einen anderen Vorschlag: Der dem zweiten Maximum entspre-
chende Schnitt“ der Körpergrößen ermöglicht den Rekruten die Aufnahme in die

Kavallerie und in die Pioniertruppe, wodurch sie der Infanterie entgingen.
110 3 Mittelwerte und Aggregatrealismus

den gewöhnlichsten Bedingungen entspricht. Er drückt die Art aus,


wie sich die Individuen dem angepaßt haben, was man das durch-
schnittliche Milieu nennen kann, sei es das physische oder das soziale
Milieu; das heißt jenes, in dem die Mehrzahl lebt. Diese mittleren
Bedingungen waren in der Vergangenheit aus demselben Grund die
häufigsten, aus dem sie in der Gegenwart ganz allgemein verbreitet
sind; es handelt sich also um diejenigen Bedingungen, unter denen
der größte Teil unserer Vorfahren gelebt hat. Zwar haben sich diese
Bedingungen mit der Zeit geändert, aber im allgemeinen tun sie dies
nur sehr langsam. Der Durchschnittstyp bleibt also während langer
Zeit im wesentlichen derselbe. Demnach wiederholt er sich auch am
häufigsten und gleichmäßigsten in der Folge vergangener Generationen
– zumindest innerhalb derjenigen Generationen, die uns nahe genug
stehen, um uns ihren Einfluß spüren zu lassen. Dieser Konstanz ist es
zu verdanken, daß der Durchschnittstyp eine Beständigkeit erwirbt,
die ihn zum Schwerpunkt des Erbeinflusses macht. (Durkheim, Über
soziale Arbeitsteilung, 1893, [76].)

Auf diese Weise gab Durkheim dem Durchschnittstyp und den Merkmalen,
die eine Gruppe als Kollektiv charakterisieren, das von seinen Mitgliedern
verschieden ist, eine Darwinsche Interpretation, die in seinen späteren Werken
weniger offensichtlich war (bei Halbwachs dann aber häufig auftrat).
In seinem Werk Die Regeln der soziologischen Methode versuchte Durk-
heim (1894, [77]), die Normalität (den Gesundheitheitsstandard“) als Gegen-

satz zum Pathologischen zu definieren. Anhand des folgenden Auszugs erken-
nen wir, in welchem Maße die Rhetorik Quetelets die Sozialwissenschaften des
19. Jahrhunderts durchdrungen hatte:

Wir werden diejenigen Tatbestände normal“ nennen, welche die all-



gemeinsten Erscheinungsweisen zeigen, und werden den anderen die
Bezeichnung krankhaft“ oder pathologisch“ beilegen. Kommt man
” ”
überein, als Durchschnittstypus jenes schematische Gebilde zu be-
zeichnen, das man erhält, indem man die in der Art häufigsten Merk-
male mit ihren häufigsten Erscheinungsformen zu einem Ganzen, zu
einer Art abstrakter Individualität zusammenfaßt, so wird man sa-
gen können, daß der normale Typ mit dem Durchschnittstypus ver-
schmilzt und daß jede Abweichung von diesem Gesundheitsstandard“

eine krankhafte Erscheinung ist. Es ist richtig, daß der Durchschnitts-
typus nicht in derselben Reinheit festgestellt werden kann wie der
individuelle Typus, denn seine konstitutiven Attribute stehen nicht
absolut fest, sondern besitzen die Fähigkeit, sich zu ändern. Es steht
jedoch außer Zweifel, daß der Durchschnittstyp konstituiert werden
kann, denn er verschmilzt mit dem Typus der Gattung und der be-
sagte Konstitutionsvorgang ist eine unmittelbare Angelegenheit der
Wissenschaft. Das, was der Physiologe untersucht, sind die Funktio-
Durchschnittstyp und Kollektivtyp bei Durkheim 111

nen des Durchschnittsorganismus, und beim Soziologen ist es nicht


anders (Durkheim, Die Regeln der soziologischen Methode, 1894, [77].)
Drei Jahre später, in Der Selbstmord, hatte sich Durkheims Position in Be-
zug auf den Durchschnittsmenschen und dessen Regelmäßigkeiten vollständig
geändert. In seinen beiden vorhergehenden Werken hatte er sich auf die Sta-
bilität des Durchschnittstyps berufen, der im Gegensatz zur Variabilität der
individuellen Fälle stand. Damit wollte Durkheim die (nach der Terminologie
von Dumont, 1983, [73]) holistische Position begründen, gemäß der das Ganze
außerhalb der Individuen steht und ihnen vorangeht. Dagegen repatriierte er
in Der Selbstmord den statistischen Mittelwert in das Universum des metho-
dologischen Individualismus und verglich den Kollektivtyp“ nun nicht mehr

mit dem Durchschnittstyp“. Die Rhetorik von Quetelet produziert nicht mehr

als einen wertlosen Holismus: der statistische Durchschnittsmensch ist häufig
nur ein elendes und verkommenes Subjekt, das weder seine Steuern bezah-
len will noch in den Krieg ziehen möchte. Der Durchschnittsmensch ist kein
guter Bürger. Es hat den Anschein, daß hier erstmalig eine klare Trennung
zwischen zwei heterogenen Diskursen in Bezug auf das Thema stattgefunden
hat, welche Art von Unterstützung die Sozialwissenschaften in der Statistik
finden können. Für die einen liefert die Statistik Beweise, die nicht ignoriert
werden dürfen. Für die anderen geht die Statistik am Wesentlichen vorbei.
Das Paradoxe hierbei ist, daß Der Selbstmord – also ein Werk, das weithin
als Ausgangspunkt der quantitativen Soziologie betrachtet wird (vor allem
wegen der massiven Verwendung von Sterbestatistiken) – auch die holistische
Interpretation des Queteletschen Durchschnittsmenschen (und somit die glei-
che Statistik) radikal verurteilt. Wir können die Spur der Entfaltung dieser
Kritik nachverfolgen, die zur Begründung eines Ganzen führte, das sich ra-
dikal vom Durchschnittsmenschen unterschied und eine Totalisierung anderer
Natur entwarf:
Als Quetelet die Aufmerksamkeit auf die überraschende Regelmäßig-
keit lenkte, mit der sich bestimmte soziale Phänomene während glei-
cher Zeitspannen wiederholen, glaubte er, diese Regelmäßigkeit durch
seine Theorie des Durchschnittsmenschen erklären zu können, das
heißt durch eine Theorie, welche die einzige systematische Erklärung
für diese bemerkenswerte Eigenschaft geliefert hat. Nach Quetelet gibt
es in jeder Gesellschaft einen bestimmten Typus, der mehr oder we-
niger genau von der Mehrzahl der einzelnen Individuen reproduziert
wird, wobei nur eine Minderheit – unter dem Einfluß von störenden
Ursachen – die Tendenz zur Abweichung aufweist ... Quetelet hat die-
sem vorherrschenden Typus die Bezeichnung Durchschnittsmensch“

gegeben, denn man erhält diesen fast genau, wenn man das arithme-
tische Mittel der individuellen Typen nimmt ... Die Theorie erscheint
sehr einfach. Aber zunächst kann sie erst dann als Erklärung aner-
kannt werden, wenn sie aufzeigen kann, wie es kommt, daß der Durch-
schnittsmensch in der Mehrzahl der Menschen in Erscheinung tritt.
112 3 Mittelwerte und Aggregatrealismus

Eine Voraussetzung dafür, daß er – der Durchschnittsmensch – sich


selbst gleich bleiben kann, während sich die Einzelmenschen ändern,
besteht darin, daß der Durchschnittsmensch in gewisser Weise von den
Einzelmenschen unabhängig ist; und doch muß es irgendeinen Weg ge-
ben, auf dem der Durchschnittsmensch unmerklich im Einzelnen wie-
derum in Erscheinung treten kann. (Durkheim, Der Selbstmord, 1897,
[78].)
Durkheim versuchte zu präzisieren, auf welche Weise sich die moralische

Konstitution von Gruppen“ radikal von der entsprechenden Konstitution der
Individuen unterscheidet. Er führt die Gemütsart“ einer Gesellschaft an, die

sie nicht von heute auf morgen“ ändern kann. Er spricht von sozialer Coe-
” ”
nesthesia“, wobei der coenesthesische Zustand das bezeichnet, was bei den

kollektiven Entitäten und bei den Individuen das Persönlichste und Unwan-
delbarste ist, da es nichts Fundamentaleres gibt“ (wir erinnern daran, daß die-
ses Konstrukt dazu verwendet wird, die einer sozialen Gruppe innewohnende
Tendenz zum Selbstmord zu bestätigen). Er stellt ausführlich dar, wieso das
kollektive Moralgefühl von den individuellen Verhaltensweisen der überwie-
genden Mehrheit stark abweichen kann und mitunter im Gegensatz zu diesen
steht – ein Umstand, der den unglücklichen Durchschnittstyp“ vollständig

vom Kollektivtyp“ einer Gesellschaft distanziert:

Nicht allzu viele Leute haben einen hinreichenden Respekt für die
Rechtssphäre des Nächsten und ersticken nicht jeden Wunsch im
Keim, sich unrechtmäßig zu bereichern. Damit soll nicht in Abrede
gestellt werden, daß sich durch die Erziehung eine gewisse Distanz
gegenüber Handlungen entwickelt, die dem Gerechtigkeitssinn zuwi-
derlaufen. Aber welch ein Abstand besteht zwischen diesem vagen,
zögerlichen und stets kompromißbereiten Gefühl und der kategori-
schen, vorbehaltlosen und nichts verschweigenden Ächtung, mit der
die Gesellschaft alle Formen von Diebstahl bestraft! Und was ist mit
den vielen anderen Pflichten, die im Durchschnittsmenschen noch we-
niger verwurzelt sind? Wie steht es mit der Pflicht, die uns gebie-
tet, unseren Anteil an den öffentlichen Ausgaben zu tragen, den Fis-
kus nicht zu betrügen, sich nicht geschickt vor dem Militärdienst zu
drücken und unsere Verträge getreu zu erfüllen? Müßte sich die Moral
auf die schwankenden Gefühle im Gewissen des Durchschnittsmen-
schen stützen, dann wäre es außerordentlich schlecht um diese Moral
bestellt. Es ist also ein grundlegender Irrtum, den Kollektivtyp einer
Gesellschaft mit dem Durchschnittstyp der Individuen zu verwechseln,
aus denen sie sich zusammensetzt. Der Durchschnittsmensch hat eine
unzulängliche Moral. Nur die allerwichtigsten ethischen Grundsätze
haben sich ihm mit einiger Kraft eingeprägt, aber auch diese sind
weit von der Schärfe und Autorität entfernt, mit der sie im Kollek-
tivtyp, das heißt in der Gesamtheit der Gesellschaft auftreten. Diese
Verwechslung, die Quetelet unterlaufen ist, macht die Frage der Ent-
Durchschnittstyp und Kollektivtyp bei Durkheim 113

stehung von Moralgesetzen zu einem unbegreiflichen Problem. (Durk-


heim, Der Selbstmord, 1897, [78].)

Die Verwendung statistischer Daten schien also ambivalent zu sein. Durk-


heim benutzte sie, faßte sie aber nur mit den Fingerspitzen“ an. Die Daten

implizierten kollektive Tendenzen außerhalb der Individuen, aber diese Ten-
denzen ließen sich auf direkte Weise feststellen (das heißt ohne Statistik):
Einerseits impliziert die Regelmäßigkeit der statistischen Daten, daß
es Kollektivtendenzen gibt, die außerhalb der Individuen liegen; an-
dererseits können wir in einer beträchtlichen Anzahl wichtiger Fälle
diese Exteriorität direkt feststellen. Aber dieser Umstand ist durchaus
keine Überraschung für jemanden, der die Heterogenität individueller
und sozialer Zustände erkannt hat ... Daher besteht das Mittel zur
Berechnung eines beliebigen Elements eines Kollektivtyps nicht darin,
die Größe dieses Elements innerhalb (der einzelnen Realisierungen)
des individuellen Bewußtseins zu messen und dann den Durchschnitt
aller dieser Messungen zu bilden; vielmehr müßte man die Summe die-
ser Größen nehmen. Aber selbst dann läge dieses Bewertungsverfahren
ziemlich weit unter der Wirklichkeit, denn man bekäme damit ledig-
lich einen Wert für das soziale Empfinden, vermindert um all das, was
bei der Individualisierung verlorenging. (Durkheim, Der Selbstmord,
1897, [78].)
Die Zweideutigkeit in Bezug auf die Statistik und ihre Interpretation ist
also in diesem Werk klar erkennbar, das oft als Auftakt zum Königsweg der
Quantifizierung angesehen wird, den später die Sozialwissenschaften des 20.
Jahrhunderts beschritten haben. Diese Zweideutigkeit wirft ein fundamentales
und häufig unterschlagenes Problem auf, das vor allem auf die Arbeitsteilung
zurückzuführen ist, die in der Folgezeit zwischen den Begründern der Statistik
und Historikern, Ökonomen und Soziologen stattfand. Jeder dieser Fachleu-
te verwaltet sein eigenes Segment, das durch die Produktionstechnologie der
relevanten Objekte und durch eine Art Ad-hoc-Argumentation definiert ist.
Der genannte interne Widerspruch der Durkheimschen Rhetorik könnte dazu
verwendet werden, die eine oder andere dieser Positionen zu denunzieren oder
herabzusetzen. Der Statistiker würde über das lächeln, was ihm eine Form
des metaphysischen Holismus zu sein scheint, während sich der Soziologe –
in Verbundenheit mit der Idee, daß die sozialen Strukturen die individuel-
len Verhaltensweisen konditionieren – auf die Statistik stützen würde, um
Strukturen und Verhaltensweisen zu beschreiben; im selben Atemzug würde
er jedoch ausführen, daß Statistik nichts erklärt. Ein möglicher Ausweg aus
dieser Debatte besteht darin, einzeln die verschiedenen Möglichkeiten der To-
talisierungen und die allgemeineren – philosophischen und politischen – argu-
mentativen Grammatiken darzulegen, in deren Rahmen diese Totalisierungen
stattfinden.
114 3 Mittelwerte und Aggregatrealismus

Daher ist die Durkheimsche Unterscheidung zwischen dem Kollektivtyp,


der das Spiegelbild des Ideals eines guten Staatsbürgers darstellt, und dem
Durchschnittstyp – das heißt der arithmetischen Mittelwertbildung einer Ge-
samtheit von egoistischen Individuen – ein direkter Nachhall der von Rousseau
im Gesellschaftsvertrag vorgenommenen Unterscheidung zwischen dem allge-
meinen Willen und dem Willen aller (Dumont, 1983, [73]).16 Der letztere ist
lediglich eine Aggregation der individuellen Willensäußerungen, während der
erstere diesen individuellen Willensäußerungen vorangeht und qualitativ über
ihnen steht. Der allgemeine Wille existiert vor dem Mehrheitsbeschluß, der ihn
offenbart, aber nicht erzeugt. Nach Durkheim (der Rousseau kommentiert) ist
der allgemeine Wille eine feste und konstante Orientierung der Geisteshal-

tungen und der Aktivitäten in eine bestimmte Richtung, nämlich in Richtung
des allgemeinen Interesses. Es handelt sich um eine chronische Disposition
der individuellen Subjekte“ (in: Montesquieu und Rousseau, Wegbereiter der
Soziologie 17 ).

Der Realismus der Aggregate


Eine immer wiederkehrende Frage hat dieses Kapitel durchzogen: Wie kann
man kollektiven Objekten, das heißt Aggregaten von Individuen, einen festen
Zusammenhalt verleihen? Diese Frage geht weit über die Geschichte der Sta-
tistik hinaus und durchdringt die Geschichte der Philosophie und der Sozial-
wissenschaften – von der Gegenüberstellung von Realismus und Nominalismus
bei Ockham bis hin zur Gegenüberstellung von Holismus und Individualismus
bei Dumont. Wir haben hier die Wahl getroffen, diese Frage auf der Grundlage
der Debatten zu verfolgen, die über den statistische Mittelwert geführt wur-
den – vor allem ging es um die betreffende Formulierung von Quetelet, die auf
der Alles vereinheitlichenden Idee der konstanten Ursache aufbaut. Die Ver-
wendung dieses Werkzeugs durch die Ärzte und Hygieniker hat gezeigt, daß
– jenseits der ontologischen Kontroversen – die Konventionen bezüglich der
Aggregationen (deren Berechtigung und Untermauerung von den jeweiligen
Umständen abhängt) ihre Bedeutung im Rahmen der einschlägigen Prakti-
ken erlangen. Wenn sich die Akteure auf die derart konstruierten Objekte
16
Der Begriff Gesellschaftsvertrag (contrat social) ist untrennbar mit Jean-Jacques
Rousseau (1712–1778) verbunden. Die Menschen verpflichten sich zum Zweck der
Selbsterhaltung zur Einhaltung der gemeinsam festgelegten Werte und Normen.
Der volonté générale (allgemeiner Wille) stellt das allein verbindliche und inte-
grierende Element dar und überstimmt den volonté de tous (Wille aller), der nicht
notwendigerweise mit dem volonté générale übereinstimmen muß.
17
E. Durkheim (Paris, 1892), Montesquieu et Rousseau, précurseurs de la sociologie;
in deutscher Sprache (auszugsweise): Thèse von 1892. Montesquieus Beitrag zur
Gründung der Soziologie. In: Heisterberg, L. (Hrsg.), Émile Durkheim, Frühe
Schriften zur Begründung der Sozialwissenschaft. Darmstadt/Neuwied 1981, S.
85–128.
Der Realismus der Aggregate 115

stützen können und diese Objekte den entsprechenden Zerstörungsprüfungen


standhalten, dann existieren die Aggregate – zumindest in dem Zeitabschnitt
und in dem Bereich, in denen sich die betreffenden Praktiken und Tests als
erfolgreich erwiesen haben.
Die Technologien, die dazu fähig sind, diesen Objekten Zusammenhalt zu
verleihen – oder aber sie zu zerstören – haben sich entwickelt und verfestigt.
Ein schönes Beispiel hierfür ist das Modell von Quetelet, das für eine gewisse
Zeitdauer und auf der Grundlage von ausgesprochen individuellen Aufzeich-
nungen ein holistisches Bild geliefert hat. Dieses Modell wurde in der Folge-
zeit von zwei Seiten angegriffen – im Namen eines strikteren Nominalismus
(Moreau de Jonnès, d’Amador, Lexis) oder, ganz im Gegensatz hierzu, im
Namen eines radikal anderen Holismus (z.B. durch Durkheim, der den Rous-
seauschen Begriff des allgemeinen Willens“ aufgegriffen hat). Poisson hat ver-

sucht, mit dem starken Gesetz der großen Zahlen“ den Gültigkeitsbereich des

Modells zu erweitern, aber sein Standpunkt war ursprünglich nicht makroso-
zial. Bienaymé und Cournot haben – jeder auf seine Weise – die Anwendungs-
regeln des Modells diversifiziert und damit den Weg für einen moderneren
Modellbegriff vorbereitet, der weniger ontologisch, dafür aber konventiona-

listischer“ angelegt ist. Die unterschiedlichen Tendenzen sollten bald von der
englischen mathematischen Statistik verfeinert werden – gleichwohl bleibt die
Frage nach dem Realismus und der Natur der von den neuen Werkzeugen de-
monstrierten Kausalität von dem Zeitpunkt an wesentlich, an dem man sich
für die Rhetoriken interessiert, die diese Werkzeuge mit allen anderen Dingen
des Lebens verbinden.
4
Korrelation und Ursachenrealismus

Die Statistik nach Art von Quetelet zielte darauf ab, kollektiven Dingen durch
die Aggregation von Individuen einen Zusammenhalt zu geben. Der Begriff der
Ursache erschien nur als externe Hypothese ( konstante Ursache“), welche die

Konsistenz dieser Dinge gewährleistet. Die Stärke des Zusammenhangs zwi-
schen Ursache und Wirkung wurde jedoch nicht gemessen, das heißt es fand
keine entsprechende statistische Instrumentierung statt. Das Konstrukt Que-
telets stützte sich auf Verwaltungsaufzeichnungen, die ihrerseits seinem eige-
nen Vorhaben vorangingen und nicht dazugehörten. Die statistische Rhetorik
war noch stark von kognitiven und sozialen Quellen abhängig, die außerhalb
der neuen Logik standen, um deren Förderung diese Rhetorik bemüht war.
Diese doppelte Abhängigkeit machte die statistische Rhetorik gegenüber al-
ler Art von Kritik verwundbar, wie wir es anhand der Beispiele von Cournot
und Lexis gesehen hatten. Das Gefühl der Fremdartigkeit, das manche der
früheren Kontroversen heute hervorrufen, rührt von der Tatsache her, daß
die Statistiker jener Zeit plausible Zusammenhänge und Übersetzungen erfin-
den mußten, mit deren Hilfe sie ihre noch dürftigen Werkzeuge mit anderen
Rhetoriken verknüpften – mit Rhetoriken philosophischer, politischer und ad-
ministrativer Natur. Zu diesem Zweck schufen sie neue Objekte und setzten
diese in Szene. Um aber andere Akteure zu befähigen, sich dieser Objekte zu
bemächtigen und sie in die eigenen Konstruktionen einzubeziehen, mußten die
Objekte nicht nur eine innere Konsistenz aufweisen, sondern auch dazu fähig
sein, untereinander in stabile Beziehungen zu treten. Die Statistiker mußten
nicht nur solide Dinge, sondern auch den Mechaniker“ liefern, der diese Dinge

wie in einem Stabilbaukasten miteinander verschraubt“ und ihnen dadurch

Zusammenhalt verleiht. Dieses Werk sollte von Galton, Pearson und den eng-
lischen mathematischen Statistikern vollbracht werden.
Man kann das Unternehmen Statistik“ a posteriori auch als das uner-

wartete Produkt zweier verschiedener Projekte auffassen, von denen keines
a priori in diese Richtung ging – denn das eine Projekt war deutlich poli-
tisch ausgerichtet, das andere hingegen eher philosophisch (Mac Kenzie, 1981,
[183]). Beide Projekte sind heute im Großen und Ganzen vergessen, aber die
118 4 Korrelation und Ursachenrealismus

Begriffe der Korrelation, der Regression, des Chi-Quadrat-Tests1 und der mul-
tivariaten Analyse, die aus diesen Projekten hervorgingen, sind die Eckpfeiler
der modernen Statistik geworden. Was haben eine heute fast einstimmig ab-
gelehnte politische Linie (Eugenik), eine für ihre Zeit erstklassige und scharf-
sinnige Erkenntnistheorie und ein mathematisches Werkzeug gemeinsam, dem
eine glänzende Zukunft bestimmt war? Keines der drei Elemente implizierte
logisch die beiden anderen – in der Tat wurde jedes dieser Elemente später
von Akteuren aufgegriffen, die nichts von den jeweils anderen beiden Elemen-
ten wußten. Dennoch waren die drei Projekte im Verstand von Karl Pearson
miteinander verknüpft und es ist keineswegs sicher, daß er seine eigenen stati-
stischen Innovationen für wichtiger hielt als sein epistemologisches Credo oder
seine politischen Aktivitäten.
Wir stellen hier zunächst die Philosophie Karl Pearsons vor, die er in sei-
nem Buch Die Grammatik der Wissenschaft 2 zum Ausdruck brachte. Wir ha-
ben dieses Werk einerseits deswegen ausgewählt, weil es entschieden Position
gegen den Begriff der Kausalität bezog. Zum anderen erkennt man anhand der
nachfolgenden Neuausgaben, wie Pearson seinerseits den Galtonschen Begriff
der Korrelation übernahm, der ursprünglich in seinem Buch nicht vorhan-
den war. Pearsons Erkenntnistheorie gehört zu einer antirealistischen empiri-
stischen Strömung, die mit Ernst Mach begann und mit dem Wiener Kreis
endete. Das von Pearson in der Folgezeit entwickelte politische und wissen-
schaftliche Projekt liegt auf einer Linie, die sich von Darwin und Galton bis
hin zu den Vorhaben erstreckt, die menschliche Spezies auf der Grundlage der
Vererbung zu verbessern – das vielfache Echo, das dieses Vorhaben auslöste,
war mindestens noch bis in die 1950er Jahre zu vernehmen. Das Projekt zerfiel
in zwei miteinander zusammenhängende Aspekte. Der eine (politische) Aspekt
war die Eugenik , der andere (wissenschaftliche) Aspekt die Biometrie. Und in
dem bedeutenden Labor für biometrische Forschungen3 entstand die mathe-
matische Statistik. Die Werkzeuge der mathematischen Statistik wurden in
der ersten Hälfte des 20. Jahrhunderts auf unzähligen Gebieten aufgegriffen,
insbesondere in den Humanwissenschaften. Hingegen ließ man die antireali-
stische Erkenntnistheorie ebenso fallen wie das Vorhaben der Menschheitsver-
besserung durch die biologische Auslese der Besten.
Wir können die Abstammung der beiden Hauptwerkzeuge verfolgen: die
Herkunft der Regression zum Beispiel anhand ihrer Weiterführung in den
ökonometrischen Modellen, die in den 1920er und 1930er Jahren entwickelt
wurden, und die Herkunft der Korrelation anhand ihrer Anwendungen in
der Psychometrie4 (zur Messung von Fähigkeiten und insbesondere der In-
1
Auch als χ2 -Test oder Chiquadrat-Test bezeichnet.
2
Karl Pearson, The Grammar of Science, London 1892. Dieses Buch ist offenbar
nicht ins Deutsche übersetzt worden.
3
Francis Galton Eugenics Laboratories.
4
Messung psychischer Vorgänge“, besonders des Zeitfaktors bei psychischen Pro-

zessen. Der Begriff bezieht sich überwiegend auf psycho-physische und psycho-
technische Messungen.
4 Korrelation und Ursachenrealismus 119

telligenz), die zur mehrdimensionalen Faktorenanalyse führte. Eine wichtige


Trennlinie in diesem Universum der statistischen Formalismen – die seit Karl
Pearson so reichlich vorhanden waren – wurde durch den Rückgriff auf Wahr-
scheinlichkeitsmodelle in einem Prozeß errichtet, für den man mitunter auch
die Bezeichnung inferentielle Revolution“ verwendet (Gigerenzer und Mur-

ray, 1987, [106]). Diese Linie dominierte ab 1960, aber einige Akteure zogen
es vor, Abstand zu halten: sie versuchten, mit Hilfe rein deskriptiver Analysen
und ohne Wahrscheinlichkeitsmodelle, eine dem Universum zugrunde liegende
Ordnung nachzuweisen – eine Sichtweise, die vielleicht an Quetelet erinnert
(Benzécri, 1982, [12]).
Im Zusammenhang mit der Erweiterung der Techniken zur Zusammenfas-
sung und Formulierung einer großen Anzahl von Beobachtungen ist die Ent-
wicklung von Aufzeichnungs- und Kodierungsverfahren durch die Konstrukti-
on gemeinsamer Meßräume zu sehen: Nomenklaturen, Skalen, standardisierte
Fragebögen, Zufallsstichprobenerhebungen, Methoden zur Identifizierung und
Korrektur von abweichenden Fällen, Prüfung und Zusammenlegung von Kar-
teien. Diese gleichzeitige Entwicklung der Techniken zur Aufzeichnung und
Aufbereitung einer Menge – oder besser gesagt: einer Unmenge – neuer Ob-
jekte bewirkte eine beträchtliche Erweiterung des Realitätsraumes des stati-
stischen Universums und ließ den Grenzbereich ziemlich weit zurücktreten, an
dem sich die statistische Rhetorik mit anderen Rhetoriken konfrontiert sah.
Im 19. Jahrhundert war dieser Raum noch eng und man stieß schnell an sei-
ne Grenzen. Heute ist er so riesengroß geworden, daß manche Statistiker nur
selten Gelegenheit haben, mit den Grenzbereichen in Berührung zu kommen.
Tagtäglich kann es dazu kommen, daß eine für dieses Universum spezifische
Sprache verwendet wird. Dabei stellt man aber keine Fragen der Art mehr,
wie sie noch von den Exegeten und von den Kritikern Quetelets oder sogar
noch von Karl Pearson in seiner Grammatik der Wissenschaft aufgeworfen
worden waren.
Um es noch einmal zu sagen: es geht hier nicht darum, die Unrichtigkeit
oder die Künstlichkeit dieser Realität im Namen von anderen, mutmaßlich
realeren Konstrukten zu denunzieren. Vielmehr wollen wir diejenigen Kon-
taktzonen untersuchen, die in den meisten Wissenschaften – und ganz beson-
ders in den Sozialwissenschaften – im Allgemeinen zu den blindesten“ und

werkzeugmäßig am schlechtesten ausgestatteten Bereichen gehören. Der Um-
weg über die Geschichte ist deswegen interessant, weil er das Scheinwerferlicht
auf diese Bereiche richtet und die Möglichkeit bietet, die heutigen Routinen
von einer neuen Warte aus zu prüfen. In dieser Hinsicht ist Karl Pearson ex-
emplarisch – aufgrund des Umfangs der von ihm aufgeworfenen Fragen und
auch wegen des heutzutage absurden Aspekts seines politischen Konstruktes.
Viele Autoren haben sich mit Karl Pearson befaßt und ihn aus historischer
Sicht untersucht und beschrieben. Diese Untersuchungen begannen mit Pear-
son selbst (Karl Pearson, 1920, [224]) und mit seinem Sohn (Egon Pearson,
1938, [220]).
120 4 Korrelation und Ursachenrealismus

Karl Pearson: Kausalität, Kontingenz und Korrelation

Im Jahre 1912 gab der Verlag Alcan eine französische Übersetzung der dritten
Auflage (1911) der Grammatik der Wissenschaft heraus. Die erste Auflage war
1892 erschienen. Die neue Auflage hatte neun Kapitel: Kapitel 1 bis 4 und 6 bis
9 waren genau dieselben wie in der Ausgabe von 1892. In diesen Kapiteln ging
es ausschließlich um Wissenschaftsphilosophie und es fiel kein einziges Wort
über Statistik. Die Statistik wurde, wenn auch nur kurz, im fünften Kapitel
angeschnitten: dieses 1911 hinzugefügte Kapitel trägt den Titel Kontingenz

und Korrelation. Unzulänglichkeit des Begriffs der Verursachung“. Pearson
und Yule hatten inzwischen die Begriffe der Korrelation und der Regression
in Publikationen formalisiert, die nie ins Französische übersetzt worden sind.
Der französische Übersetzer des obengenannten Werkes war kein anderer
als Lucien March (1859-1933), seinerzeit Direktor der Statistique générale de
la France (SGF), der Vorläuferin des gegenwärtigen Institut national de la sta-
tistique et des études économiques (INSEE).5 Bei der Übersetzung ließ sich
March von drei Mitarbeitern, den Statistikern Bunle, Dugé de Bernonville
und Lenoir unterstützen. In einer einführenden Bemerkung erläuterte er die
nach seiner Auffassung große Bedeutung des Buches und der Übersetzung.
Dabei nahm er kaum Bezug auf die von Pearson eingeführten statistischen
Innovationen, faßte aber auf sieben Seiten die in dem Buch entwickelte Er-
kenntnistheorie zusammen, die er sich zu eigenen machte. Diese Theorie war
entschieden antirealistisch. Sie behauptete, daß der Mensch nur Gefühle und
Wahrnehmungen kennt, die er auf der Grundlage der von ihm beobachteten
Analogien und Beständigkeiten kombiniert und klassifiziert, die Pearson als
Wahrnehmungsroutinen charakterisierte; die Realität selbst sei nicht erkenn-
bar.
Man ist überrascht, wenn man – aus der Feder des Leiters des Statistischen
Bureaus, der für die ziffernmäßige Beschreibung der französischen Bevölke-
rung verantwortlich zeichnete – Formulierungen liest, die in einem deutlichen
Gegensatz zu dem stehen, was notwendigerweise die praktische Erkenntnisphi-
losophie ausmacht, die er in seiner Position entwickeln mußte, um mit seinem
Umfeld und den Personen zu kommunizieren, die seine Publikationen verwen-
deten. So schrieb er etwa: Ein Wissenschaftler bestätigt weder die Realität

der Außenwelt, noch leugnet er sie“. Konnte er diese Position wirklich auf-
rechterhalten, wenn er mit seinem Minister über Kredite verhandelte, die der
SGF gewährt werden sollten? Der Hinweis auf diesen Widerspruch soll keines-
falls die Vermutung nahelegen, daß March ein konfuser Wissenschaftler oder
gar ein durchtriebener Beamter war. Vielmehr wollten wir andeuten, daß es
sich hier um zwei unterschiedliche Realitätsregister handelte, die präzise iden-
tifiziert und analysiert werden müssen.
5
Dieses 1946 gegründete staatliche Institut für Statistik und Wirtschaftsforschung
erfüllt neben den Aufgaben einer statistischen Bundesanstalt“ auch die eines

Konjunkturinstituts.
Karl Pearson: Kausalität, Kontingenz und Korrelation 121

Die Erkenntnistheorie Pearsons war von der Denkweise des österreichi-


schen Physikers und Philosophen Ernst Mach (1838–1916), eines Spezialisten
für Psychophysiologie der Empfindungen, geprägt worden. Mach hatte auf
der Grundlage seiner eigenen Forschungen zu diesem Gegenstand eine Episte-
mologie entwickelt, die im wissenschaftlichen Erkenntnisprozeß die Rolle der
Beobachtungen und der Sinneswahrnehmungen bevorzugte und die Dinge an

sich“ zugunsten der Farben, der Töne, der Drücke und der Zeitdauer“ ablehn-

te – also zugunsten dessen, was wir üblicherweise als Sinneswahrnehmungen
bezeichnen, die ihrerseits die wahren Elemente der Welt sind“ (Mach, 1904,
[182]). Für Mach löste sich die Vorstellung von der Realität der Außenwelt
auf, da man nicht mehr zwischen dem Inneren und dem Äußeren unterschei-
den konnte. Er lehnte den Begriff der Kausalität als subjektiv ab und ersetzte
ihn durch die Begriffe der Funktion und der Organizität der Erscheinungen
(Paty, 1991, [219]). Begriffe waren für ihn mentale Entitäten, die außerhalb
des Verstandes nicht existieren. Diese Position stand dem Ockhamschen No-
minalismus nahe, unterschied sich aber dennoch teilweise dadurch von ihm,
daß für Mach die Begriffe etwas anderes als Worte sind: sie sind stabil und

inhaltsreich, denn sie sind mit Geschichte und Erfahrung beladen“. Das lenk-
te die Aufmerksamkeit auf die gesellschaftliche Objektivität, die durch lange
Erfahrung und langen Gebrauch erzeugt wird. Die Frage der Akkumulation
von Sinneswahrnehmungen in stabilen und übertragbaren Begriffen legte die
Untersuchung von Prozessen nahe, in deren Verlauf sich eine im Entstehen
begriffene Realität verfestigt. Wir begegnen hier erneut dem Unterschied zwi-
schen einem radikalen Relativismus und einer konstruktivistischen Position,
für welche die Realität existiert, falls sie über einen gewissen Zeitraum in ei-
nem gewissen Humanbereich konstruiert und untermauert worden ist. Aber
weder Mach noch Pearson (der diese Denkweise im Wesentlichen übernahm)
entwickelten diesen Standpunkt weiter, der zugegebenermaßen mehr mit den
Sozialwissenschaften als mit den Naturwissenschaften zusammenhing, auf die
sich Mach und Pearson bezogen hatten.
Eine weitere zentrale Idee von Mach bestand darin, daß die Wissenschaft
(die Trennung von Wissen und Irrtum“) durch einen Ausleseprozeß auf der

Grundlage von Versuch und Irrtum ( trial and error“) gemäß einem adapti-

ven Modell konstruiert wird – in Analogie zu dem Modell, das Darwin für die
Evolution der Lebewesen6 konstruiert hatte: Wissen ist in jedem Fall eine

Erfahrung des Verstandes, die sich für uns direkt oder indirekt als günstig
erweist“. (Mach, 1904, [182].) Die wechselseitige Anpassung der Denkweisen
und der Tatsachen, in denen sich sowohl die Beobachtungen als auch die Theo-
rie ausdrücken, vollzieht sich in einem Prozeß der Ökonomie des Denkens, der
einer biologischen Notwendigkeit entspricht. Der Begriff der Ökonomie des
Denkens war für Mach eine wesentliche Idee, wie im folgenden Satz zum Aus-
6
Ein Nachhall dieses Modells findet sich im Popperschen Begriff der Falsifikation
wieder: Popper gehörte zumindest von diesem Standpunkt zur gleichen intellek-
tuellen Tradition wie Mach und Pearson.
122 4 Korrelation und Ursachenrealismus

druck kommt, der als Definition des Programms der mathematischen Statistik
dienen könnte: Die Wissenschaft läßt sich als Minimierungsproblem auffas-

sen, das darin besteht, die Fakten mit dem geringsten intellektuellen Aufwand
so vollkommen wie nur möglich darzulegen“.
Pearson übernahm diese Sichtweise. Für ihn waren die wissenschaftlichen
Gesetze nichts anderes als Zusammenfassungen, kurze Beschreibungen in einer
mentalen Stenographie und abgekürzte Formeln zur Synthese von Wahrneh-
mungsroutinen mit Blick auf nachfolgende und prognostische Anwendungen.
Diese Formeln erschienen als Beobachtungsgrenzen und erfüllten die strengen
funktionalen Gesetze niemals in vollkommener Weise: Der Korrelationskoef-
fizient ermöglichte eine präzise Messung der Stärke des Zusammenhangs, die
zwischen Null (Unabhängigkeit) und Eins (strikte Abhängigkeit) lag. Ebenso
wie die Realität der Dinge einzig und allein zu pragmatischen Zwecken und
unter dem Vorbehalt benutzt werden konnte, daß es sich um Wahrnehmungs-
routinen handelte, so konnte man auch die Kausalität“ nur als eine erwiesene

Korrelation gelten lassen, die mit einer hohen Wahrscheinlichkeit eintritt. Das
1911 zum Werk Die Grammatik der Wissenschaft hinzugefügte Kapitel 5 über
die Kausalität zeigt den Zusammenhang zwischen statistischen Zusammenfas-
sungen und den Erfordernissen des praktischen Lebens. Diese Formulierung
öffnete das Tor für eine Analyse der Diversität der realen Welten unter Bezug-
nahme auf eine Handlungstheorie, die scheinbar der einzig mögliche Ausweg
aus den Realitätsparadoxien war, welche die statistische Arbeit aufgeworfen
hatte:

Die Begründung für den Begriff der Ursache liegt in der Wahrneh-
mungsroutine. Es besteht keine interne Notwendigkeit für die Natur
dieser Routine, aber ohne sie wäre die Existenz von vernunftbegabten
Wesen mit der Fähigkeit, sich entsprechend zu verhalten, praktisch
unmöglich. Denken ist ein Beweis für die Existenz, aber das Han-
deln und Führen des eigenen Lebens und der eigenen Angelegenhei-
ten zeugen von der Notwendigkeit einer Wahrnehmungsroutine. Die-
se praktische Notwendigkeit ist es, die wir als eine in den Dingen

an sich“ existierende Notwendigkeit herauskristallisiert und unserer
Vorstellung von Ursache und Wirkung zugrundegelegt haben. Diese
Routine ist derart wichtig für das Verhalten vernunftbegabter Wesen,
daß wir Mühe hätten, eine Welt zu verstehen, in der die Begriffe von
Ursache und Wirkung keine Gültigkeit haben. Wir sind nicht nur von
deren absoluter Wahrheit überzeugt, sondern auch davon, daß hinter
diesen Phänomenen eine Realität existiert, die auch die Grundlage
allen Seins ist. Jedoch verhält es sich sogar in der Mehrzahl der rein
physikalischen Phänomene so, daß die Routine eine Sache der Erfah-
rung ist. Unser Glaube an die Erfahrung ist eine Überzeugung, die
sich auf eine Wahrscheinlichkeit stützt; aber wenn wir die Erfahrung
beschreiben sollen, dann würden wir niemals eine Erklärung“ finden,

die eine Notwendigkeit impliziert. (Pearson, 1912, [223], Kap. 5.)
Karl Pearson: Kausalität, Kontingenz und Korrelation 123

Die Idee, daß die aus der Formulierung einfacher Gesetze resultierende
Ökonomie des Denkens nichts anderes ist als eine Ökonomie der Prinzipien

und Ursachen, die den Kanon des wissenschaftlichen Denkens bilden“, wird
von Pearson mit dem Sparsamkeitsgesetz“ verglichen, das man Ockham und

seinem Rasiermesser zuschreibt:

Ockham hat als Erster erkannt, daß das Wissen um das, was jenseits
der Sphäre der Wahrnehmungen liegt, nur ein anderer Name für irra-
tionalen Glauben ist. Hamilton7 formulierte den Kanon von Ockham
in einer vollständigeren und angemesseneren Form: Man darf ohne
Not weder mehr Ursachen noch aufwendigere Ursachen zulassen, um
Erscheinungen zu erklären. (Pearson, 1912, [223].)
Pearsons Entscheidung für die wissenschaftliche Methode, die der Realität

der Dinge“ und der Kausalität“ jegliche vor den Wahrnehmungsroutinen lie-

gende Existenz abspricht, führte ihn zu einer radikalen Lösung des alten Pro-
blems der Willensfreiheit und des Determinismus. Aus dieser Sicht kann der
Wille in keinem Fall eine Primärursache sein, sondern nur ein Zwischenglied
in der Kette, die zur Formierung und Stabilisierung dieser Routinen führt. In
dieser Kette können die determinierenden Elemente sozialer, kultureller oder
erblicher Natur sein. Als Pearson (gegen 1890) die folgende Passage schrieb,
hatte er sich noch nicht auf einen fast vollständigen Hereditarismus festge-
legt, wie er es später tat. Die Forschungsrichtung, die er damals verfolgte,
hätte ihn zu einer kulturalistischen Soziologie, ja sogar zur Definition eines
Habitus führen können, denn die aus den Wahrnehmungs- und Handlungsrou-
tinen gebildete Gesamtheit funktioniert als Programm, das gemäß der Formel
von Bourdieu (1980, [26]) die strukturierte Struktur und die strukturierende

Struktur“ kombiniert – bis auf den wesentlichen Unterschied der Bezugnahme
auf die biologische Vererbung. Die nach außerhalb von uns selbst projizierte

Konstruktion“, mit der die Sinneseindrücke assoziiert werden, bilden eine auf
unterschiedlichen Wegen akkumulierte Erfahrungsreserve, die das konditio-
niert, was man üblicherweise als Willen bezeichnet:

Wird die Handlung durch die unmittelbaren Sinneseindrücke deter-


miniert (die wir mit einer nach außerhalb von uns selbst projizierten
Konstruktion assoziieren), dann kann nicht von einem Willen die Rede
sein, sondern es geht vielmehr um eine Reflex-, Gewohnheits- oder In-
stinkthandlung. Sinneseindrücke und Handlungen erscheinen als Pha-
sen in einer Wahrnehmungsroutine, und wir betrachten die Hand-
lung nicht als Primärursache, sondern als direkte Wirkung einer Sin-
neswahrnehmung. Nichtsdestoweniger sind die ererbten Eigenschaften
unseres Gehirns und sein gegenwärtiger physischer Zustand – unter
7
William Hamilton (1788–1836), Logiker und Philosoph; wichtiger Vorläufer von
Boole, de Morgan und Venn. Nicht zu verwechseln mit dem Mathematiker, Phy-
siker und Astronomen William Rowan Hamilton (1805–1865).
124 4 Korrelation und Ursachenrealismus

Berücksichtigung unserer früheren Lebensweise, Tätigkeit und des all-


gemeinen Gesundheitszustandes, unserer Ausbildung und Erfahrung
– entscheidende Faktoren dafür, welche Sinneseindrücke akkumuliert
werden, wie sie miteinander assoziiert werden und welche Auffassun-
gen sie entstehen lassen. Die Wissenschaft versucht zu beschreiben, auf
welche Weise der Wille durch Wünsche und Leidenschaften beeinflußt
wird, die sich ihrerseits aus der Ausbildung, Erfahrung, Vererbung,
aus dem physischen Temperament und den Krankheiten ableiten – aus
Bestandteilen also, die mit dem Klima, der sozialen Klasse, der Ras-
se oder mit anderen wichtigen Evolutionsfaktoren zusammenhängen.
(Pearson, 1912, [223], Kapitel 4; vor 1892 geschrieben.)

Anhand dieses Textes – der aufgrund des gängigen Bildes von Pearson als
Eugeniker und Hereditarist (zu dem er später wirklich geworden ist) überra-
schend wirkt – erkennt man, bis zu welchem Punkt der Bestand an Theorien
und Interpretationen, aus denen ein Wissenschaftler schöpfen kann, formbar
ist und von einem Netz umfassender Zusammenhänge abhängt, bei denen sich
das vermischt, was man üblicherweise als wohlunterschiedene wissenschaft-
liche, philosophische, soziale oder politische Bestandteile auffaßt. Als Pear-
son dieses schrieb, wußte er noch nicht, welchen Weg er dereinst einschlagen
würde. Die einzige Sache, der er sich sicher war, bestand darin, daß er den Idea-
lismus und das metaphysische Denken der alten englischen Universitäten zu-
gunsten eines wissenschaftlichen Positivismus bekämpfen wollte, dessen Sym-
bol der Physiker und Philosoph Mach war.
Pearson meinte, für diesen Kampf eine entscheidende Waffe geschmiedet
zu haben, indem er den Begriff der Kausalität durch den Begriff der kontingen-
ten Assoziation ersetzte. Unerkennbare Primärursachen und streng punktuelle
Zusammenhänge fegte er zugunsten von Kontingenz tafeln hinweg, indem er
eine Population auf der Grundlage zweier unterschiedlicher Auswahlkriterien
verteilte. Er griff ein bereits von Galton konzipiertes Objekt auf und for-
mulierte es präzise: die zwischen zwei Phänomenen bestehende wechselseitige
Relation, welche zwischen zwei Extrema liegt – zwischen der absoluten Un-
abhängigkeit und der strikten Abhängigkeit. Diese wechselseitige Relation,
die Korrelation, stand als Synonym für die Assoziation. Die Kreuztabellen
wurden als Kontingenz tafeln“ bezeichnet, denn alle Dinge im Universum
” ”
treten nur einmal auf und es gibt weder eine absolute Identität noch eine
Wiederholung“. Diese erstaunliche und des mittelalterlichen Nominalismus
würdige Verkündung erfolgte zu einem Zeitpunkt, an dem der Grundstein
für eine mathematische Statistik gelegt wurde, deren späterer Gebrauch auf
Äquivalenzkonventionen beruhte und das ursprüngliche Glaubensbekenntnis
tatsächlich nur unterpflügen konnte:
Die vollständige Abhängigkeit von einer einzigen meßbaren Ursa-
che ist gewiß eine Ausnahme – wenn sie überhaupt jemals auftritt,
falls nur die Beobachtung hinreichend präzise ist. Diese vollständige
Karl Pearson: Kausalität, Kontingenz und Korrelation 125

Abhängigkeit entspricht einem begrifflichen Grenzwert, dessen rea-


le Existenz zweifelhaft ist. Aber zwischen den beiden Extrema der
absoluten Unabhängigkeit und der absoluten Abhängigkeit können
alle Verknüpfungsstufen auftreten. Verändern wir die Ursache, dann
ändert sich das Phänomen, aber nicht immer im gleichen Maße: seine
Änderung unterliegt einer Schwankung. Je geringer diese Schwankung
ist, desto enger definiert die Ursache das Phänomen und desto ex-
akter können wir behaupten, daß eine Assoziation oder Korrelation
vorhanden ist. Dieser Begriff der Korrelation zwischen zwei Ereignis-
sen umfaßt alle Relationen – von der strikten Unabhängigkeit bis hin
zur vollständigen Abhängigkeit. Der Begriff der Korrelation ist die
umfassendste Kategorie, durch die wir den alten Begriff der Verursa-
chung zu ersetzen haben. Jedes Ding im Universum tritt nur einmal
auf und es gibt weder eine absolute Identität noch eine Wiederholung.
Die individuellen Phänomene können nur geordnet werden. (Pearson,
1912, [223].)

Pearson war davon überzeugt, daß diese beiden Ideen – der Begriff der
Kontingenz und der Begriff der Korrelation – zu einer grundlegenden episte-
mologischen Revolution führen würden: Die Subsumierung aller Phänomene

des Universums unter der Kategorie der Kontingenz – und nicht unter der
Kategorie der Kausalität – ist ein epochaler Vorgang in der Ideengeschichte“.
Aber er wußte auch, daß es sich bei den Begriffen der Realität, der Ursa-
che und der Funktion – die für das praktische Leben und für das Handeln
unerläßlich sind – um begriffliche Grenzwerte“ handelte, die der Mensch in

außerhalb von ihm liegende Realitäten transformiert. Dadurch schuf sich der
Mensch die Möglichkeit eines Registers von Realitäten, die sich von den Rea-
litäten der kontingenten und a priori heterogenen Individuen unterscheiden.
Er stellte Werkzeuge zur Erfassung der Kommensurabilität von Individuen
bereit und öffnete einen neuen Raum für Wissen und Handeln. Bei den Re-
lationen, die üblicherweise als Kausalitäten interpretiert werden, handelt es
sich in Wirklichkeit um

... begriffliche Grenzwerte, die der Mensch durch seine Intelligenz ge-
wonnen hat. Danach hat er seine eigene schöpferische Fähigkeit ver-
gessen und diese Begriffe in eine Realität umgewandelt, die jenseits der
menschlichen Wahrnehmungen herrscht und außerhalb des Menschen
existiert. Das ganze Universum, mit dem der Mensch ausgestattet ist,
besteht aus Ähnlichkeit und Variabilität; der Mensch hat darin den
Begriff der Funktion eingeführt, denn er hatte den Wunsch, mit sei-
ner begrenzten intellektuellen Energie sparsam umzugehen. (Pearson,
1912, [223].)
Die Rechtfertigung für diese Grenzübergänge und für die nur allzu leicht
vergessenen Schöpfungen ist ein Sparsamkeitsprinzip – das Prinzip der be-
grenzten intellektuellen Energie. Pearson beschrieb in dieser Passage zwei
126 4 Korrelation und Ursachenrealismus

wesentliche Aspekte der Konstruktion eines Objekts. Einerseits handelt es


sich um eine Exteriorisierung und den Übergang zu etwas, das jenseits der

Wahrnehmungen“ liegt und sich als notwendig für die Erzeugung des gesun-
den Menschenverstandes und der Intersubjektivität erweist (die er an ande-
rer Stelle ausführlich analysiert); andererseits geht es um das Prinzip der
Ökonomie des Denkens, das zu Zusammenfassungen und zu einer mentalen
Stenographie führt. Zwischen diesen beiden Aspekten besteht ein offensicht-
licher Zusammenhang in Bezug auf das, was den Kern des modernen Defini-
tionsprozesses der Statistik“ im Sinne vernünftiger Kombinationen der ele-

mentaren Daten ausmacht, die gewissen Optimierungsanforderungen genügen.
Diese Kriterien dienen zur Schaffung des gesunden Menschenverstandes, des
Sammelpunktes der heterogenen Subjektivitäten: die Methode der kleinsten
Quadrate und die Abschätzung eines Wahrscheinlichkeitsmodells durch die
Maximum-Likelihood-Methode.
Dieser ökonomische Prozeß läßt sich auch mit Hilfe des Begriffs der Inve-
stition analysieren. Eine Sache wird geopfert (Kontingenz, Multiplizität der
Einzelfälle), um einen nachträglichen Gewinn zu erzielen, nämlich eine Sta-
bilisierung der Standardformen, die gespeichert, übertragen und wiederver-
wendet werden können und sich in komplexere Mechanismen einbinden lassen
(Thévenot, 1986, [273]). Das Problem des Realismus und des Nominalismus
bekommt einen anderen Inhalt, wenn man es mit Hilfe des Begriffs der arbeits-
teiligen Objektkonstruktion durchdenkt: Ein Objekt – das ursprünglich das
Produkt einer Konvention ist – wird real, nachdem es schlüsselfertig übermit-
telt und von anderen verwendet worden ist. Diese Alchimie“ ist das tägliche

Brot eines jeden statistischen Instituts, wenn es die Arbeitslosenquote oder
einen Preisindex veröffentlicht. Der Begriff der Investition erweist sich als
vorteilhaft, denn er lenkt die Aufmerksamkeit auf die Kosten, die zur Über-
schreitung des Spiegels“ erforderlich sind, das heißt für den Übergang von

einer Welt der Realitäten in eine andere Welt, wobei das Budget der jeweiligen
statistischen Institute immer nur einen Teil dieser Kosten ausmacht.
Die Epistemologie Pearsons war zur Epistemologie Quetelets in der Hin-
sicht entgegengesetzt, daß sie – gemäß Galton – die Individuen und deren
Variabilität hervorhob und den Aggregaten sowie den Primärursachen (den
berühmten konstanten Ursachen“) jegliche Existenz absprach. Von einer an-

deren Warte aus gesehen hat die Epistemologie Pearsons jedoch etwas von
Quetelet geerbt: sie bestand nämlich nicht darauf, daß zwischen Meßfehlern
und realen“ Schwankungen ein wesentlicher Unterschied besteht. Der Zusam-

menhang zwischen objektiven und subjektiven Mittelwerten wurde so sehr
akzeptiert, daß man – wie aus den obigen Zitaten ersichtlich ist – lediglich
Schwankungen konstatierte, Beziehungen durch Korrelationen maß und stati-
stische Regelmäßigkeiten extrahierte, um Wetten auf die Zukunft abzuschlie-
ßen. Die Frage der Realität und das Problem der Kausalität betrachtete man
dabei als metaphysisch. Dieser methodologische Agnostizismus sollte zu einem
der hervorstechendsten Züge der statistischen Praxis werden – zumindest auf
einigen ihrer Anwendungsgebiete.
Francis Galton: Vererbung und Statistik 127

Francis Galton: Vererbung und Statistik

Die Tiefenwirkung der Wissenschaftsgeschichte und das Interesse an ihr sind


auf ihre Kontingenz zurückzuführen, auf die Tatsache also, daß sie in ihrem
Verlauf keiner rein internen und kognitiven Logik folgt. In der ersten Aus-
gabe (1892) der Grammatik der Wissenschaft finden wir keine Anspielung
auf die Statistik. In der 1911 veröffentlichten dritten Auflage stellte Pearson
die Korrelation hingegen stolz als eine epochale Operation in der Ideenge-

schichte“ vor. Aber ging es hier wirklich nur um die Ideengeschichte? Stand
da nicht auch die Geschichte des viktorianischen Englands dahinter, die Sor-
ge um die von der Armut verursachten Probleme und die Unruhe, die bei
den Debatten um die Erklärungen dieser Probleme und ihrer Lösungen auf-
kam? In der Zeit zwischen den beiden Buchausgaben hatten sich die Wege
von Karl Pearson und Francis Galton (1822–1911) gekreuzt und Pearson war
mit Galtons Fragen zur biologischen Vererbung bekannt geworden. Vor 1892
hatte Pearson der Vererbung noch einen Platz hinter der Bildung und der
Erfahrung zugewiesen und auch das nur en passant“ und ohne besonderen

Nachdruck: Das war damals noch nicht sein Kampf. Zwanzig Jahre später
hatte er – zur Untermauerung des eugenischen Konstrukts von Galton – der
Regression und der Korrelation eine mathematische Form gegeben und seinem
Buch, das ursprünglich nur als allgemeinverständliche Darstellung der Ideen
von Ernst Mach gedacht war, ein originelles Kapitel hinzugefügt. Pearson hat-
te auch ein sehr aktives Labor für Biometrie und Eugenik gegründet, in dem
die mathematischen Werkzeuge der modernen Statistik geschmiedet wurden.
Darüber hinaus schuf er ein einflußreiches politisches und wissenschaftliches
Netzwerk, das mindestens bis 1914 erfolgreich tätig war. Er sorgte dafür, daß
die ursprünglich von Francis Galton verbreiteten Ideen einen großen Anklang
fanden.
Galton war ein Cousin ersten Grades von Darwin. Die von Darwin auf-
gestellte Evolutionstheorie beschreibt die Auslese und Anpassung der Arten
durch einen Kampf, in dem nur die am besten geeigneten Individuen und
Gruppen überleben und sich fortpflanzen. Diese Theorie bezog sich im We-
sentlichen auf Tiere und Pflanzen. Galton war von der Theorie fasziniert und
wollte sie auf die menschliche Spezies übertragen, um eine biologische Verbes-
serung zu erzielen. Hier liegt der Ursprung für den wesentlichen Unterschied
der Konstrukte von Galton und Quetelet. Galton richtete seine Aufmerksam-
keit auf die Unterschiede zwischen den Individuen, auf die Variabilität ihrer
Merkmale und auf das, was er später als natürliche Eignungen definierte. Das
Interesse Quetelets konzentrierte sich dagegen auf den Durchschnittsmenschen
und nicht auf die relative Verteilung derjenigen, die keine Durchschnittsmen-
schen waren. Jedoch übernahm Galton von Quetelet, den er sehr bewunderte,
den Begriff der Normalverteilung für Merkmale des Menschen. Aber er ver-
wendete die Normalverteilung nicht mehr als Fehlergesetz, sondern vielmehr
als Abweichungsgesetz, das eine Klassifizierung der Individuen ermöglichte.
Bei den relevanten Tatsachen handelte es sich von nun an um die Abweichun-
128 4 Korrelation und Ursachenrealismus

gen von einem Mittelwert. Diese Abweichungen waren also keine Störungen
mehr, die – wie bei den Astronomen – eliminiert werden mußten. Es wurde
wichtig, die Individuen auf der Grundlage von Ordnungskriterien einzutei-
len. Zur Beschreibung der Verteilungen konstruierte Galton neue Objekte, die
aus diesem Ordnungsprozeß hervorgingen. Der Median zerlegt eine geordnete
Stichprobe in zwei bezüglich der Verteilung gleichgewichtige Teile. Die Quar-
tile 8 ermöglichen die Konstruktion der sogenannten halben zwischenquartilen
Breite, eines neuen Streuungsmaßes. Die Terminologie und die alten Begriffe
durchliefen einen Änderungsprozeß: Der zufällige Fehler von Quetelet wurde
zur Standardabweichung und danach zum Abweichungstyp, zur Dispersion.
Diese neuen Objektformen entstanden allmählich auf der Grundlage der
Bemühungen Galtons, einen gemeinsamen Meßraum für etwas zu schaffen, das
zuvor für inkommensurabel9 gehalten wurde: die menschlichen Fähigkeiten.
Das war eine schwierige Aufgabe: Wie soll man Äquivalenzklassen und Ver-
gleichbarkeitsskalen für Merkmale aufstellen, die sich – im Unterschied zur
Körpergröße – nicht so leicht durch eine Meßlatte ermitteln ließen? Zuerst
(1869) untersuchte Galton Genies – wie sie in der Literatur über bedeuten-
de Persönlichkeiten beschrieben wurden – und deren Erbgut in ausgewähl-
ten Nachkommenschaften, zum Beispiel in den Familienlinien der Bachs, der
Bernoullis und der Darwins. Galton bezog sich bei seiner Interpretation der
in diesen Familien auffälligen Erscheinungen systematisch auf die biologische
Vererbung und nicht – wie wir es heute eher tun würden – auf die Wirkungen
von Erziehung und Umgebung während der Kindheit.
Aber diese Untersuchungen am einen Ende der Eignungsskala reichten
nicht aus, um die gesamte Bevölkerung auf der Grundlage eines ebenso natürli-
chen Kriteriums zu ordnen wie Körpergröße oder Gewicht. Es brauchte noch
etwas Zeit (bis nach 1900), um – mit Hilfe von Techniken wie sie der In-
telligenzquotient (Binet-Simon) oder die allgemeine Intelligenz (Spearman)
darstellte – Messungen durchzuführen, die als Indikatoren für individuelle
Fähigkeiten gelten konnten. In den Jahren 1870–1880 verwendete Galton ei-
ne soziale Klassifikation, die von Charles Booth in dessen Untersuchungen
8
Ein p-tes (p = 1, . . . , q − 1) Quantil xp/q von der Ordnung q = 2, 3, . . . einer eindi-
mensionalen Wahrscheinlichkeitsverteilung F (x) wird (möglicherweise mehrdeu-
tig) durch F (xp/q − 0) ≤ p/q ≤ F (xp/q + 0) definiert. In der statistischen Praxis
beschränkt man sich neben den Zentralwerten (Medianen) vorrangig auf die den
Fällen q = 4 bzw. q = 10 bzw. q = 100 entsprechenden Quartile, Dezile und Per-
zentile. Insbesondere werden im Falle der Eindeutigkeit die Werte x1/4 bzw. x3/4
als unteres bzw. oberes Quartil und 12 (x3/4 − x1/4 ) als die halbe zwischenquartile
Breite der Verteilung bezeichnet. Letztere dient oft als empirisches Streuungsmaß.
9
Der Begriff inkommensurabel“ hat hier die Bedeutung nicht meßbar“. In der
” ”
Mathematik wird inkommensurabel“ auch in einem anderen Sinne verwendet:

Zwei Strecken (allgemeiner zwei gleichartige Größen) heißen inkommensurabel“,

wenn sie kein gemeinsames Maß“ besitzen. Bereits den Pythagoreern war be-

kannt, daß die Seite und die Diagonale eines Quadrates inkommensurable Größen
sind.
Francis Galton: Vererbung und Statistik 129

über die Armut in London (vgl. eingerahmter Text auf Seite 130) ausgear-
beitet worden war. Bei diesen Untersuchungen mußten die Demoskopen (in
diesem Fall die für die Umsetzung des Armengesetzes“ verantwortlichen Per-

sonen) die Position der besuchten Haushalte auf einer Skala bewerten, die
insgesamt acht Kategorien zur sozialen und wirtschaftlichen Stellung umfaßte
(Hennock, 1987, [128]). Dabei spiegelte eine Reihe von Indexziffern die Le-
bensweise und den Lebensstandard wider und die Skala erstreckte sich von
Bettlern, Kriminellen und Nichtstuern über Facharbeiter bis hin zu geisti-
gen Berufen. Die Skala, die Booth zur Berechnung und zum Vergleich der
verschiedenenen Armutskategorien in den einzelnen Stadtteilen von London
verwendet hatte, wurde von Galton als Indikator einer individuellen natürli-
chen Fähigkeit übernommen, wobei er den civic worth“ – also den Wert, mit

dem der Bürgersinn oder Gemeinsinn gemessen wurde – einem genetischen

Wert“ gleichsetzte.
So wie die Körpergröße ist auch diese Fähigkeit angeboren, dem Körper
einbeschrieben und normalverteilt. Diese Gaußsche Form der Häufigkeiten der
von den Boothschen Demoskopen festgehaltenen Eignungsgrade – die mit den
Stichprobenumfängen der linear angeordneten Kategorien zusammenhängt –
ermöglichte eine Eichung der Skala der genetischen Werte“ auf der Grund-

lage dieser Kategorien. Auf diese Weise führte die mit bloßem Auge“ vorge-

nommene Kodierungsarbeit der Londoner Sozialfürsorgekontrolleure auf dem
Umweg über die soziale und wirtschaftliche Stellung zur Einbürgerung einer
individuellen Eignungsskala. Die Anwendung der Normalverteilung mit dem
Ziel, einem Ding Konsistenz zu verleihen, hatte nicht mehr denselben Bedeu-
tungsinhalt wie bei Quetelet. Stellte Quetelet eine derartige Verteilung fest,
dann ermöglichte sie es ihm, auf die Existenz eines Objekts zu schließen, das
allgemeiner als die Individuen war. Bei Galton hingegen wurde die Normalver-
teilung dadurch vorausgesetzt, daß er das, was in einer Untersuchung kodiert
wurde, mit einem der Körpergröße vergleichbaren Merkmal gleichsetzte. Da-
durch war es möglich geworden, für ein dem Individuum zugeordnetes Objekt,
das heißt für die natürliche Eignung dieses Individuums, auf eine Meßwerts-
kala zu schließen.
Jedoch bestand die wesentliche Neuerung Galtons im Vergleich zu Quete-
let darin, daß er die Normalverteilung der Merkmale von Menschen nicht mehr
nur als Ergebnis einer großen Anzahl von zufälligen variablen Ursachen auf-
faßte, die geringfügig und unabhängig (und deswegen unbeschreibbar) waren.
Vielmehr versuchte er, diejenige dieser Ursachen zu isolieren, deren Wirkung
als massiv vorausgesetzt wurde: die Vererbung (Quetelet hatte diese Frage
nie gestellt). Das scheinbare Paradoxon dieses Problems führte zu einer neuen
Konstruktion: zur Regression“ im Sinne der modernen Statistik. Das Para-

doxon war: Die (meßbaren) Merkmale schienen teilweise erblich zu sein, aber
eben auch nur teilweise. Die Kenntnis der Körpergröße des Vaters bewirkte
nicht automatisch auch die Kenntnis des Körpergröße des Sohnes. Zusätzlich
zu der massiven Ursache (das heißt zur Vererbung) kamen zahlreiche andere,
geringfügige und unabhängige Ursachen ins Spiel.
130 4 Korrelation und Ursachenrealismus

Ein sozio-technisches Konstrukt: Galton verbindet die


Normalverteilung von Quetelet und die sozialen Schichten von
Booth mit einem Darwinschen Argument
Soziale Schichten und genetischer Wert (nach Galton (1909))

Das Bemühen, einer erblichen menschlichen Eignung dadurch Konsistenz


zu verleihen, daß man sie auf einer stetigen Skala eicht, brachte Galton auf ein
Konstrukt, das drei bereits konsolidierte Formen miteinander verknüpfte, die
zuvor zusammenhanglos nebeneinander existierten: die von Quetelet populari-
sierte normale Verteilung“ der Körpergrößen; die von Booth bei seiner Studie

zur Armut in London verwendete Aufteilung der Bevölkerung in soziale Ka-
tegorien und die von Darwin (dessen Cousin Galton war) inspirierte Idee der
Vererbung der individuellen physischen und psychischen Merkmale vom Stand-
punkt einer Politik, die auf Eugenik ausgerichtet war (Mac Kenzie, 1981, [183]).
Galton transformierte die bei den Körpergrößen beobachtete Normalverteilung
(das sogenannte Normalverhalten“) in eine vermutete Normalverteilung von

hypothetischer Größe, eine Eignung biologischen Ursprungs, die er als genetic

worth“ oder civic worth“ bezeichnete. Danach verknüpfte er die Hypothese

der Normalverteilung dieses individuellen (mit der Körpergröße vergleichba-
ren) Merkmals mit der prozentualen Aufteilung der Stichprobenumfänge der
Francis Galton: Vererbung und Statistik 131

acht Bevölkerungskategorien, die auf der Grundlage von wirtschaftlichen, so-


zialen und kulturellen Indexziffern definiert worden waren. Diese Indexziffern
waren anläßlich einer von Booth im Jahre 1889 organisierten Studie zu den
Armutsursachen festgestellt und aufgezeichnet worden, als die Demoskopen die
entsprechenden Haushalte besucht hatten.
Unter der Annahme, daß die mit bloßem Auge kodierte soziale Stellung den
zu eichenden civic worth“ widerspiegelte, verwendete Galton die Tabellierung

für eine nach der Gauß-Verteilung begrenzte Fläche dazu, den Grenzen zwischen
den Schichten (die auf der Abszissenachse der grafischen Darstellung dieses
Gesetzes abgetragen waren) numerische Werte zuzuordnen. Diese Konstruktion
ermöglichte keine direkte Zuordnung eines numerischen Wertes zur Eignung
eines Individuums (oder eines Haushalts), aber es wurde die Idee vermittelt,
daß ein solches Merkmal (in einer biologisch ebenso natürlichen Weise wie die
Körpergröße) existierte und nur gemessen werden mußte. Das erfolgte durch
Spearman (1904) und seine Messung der allgemeinen Intelligenz“ und später

durch die Messungen des Intelligenzquotienten (IQ) (Gould, 1983, [112]).

Aber dennoch war von einer Generation zur nächsten nicht nur die durch-
schnittliche Körpergröße nahezu konstant, sondern auch deren Streuung“ 10 .

Das war das Rätsel: Auf welche Weise konnte man die Vererbung, die Zufällig-
keit der Körpergröße des Sohnes eines Vaters von gegebener Körpergröße und
die Tatsache in Einklang bringen, daß sich die Streuung innerhalb von zwei
Generationen nicht änderte?
Galton hatte keine mathematische Ausbildung genossen und war nicht
dazu in der Lage, das Problem zu formalisieren. Aber dafür besaß er eine
große experimentelle Vorstellungskraft und eine gute geometrische Intuition.
Er war auch vom Queteletschen Modell der Fehlerverteilung durchdrungen,
die er in ein Abweichungsgesetz“ transformiert hatte. Galton löste das Rätsel

mit Hilfe zweier Ideen: zum einen durch den Mechanismus des sogenannten
11
Quincunx“ und zum anderen durch sein Erbsen-Experiment“. Die Kom-
” ”
bination dieser beiden Techniken brachte ihn auf eine neue Formulierung des
Problems, das von Poisson, Bienaymé und Lexis diskutiert worden war: Kann
ein Zufallsprozeß, der im Ergebnis von Ziehungen aus Urnen zufälliger Füllung
realisiert wird, zu regelmäßigen und wahrscheinlichkeitstheoretisch beschreib-
baren Resultaten führen?
10
Zu beachten ist hier, daß der Begriff Streuung“ in der Wahrscheinlichkeitsrech-

nung und in der mathematischen Statistik in verschiedenen Bedeutungen verwen-
det wird. Die häufigsten Bedeutungen sind Standardabweichung“ und Varianz“
” ”
( = Quadrat der Standardabweichung = Dispersion). Für die heute unter Ma-
thematikern allgemein akzeptierte Nutzung des Wortes Streuung“ sei auf Bauer,

1991, [347] verwiesen.
11
Mit quincunx“ bezeichneten die Römer u.a. die fünf Augen auf einem Spielwürfel

und die entsprechende Kreuzstellung, in der beispielsweise Bäume angepflanzt
oder Schlachtordnungen aufgestellt wurden. Das Wort ist eine Zusammensetzung
aus quinque“ (fünf) und uncia“ (Unze).
” ”
132 4 Korrelation und Ursachenrealismus

Der Quincunx“ ist ein geneigt aufgestelltes Brett, in das eine große An-

zahl von Stiften in Quincunx-Anordnung eingeschlagen wurde ( Galtonsches

Brett“ oder Galton-Brett“), das heißt in regelmäßigen und alternierenden

Horizontalreihen, so daß die Stifte jeder Reihe den Öffnungen der beiden be-
nachbarten Reihen entsprechen. Von einem gegebenen Punkt aus ließ Galton
nun Kugeln von passender Größe (so daß ihr Durchmesser kleiner als der freie
Abstand zwischen zwei benachbarten Stiften ist) über das Brett rollen. Beim
Herabrollen auf dem Galtonschen Brett wurden die Kugeln infolge der Zusam-
menstöße mit den Stiften aus ihrer Bahn in unregelmäßiger Weise abgelenkt
und sammelten sich schließlich nach Durchlaufen sämtlicher Stiftreihen in den
am unteren Brettrand angebrachten durchsichtigen vertikalen Rohren.12 Die
Kugeln stapelten sich in den Rohren derart, daß eine Normalkurve erkenn-
bar war. In einem weiteren Experiment gestaltete Galton seinen Mechanismus
komplizierter, indem er das Fallen der Kugeln auf einer Zwischenstufe unter-
brach. Dort ließ er die Kugeln in einer ersten Reihe von Rohren auffangen,
wo sie eine erste Normalkurve mit der Dispersion D1 beschrieben. Danach
öffnete er die Rohre wieder, und zwar getrennt voneinander. Dabei stellte
er zwei Dinge fest: einerseits erzeugte jedes der Rohre eine Normalverteilung
mit der gleichen Dispersion D2 und andererseits führte die Vereinigung aller
dieser kleinen Verteilungen zu einer großen Normalverteilung (mit der Dis-
persion D > D1 ).13 Natürlich waren die kleinen, durch die verschiedenen
Rohre entstandenen Verteilungen von unterschiedlicher Höhe, denn sie ent-
hielten unterschiedliche Anzahlen von Kugeln; das wichtige Ergebnis bestand
jedoch darin, daß ihre Dispersionen gleich waren. Galton hatte also einen Spe-
zialfall des Problems von Poisson und Bienaymé behandelt, nämlich den Fall,
bei dem die ursprüngliche Ziehung aus verschiedenen Urnen ihrerseits einer
Normalverteilung folgt. Bienaymé, der gewiß ein besserer Mathematiker als
Galton war, ging bei seiner Kritik Poissons in die Richtung, die wir im vorher-
gehenden Kapitel beschrieben hatten. Im Gegensatz zu dem Engländer war
Bienaymé jedoch nicht durch ein so klar formuliertes Rätsel angespornt (vgl.
eingerahmter Text auf Seite 133).
Galton machte also einen großen Schritt vorwärts in Richtung der Lösung
des Geheimnisses. Zerlegt man die Population der Väter entsprechend den
Körpergrößen in Abschnitte, dann erzeugt jeder Abschnitt eine Subpopulati-
on von Söhnen, die ihrerseits eine gewisse Dispersion aufweist. Man stellt nun
fest, daß die Körpergrößen der beiden Gesamtpopulationen – das heißt die
Population der Väter und die der Söhne – die gleiche Dispersion haben. Die
Dispersion der Körpergrößen der Söhne (heute würde man von der Gesamtva-
rianz sprechen) läßt sich nun in zwei Anteile zerlegen: der eine Anteil, der von
den Körpergrößen der Väter herrührt, ist auf die Vererbung zurückzuführen;
der andere Teil ist innerhalb der Subpopulationen zu suchen. Da aber die
12
Vgl. Darstellung des Galtonschen Bretts im Vorwort des Übersetzers (Seite VIII).
13
Die Symbole D, D1 und D2 stehen hier für Dispersion“, das heißt für Varianz“
” ”
im modernen mathematischen Sprachgebrauch.
Francis Galton: Vererbung und Statistik 133

Gesamtvarianz konstant bleibt, ist die auf die Vererbung zurückzuführende


Dispersion notwendigerweise kleiner. Das war wohl der Gedankengang Gal-
tons in Anbetracht der Ergebnisse seines zweiten Experiments, das sich auf
eine Kultur von Vergleichserbsen bezog.

Der Quincunx: eine Inszenierung der statistischen Streuung

Zwischen 1830 und 1879 betonten die Statistiker die Stabilität der stati-
stischen Mittelwerte: von einem Jahr zum nächsten änderte sich die Durch-
schnittsgröße der Rekruten nur wenig; die Heiratsraten, Kriminalitätsraten und
Selbstmordraten waren nahezu konstant. Dieser Standpunkt, der gerade derje-
nige von Quetelet war, ließ es nicht zu, daß sich die Begriffe der statistischen
Streuung und der Variation des Mittelwertes entwickelten. Eben diese beiden
Fragen schienen mit Hilfe der Theorie des Durchschnittsmenschen“ dadurch

gelöst zu sein, daß man sie als Kontingenzen behandelte, sozusagen als Störun-
gen, vergleichbar etwa mit den Meßfehlern, deren Elimination die Astronomen
und die Physiker anstrebten.
Im Gegensatz zu Quetelet interessierte sich Galton für die Unterschiede zwi-
schen den Menschen und nicht dafür, was ihnen gemeinsam war. Nicht mehr der
Durchschnittsmensch war das Ideal, sondern das Genie. Die Frage der Eugeniker
war: Wie läßt sich die Rasse verbessern, indem man mehr Genies und weniger
untaugliche Menschen produziert? Ist Genie erblich? Die Frage der Vererbung
von Fähigkeiten richtete das Scheinwerferlicht auf diejenigen beiden Aspekte,
die von der Theorie des Durchschnittsmenschen umgangen worden waren: die
Streuung und die Variation der Mittelwerte. Kinder ähneln ihren Eltern, sind
aber nicht mit ihnen identisch. Ist der Vater hochgewachsen, dann wird wahr-
scheinlich auch sein Sohn von großem Wuchs sein, aber das ist nicht sicher. Mit
anderen Worten: zur Anfangsstreuung der Körpergrößen der Väter kommt für
eine feste Körpergröße eines Vaters eine weitere Streuung hinzu, nämlich die
Streuung der Körpergrößen der Söhne. Und dennoch ist schließlich die Gesamt-
streuung der Körpergrößen aller Söhne nicht größer als die Gesamtstreuung
der Körpergrößen der Väter. Das war das seinem Wesen nach kontraintuitive
Puzzle, das Galton zu entwirren suchte. Zu diesem Zweck muß man sich ei-
ne Formalisierung ausdenken, mit deren Hilfe die beiden aufeinanderfolgenden
Streuungen analytisch getrennt werden:
A posteriori liefert die Formel der linearen Regression die Lösung: Yi =
aXi + b + εi .
Hierbei bezeichnet Xi die Körpergröße des Vaters, Yi die Körpergröße des
Sohnes und εi die Zufälligkeit der Körpergröße des Sohnes für eine feste Körper-
größe des Vaters.
Das ist nur unter der Voraussetzung möglich, daß man eine Ellipse in ein
Quadrat einbeschreibt, wobei die Ellipse die zweidimensionale Normalverteilung
der Paare Körpergröße des Vaters – Körpergröße des Sohnes“ symbolisiert.

Hierzu muß der Anstieg a der Regressionsgeraden“ ∆ mit der Gleichung Y =

aX + b notwendigerweise kleiner als 1 sein.
134 4 Korrelation und Ursachenrealismus

Abbildung 1 - Beziehungen zwischen den Körpergrößen der Väter


und der Söhne

Mit anderen Worten: Ist der Vater überdurchschnittlich groß, dann ist es
der Sohn wahrscheinlich auch, aber im Mittel (Punkt N ) weicht er weniger von
der Durchschnittsgröße ab, als sein Vater. Genau das war der Grund dafür,
warum Galton die Formulierung Regression zur Mitte verwendete, eine Idee,
die im modernen Gebrauch des Begriffes lineare Regression“ verlorengegangen

ist (hier kann der Anstieg sehr wohl größer als 1 sein).
Aber Galton war kein Mathematiker. Um die neue Idee der teilweisen Über-
tragung von erblichen Eigenschaften zu verstehen (und anderen verständlich zu
machen), benötigte er ein zwischengeschaltetes“ Gerät zur Anzeige dessen, wie

sich zwei aufeinanderfolgende Streuungen kombinieren lassen (im vorliegenden
Fall: die Streuung der Körpergrößen der Väter und, für eine gegebene Körper-
größe eines Vaters, die Streuung der Körpergrößen seiner Söhne). Ein solches
Gerät war der Zwei-Stufen-Quincunx“ (double quincunx ), den Galton entwor-

fen und beschrieben hatte. Es ist nicht bekannt, ob es ihm gelungen ist, dieses
Gerät herzustellen und funktionstüchtig zu machen. Dabei handelte es sich
Francis Galton: Vererbung und Statistik 135

vermutlich um ein Gedankenexperiment, das Galton und seinen mathematisch


unbewanderten Lesern helfen sollte, den Sachverhalt zu verstehen.
Der einfache Quincunx ist ein vertikales Brett, auf dem Stifte in einer
Quincunx-Anordnung“ eingeschlagen sind, das heißt in einer Fünferanordnung

wie auf dem Spielwürfel. Von der Mitte der oberen Kante dieses Galtonschen
Brettes läßt man Kugeln hinunterrollen, die unten in Rohren aufgefangen wer-
den. Beim Fallen findet eine zufällige Streuung der Kugeln statt. Ist die Anzahl
der Kugeln groß, dann nähert sich ihre Verteilung in den Rohren einer Nor-

malverteilung“ – der Grenze“ einer Binomialverteilung, die im Ergebnis des

Aufprallens der Kugeln auf die Stifte entsteht.

Beim Erbsen-Experiment teilte Galton die Vater“-Erbsen14 nach zuneh-



mendem Gewicht in sieben Gruppen ein und beobachtete – auf der Grundlage
der gleichen Zerlegung – die Aufteilung der Erbsen- Söhne“. Auf diese Weise

konstruierte er eine aus sieben Zeilen und sieben Spalten bestehende Kontin-
genztafel und verteilte jedes Paar Vater-Sohn gemäß dieser doppelten Merk-
malsklassifizierung. Diese Tabelle erinnert an die modernen Tabellen zur so-

zialen Mobilität“: ihre Hauptdiagonale ist extrem dicht besetzt, während die
außerhalb dieser Diagonale stehenden Felder weniger besetzt sind. Darüber
hinaus variiert das Durchschnittsgewicht der Söhne, deren Väter ein gegebe-
nes Gewicht haben, proportional zum Gewicht der Väter, aber die Amplitude
dieser Schwankung ist geringer als bei den Vätern: es findet eine Regressi-

on zur Mitte“ statt. Die mittlere Abweichung vom Durchschnittsgewicht der
Söhne, deren Väter ein gegebenes Gewicht haben, beträgt lediglich ein Drittel
der mittleren Abweichung der Vätergewichte. In dieser 1877 durchgeführten
Untersuchung hatte Galton also eine Varianzzerlegung beobachtet, die der
Zerlegung ähnelte, welche durch seinen im gleichen Jahr konstruierten zwei-
ten Quincunx beschrieben wurde.
Der nächste Schritt erfolgte 1985, als Galton Messungen der Körpergrößen
verschiedener Personen und gleichzeitig auch Messungen der Körpergrößen
beider Eltern der betreffenden Personen durchführen konnte. Zu diesem Zweck
hatte er auf einer 1884 in London veranstalteten Internationalen Gesundheits-
ausstellung einen speziellen Stand eingerichtet, an dem die vorbeigehenden
Familien in Bezug auf eine Reihe körperlicher Merkmale vermessen und re-
gistriert wurden (die Familien zahlten dafür sogar einen kleinen Betrag, was
eine Finanzierung der Forschung ermöglichte). Im Vergleich zu den Erbsen
kam es hier zu einer kleinen Komplikation, denn bei Menschen gibt es immer
zwei Elternteile. Daher begann Galton, ein Zwischenelternteil“ (mid-parent)

zu berechnen, das den Durchschnitt von Vater und Mutter repräsentierte.
14
Galton wählte Platterbsen (sweet peas) aus, die folgende Vorzüge haben: sie sind
selbstbefruchtend, so daß nur ein Elternteil berücksichtigt werden muß; alle Sa-
men in der Schote haben fast die gleiche Größe; sie sind winterhart und sehr
fruchtbar.
136 4 Korrelation und Ursachenrealismus

Abbildung 2 - Der Zwei-Stufen-Quincunx

Dieses einfache Experiment hätte sich auch Quetelet ausgedacht haben


können. Galton führte es durch, indem er auf mittlerer Höhe eine Reihe von
Zwischenrohren anordnete, die eine erste Streuung D1 erkennen lassen. Danach
wurden diese Rohre, deren Kugeln in der Zwischenzeit mit einer anderen Far-
be angemalt worden waren, geöffnet und erzeugten ihrerseits auf dem unteren
Teil des Brettes eine Folge von Elementarverteilungen der Streuung D2 . De-
ren Mischung erzeugte eine Gesamtstreuung D, die größer als D1 war. Galton
konstruierte also einen Mechanismus zur Zerlegung der Gesamtvarianz (D2 ) in
eine Interklassen-Varianz“ (D12 ) und eine Intraklassen-Varianz“ (D22 ), denn
” ”
D2 = D12 + D22 . (Hier stehen die Symbole D, D1 und D2 für diejenige Inter-
pretation des Begriffs Streuung“, die man im modernen Sprachgebrauch als

Standardabweichung“ bezeichnet.)

Darüber hinaus waren die kleinen Streuungen D2 , die an den Zwischenroh-
ren entstanden, alle gleich. Oder besser gesagt: Die Streuungen der Körper-
größen der Subpopulationen von Söhnen, die von Vätern abstammen, deren
Francis Galton: Vererbung und Statistik 137

Körpergrößen vorher gesichtet wurden, waren gleich. Der Zwei-Stufen-Quincunx


veranschaulichte diese Eigenschaft.
Der Quincunx war ein zwischengeschaltetes“ Gerät. Dieses Gerät

ermöglichte die Überwindung der Schwierigkeiten, die bei der Addition und
Kombination von Streuungen auftraten. Der Quincunx zeigte auch Folgendes:
Je weiter eine Kugel auf der ersten Stufe ∆ nach rechts fällt, desto größer
sind die Chancen, daß sie sich auch am Schluß rechts befindet. Aber das war
nicht ganz sicher, denn manchmal konnte die Kugel auch links landen. Anders
gesagt: Ein hochgewachsener Vater kann einen kleinen Sohn haben, aber das
ist nicht sehr wahrscheinlich. Natürlich muß bei der Analyse auch das Erbgut
der Mutter berücksichtigt werden: Galton dachte sich ein Zwischenelternteil“

(mid-parent) aus, das sich in der Mitte“ zwischen beiden Elternteilen befindet.

Aber der Quincunx ermöglichte keine direkte Veranschaulichung des zwischen
den Variablen bestehenden linearen Zusammenhangs vom Typ Y = aX + b.
Aus diesem Grund hat sich die synthetischere Abbildung 1 (vgl. Seite 134)
über Abbildung 2 hinweggesetzt, die dennoch ziemlich gut die Schwierigkeiten
illustriert, mit denen die Erfinder der linearen Regression zu kämpfen hatten.

Danach konstruierte Galton eine Kreuztabelle in Analogie zum vorher-


gehenden Fall. Dieses Mal waren die beiden Randverteilungen (Eltern und
Kinder) normal. Er stellte den gleichen Effekt fest, das heißt eine Regression

zum Mittelwert“ der Körpergrößen der Kinder proportional zu den Körper-
größen der Zwischenelternteile“ – mit einem Koeffizienten von 2/3 (Anstieg

der Regressionsgeraden“). In den Kreuztabellen verband er die Felder glei-

chen Wertes durch eine Linie und zeichnete auf diese Weise eine Reihe von
konzentrischen und ähnlichen Ellipsen, deren Mittelpunkt derjenige Punkt
war, welcher der Durchschnittsgröße der beiden Generationen entsprach. Gal-
ton wußte nicht, wie er die Ellipsen interpretieren sollte und legte sie deswe-
gen einem Kollegen, dem Mathematiker Hamilton-Dickson, vor. Der erkannte
sofort, daß hier eine zweidimensionale Normalverteilung im Spiel war. Die-
se Wahrscheinlichkeitsverteilung für zwei miteinander verbundene Variable
war bereits im Rahmen der Meßfehler-Theorie von Bravais15 (1846) gefunden
worden, der bei dieser Gelegenheit auch schon das Wort Korrelation“ ver-

wendet hatte. Aber Bravais hatte daraus noch keinerlei Schlußfolgerungen in
Bezug auf durch zwei Variable miteinander verknüpften Variationen gezogen,
die Lucien March auch als Co-Variationen“ bezeichnete. Für die Korrelation

verwendete March jedoch den Namen Bravais-Pearson-Koeffizient“.

15
Auguste Bravais (1811–1863), französischer Physiker und Mineraloge. Er unter-
suchte die Optik atmosphärischer Erscheinungen und die Struktur von Kristallen;
1850 fand er die 14 Typen dreidimensionaler Gitter.
138 4 Korrelation und Ursachenrealismus

Schwer zu widerlegende Berechnungen

Galton stellte diese Ergebnisse im September 1885 in seiner Ansprache als


Präsident vor, die er anläßlich der Eröffnung einer Versammlung der Sektion
Anthropologie der British Association for the Advancement of Sciences hielt.
Demnach ist Galton im Kontext der physikalischen Anthropologie der Dar-
winschen Tradition einzuordnen und nicht im Kontext der statistischen Me-
thoden. Galton war nicht Mitglied der Royal Statistical Society und veröffent-
lichte so gut wie nichts in der Zeitschrift dieser Gesellschaft. Für ihn und für
sein Publikum bezog sich seine Mitteilung auf die Vererbung und nicht auf
die Technik der Datenanalyse. Die Mitteilung wurde später unter dem Ti-
tel Regression towards Mediocrity in Hereditary Stature (Galton, 1886, [103])
veröffentlicht. In dieser Arbeit lenkte er die Aufmerksamkeit auf das, was
er für seine wichtigste Entdeckung hielt: die Idee der Rückkehr zum Mittel-
wert (daher das Wort Regression“, das erhalten geblieben ist, aber seinen

ursprünglichen Sinn vollständig verloren hat). Der paradoxe Aspekt der For-
mulierung dieser Idee liegt darin, daß sie in zwei zueinander entgegengesetzten
Richtungen gelesen werden kann, je nachdem, ob man den Koeffizienten 2/3
mit 1 vergleicht (was durch den Ausdruck Regression“, das heißt Rückkehr
” ”
zum Mittel“, suggeriert wird) oder ob man ihn mit 0 vergleicht (was Galton
im Sinn hatte, denn er wollte die Auswirkungen der Vererbung quantifizieren).
An diesem Beispiel sehen wir, wie sich unterschiedliche, ja sogar konträre
Deutungen an formal identischen statistischen Konstruktionen artikulieren
können. Die Interpretationen dieser Konstruktionen waren selten eindeutig –
trotz der zunehmend strengeren Bereinigungsarbeiten und stilistischen Verfei-
nerungen, die später von den Statistikern vorgenommen wurden. Denn diese
Tätigkeit ging oft – aber nicht immer – mit dem Effekt einher, die Aufmerk-
samkeit hinsichtlich der interpretativen Rhetoriken an den Rand zu drängen.
Die Galtonsche Rhetorik war noch ziemlich einfach und zog seinerzeit kei-
ne Aufmerksamkeit auf sich. Aber die Zweideutigkeit der möglichen Lesarten
seiner Ergebnisse sollte später erneut zum Vorschein kommen, zum Beispiel
bei der Interpretation der sozialen Mobilitätstabellen, in denen die Berufe
der Väter und der Söhne in Verbindung gebracht werden. Diese Berufe las-
sen sich entsprechend einer rein diagonalen Tabelle lesen (vollständige soziale
Vererbung) und können durch die Begriffe der Mobilität und der Mischung
der sozialen Gruppen kommentiert werden. Umgekehrt können sie mit der
Produkttafel der Randverteilungen“ verglichen werden (vollständige Gleich-
” ”
wahrscheinlichkeit“ und keine soziale Vererbung) und dann eine Interpretation
stützen, die sich durch die Begriffe der Reproduktion und der Übertragung
des sozialen Status ausdrückt. Was es auch immer mit den verschiedenen
möglichen Interpretationen der Ergebnisse von Galton oder mit den Interpre-
tationen der Mobilitätstabellen auf sich hat: in jedem der vier Fälle ist es
notwendig, die sozialen, philosophischen und politischen Konstellationen zu
rekonstruieren und dadurch diese oder jene Art und Weise wahrscheinlich zu
Schwer zu widerlegende Berechnungen 139

machen, in der man sich auf die – mit Hilfe von statistischen Methoden –
objektivierten Dinge stützt.
Wir kommen nun auf Galton zurück und betrachten zwei Beispiele von In-
terpretationen seiner Ergebnisse, die ziemlich weit von dem entfernt sind, was
er selbst angestrebt hatte. Es handelt sich um Beispiele aus Frankreich, die
sich aus der Arbeit zweier intellektuell vollkommen unterschiedlich positionier-
ter Autoren ableiten: Cheysson und Durkheim. Émile Cheysson (1836–1910),
Brückenbauingenieur und Schüler von Frederic Le Play, war Mitglied der So-
ciété de statistique de Paris und erlangte sehr schnell Kenntnis von der Mit-
teilung Galtons vom 10. September 1885. Kurze Zeit später, am 23. Oktober
1885, veröffentlichte Cheysson eine Besprechung der Galtonschen Mitteilung
in der Zeitung Le Temps (der Le Monde von damals). Er gab eine erstaun-
liche Interpretation der Galtonschen Mitteilung, indem er die Körpergröße
eines Sohnes als Durchschnitt der Körpergrößen des Vaters, der Mutter und

der Rasse“ interpretierte. Zu dieser Formulierung gelangte er folgendermaßen:
Das Gesetz von Mr. Galton besteht aus einer Art fataler und unwider-
stehlicher Regression des individuellen Typs in Richtung des Rassen-
durchschnitts ... Bezeichnet man die Abweichung zwischen der Körper-
größe eines Individuums und der durchschnittlichen Körpergröße der
Rasse als Deviat“ ..., dann besagt dieses Gesetz, daß das Deviat der

Körpergröße des Produktes im Mittel gleich zwei Dritteln des Deviates
der Körpergröße des Zwischenelternteils ist. Oder in einer äquivalenten
aber vielleicht leichter faßlichen Form: Die Körpergröße des Produktes
ist im Mittel gleich einem Drittel der Summe der Körpergrößen des
Vaters, der Mutter und der durchschnittlichen Körpergröße der Ras-
se. In der Tat: Es seien T , T  , M und t die Körpergröße des Vaters,
die Körpergröße der Mutter, die durchschnittlichen Körpergröße der
Rasse bzw. die Körpergröße des Produktes. Das Gesetz von Galton
wird dann durch folgenden Ausdruck wiedergegeben:
 
2 T + T
t−M = −M .
3 2
Hieraus folgern wir:
1
t = (T + T  + M ) (Cheysson, 1885).
3
Elementar, mein lieber Galton ... Die Formulierung von Cheysson über-
trägt in recht getreuer Weise die Vererbungsbotschaft, die Galton vorschwebte,
gibt aber gleichzeitig dem Einfluß der Rasse“ ein höheres Gewicht – unter

Verwendung eines Vokabulars, das sich noch in der Nähe der von Quetelet
benutzten Terminologie befindet:
In dieser Form hebt das Gesetz deutlich den Einfluß der Rasse hervor,
die unaufhörlich dahin tendiert, den Durchschnittstyp zu reproduzie-
ren und einem Volk trotz der mehr oder weniger exzeptionellen De-
viate einen besonderen Stempel aufdrückt. Unter den oberflächlichen
140 4 Korrelation und Ursachenrealismus

Zufällen, die einander in verschiedenen Richtungen kreuzen und sich


neutralisieren, liegt eine tiefe und permanente Ursache, die immer in
der gleichen Richtung wirkt, um die individuellen Abweichungen zu
unterdrücken und das Wesen der Rasse aufrecht zu halten. (Cheysson,
1885.)

Diese Lesart unterscheidet sich nicht allzu sehr von dem, was Durkheim
sagte, der in seinem Werk Über soziale Arbeitsteilung (La Division du travail
social, 1893, [76]) die Frage der Vererbung anschneidet, sich aber auf Galton
stützt um zu zeigen, daß die soziale Gruppe“ (und nicht mehr die Rasse“)
” ”
das Individuum an dessen Durchschnittstyp“ erinnert:

Die unlängst von Mr. Galton durchgeführten Untersuchungen bestäti-
gen die Abschwächung des erblichen Einflusses und ermöglichen uns
gleichzeitig eine Erklärung dieser Erscheinung ... Laut diesem Autor,
dessen Beobachtungen und Berechnungen nur schwer widerlegbar zu
sein scheinen, werden in einer gegebenen sozialen Gruppe durch Verer-
bung nur diejenigen Merkmale regelmäßig und vollständig übertragen,
deren Vereinigunsgmenge den Durchschnittstyp bildet. Demnach wird
ein Sohn von körperlich außerordentlich großen Eltern nicht deren
Körpergröße haben, sondern mehr in der Nähe eines mittleren Wer-
tes liegen. Sind umgekehrt die Eltern sehr klein, dann wird der Sohn
größer werden als sie es sind. Mr. Galton war sogar dazu in der La-
ge – zumindest in angenäherter Weise – dieses Abweichungsverhältnis
zu messen. Bezeichnet man vereinbarungsgemäß als Zwischeneltern-

teil“ ein zusammengesetztes Wesen, das den Durchschnitt der beiden
tatsächlichen Eltern repräsentiert, dann beträgt die Abweichung des
Sohnes zwei Drittel der Abweichung von diesem Zwischenelternteil.
Mr. Galton hat dieses Gesetz nicht nur für die Körpergröße aufge-
stellt, sondern auch für die Augenfarbe und für die künstlerischen
Fähigkeiten. Allerdings bezog er seine Beobachtungen nur auf quan-
titative und nicht auf die qualitativen Abweichungen, welche die In-
dividuen im Vergleich zum Durchschnittstyp aufweisen. Man erkennt
jedoch nicht, warum das Gesetz für das eine gelten solle, für das andere
jedoch nicht. (Durkheim, 1893, [76].)

Demnach stützte sich Durkheim auf einen Autor, dessen Beobachtungen



und Berechnungen nur schwer widerlegbar zu sein scheinen“, um eine These
zu untermauern, die ziemlich weit von der These Galtons entfernt war: Die

einzigen Merkmale, die sich in einer sozialen Gruppe regelmäßig durch Ver-
erbung übertragen, sind diejenigen Merkmale, deren Vereinigungsmenge den
Durchschnittstyp bildet“. Das ist nicht genau dasselbe, was Galton sagen woll-
te, denn bei ihm lag die Betonung auf der Vererbung der individuellen und
nicht der durchschnittlichen Merkmale. Es ist auch überraschend, daß Durk-
heim bei den durch Vererbung übertragenen Merkmalen die Körpergröße, die

Augenfarbe und die künstlerischen Fähigkeiten“ miteinander verquickt, was
Schwer zu widerlegende Berechnungen 141

eigentlich nicht mit seinem Prinzip im Einklang stand, demgemäß sich das

Soziale durch das Soziale erklärt“: Der intellektuelle Kontext des ausgehen-
den 19. Jahrhunderts war vom Darwinismus geprägt, der die wissenschaftliche
Modernität repräsentierte.
Diese Zitate von Cheysson und Durkheim zeigen, daß es zunächst nicht die
statistischen Innovationen waren, welche die Aufmerksamkeit der Zeitgenos-
sen auf die Arbeit Galtons lenkte. Dessen Ergebnisse von 1885 führten 1889
zur Veröffentlichung seines am besten bekannten Buches: Natural Inheritance
([104]); sein früheres Buch Hereditary Genius 16 war 1869 erschienen. Von den
Galtonschen Neuerungen wurden an erster Stelle – auf der Grundlage der Nor-
malverteilung von Quetelet – die Idee der Konstruktion von Ordinalskalen und
die sich hieraus direkt ableitenden Werkzeuge aufgegriffen: der Median, die
Dezile, die zwischenquartile Breite und allgemeiner die Techniken zur Trans-
formation nichtmetrischer Daten in metrische Daten, die sich in diese Skalen
eintragen ließen. Somit machte Galton den Weg zu gemeinsamen Meßräumen
frei. Im Gegensatz hierzu brauchte es mehr Zeit, die intellektuellen Durch-
brüche zu erkennen und weiter zu verwenden, die Galton 1877 durch sein
Erbsen-Experiment, durch den Zwei-Stufen-Quincunx und durch die Rück-

kehr zum Mittel“ erzielt hatte. Ähnlich verhielt es sich mit der 1885 festgestell-
ten zweidimensionalen Normalverteilung der Körpergrößenpaare Eltern-Kind
und mit der Zerlegung der dieser Verteilung zugrundeliegenden Varianz. Diese
Ergebnisse waren mathematisch kaum formalisiert, implizierten aber eine geo-
metrische und statistische Intuition, die für die damalige Zeit außergewöhnlich
war. Die grafische Darstellung der Regressionsgeraden zur Kinder-Körper-

größe“ (y) im Vergleich zur Regressionsgeraden zur Eltern-Körpergröße“ (x)

erfolgte, indem man von konzentrischen Ellipsen und von Ellipsenpunkten mit
vertikalen Tangenten ausging (eine inverse Regression von x auf y war hin-
gegen möglich, wenn man von Punkten mit horizontalen Tangenten ausging).
Der Anstieg der Regressionsgeraden wurde grafisch gemessen. Eine Optimie-
rung vom Typ der Methode der kleinsten Quadrate war noch nicht in Sicht.
Die Aufbereitung der Daten war von dem Bemühen angespornt, das
politisch-wissenschaftliche Konstrukt der Eugeniker durch Messungen von
Vererbungseffekten zu untermauern. Das erklärt die unsymmetrische Natur
dieser Aufbereitung: die Körpergrößen der Eltern beeinflußten die Körper-
größen der Kinder. Es gab erklärende“ (explikative) Variable und erklärte“
” ”
(explizierte) Variable. Aber Galton wendete diese Variablen schon bald auf
Paare von Brüdern an; wenig später untersuchte er die Vermessungen der
Arme und Beine von Menschen und der Gliedmaßen von Tieren. Diese Fälle
rechtfertigten keine unsymmetrische Behandlung mehr und das führte zu Mes-
16
Francis Galton, Hereditary Genius: An Inquiry into Its Laws and Consequences,
[102]. Deutsche Übersetzung: Genie und Vererbung, Leipzig, 1910.
142 4 Korrelation und Ursachenrealismus

sungen von Co-Relationen17 , das heißt Korrelationen. Die Untersuchung der


Relationen zwischen den Messungen verschiedener Teile ein und desselben
menschlichen Körpers war durch die anthropometrischen Arbeiten Alphonse
Bertillons (1853–1914) angeregt worden, der als Sachverständiger bei der Po-
lizeipräfektur von Paris tätig war. Bertillon suchte nach einer Meßbatterie,
die eine eindeutige Personenidentifikation ermöglichte, um Straffällige und
Verbrecher leichter ausfindig zu machen. Aber er hatte sich nicht die Fra-
ge nach den möglichen wechselseitigen Abhängigkeiten dieser Größen gestellt.
Der Korrelationskalkül eignete sich gut zur Behandlung dieser Frage. Darüber
hinaus trug Galton mit einer anderen Lösung zum Problem der Personen-
identifikation bei: diese Lösung – es handelte sich um die Fingerabdrücke –
konkurrierte mit der von Bertillon gegebenen Lösung. Daher schien es, daß
beide Probleme – das heißt das Problem der Konstruktion von gemeinsamen
Meßräumen und das Problem der eindeutigen Identifikation von Individuen
– logisch äquivalent zueinander waren. Der Polizist und der Statistiker neuen
Typs (das heißt eher Galton als Quetelet) hatten ein gemeinsames Interesse an
der Beziehung, die zwischen den einzelnen Individuen und deren relativer glo-
baler Verteilung besteht. Der Unterschied bestand darin, daß Bertillon seine
Augen auf die Individuen richtete, während Galton die Verteilung untersuchte.
Aber beide führten Umfragen durch, verwalteten Karteien und suchten nach
gut verwendbaren Anhaltspunkten. Damit wollten sie eine Realität konstru-
ieren, auf die sich ein Richter oder ein zuständiger Politiker stützen konnte,
um Entscheidungen zu treffen, die einer breiten Zustimmung bedurften. Diese
Entscheidungshilfe war insbesondere dank der Menge und der Qualität der
Beweisinstrumente möglich, die von den Polizisten und von den Statistikern
akkumuliert worden waren.
Es handelte sich um genau diejenigen Beweisinstrumente, die von der eng-
lischen mathematischen Statistik in die von Galton und Pearson begründete
Linie eingebracht worden sind. Ein Beweis ist eine komplizierte, mehr oder
weniger zerbrechliche Konstruktion, durch die man unterschiedliche Dinge
vereinigt und zum Zusammenhalt bringt, so daß sie ein Ganzes bilden – ein
Ganzes, das den Schlägen widersteht, denen es von verschiedenen Seiten aus-
gesetzt ist. Für Quetelet und für andere nach ihm war eine Normalverteilung
ein Beweis für einen Zusammenhang zwischen den einzelnen Individuen. Lexis
zerstörte diesen Beweis mit seinem Test. Für Galton hingegen war die Nor-
malverteilung eine Errungenschaft, die nicht mehr bewiesen werden mußte.
Deswegen ließ sich die Normalverteilung dazu verwenden, eine Referenzskala
zu eichen. Im Vergleich zu den Ergebnissen, die in der Folgezeit von Karl Pear-
son, von dessen Sohn Egon Pearson in Zusammenarbeit mit Jerzy Neyman
und schließlich von Ronald Fisher erzielt wurden, muten die Überlegungen von
Quetelet, Lexis und Galton doch recht einfach an. In den 1890er Jahren kam
17
F. Galton, Co-relations and their measurement, chiefly from anthropometric data.
Proc. R. Soc. London 45 (1889), 135–145. In seiner nächsten Veröffentlichung
verwendete Galton correlation“ anstelle von co-relation“.
” ”
Schwer zu widerlegende Berechnungen 143

es in England zu einer Diskontinuität, die in zahlreichen Wissenschaftsberei-


chen und nichtwissenschaftlichen Bereichen zu einer radikalen Transformation
des Beweisapparates führte.
Die Chronologie wie auch der soziale und intellektuelle Kontext die-
ser entscheidenden Episode ist von verschiedenen Autoren, auf die wir hier
hauptsächlich Bezug nehmen, eingehend beschrieben worden. Vor allem haben
diese Autoren versucht, den Zusammenhang aufzuhellen, der das, was später
lediglich als Technologie mit mathematischer Grundlage in Erscheinung trat,
mit dem Sozialdarwinismus und der Tätigkeit der Eugeniker verknüpfte. Von
dieser Richtung ließen sich – beginnend mit Galton, Pearson und Fisher – ei-
nige der Hauptdarsteller dieser Geschichte inspirieren. Wie sich herausstellte,
hatten die Mitglieder des von Pearson 1906 gegründeten Labors eine reich-
haltige Dokumentation (Archive, Briefwechsel, Memoiren) hinterlassen, die
umfassend untersucht worden ist. Dieses Material wurde von einigen Wissen-
schaftlern mit der Absicht untersucht, eine exakte internalistische Geschichte
der Instrumente zu rekonstruieren, wobei sie den evolutionistischen und euge-
nistischen Standpunkt – mit dem diese Techniken ursprünglich eng verknüpft
waren – nur an zweiter Stelle erwähnten. (E. Pearson und Kendall, 1970 [221];
Stigler, 1986, [267]). Andere wiederum sind später in entgegengesetzter Weise
vorgegangen und haben weitere Aspekte dieser Episode rekonstruiert (Norton,
1978, [214]; Mac Kenzie, 1981, [183]).
Diese beiden Untersuchungsformen – das heißt die internalistische und die
externalistische Form – werden in immer wiederkehrenden und ergebnislo-
sen Debatten einander gegenübergestellt: Entwickelt sich eine Wissenschaft
hauptsächlich durch eine interne und kognitive Dynamik oder ist es der histo-
rische und soziale Kontext, der im Wesentlichen den von dieser Wissenschaft
eingeschlagenen Weg determiniert? Im letzteren Fall könnte es sich heraus-
stellen, daß die betreffende Wissenschaft mehr oder weniger beschädigt wird
– und zwar über den impliziten Umweg der Denunzierung ihres sozialen Ur-

sprungs“. Eine derartige kritische Stimmung hat es – vor allem in den 1970er
Jahren – ohne Zweifel gegeben, aber es erwies sich als schwierig, diese Stim-
mung zu fördern. Es ist nämlich offensichtlich, daß sich die Werkzeuge von ih-
ren Ursprüngen abkoppeln und dann ein anderes Leben, ein Doppelleben oder
sogar mehrere unterschiedliche Leben führen. Aber die Antwort des gegneri-
schen Lagers, daß die Wissenschaft ihre eigene Logik und Notwendigkeit hat
und daß der Kontext der Wissenschaftsentstehung und -entwicklung kontin-
gent im Vergleich zu dieser internen Notwendigkeit ist, wirft mehr Fragen auf
als sie löst. Diese Antwort gestattet es uns nicht, im Detail über die Art und
Weise nachzudenken, in der eine Rhetorik und eine wissenschaftliche Praxis
tatsächlich miteinander verknüpft sind oder (um einen Ausdruck von Michel
Callon (1989, [42]) zu verwenden) in andere Rhetoriken und andere Praktiken
übersetzt werden. Das gilt insbesondere für die Statistik, die zur Verwendung
als Beweisinstrument in anderen Bereichen bestimmt ist – in Bereichen der
Wissenschaft, der Verwaltung und der Politik.
144 4 Korrelation und Ursachenrealismus

Von dieser Warte aus können sich historische Forschungen jeglicher Rich-
tung als aufschlußreich erweisen – zum Beispiel dadurch, daß sie eine detail-
lierte Analyse der Kontroversen liefern, die sich auf präzise technische Punkte
beziehen. So sah sich zum Beispiel Pearson sein ganzes Leben lang in der-
artigen Debatten gefangen. Stigler beschrieb die Diskussionen, die Pearson
mit Weldon und Edgeworth hatte, während Mac Kenzie die äußerst erbit-
terten Auseinandersetzungen untersuchte, zu denen es zwischen Pearson und
Yule und später zwischen Pearson und Fisher kam. Die typisch internalisti-
sche Interpretationsweise der Kontroversen besteht darin, herauszufinden, wer
– in der Retrospektive – recht hatte und demjenigen eine Medaille anzuhef-
ten, der von der Geschichte bereits gekrönt worden war. In der Statistik ist
das nicht ganz so einfach, da sich die Geschichte dazu im Allgemeinen nicht
wirklich entscheidend geäußert hat; aber auf anderen Gebieten ist das eine
gängige Praxis. Im Gegensatz hierzu zielt die externalistische Interpretation
darauf ab, den Inhalt und die Argumente der Diskussionen zugunsten von
Forschungsarbeiten zu ignorieren, deren Gegenstand die verborgenen Inter-
essen der Beteiligten sind – ausgedrückt durch soziale Gruppen oder durch
Positionen in umfassenderen Räumen, welche die möglichen Stellungnahmen
determinieren.18

Fünf Engländer und der neue Kontinent


Ein klassischer Fall von Kontroverse ist der Prioritätsstreit. Beispiele dafür
hatten wir bereits gesehen – etwa bei der Methode der kleinsten Quadrate
(Gauß und Legendre) und bei der Korrelation (Bravais, Pearson und Edge-
worth). In diesem Fall scheint die offensichtliche Deutung – ausgedrückt durch
individuelle Interessen – auszureichen. Dennoch ist es nützlich herauszufinden,
warum und wie ein Geistesblitz zu einem bestimmten Zeitpunkt – und keinem
anderen – sichtbar wird. Auf diese Weise kann man die Übersetzungen ana-
lysieren, die es einem der Akteure ermöglicht haben, sich die Urheberschaft
eines Objektes zuzuschreiben: das ist beispielsweise der Fall bei Legendre ge-
genüber Gauß und bei Pearson gegenüber Edgeworth. Innerhalb der kleinen
Gruppe der Begründer der mathematischen Statistik mangelte es an derar-
tigen Querelen nicht. Jeder hatte eine besondere Weise, die neue statistische
Sprache – die von der Gruppe kollektiv geformt wurde – durch jeweils an-
dere Sprachen zu artikulieren, die aus unterschiedlichen Quellen stammten.
Diese Besonderheiten hingen mit der Ausbildung der betreffenden Personen,
18
In einem Teil seiner Arbeit kam Mac Kenzie (1981, [183]) nicht vollständig um die
Gefahr dieser makrosozialen Interpretation herum, zum Beispiel als er versuch-
te, die konkurrierenden Ausdrücke für Korrelationskoeffizienten zu den sozialen
Ursprüngen derjenigen Personen in Beziehung zu setzen, welche diese Ausdrücke
verwendeten (der technische Teil seines Werkes ist jedoch ungemein reichhaltig
und liefert wesentliche Beiträge über die Zusammenhänge zwischen Argumenta-
tionen unterschiedlicher Art).
Fünf Engländer und der neue Kontinent 145

ihren Universitätspositionen und mit ihrem intellektuellen oder politischen


Engagement zusammen. Wir können uns hier an fünf Engländer mit ziemlich
typischen Profilen halten: Galton, Edgeworth, Weldon, Pearson und Yule. Sie
hatten den neuen Kontinent der Statistik erfunden und auch dazu beigetra-
gen, die Statistik vom alten Europa nach England zu bringen, bevor sie den
Atlantik überquerte.
Francis Galton (1822–1911) war laut Stigler die romantische Figur der

Geschichte der Statistik und vielleicht der letzte der Gentleman-Gelehrten“.
Er war der Sprößling eines typischen Geschlechts der kultivierten englischen
Großbourgeoisie (Darwin war sein Cousin). Er studierte Medizin in Cam-
bridge, praktizierte aber nicht. Galton bereiste die Welt, interessierte sich für
Geographie und Wettervorhersagen. Er veröffentlichte die ersten meteorolo-
gischen Karten mit einer Fülle von technischen Einzelheiten und originellen
Darstellungskonventionen. Aber sein hauptsächlicher Kampf drehte sich um
die Überzeugung, daß sich die menschliche Spezies auf der Grundlage der
Ergebnisse Darwins zur Vererbung und natürlichen Auslese verbessern läßt.
Zehn Jahre nach Darwins Werk Die Entstehung der Arten (1859) gab Galton
in seinem Hereditary Genius (1869, [102]) Beispiele für familiäre Vererbung bei
außergewöhnlichen Menschen. Zu ihrer Zeit empfand man diese Werke als Teil
der großen Herausforderung der Wissenschaft und der Vernunft gegenüber der
Kirche und der traditionellen Religion des Obskurantismus. Galton wünschte
die Schaffung eines wissenschaftlichen Priesterstandes“, der den alten Prie-

sterstand ersetzen sollte und er behauptete, nachgewiesen zu haben, daß es
keinen statistischen Beweis für die Existenz Gottes gibt.
Aus dieser Sicht stellt sich die Eugenik als rationale Methode dar, mit
deren Hilfe sich die Evolution der menschlichen Spezies steuern läßt – ge-
wissermaßen als wissenschaftliche Alternative zum Christentum und dessen
Fatalismus. Hinter den statistischen Werkzeugen stand die Absicht, die Wir-
kungen der Vererbung zu messen und in ihre Bestandteile zu zerlegen. Falls
sich die Menschen – von den Besten bis hin zu den weniger Guten – anordnen
lassen, dann zeigte die Technik der Regression den durch Vererbung erhalten
gebliebenen Anteil der spezifischen Qualitäten und Mängel der einen wie der
anderen Personen. Diese Ergebnisse wurden mit der Feststellung in Zusam-
menhang gebracht, daß die englischen Oberschichten – das heißt die gebilde-
teren und bessergestellten Schichten – weniger Kinder hatten, als die armen
Schichten, in denen es mehr untaugliche Personen gab. Das führte – unter
Bezugnahme auf die Wissenschaft – dazu, langfristig eine düstere Zukunft zu
prophezeien: wird nichts unternommen, dann kommt es unweigerlich zum Ver-
fall der englischen Nation. Das war der Kern der hereditaristischen Eugenik,
wie sie von Pearson aufgegriffen und vertieft wurde. Im Lichte der späteren
verbrecherischen Praktiken – die sich in der Zeit ab 1920 bis (mindestens) in
die 1940er Jahre auf dieses politische und wissenschaftliche Konstrukt stütz-
ten – fällt es gewiß schwer, sich vorzustellen, daß dieses Konstrukt vor 1914
von vielen als Bestandteil im Kampf des Fortschritts und der Wissenschaft
146 4 Korrelation und Ursachenrealismus

gegen Obskurität und Ignoranz wahrgenommen wurde. Aber leider verhielt


es sich so.
Francis Edgeworth (1845–1926) war eine unauffälligere Persönlichkeit als
Galton. Er war vor allem als Ökonom bekannt. Nach dem Studium der Lite-
ratur, der Rechtswissenschaften und der Mathematik befaßte er sich damit,
die Forschungsarbeiten der Psychophysiker über Sinneswahrnehmungen und
deren Messung auf die ökonomische Nutzentheorie anzuwenden. Er war der
Autor von Mathematical Psychics 19 (1881), einem der ersten Werke über ma-
thematische Ökonomie. Er dachte nach über die unterschiedlichen Fähigkei-

ten der Individuen, Glück zu empfinden“ und diese Frage führte dazu, daß er
sich für Quetelet, Galton und für die Normalverteilung interessierte. Er war
auf theoretischem Gebiet äußerst produktiv, vor allem in der mathematischen
Statistik, wo er sogar noch vor Pearson rangierte. Aber Edgeworth besaß nicht
dessen Talent, ein zusammenhängendes und solides Netzwerk aufzubauen. Sei-
ne Arbeit war nicht primär an einem politischen Projekt ausgerichtet und die
Eugenik interessierte ihn nicht. Galton, der sich seiner eigenen Unzuläng-
lichkeit in Mathematik bewußt war, strebte danach, sich mit einem Speziali-
sten dieses Gebietes zusammenzutun. Er bat Edgeworth um Mitarbeit. Aber
die beiden hatten kein gemeinsames wissenschaftliches Projekt und sie waren
auch durch keine politische Linie miteinander verbunden. Die von Edgeworth
in den Jahren 1880–1890 durchgeführten statistischen Arbeiten waren min-
destens ebenso bedeutend und wegweisend wie die Arbeiten Pearsons, aber
Edgeworth verfügte über keine Absatzmöglichkeiten und Forschungsinstitute,
wie sie Pearson hatte aufbauen können.
Edgeworth war einer der wenigen, die vor 1890 erkannt hatten, welche Be-
deutung die Arbeit Galtons für kognitive Schemata hatte – und zwar nicht
nur vom Standpunkt der Vererbung, für die sich Edgeworth nicht gerade be-
geisterte. In einer 1885 veröffentlichten Arbeit reproduzierte er das aus dem
Quincunx (das heißt aus dem Galtonschen Brett“) hervorgegangene Schema

und bewies die Zerlegung einer großen Normalverteilung in kleine beding-
te Verteilungen gleicher Varianz (die er als moduli“ bezeichnet). Das führte

ihn zur Formalisierung der Varianzanalyse (er sprach von entangled moduli“)

und der Vergleichstests der Mittelwerte (Edgeworth, 1885, [82]). Er untersuch-
te die allgemeinen Eigenschaften der n-dimensionalen Normalverteilung, die
er in Matrizenform schrieb (Edgeworth, 1892, [83]). Er erklärte 1893 die Kor-
relation als Momente-Produkt“ (das heißt als normierten Betrag der Erwar-

tung des Produktes der beiden korrelierten Variablen). Jedoch wurde damals
keine seiner Formulierungen von anderen Wissenschaftlern übernommen und
rückübersetzt – der Standardausdruck Korrelationskoeffizient“ wird Pearson

19
In Mathematical Psychics schildert Edgeworth die Verhandlungen zweier potenti-
eller Tauschpartner und bezeichnet die Menge der Tauschergebnisse, bei welcher
der eine Tauschpartner nicht mehr besser gestellt werden kann, ohne daß der
andere Nutzeinbußen erleidet, als Kontraktkurve. Diese Kurve ist ein Spezialfall
eines spieltheoretischen Konzepts.
Fünf Engländer und der neue Kontinent 147

zugeschrieben, der ihn seinerseits 1896, also drei Jahre später veröffentlicht
hatte. Der Unterschied zwischen beiden besteht darin, daß Edgeworth sei-
ner Arbeit den nüchternen Titel Exercises in the Calculation of Errors gab
– ein technischer Titel, der auf keinerlei Zusammenhang mit anderen Dingen
hinwies. Im Gegensatz hierzu nannte Pearson seine Arbeit Mathematical Con-
tributions to the Theory of Evolution: Regression, Heredity and Panmixia 20
und stellte damit eine Verbindung zwischen Mathematik, Darwin, Galton und
der Vererbung her (der neue Gegenstand der Panmixie“ sollte jedoch nicht

überleben). Evolution und Vererbung standen damals im Mittelpunkt des In-
teresses von Pearson. Diese Themen erweckten die Neugier eines viel größeren
Publikums, als es die mathematischen Formeln von Edgeworth taten.
Raphaël Weldon (1860–1906) war Biologe. Er war das go between der Ge-
schichte, das heißt derjenige, der Galton zu Edgeworth und Pearson in Bezie-
hung setzte. Darüber hinaus lenkte Weldon die Arbeit von Pearson in Rich-
tung einer Disziplin, die beide zusammen erschufen: die Biometrie. Weldon
war in der Tradition der evolutionistischen Biologie ausgebildet worden, deren
Ziel – ausgehend von der Beobachtung morphologischer Transformationen –
darin bestand, Stammbäume zu konstruieren, welche die Arten zueinander in
Beziehung setzten. Aber diese Tradition hatte weder die intellektuellen Mittel
noch kam sie überhaupt auf die Idee, diese morphologischen Transformationen
im großen Maßstab zu untersuchen. Weldon griff die statistischen Methoden
von Galton auf, um die Messungen zu beschreiben und zu analysieren, die
bei Krabben- und Garnelenzuchten durchgeführt worden waren. Anfänglich
unterstützte ihn Galton hierbei, aber das Material war derart komplex, daß
sich Weldon (wie schon zuvor Galton) nach einem Mathematiker umschau-
en mußte, um seine Analyse vertiefen zu können. Er zeigte seine Daten (im
Jahre 1892) Edgeworth und Pearson. Es hat den Anschein, daß beide Männer
die Idee hatten, multiple Korrelationen zu untersuchen und auf diese Weise
(im Hinblick auf die Weldonschen Vermessungen der Krabben und Garnelen)
die grafischen Intuitionen Galtons zu formalisieren und zu verallgemeinern.
Pearson ergriff die Gelegenheit und transformierte die Idee auf seine eigene
Weise, indem er sie in seine bereits vorhandenen philosophischen und politi-
schen Auffassungen integrierte. Aus der Zusammenarbeit der beiden entstand
allmählich ein Institutskern, der dann schließlich zu den Labors für Biometrie
und Eugenik führte. Die Verbindung zum Umfeld der Biologie brach jedoch
nach Weldons Tod im Jahre 1906 ab (was zweifellos zur Verbissenheit der
Debatten beigetragen hat, die später Pearson und die Mendelschen Biologen
zu Rivalen machte).
Karl Pearson (1857–1936) hat die statistische Testtheorie weiterentwickelt.
Er schuf ein wissenschaftliches Netzwerk, Institutionen und eine neue Sprache.
Er hatte einen guten Ruf erlangt und zog Studenten aus anderen Kontinen-
20
Unter Panmixie versteht man in der Biologie eine Mischung durch zufallsbedingte
Paarung.
148 4 Korrelation und Ursachenrealismus

ten an. Er war dazu in der Lage, ganz unterschiedliche Register zu ziehen
– Register mathematischer, philosophischer und politischer Art – und diese
Kombination war es, die seinem Vorhaben Durchschlagskraft gab. Diese Stärke
fehlte Edgeworth, dessen statistische Innovationen a priori genau so bedeut-
sam waren, wie die Pearsonschen, aber er hatte weder die Qualitäten noch
das Verlangen, als Manager“ tätig zu sein. Pearson studierte vor 1892 (also

vor dem Jahr, in dem er Die Grammatik der Wissenschaft veröffentlichte und
seine Arbeiten über die Weldonschen Daten begann) zunächst Mathematik in
Cambridge und anschließend Geschichte und Philosophie in Deutschland. Er
fühlte sich vom Sozialismus angezogen oder vielmehr von dem, was die Deut-
schen als Kathedersozialismus“ bezeichneten. Gemeint war damit eine Kritik

des traditionellen Bürgertums aus der Sicht der Professoren und Wissenschaft-
ler, nicht aber vom Standpunkt der Volksschichten. Diese Position war – im
Gegensatz zur Haltung der etablierten und konservativen Aristokratie – mit
der Auffassung der französischen Saint-Simonisten vergleichbar und führte zu
einem rationalistischen und militanten Szientismus. Das wiederum ermunterte
dazu, eine größere soziale Macht für die kompetentesten Individuen einzufor-
dern, die durch eine höhere Ausbildung ausgewählt wurden: Die englischen
Professionals mit Abschluß in Cambridge oder Oxford und die französischen
Ingenieure, die aus den Grandes Écoles hervorgegangen waren.
Die Kritik der traditionellen Sitten veranlaßte Pearson, sich aktiv in einem
Men’s and Women’s Club zu engagieren, der für eine Veränderung der sozialen
Rolle der Frauen kämpfte. In diesem Sinne präsentierte Pearson die Eugenik
der 1880er und 1890er Jahre mitunter im Lichte des Feminismus und der
arbeitenden Frauen. Die überdurchschnittliche Fruchtbarkeit der Frauen der
Arbeiterklasse führte zu katastrophalen Lebensbedingungen, verhinderte eine
ordentliche Erziehung der Kinder und lieferte der Bourgeoisie überschüssi-
ge Arbeitskräfte, wodurch die Löhne nach unten gedrückt werden konnten.
Wollten die Frauen dieses Milieus dem Teufelskreis entkommen, dann gab es
nur eine einzige Lösung, nämlich weniger Kinder zu bekommen. Diese Version
war offensichtlich akzeptabler als diejenige, die von Degeneration und vom
Ausschluß der mit Defekten behafteten Personen sprach, aber es ist über-
raschend, daß beide Versionen in Debatten koexistieren konnten, die auch
zur Vorgeschichte des Feminismus und der Bewegung für Geburtenkontrolle
gehörten (Zucker-Rouvillois, 1986, [296]).
Als Pearson mit Weldon zusammentraf und sich auf die Statistik stürz-
te, standen ihm drei Kategorien intellektueller und sozialer Ressourcen zur
Verfügung: die Mathematik, die Wissenschaftsphilosophie sowie ein ideologi-
sches und politisches Netzwerk. Er mobilisierte diese drei Ressourcen nach
und nach und verwendete sie für sein Vorhaben. Das führte ihn 1906 zu ei-
nem bizarren Objekt: zwei kaum voneinander verschiedene Laboratorien – das
eine für Biometrie, das andere für Eugenik (keines der beiden wurde als stati-

stisch“ bezeichnet). Im Jahre 1936 waren hieraus drei Labors hervorgegangen:
das Labor für Angewandte Statistik mit Egon Pearson, das Labor für Eugenik
mit Ronald Fisher und das Labor für Genetik mit Haldane. Karl Pearsons ma-
Fünf Engländer und der neue Kontinent 149

thematischen Fachkenntnisse waren bereits im Jahre 1892 unmittelbar zum


Tragen gekommen und ermöglichten es ihm, sich durchzusetzen. Zu diesem
Zeitpunkt kam tatsächlich nur Edgeworth als Konkurrent in Frage, aber der
war ein reiner Gelehrter und dachte, daß es nur um wissenschaftliche Fragen
ging. Pearson hingegen positionierte sich auf dem Gebiet der Evolutions- und
Vererbungstheorie (wie man aus den Überschriften der oben zitierten Arbeiten
erkennt).
Anfangs stürmte Pearson so ungestüm vorwärts, daß er sein epistemologi-
sches Credo der Grammatik der Wissenschaft fast vergaß und die statistischen
Verteilungen – Normalverteilungen oder sogar asymmetrische Verteilungen21
– auf eine eher realistische Weise à la Quetelet interpretierte. Man erkennt
das anhand der nachfolgend wiedergegebenen ersten Diskussionen, die Pear-
son zwischen 1892 und 1896 mit Weldon und Edgeworth hatte. Aber um diese
Zeit gelang es ihm, den neuen Begriff der Korrelation mit seiner früheren phi-
losophischen Kritik der Kausalität zu verbinden, die auf Mach zurückging.
Das gab der statistischen Rhetorik eine sehr große Autonomie, denn sie konn-
te sich dadurch vom Zwang der Einbeziehung externer Ursachen“ befreien,

das heißt von Fakten, die auf andere Weise konstruiert worden waren. Das für
die Folgezeit entscheidende Ereignis des Zeitraums 1892-1900 war zweifellos
diese Eroberung der Autonomie des statistischen Diskurses, der nicht nur auf
der Mathematik, sondern auch auf einer Erkenntnisphilosophie beruhte, die
in umfassender Weise die Zwänge aufgehoben hatte, mit anderen Diskursen
in Verbindung zu treten. Diese Haltung war natürlich keine direkte Folge der
Machschen Denkweise und deren Interpretation durch Pearson. Dennoch soll-
te diese Auffassung rasch zum üblichen professionellen Verhalten werden: sie
war der Verselbständigung des Statistikerberufes angemessen – mit Univer-
sitätsvorlesungen und Positionen in spezialisierten Ämtern und Institutionen.
Wir werden niemals wissen, was Lucien March, dem Direktor der SGF,
vorschwebte, als er The Grammar of Science, dieses schwere philosophische
Werk, das kaum mit Statistik zu tun hatte, zu einem Zeitpunkt übersetzte,
an dem seine Institution noch ziemlich unbedeutend war und nur über fünf
oder sechs professionelle Statistiker“ verfügte. Wie der Leser jedoch viel-

leicht bemerkt hat, kam die englische Verwaltungsstatistik in der Galton- und
Pearson-Saga so gut wie gar nicht vor. Erst sehr viel später, in den 1930er
Jahren, kam es in den Vereinigten Staaten zu einem Zusammenschluß der Ver-
waltungsstatistiker und der mathematischen Statistiker. Das macht die von
March angefertigte Übersetzung des Pearsonschen Buches nur noch bedeut-
samer, gleichzeitig aber auch rätselhafter. Es ist möglich, daß die Verbindung
zu Pearson durch zwei Faktoren begünstigt wurde: durch das demographi-
sche Interesse Marchs an der Eugenik und durch die Persönlichkeit von Yule,
der eine wesentliche Brücke zwischen der neuen englischen Statistik und den
Wirtschafts- und Sozialwissenschaften verkörperte.
21
Auch schiefe Verteilungen“ genannt.

150 4 Korrelation und Ursachenrealismus

Udny Yule (1871–1951) war der direkte Großvater“ aller Statistiker, die

auf diesem Gebiet arbeiten. Sein Handbuch An Introduction to the Theory of
Statistics (1911, [293]) hatte bis 1950 vierzehn Auflagen (ab 1937 war Kendall
Mitautor) und diente zur Ausbildung mehrerer Generationen von Studenten
der Wirtschaft und der Soziologie. Yule hatte in London Ingenieurwissenschaf-
ten und in Deutschland Physik studiert, bevor er einer der ersten Studenten
von Pearson und 1893 dessen Assistent wurde. Zwar erwies er sich anfangs in
Bezug auf die neuen Techniken der Regression und der Korrelation als treuer
Schüler seines Meisters, aber er wendete diese Techniken auf ganz andere Be-
reiche an und kam dadurch mit anderen Kreisen in Kontakt. Evolutionstheorie
und Eugenik interessierten ihn nicht, aber er wurde 1895 Mitglied der Royal
Statistical Society, der weder Galton noch Pearson angehörten. In dieser 1836
gegründeten Gesellschaft schlossen sich Fachleute zusammen, die Statistiker
im Sinne des 19. Jahrhunderts waren. Es handelte sich dabei um Personen,
die an der Lösung der sozialen und wirtschaftlichen Probleme der Armut und
des öffentlichen Gesundheitswesens beteiligt waren und versuchten, diese Fra-
gen außerhalb hitziger und polemischer Debatten zu behandeln, indem sie die
Probleme mit Hilfe von Statistiken administrativen oder privaten Ursprungs
objektivierten. Diese Amelioristen“ – wie man sie nannte – waren den Kir-

chen, der Philanthropie und den Hygieniker-Bewegungen verbunden und wur-
den oft von den radikalen Eugenikern kritisiert und dahingehend angeklagt,
daß sie den Gang der natürlichen Auslese durch Unterstützung der Mittellose-
sten, das heißt – nach Meinung der Eugeniker – der Untauglichsten behindern
würden. Die Debatte zwischen diesen beiden Strömungen – der hereditaristi-
schen und der environmentalistischen – dauerte von den 1870er Jahren bis in
die 1930er und 1940er Jahre. Pearson gehörte natürlich der hereditaristischen
Strömung an, während Yule dem Environmentalismus näher stand.
Das veranlaßte Yule dazu, die neuen Werkzeuge zu benutzen, um in
die entscheidende politischen Debatte der damaligen Zeit einzugreifen, das
heißt in die Frage nach der Form der Armenunterstützung. Sollte ein der-
artiger Beistand entsprechend den strengen Formen der anstaltsinternen Un-
terstützung (indoor relief ) auf der Grundlage der Fürsorgegesetzgebung (poor
laws) von 1834 gewährt werden – das heißt in geschlossenen Anstalten, den
Arbeitshäusern (workhouses), die Kolonien für sehr schlecht bezahlte Zwangs-
arbeit waren – oder aber im Rahmen einer Fürsorgeunterstützung (outdoor
relief ), das heißt durch eine Wohnbeihilfe, die eher für Familien, Alte und
Kranke bestimmt war. Diese beiden Formen der Beihilfe wurden auf lokaler
Ebene durch die Fürsorgeverbände (poor law unions) garantiert, die in jeder
Grafschaft (county) gegründet wurden. Das Verhältnis von indoor relief und
outdoor relief hat angeblich die Strenge oder die Laxheit widergespiegelt, mit
der die lokalen Fürsorgeverbände verwaltet worden sind. Die politische De-
batte bezog sich auf die Wohnbeihilfe: Trug der Umfang dieser Unterstützung
nicht dazu bei, die Armut auf dem gleichen Stand zu halten, wenn nicht gar zu
vergrößern? Yule verfügte in Bezug auf jeden der 580 Fürsorgeverbände über
mehrere Informationen: Die Gesamtzahl der unterstützten Armen [Fürsorge-
Fünf Engländer und der neue Kontinent 151

unterstützung (outdoor ) plus anstaltsinterne Unterstützung (indoor )] wurde


als Maß für den Pauperismus 22 angenommen, während der relative Anteil
der beiden Formen [Verhältnis anstaltsinterne Unterstützung/Fürsorgeun-

terstützung“] als Indikator für die Laxheit oder die Entschlossenheit der örtli-
chen Fürsorgeverbände galt. Yule berechnete zuerst die Korrelation zwischen
diesen beiden Variablen und danach die Regression der ersten Variablen in
Bezug auf die zweite. Die positive Korrelation (0,388 mit einem wahrscheinli-
chen Fehler von 0,022) führte ihn zur Schlußfolgerung, daß der Pauperismus
abnimmt, wenn die Wohnbeihilfe nicht so leicht gewährt wird. Danach mach-
te er sein Modell komplizierter, indem er (zwischen 1871 und 1891) variati-
onsbezogen argumentierte und weitere explikative“ Variable einbezog: den

Anteil der Alten und die Durchschnittslöhne – entsprechend den Angaben der
Fürsorgeverbände (Yule, 1899 [291] und 1909 [292]).
Zwischen 1895 und 1899 veröffentlichte er fünf Artikel zu dieser Thema-
tik. Beim Lesen dieser Arbeiten hat man den Eindruck, daß sein Anliegen
zunächst darin bestand, die Bedeutung der neuen Werkzeuge nachzuweisen
und ihnen gleichzeitig seinen eigenen Stempel aufzuprägen. Vor allem kommt
das in seinem 1897 erschienen Artikel zum Ausdruck, in dem er – erstmalig
außerhalb des Kontextes der Fehlerrechnung – die Approximation nach der
Methode der kleinsten Quadrate anwendete: er definierte die Regressionsgera-
de als diejenige Gerade, welche die Summe der Quadrate der Beobachtungs-
abweichungen von der approximierten Geraden minimierte, was zuvor weder
Galton noch Pearson getan hatten. Gleichzeitig stellte er auch die Regression
in Bezug auf mehrere Variable vor, denn zur Analyse der Schwankungen des
Pauperismus verwendete er als explikative Variable nicht nur die Schwankung
der Wohnbeihilfe, sondern auch die Schwankung in Bezug auf die Bevölkerung
und den relativen Anteil der Alten (Yule, 1897, [290]). Die Koeffizienten dieser
multiplen Regression wurden von Yule als partielle Regression“ bezeichnet

und er führte auch partielle“ und multiple“ Korrelationen ein. In der Re-
” ”
trospektive waren wohl die Anwendung der Methode der kleinsten Quadrate
und die Formulierung der multiplen Regression die bemerkenswertesten Bei-
träge dieses Artikels. Dennoch gibt der Titel der Arbeit (On the Theory of
Correlation) keinerlei Hinweis auf diese beiden Punkte (wir erinnern daran,
daß der Artikel von Pearson, in dem er 1896 den Begriff des Korrelations-
koeffizienten formulierte, den Titel Regression, Heredity and Panmixia trug.
Ein erstaunlicher Platzwechsel ...). Dagegen hatte Yule das Gefühl, daß sein
(im Vergleich zu Pearson impliziter) Originalbeitrag der Beweis dessen war,
daß es möglich ist, sich von den Normalverteilungshypothesen zu lösen und
eine Punktwolke mit Hilfe einer linearen Regression zu approximieren. Diese
Hypothesen hingen – von Quetelet über Galton bis hin zu Pearson – eng mit
den Vermessungen des menschlichen Körpers zusammen. Die Übersetzung der
dabei verwendeten Werkzeuge war die Voraussetzung dafür, daß sie sich auf
22
Der Pauperismus ist ein Begriff zur Bezeichnung der Massenarmut in der ersten
Hälfte des 19. Jahrhunderts.
152 4 Korrelation und Ursachenrealismus

ökonomische und soziale Daten anwenden ließen, die nur selten normalverteilt
sind. Hier lag der Keim des späteren Konflikts zwischen Yule und Pearson:
es ging genau um die zugrundeliegenden Normalverteilungshypothesen und
allgemeiner um die Beschaffenheit und die Tragweite der neuen, von Yule und
Pearson konstruierten Realitäten.

Kontroversen über den Realismus der Modelle


Im Dezember 1890 wurde Pearson damit beauftragt, an der Universität Lon-
don eine Geometrievorlesung zu halten. Er las über das, was später den Inhalt
seiner Grammatik der Wissenschaft bilden sollte. Die Statistik trat dort le-
diglich in einem Überblick über die verschiedenen Typen von grafischen und
geometrischen Darstellungen auf. Er erwähnte Galton nicht, dessen Werk Na-
tural Inheritance er aber 1889 gelesen hatte und zu dem er sich im Men’s and
Women’s Club skeptisch äußerte. In diesem Club hatte er (im Jahre 1889) die
Frage nach dem Realismus der Anwendung mathematischer Formulierungen
in den deskriptiven Wissenschaften“ aufgeworfen:

Ich denke, daß es sehr gefährlich ist, die Methoden der exakten Wis-
senschaften auf die Probleme der deskriptiven Wissenschaften anzu-
wenden – seien es Probleme der Vererbung oder der politischen Öko-
nomie. Der Zauber und die logische Präzision der Mathematik können
einen beschreibenden Wissenschaftler derart faszinieren, daß er nach
soziologischen Hypothesen sucht, die zu seinen mathematischen Über-
legungen passen – ohne sich vorher zu vergewissern, ob die Basis seiner
Hypothesen ebenso umfassend ist wie das menschliche Leben, auf das
die Theorie angewendet werden soll. (Pearson, 11. März 1889, Stel-
lungnahme im Men’s and Women’s Club, zitiert von Stigler.)
Beim Lesen dieses Textes versteht man besser, welche Arbeit Pearson
später noch bevorstand, um seine Wissenschaftsphilosophie mit seinen ma-
thematischen Konstruktionen zu verbinden – eine Arbeit, die ihn zum Begriff
der Kontingenz und zur Ablehnung der Kausalität führte. Er begann seine
Laufbahn 1892 mit einer Attacke auf die von Weldon durchgeführten Vermes-
sungen von Krabben und Garnelen. Ausgehend vom Standpunkt Quetelets
und Galtons untersuchte er die Verteilungen und insbesondere, ob es sich
um Normalverteilungen handelte. Er beobachtete dabei starke Asymmetrien
und stürzte sich auf die mathematische Zerlegung dieser schiefen“ Kurven in

zwei oder mehr Normalverteilungen. Pearsons Problem ähnelte dem Problem,
das Adolphe Bertillon mit der zweigipfligen Verteilung der Körpergrößen der
Rekruten von Doubs hatte. Jedoch suchte Pearson nach einer – notwendiger-
weise sehr komplizierten – mathematischen Darstellung, die eine bestmögliche
Anpassung an die Beobachtungen liefert (exakt in Bezug auf eine derartige
Möglichkeit hatte er sich drei Jahre zuvor mißtrauisch geäußert). Hierzu be-
rechnete er – zur Parameterschätzung dieser komplizierten Verteilungen, in
Kontroversen über den Realismus der Modelle 153

denen mehrere Normalverteilungen miteinander verschmolzen waren – die so-


genannten Momente aufeinanderfolgender Ordnungen (bis zur Ordnung vier
oder fünf) der beobachteten Verteilungen über den Mittelwert (Moment der
Ordnung eins) und über die Varianz (Moment der Ordnung zwei) hinaus.
Diese Momentmethode“ zum Auffinden von Anpassungen an schiefe Ver-

teilungen war seine erste große Arbeit auf dem Gebiet der mathematischen
Statistik. Die Methode wurde in seinem Labor über einen Zeitraum von etwa
zwanzig Jahren verwendet.
Gegenüber dieser Arbeit konnten Einwände von seiten derjenigen wenigen
Kollegen nicht ausbleiben, die überhaupt dazu in der Lage waren, die Arbeit
zu lesen: Galton, Weldon und Edgeworth. Sie kritisierten Pearson, ähnlich wie
dieser drei Jahre zuvor Galton in Bezug auf den Realismus seiner Modellbil-
dung kritisiert hatte. Darüber hinaus warfen sie eine Frage von allgemeiner
Tragweite auf: Wie soll man das berücksichtigen, was bereits anderweitig be-
kannt war – beispielsweise zur Elimination möglicher abweichender Beobach-
tungen? Pearson hatte sich energisch geweigert, so etwas zu tun. Ungeachtet
aller gegenteiligen Äußerungen Pearsons schien sich seine anfängliche Metho-
de auf der Linie Quetelets zu befinden, für den eine Normalverteilung die
Bestätigung einer tieferliegenden Homogenität und einer konstanten Ursache
war. Pearson schien mit den Zerlegungen seiner schiefen Kurven“ nach meh-

reren konstanten Ursachen zu suchen, die durch diese Zerlegungen bestätigt
würden. Galton stellte jedoch im Verlauf der Diskussion die Frage, was man
mit denjenigen wenigen Dingen tun solle, die bereits bekannt waren:

Das Häufigkeitsgesetz beruht auf der Hypothese einer totalen Un-


kenntnis der Ursachen; aber nur selten sind wir gänzlich unwissend,
und dort, wo wir etwas wissen, sollte das natürlich berücksichtigt wer-
den. Ihre graphischen Darstellungen sind interessant, aber haben Sie
auch den Ursprung Ihrer Formeln und die Rechtfertigung für deren
Anwendung gefunden, oder handelt es sich bei diesen Formeln um ein-
fache approximative Koinzidenzen? Die geschätzten Mittelwerte für
die Farben müssen anderen physiologischen Prozessen entsprechen,
aber welchen? Was ist das gemeinsame Merkmal ihrer Ursache? Über-
all dort, wo die Normalverteilung nicht angewendet werden kann, ist
es sehr wahrscheinlich, daß große und dominante Ursachen irgend-
welcher Art ins Spiel kommen müssen. Jede dieser Ursachen ist zu
isolieren und gesondert zu diskutieren; darüber hinaus muß das auf
die jeweilige Ursache zutreffende Häufigkeitsgesetz bewiesen werden.
(17. Juni 1894). (Galton, zitiert von Stigler.)
Zwar war Weldon ziemlich stark in das Unternehmen eingebunden. Aber
die Flut der Formeln erschreckte ihn und er hatte das Gefühl, daß ihm sein
Wissen als Biologe entzogen wird. Er fragte sich, ob er Pearson vertrauen
könne, dessen nichtmathematische Überlegungen ihm wenig streng zu sein
schienen. Er schrieb an Galton:
154 4 Korrelation und Ursachenrealismus

Wenn Pearson aus seiner Wolke von mathematischen Symbolen auf-


taucht, dann scheint mir seine Argumentation auf wackligen Füßen zu
stehen und er macht sich wohl kaum die Mühe, seine eigenen Daten zu
verstehen ... Ich vertraue nicht einmal darauf, daß er ein klarer Denker
ist, wenn er ohne Symbole schreibt. Kann ich ihm denn dann impli-
zit dieses Vertrauen schenken, wenn er sich hinter einer Tabelle der
Gammafunktionen verbirgt? (11. Februar 1895). Je mehr ich über die
Pearsonsche Theorie der asymmetrischen Schwankungen nachdenke,
desto weniger Gewißheit habe ich, daß es sich dabei um reale Dinge
handelt (3. März 1895).
Ich fürchte mich sehr vor reinen Mathematikern, die keine experimen-
telle Ausbildung hatten. Schauen Sie sich Pearson an. Er spricht von
der Kurve der Frontalbreiten“, als ob es sich um eine unschöne Ap-

proximation der Normalverteilung handle. Ich sage ihm, daß ich einige
signifikanten Ursachen kenne (Verwerfung und Regeneration), mit de-
nen sich anormale Beobachtungen erklären lassen. Ich lege ihm den
Gedanken nahe, daß diese Beobachtungen – aufgrund der Existenz der
besagten Ausnahmeursachen – nicht den gleichen Wert haben wie die
Masse der übrigen Beobachtungen und daß sie deswegen ausgeklam-
mert werden müssen. Er antwortet, daß die Häufigkeitskurve, welche
die Beobachtungen darstellt, als rein geometrische Kurve aufzufassen
ist, deren sämtliche Eigenschaften von gleicher Wichtigkeit sind. Für
ihn verhält es sich so: weisen die beiden Enden“ der Verteilung bei

nur einem Dutzend Beobachtungen eine Besonderheit in Bezug auf
ihre Eigenschaften auf, dann ist diese Besonderheit genauso wichtig,
wie jede andere Eigenschaft der Figur ... Aus diesem Grund hat er
eine seiner schiefen Kurven an meine Frontalbreiten“ angepaßt. Die-

se Kurve paßt sich an ein Dutzend extremer Beobachtungen besser
an, als es die Normalkurve tun würde; aber für den Rest der Kurve,
der 90% der Beobachtungen ausmacht, ist die Anpassung schlechter.
Dinge dieser Art passieren andauernd bei Pearson und bei beliebigen
anderen reinen Mathematikern (6. März 1895.) (Weldon, Briefe an
Galton.)
Diese Briefe, die Stigler in den Galton-Archiven ausgegraben hatte, sind
aufschlußreich: wir sehen hier, wie Weldon – dessen Rolle als Vermittler zwi-
schen Galton und Pearson für die Folgezeit wesentlich war – seine Besorgnis
über die Starrheit und das Selbstvertrauen eines Mathematikers zum Aus-
druck bringt, den er in den Schafstall der Biologen geführt hatte: Aber was

weiß er denn schon von meinen Daten?“ Dennoch reichten diese Befürchtun-
gen nicht aus, um die Zusammenarbeit der beiden zu unterbrechen, die bis
zum Tode von Weldon im Jahre 1906 eng blieb.
Mit Edgeworth verhielt sich die Sache anders, denn sein Alter, Charak-
ter und seine Hauptinteressen hielten ihn in größerer Distanz zu Pearson und
zu dessen mit Reklametrommeln geführten Unternehmen. Tatsächlich waren
Kontroversen über den Realismus der Modelle 155

die beiden zwischen 1893 und 1895 Konkurrenten, als sie die schiefen Kurven
untersuchten, die sich auf der Grundlage der Weldonschen Daten ergaben.
Edgeworth schrieb 1894 einen Artikel über das Thema, aber die Publikation
der Arbeit wurde abgelehnt und er hatte den Verdacht, daß Pearson dabei
seine Hand im Spiel hatte – dafür gibt es jedoch keine Beweise (Stigler, 1978,
[266]). Im Grunde genommen polemisierten beide über die Bedeutung der
Normalverteilungen, die Pearson für denjenigen Sachverhalt hielt, der hinter
den schiefen Kurven stand. Für Edgeworth war jedoch der Zusammenhang
zwischen Normalverteilungen und schiefen Kurven zu zerbrechlich, um als
Argument zu dienen. Die Kurven waren nichts anderes, als empirische Ad-
hoc-Konstruktionen. Sie konnten nicht dazu verwendet werden, um auf eine
Homogenität zu schließen. Paßten die Kurven gut zu den Daten, dann be-

steht die Frage darin, welches Gewicht jemand dieser Korrespondenz geben
sollte, der keinen theoretischen Grund für diese Formeln sah.“ Hingegen war
es notwendig, Homogenitätshypothesen aufzustellen, die auf Kenntnissen aus
anderen Quellen beruhten. Folglich schrieb Edgeworth seinem Konkurrenten
eine Art antiquierten Queteletismus“ zu.

Aber Pearson, der möglicherweise sensibel auf diese Kritik reagierte, war
damit befaßt, seine antirealistische Erkenntnisphilosophie Schritt für Schritt
in die Interpretation der Statistik einzuarbeiten. Das gab ihm die Möglichkeit,
sich auf elegante Weise den von Weldon und Edgeworth aufgeworfenen Fragen
zu entziehen. Wenn es keine äußere Ursache“ für statistische Konstruktionen

gibt, und wenn die mathematischen Formeln lediglich mentale Stenographien
sind, dann wird alles möglich. Insbesondere wurde die Frage des Zusammen-
hangs zu anderen Wissensgebieten (die Weldonschen Verwerfungen und Re-

generationen“) nicht mehr in dem Maße als restriktiv empfunden. Pearson
war gewiß weniger dogmatisch, und sei es nur, um Verbindungen zu Univer-
sen herzustellen und zu pflegen, die vom seinigen verschieden waren – aber
seine Argumentationsweise gewährte ihm eine fast unangreifbare Rückzugs-
position im Falle von Einwänden gegen den Realismus seiner Objekte. Auf die
Kritik von Edgeworth, daß er – Pearson – aus einer guten Anpassung auf das
Vorhandensein einer Normalverteilung und die Existenz einer einfachen er-
klärenden Ursache geschlossen hätte, antwortete er: Es geht nicht darum, zu

wissen, ob es sich dabei wirklich um die Bestandteile handelt, sondern darum,
ob ihre Gesamtwirkung so einfach beschrieben werden kann.“
Die Bedeutung dieser Formulierung besteht darin, daß sie es ermöglicht, in
Abhängigkeit von den Gesprächspartnern und den Situationen fast unbewußt
von einem Register zum anderen zu gleiten. In gewissen Fällen existieren die
Dinge, weil andere Personen diese Dinge benötigen und weil die Betreffenden
mit Dingen beliefert werden möchten, die wirklich da sind und einen Zusam-
menhalt aufweisen. In anderen Fällen – zum Beispiel in Reaktion auf Kritiken
am hypothetischen und konstruierten Charakter der Dinge – kann man die
betreffenden Dinge als mentale Stenographien oder praktische Konventionen
bezeichnen. Diese ständige Verlagerung ist weder ein Betrug noch hat sie mit
Verschlagenheit zu tun. Beide Haltungen sind für das soziale Leben gleicher-
156 4 Korrelation und Ursachenrealismus

maßen kohärent und notwendig. Man muß sich dieser Tatsache nur bewußt
sein und darf sich nicht auf eine der Haltungen zurückziehen und diese als
einzig richtige Erkenntnisphilosophie ausgeben. Jede dieser Haltungen ist von
der jeweiligen Situation abhängig. Zu gewissen Zeiten ist es besser, Realist
zu sein. Zu anderen Zeiten wiederum kann uns ein Schuß Nominalismus bei
der Wiederentdeckung von Dingen helfen, die seit langem in umfassenderen
Dingen eingekapselt“ sind, welche ihrerseits den gesamten Schauplatz ein-

nehmen.
Um die Jahrhundertwende entstand aus der Allianz von Biologen und Ma-
thematikern eine ausgeprägt mathematisch zugeschnittene Statistik, die zur
Biometrie führte. Später folgten weitere Allianzen. Yule hatte bereits damit
begonnen, den Regressions- und den Korrelationskalkül auf die Ökonomie zu
übertragen – dort schufen Irving Fisher und Ragnar Frisch dreißig Jahre später
die Ökonometrie. Spearman, ein Psychologe, vereinheitlichte die Ergebnisse
und die Interpretationen von Intelligenztests mit Hilfe der Faktorenanalyse,
einer statistischen Technik, die sich aus den Techniken der Biometrielabors
ableitete. Auf diese Weise entwickelte er die Psychometrie. In beiden Fällen
sollten die erschaffenen und verwendeten Objekte in der Folgezeit wieder in-
frage gestellt werden – die Yuleschen Objekte wurden von Pearson selbst,
die Spearmanschen Objekte von Thurstone und in der Folgezeit von vielen
anderen infrage gestellt.

Yule und der Realismus der administrativen Kategorien

Yule erfand schon bei seiner ersten Anwendung der neuen Werkzeuge im Jah-
re 1895 eine Sprache, um die damals brennenden Fragen zu behandeln, bei
denen es um Armut und Fürsorge ging. Er verglich die relativen Gewichte der
verschiedenen möglichen Ursachen der Schwankungen des Pauperismus, um
denjenigen Personen Anhaltspunkte zu liefern, die an einer Reform der aus
dem Jahre 1834 stammenden Fürsorgegesetzgebung (poor laws) arbeiteten. Er
legte ein elaboriertes Beispiel der Übersetzung eines politischen Problems und
dessen Bearbeitung mit Hilfe eines Meßinstruments vor, das es ermöglichte,
eine Kontroverse zu schlichten. Die angeschnittene Frage hatte den englischen
Gesetzgebern seit drei Jahrhunderten keine Ruhe gelassen: Wie kann man die
Armen auf ökonomisch rationelle Weise so unterstützen, daß die von ihnen aus-
gehende soziale Gefahr gebannt wird? In der Geschichte Englands kann man
verschiedene Fürsorgegesetzgebungen hervorheben. Ein solches Gesetz wurde
1601 verabschiedet, eine weitere Verfahrensweise war die Speenhamland Act
of Parliament 23 und schließlich ist das Gesetz von 1834 zu nennen, das die
23
Im Jahre 1775 kam eine Gruppe von Friedensrichtern, also Männer der Herren-
klasse, in Speenhamland (Berkshire) zusammen und beschloß, die Differenz zwi-
schen den fürs erste gleichbleibenden Löhnen und den erhöhten Brotpreisen aus
der Armenkasse auszugleichen. Damit wälzten sie ihre eigenen Lasten auf die
Yule und der Realismus der administrativen Kategorien 157

Gründung von Arbeitshäusern (workhouses) beschloß und zwischen anstalts-


interner Unterstützung (indoor relief ) und Fürsorgeunterstützung (outdoor
relief ) unterschied. Die Debatten über dieses Gesetz bündelten im gesamten
19. Jahrhundert die Überlegungen der Philosophen, Statistiker und Ökonomen
(Polanyi, 1983, [234]). In den 1880er Jahren führte Charles Booth Untersu-
chungen mit dem Ziel durch, die Armen zu klassifizieren und zu zählen. Galton
verwendete diese Untersuchungen, um seine Eignungsskala aufzustellen.
Aber die einzigen regelmäßigen Informationen über die Entwicklung des
Pauperismus kamen von den Verwaltungsstatistiken der Fürsorgeverbände,
die zwischen den Fürsorgeunterstützungen und den anstaltsinternen Un-
terstützungen unterschieden. In den damaligen Diskussionen wurde der Pau-

perismus“ als ein meßbares Ding betrachtet. Diese meßbare Größe war die An-
zahl derjenigen Personen, die in Anwendung der Fürsorgegesetzgebung eine
Unterstützung erhielten – ebenso wie man heute die Arbeitslosigkeit durch die
Anzahl derjenigen Personen mißt, die bei den Arbeitsämtern gemeldet sind.
Das betreffende Objekt existiert dank seiner sozialen Kodierung durch die
Vergegenständlichung der Ergebnisse eines administrativen Verfahrens, dessen
Modalitäten Schwankungen unterworfen sind. Die Verlagerung vom Verfahren
auf das Ding ist es nun, was die Interpretation der Yuleschen Schlußfolgerung
so schwierig macht. Die Schlußfolgerung, die sich auf Korrelationen von Mes-
sungen im Rahmen ein und desselben Verfahrens bezieht, läßt sich entweder
als arithmetische Tatsache interpretieren oder aber als Information über die
Auswirkungen der Sozialpolitik.
Yule untersuchte für den Zeitraum von 1850 bis 1890 drei statistische Rei-
hen. Die erste Reihe enthielt die Gesamtzahl der unterstützten Personen; die
zweite Reihe umfaßte die Anzahlen derjenigen Personen, die eine Fürsorgeun-
terstützung (outdoor relief ) erhielten, und die dritte Reihe bestand aus den
Anzahlen der Personen, die eine anstaltsinterne Unterstützung (indoor relief )
erhielten. Die ersten beiden Reihen korrelierten stark – insbesondere zeigte
sich zwischen 1871 und 1881 ein deutlicher Rückgang, während die dritte Rei-
he (workhouse) mit den ersten beiden kaum einen Zusammenhang aufwies.
Die gleiche Korrelation wurde für das Jahr 1891 bei den 580 lokalen Fürsor-
geverbänden der Grafschaften festgestellt. Wichtig war die Tatsache, daß die
Politik der Fürsorgeunterstützung – insbesondere zwischen 1871 und 1881 –
sehr viel restriktiver geworden war und daß der Pauperismus“ zurückging,

denn die durch das Arbeitshaus (workhouse) gewährte Unterstützung war
viel weniger variabel. Das sieht a priori so aus, wie eine arithmetische Selbst-
Schultern der Steuerträger, also auch der kleinen Landbesitzer, die keine Lohnar-
beiter beschäftigten. Das Verfahren von Speenhamland machte bald Schule und
verbreitete sich über alle südenglischen Grafschaften bis weit nach Mitteleng-
land hinein, so daß man bald von einer Speenhamland Act of Parliament sprach,
ohne daß jemals ein solches Gesetz zustandegekommen wäre. Die Gesetzgebung
bestätigte das Vorgehen der Friedensrichter nur, indem eine Akte von 1796 aus-
drücklich erlaubte, auch solchen Armen Unterstützung zu reichen, die nicht im
Armenhaus wohnten.
158 4 Korrelation und Ursachenrealismus

verständlichkeit. Aber die von Yule aufgeworfene Frage war weitaus komple-
xer: Welcher Anteil des Rückgangs des Pauperismus ist auf administrative
Änderungen der Fürsorgeverwaltung zurückzuführen, und welcher Anteil auf
andere Ursachen, zum Beispiel auf Änderungen der Gesamtbevölkerungszahl
oder der Altersstruktur? Er berechnete die multiple lineare Regression der
Änderung der Pauperismusquote (in jeder Grafschaft) im Vergleich zu den
Änderungen der drei als explikativ“ vorausgesetzten Variablen: Fürsorgeun-

terstützung, Gesamtbevölkerungszahl der Grafschaft und Anteil der Alten in
den betreffenden Grafschaften. Er schloß die erste jemals durchgeführte öko-

nometrische“ Untersuchung mit folgenden Worten.

Die Änderungen der Pauperismusquote zeigen immer eine markan-


te Korrelation zu den Änderungen der Fürsorgeunterstützung, wo-
hingegen die Korrelation zur Bevölkerungsänderung oder zum An-
teil der Alten ziemlich gering ist. Die Änderungen der Fürsorge-
unterstützung korrelieren überhaupt nicht mit den Änderungen der
Bevölkerungszahl und den Änderungen des Anteils der Alten. Es er-
scheint unmöglich, den überwiegenden Anteil der Korrelation zwi-
schen den Änderungen des Pauperismus und den Änderungen der
Fürsorgeunterstützung einer anderen Ursache zuzuschreiben, als dem
direkten Einfluß der Änderung der Politik auf die Änderung der Pau-
perismus – wobei die Änderung der Politik nicht auf externe Ursachen
wie Bevölkerungswachstum oder ökonomische Veränderungen zurück-
zuführen ist.
Setzt man eine derartige direkte Beziehung voraus, dann hat es den
Anschein, daß etwa fünf Achtel des Rückgangs des Pauperismus zwi-
schen 1871 und 1881 auf eine Änderung der Politik zurückzuführen
ist. Der leichtere Rückgang, der zwischen 1881 und 1891 beobachtet
wurde, läßt sich nicht auf diese Weise erklären, denn die Politik hatte
sich in dieser Zeit kaum geändert. In beiden Jahrzehnten gab es signifi-
kante Änderungen des Pauperismus, die sich nicht durch Änderungen
der Fürsorgeunterstützung, der Bevölkerungszahl oder des Anteils der
Alten erklären lassen. Bei diesen nicht erklärten Änderungen handelt
es sich um Rückgänge bei den ländlicheren Gruppen und um Zunah-
men bei den städtischen Gruppen in diesen beiden Jahrzehnten. Diese
Änderungen haben das gleiche Vorzeichen und die gleiche Größenord-
nung wie die Änderungen bei der anstaltsinternen Unterstützung und
sind wahrscheinlich auf soziale, wirtschaftliche oder moralische Fakto-
ren zurückzuführen. (Yule, 1899, [291]).

Weder in der Darstellung von Yule noch in den sich anschließenden Kom-
mentaren wurde die Bedeutung des Objekts Pauperismus“, das durch die

Anzahl der unterstützten Personen definiert war, explizit diskutiert. Nun führ-
te aber der von Yule vorgelegte Beweis exakt zu einer Infragestellung dieser
Bedeutung, denn die erklärende Hauptvariable, das heißt der Rückgang der
Yule und der Realismus der administrativen Kategorien 159

Fürsorgeunterstützung, wurde als Politikänderung bezeichnet. Yule präzisier-


te sogar, daß die fünf Achtel des Rückgangs des Pauperismus hierauf – das
heißt auf Änderungen in der Politik – zurückzuführen waren, während der
Rest mit Ursachen zusammenhing, die der Gesellschaft zuzuordnen waren,
und nicht der Art und Weise der Registrierung. Alles spielte sich so ab, als
ob jeder verstanden hätte, daß diese Untersuchung folgendes bedeutete: Die
Schwankungen des auf diese Weise gemessenen Pauperismus spiegeln ledig-
lich einen Teil der Schwankungen einer möglichen realen Armut“ wider, die

jedoch von niemandem explizit erwähnt wurde. War das selbstverständlich?
War es überflüssig, über etwas zu sprechen, das jeder verstanden hatte? Am
Ende der Versammlung der Royal Statistical Society ergriffen zwei Ökono-
men das Wort: Robert Giffen und Francis Edgeworth. Für Giffen waren die
Ergebnisse von Yule
... eine Bestätigung dafür, daß die administrativen Maßnahmen der
für die Fürsorgegesetzgebung zuständigen örtlichen Behörden einiges
dazu beigetragen hatten, den Pauperismus in den vergangenen dreis-
sig Jahren zu senken ... Die Spezialisten dieser Administration hatten
bereits bemerkt, daß man unmittelbar nach Verschärfung der Voraus-
setzungen für den Erhalt einer Fürsorgeunterstützung einen Rückgang
des Pauperismus feststellen konnte. (Giffen, zitiert von Yule, 1899,
[291].)
Edgeworth bemerkte, daß manche Leute glaubten, aus einer in Irland be-
obachteten starken Zunahme des Pauperismus die Schlußfolgerung ziehen zu
können, daß dieses Land auch einen entsprechenden Rückgang seines wirt-
schaftlichen Wohls erfahren hat. Hätten sie aber die Arbeit von Yule gelesen,
dann hätten sie sich auch gefragt, ob denn nicht administrative Änderungen

einen Großteil dieser Zunahme des Pauperismus erklären könnten“. (Edge-
worth machte sich auch Gedanken darüber, ob es sich bei den Verteilungen
der verschiedenen Quoten, die bei den Berechnungen verwendet wurden, um
Normalverteilungen handelte.)
Yule, Giffen und Edgeworth hatten also verstanden, daß die Schwankun-
gen des Pauperismus etwas mit der Art und Weise zu tun hatten, in der
dieser registriert und verwaltet wurde. Keiner der drei ging jedoch so weit,
die tatsächliche Verwendung des Wortes Pauperismus zur Bezeichnung die-
ser administrativen Aufzeichnung infrage zu stellen. So könnte der erste Satz
von Giffen folgendermaßen gelesen werden: Die Maßnahme der Administra-

tion hat mit Erfolg dazu geführt, die Armut zu verringern“, aber schon im
nächsten Satz traten Zweifel auf. Natürlich ist es eine klassische Beobach-
tung, die Vergegenständlichung eines Kodierungsverfahrens festzustellen, das
– unabhängig von diesem Anfangsmoment – zur Schaffung eines an sich exi-
stierenden Dings führt: Beispiele hierfür sind die Kriminalität und die Ar-
beitslosigkeit. Die Schwankungen dieser Dinge“ sind dann mehrdeutig. Die

häufigste Interpretation besteht darin, die Schwankungen als Widerspiegelung
der sozialen Phänomene zu deuten. Aber die Schwankungen lassen sich auch
160 4 Korrelation und Ursachenrealismus

als Änderungen im Verhalten der Politik oder der Arbeitsvermittlungsbehörde


auffassen. Die frühe ökonometrische Untersuchung von Yule ist deswegen wert-
voll, weil sie sich exakt auf diesen Punkt bezieht, obgleich sie nicht so weit
geht, die entsprechende logische Schlußfolgerung zu ziehen. Diese Schlußfol-
gerung hätte darin bestanden, die Konstruktion der im Modell tatsächlich
verwendeten Äquivalenzklasse, das heißt den Pauperismus, infrage zu stellen.
Wie es sich herausstellte, stand diese Frage nach der Bedeutung und Rea-
lität der Klassen im Mittelpunkt einer Polemik, die Pearson in den Jahren
zwischen 1900 und 1914 gegen Yule so sehr aufbrachte, daß ihre Beziehun-
gen darunter litten (Mac Kenzie, 1981, [183]). Die Debatte drehte sich um
einen scheinbar technischen Punkt: Wie mißt man die Stärke der Verbindung
oder Korrelation“ zwischen zwei Variablen, wenn diese Variablen nicht auf

einer stetigen Skala gemessen werden, sondern es sich vielmehr um Klassi-
fizierungen in diskreten Kategorien oder um diskrete Variable handelt. Der
einfachste Fall ist das Kreuzen“ von zwei Merkmalen mit zwei Ausprägun-

gen, das heißt eine Tabelle mit 2 × 2 = 4 Feldern ( Vierfeldertafel“), zum

Beispiel die Anzahl der am Ende eines Jahres überlebenden oder verstorbe-
nen Personen, die gegen Pocken geimpft oder nicht geimpft worden waren.
Dieser Fall tritt in den Humanwissenschaften üblicherweise auf, in denen man
Populationen in Kategorien sortiert, die als klarerweise diskrete Äquivalenz-
klassen behandelt werden: Geschlecht, Familienstand, Nationalität, Tätigkeit
oder Untätigkeit. In seiner vorhergehenden Untersuchung klassifizierte Yule
die Personen von dem Standpunkt aus, ob sie Unterstützung erhielten oder
nicht, ob es sich um Fürsorgeunterstützung (outdoor relief ) oder anstaltsinter-
ne Unterstützung (indoor relief ) handelte und ob die betreffenden Personen in
der Stadt oder auf dem Lande lebten. Pearson dagegen arbeitete im Rahmen
der Biometrie über stetige physikalische oder nichtphysikalische Messungen,
die typischerweise normalverteilt waren. Falls die Variablen nicht stetig waren,
dann bestand seine Reaktion darin, die beobachteten Häufigkeiten der Katego-
rien zu verwenden, um diese – unter der Voraussetzung einer Normalverteilung
– auf einer stetigen Skala zu kalibrieren. Das hatte Galton bereits in den 1880er
Jahren getan, als er die Kategorien von Charles Booth verwendete. Darüber
hinaus war die Korrelationstheorie auf der Grundlage der zweidimensionalen
Normalverteilung entwickelt worden, wobei die Regressionskoeffizienten und
die Korrelationskoeffizienten als deren Parameter auftraten.
Hieraus leiteten sich die verschiedenen Messungen der Korrelation einer
Tafel ab, in der sich diskrete Variable kreuzen – vor allem ging es um Vier-
feldertafeln. Yule hatte keinen Grund zu der Annahme, daß seine Kategorien
latente stetige und normalverteilte Variable widerspiegelten. Er schlug einen
leicht zu berechnenden Indikator vor. Enthält die Tafel in der ersten Zeile die
beiden Zahlen a und b und in der zweiten Zeile die Zahlen c und d, dann wird
die Stärke des Zusammenhangs durch Q = (ad−bc)/(ad+bc) gemessen. Dieser
Ausdruck besaß mehrere Eigenschaften, die man von einem Zusammenhangs-
koeffizienten erwarten konnte: den Wert +1 für den Fall einer vollständigen
positiven Abhängigkeit, den Wert 0 für die Unabhängigkeit und den Wert −1
Yule und der Realismus der administrativen Kategorien 161

für den Fall einer vollständigen negativen Abhängigkeit. (Dennoch hat der In-
dikator den Nachteil, daß er den Wert +1 bzw. −1 annimmt, wenn nur eines
der vier Felder gleich Null ist, was schwerlich als vollständige Abhängigkeit
betrachtet werden kann.) Pearson dagegen empfand nur Verachtung für diesen
Ausdruck, der willkürlich war und sich durch nichts begründen ließ. Im Übri-
gen könne der Ausdruck durch Q3 oder Q5 ersetzt werden und würde dann
die gleichen erforderlichen Eigenschaften besitzen. Um den Zusammenhang
auf eine ihm eindeutig erscheinende Weise zu messen, konstruierte er eine
zweidimensionale Normalverteilung, deren Randverteilungen sich an die bei-
den beobachteten Randverteilungen anpaßten. Er bewies, daß es genau eine
derartige Verteilung gibt und daß einer der dabei auftretenden Parameter die
gewünschte Korrelation liefert; Pearson verwendete hierfür die Bezeichnung
tetrachorischer Korrelationskoeffizient“.

Dieser Streit sorgte unter den Mitarbeitern des Biometrielabors für Unru-
he und sie lieferten sich bissige Artikel, die im Journal of the Royal Statistical
Society (eher das Lager von Yule) und in der von Pearson gegründeten Zeit-
schrift Biometrika veröffentlicht wurden. Die Auseinandersetzung wurde von
Mac Kenzie eingehend analysiert, der die unterschiedlichen rhetorischen und
sozialen Strategien der betreffenden Autoren erläuterte und nachwies, daß
jeder an seiner eigenen Methode festhielt und Schwierigkeiten hatte, die Me-
thoden der anderen zu verstehen. Yule attackierte die nutzlosen und nicht

verifizierbaren“ Normalverteilungshypothesen. Er griff den Fall der Tafel auf,
in der die Wirkungen der Impfungen beschrieben wurden und wies nach, daß
sich in diesem Fall die Äquivalenzkonventionen schwerlich bestreiten lassen:
... alle diejenigen, die an Pocken gestorben sind, sind gleichermaßen
tot; keiner ist toter oder weniger tot als der andere und die Toten
unterscheiden sich vollkommen von den Lebenden ... In diesen Fällen
gibt uns der Normalverteilungskoeffizient“ bestenfalls eine hypothe-

tische Korrelation zwischen den vorgeblichen Variablen (Yule (1911),
zitiert von Mac Kenzie, 1981, [183]).
Aber Pearson erwiderte, daß Yule seine Kategorien vergegenständlicht ha-
be und daß es selten der Fall sei, daß sich die Kategorien so klar voneinander
abgrenzen. Pearson klagte Yule des Realismus“ im mittelalterlichen Sinne

an und ging in seiner Behauptung so weit, daß der Unterschied zwischen Le-
ben und Tod im Grund genommen kontinuierlich verläuft ( Man stirbt nicht

plötzlich“ 24 ):
Unter Klassenindizes wie Tod“ oder Genesung“ oder Anstellung“
” ” ”
oder Arbeitslosigkeit“ der Mutter sehen wir nur Messungen steti-

24
Der Mensch ist so beschaffen, daß er sich stets für das interessiert, was morgen
geschehen wird, nicht erst in tausend Jahren. Doch gerade die langsam wirkenden
Kräfte pflegen auch die schicksalsträchtigsten zu sein. Die meisten Menschen ster-
ben nicht eines plötzlichen Todes, sondern weil sie langsam und fast unmerklich
gealtert sind.
162 4 Korrelation und Ursachenrealismus

ger Variabler, die selbstverständlich nicht notwendigerweise a priori


Gaußsch sind ... Die Kontroverse zwischen uns liegt viel tiefer, als es
ein oberflächlicher Leser auf den ersten Blick vermuten würde. Es ist
die alte Kontroverse zwischen Nominalismus und Realismus. Mr. Yule
jongliert mit den Klassenbezeichnungen, als ob sie reale Entitäten dar-
stellen würden und seine Statistik ist nur eine Form der symbolischen
Logik. In keinem Falle haben diese Logiktheorien zu irgendeinem prak-
tischen Wissen geführt. Es mag sein, daß diese Theorien als Übungen
ein praktisches Interesse für Studenten der Logik haben, aber die mo-
derne statistische Praxis wird einen großen Schaden davontragen, falls
sich die Methoden von Mr. Yule ausbreiten – Methoden also, die darin
bestehen, alle diejenigen Individuen als identisch anzusehen, die unter
ein und demselben Klassenindex auftreten. Es kann schon passieren,
daß diese Methoden um sich greifen, denn es ist leicht, dem Weg von
Mr. Yule zu folgen und die Mehrzahl der Leute versucht, Schwierig-
keiten aus dem Weg zu gehen. (Pearson und Heron, 1913, [225].)

Den von Yule aufgestellten Äquivalenz- und Diskretheitskonventionen


bezüglich der Klassen stellte Pearson die Stetigkeits- und Normalverteilungs-
konventionen gegenüber: der Realistischere der beiden kann nicht Yule ge-
wesen sein. Pearson klagte Yule an, daß dieser mit Klassenbezeichnungen

jongliere, als ob sie reale Entitäten darstellten“ und daß er diejenigen In-

dividuen als identisch behandele, die unter ein und demselben Klassenindex
auftreten“. Mit dieser Anklage warf Pearson das Problem auf, das uns hier
beschäftigt. Aber Pearson tat das nicht, weil er sich für das eigentliche Klassi-
fizierungsverfahren als administrativer Kodierungstätigkeit interessierte. Viel-
mehr wollte er dieses durch eine andere Klassifizierungsform ersetzen, die ihm
natürlicher erschien: Stetigkeit gemäß Normalverteilungen oder wenigstens auf
der Grundlage von Verteilungen, die sich durch möglichst einfache mathema-
tische Gesetze approximieren lassen. Der Begriff Äquivalenzklasse, die ihre
Elemente per Konvention als identisch behandelt, war in der juristischen und
administrativen Praxis allgegenwärtig – und zwar mit der doppelten Absicht,
die Verfahren gerecht und ökonomisch abzuwickeln. Aber diese Imperative wa-
ren für einen Biologen nicht ebenso zwingend. Das erklärt, warum sich Yule
und Pearson zweier derart verschiedener statistischer Rhetoriken bedienten.

Epilog zur Psychometrie:


Spearman und die allgemeine Intelligenz

Die Diskussion über die Realität der von der Statistik geschaffenen Objek-
te wiederholte sich in fast identischer Weise – gleichsam wie ein Stottern der
Geschichte – zwischen 1904 und den 1950er Jahren in Bezug auf die Interpreta-
tion der in der Psychometrie durchgeführten Faktorenanalysen (Gould, 1983,
[112]). Die Tests spielten hier die Rolle der bei Quetelet zufällig ausgewählten
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz 163

Individuen. Spearman (1863–1945), ein Schüler von Pearson, zeigte 1904, daß
die auf Kinder angewendeten Eignungstests stark korrelierten. Er erfand die
Methode der Faktorenanalyse in Hauptkomponenten, indem er in dem durch
diese Komponenten gebildeten Vektorraum die orthogonalen Achsen suchte,
welche sukzessiv das Maximum der Varianz der Punktwolken erklärten, die
ihrerseits den Ergebnissen für jedes einzelne Kind entsprachen. Aus der Tat-
sache der Korrelation zwischen den Tests folgte, daß die erste dieser Achsen
den überwiegenden Teil der Gesamtvarianz widerspiegelte. Es handelte sich
um eine Art Mittelwertbildung der verschiedenen Tests. Spearman bezeich-
nete diesen Mittelwert als allgemeine Intelligenz oder g-Faktor .25 Spearman
promotete und orchestrierte seinen g-Faktor in ähnlicher Weise, wie es Quete-
let mit dem Durchschnittsmenschen gemacht hatte: er bildete ein Objekt, das
allgemeiner als die speziellen Tests war und betrachtete die speziellen Tests
als kontingente Manifestationen dieses allgemeinen Objekts. Dieses reprodu-
zierbare Ding, das sich auch in anderen Kontexten verwenden ließ, lieferte
einen gemeinsamen Meßraum für die individuellen Fähigkeiten, deren Exi-
stenz Galton postuliert hatte, ohne jemals in der Lage gewesen zu sein, diese
Fähigkeiten direkt zu messen.
Die Theorie von Spearman wurde von Cyril Burt vervollständigt und
später von Thurstone kritisiert und zerstört. Das geschah in einer Abfolge von
Ereignissen, die durch ihre Argumente und deren Wiederauflodern an die Ver-
kettung der Umstände erinnerte, unter denen die Begriffsbildungen Quetelets
– der Durchschnittsmensch und die konstanten Ursachen – zunächst von Gal-
ton vervollständigt und transformiert und danach von Lexis und Edgeworth
wieder zerstört wurden. Als überzeugter Anhänger des Begriffs der allgemei-
nen Intelligenz versuchte Burt einerseits, die durch den g-Faktor nicht erklärte
Varianz zu analysieren und zu interpretieren ( Gibt es sekundäre Faktoren,

die spezifische, von g unabhängige Fähigkeiten widerspiegeln?“). Andererseits
versuchte er zu beweisen, daß diese allgemeine Intelligenz angeboren und erb-
lich ist. Er war für die Schulpsychologie der Grafschaft London zuständig.
Seine Arbeiten haben dazu geführt, die Einrichtung eines Testsystems für
elfjährige Kinder zu untermauern und zu rechtfertigen. Die Tests liefen wie
eine Prüfung ab, wobei die Kinder entsprechend ihrem Niveau auf der g-Skala
jeweils einer von zwei sehr unterschiedlichen Ausbildungsrichtungen zugeord-
net wurden. Dieses System wurde unter der Bezeichnung eleven plus bekannt;
man verwendete es in England von 1944 bis 1965. Das System beruhte auf
einem Umstand, der in der ersten Hälfte des Jahrhunderts in folgendem Sin-
ne real zu sein schien: erstens teilten viele Menschen die Vorstellung von der
Existenz dieses Systems; zweitens ließen sich Messungen durchführen und das
System konnte – als erklärende Variable oder als zu erklärende Variable – in
25
Spearman konnte mit der von ihm entwickelten Tetradendifferenzen-Methode zei-
gen, daß sich in allen Intelligenzleistungen ein gemeinsamer Faktor g (general
factor) isolieren läßt. Eliminiert man diesen Faktor, dann bleiben nach Spearman
nur noch spezifische Faktoren übrig, die für jede der einzelnen Leistungen gelten.
164 4 Korrelation und Ursachenrealismus

umfassendere Konstrukte integriert werden; und drittens schien es konsistent


und widerstandsfähig gegen Schläge zu sein.
Derartige Schläge sind dem System auf mehrere Weisen versetzt worden.
Zuerst erfand der Amerikaner Thurstone (1887–1955) eine Verfeinerung der
Faktorenanalyse.26 Er zerlegte g durch geschickte Rotation der Achsen in sie-
ben voneinander unabhängige mentale Primärfähigkeiten, wobei er sich auf
die Tatsache stützte, daß sich die Tests in besonders stark korrelierte Un-
termengen einteilen lassen. Diese Zerlegung von g hatte den Vorteil, daß die
Individuen nicht auf einer einzigen Skala angeordnet wurden und das Ganze
– im Gegensatz zur rigiden eindimensionalen Hierarchie der englischen Ge-
sellschaft – dem amerikanischen demokratischen Ideal besser zu entsprechen
schien. Aber diese differenzierten mentalen Fähigkeiten blieben dennoch et-
was Angeborenes: wir finden hier ein Äquivalent der mehrgipfligen Kurven von
Bertillon oder Pearson und der Zerlegungen dieser Kurven in mehrere Normal-
verteilungen. Es kam jedoch selten vor, daß Spearman, Burt und Thurstone
auf die vorsichtige nominalistische Rhetorik von Pearson zurückgriffen, die
womöglich ihre Konstrukte sozial weniger überzeugend gemacht hätte.
Die zweite Attacke wurde später von den Soziologen geritten. Diese hat-
ten bemerkt, daß sich die Korrelationen und erblichen Übertragungen von
Neigungen zum Bestehen gewisser Tests ebenso gut auch als Auswirkungen
des familiären und sozialen Milieus, der Umgebung und der Ausbildung der
Kinder interpretieren lassen, das heißt man mußte sich nicht mehr auf ei-
ne biologische Vererbung berufen. In jedem Fall lassen sich die statistischen
Untersuchungen auch aus der Sicht einer Soziologie der Ungleichheiten inter-
pretieren, die sich in den 1950er Jahren entwickelte, das heißt genau zu der
Zeit als es zum Niedergang der Psychometrie kam. Jedoch hinterließ die Psy-
chometrie die komplexen Techniken der mehrdimensionalen Faktorenanalyse,
die sich auch in anderen Kontexten weiterverwenden ließen. Wie bei Galton
und Pearson hatte sich der Kreis geschlossen: die Rhetoriken der Eugenik und
der Psychometrie verblaßten, aber die formale Grammatik verselbständigte
sich und fand andere Anwendungen.

26
Es handelt sich um die multiple Faktorenanalyse“, die von der Gleichwertigkeit

aller Faktoren ausgeht. Die Faktoren werden hier nicht aus den einzelnen Korre-
lationen sukzessiv nach der Reihenfolge ihrer Allgemeinheit abgehoben, sondern
man geht von allen Korrelationen gleichzeitig aus (Korrelationsmatrix) und be-
handelt sie als geschlossenes System.
5
Statistik und Staat:
Frankreich und Großbritannien

Der Begriff der Statistik im ältesten Sinne des Wortes geht ins 18. Jahrhun-
dert zurück und beinhaltet eine Beschreibung des Staates durch ihn und für
ihn (vgl. Kapitel 1). Zu Anfang des 19. Jahrhunderts kristallisierte sich in
Frankreich, England und Preußen um das Wort Statistik“ eine Verwaltungs-

praxis heraus und man entwickelte Formalisierungstechniken, bei denen die
Zahlen im Mittelpunkt standen. Spezialisierte Bureaus wurden damit beauf-
tragt, Zählungen zu organisieren und die von den Verwaltungen geführten
Register zu kompilieren, um für den Staat und für die Gesellschaft Darstel-
lungen zu erarbeiten, die den Handlungsweisen und dem Ineinandergreifen
von Staat und Gesellschaft in angemessener Weise entsprachen. Die Forma-
lisierungstechniken bestanden aus Zusammenfassungen, Kodierungen, Tota-
lisierungen, Berechnungen und Konstruktionen von Tabellen und grafischen
Darstellungen. Diese Techniken ermöglichten es, die durch die Staatspraxis
geschaffenen neuen Objekte mit einem einzigen Blick zu überschauen und
miteinander zu vergleichen. Man konnte jedoch keine logische Trennung zwi-
schen Staat, Gesellschaft und den Beschreibungen vornehmen, die von den
statistischen Bureaus geliefert wurden. Der Staat setzte sich aus besonderen
– mehr oder weniger organisierten und kodifizierten – Formen von Beziehun-
gen zwischen den Individuen zusammen. Diese Formen ließen sich – vor allem
mit Hilfe der Statistik – objektivieren. Aus dieser Sicht war der Staat keine
abstrakte Entität, die außerhalb der Gesellschaft stand und in den verschie-
denen Ländern identisch war. Es handelte sich vielmehr um eine singuläre
Gesamtheit von sozialen Bindungen, die sich verfestigt hatten und von den
Individuen in hinreichender Weise als Dinge behandelt wurden. Und zumin-
dest für den Zeitraum, in dem der betreffende Staat existierte, waren diese
sozialen Tatbestände tatsächlich Dinge.
Innerhalb der Grenzen, die durch diese historische Konsolidierung der
staatlichen Zusammenhänge abgesteckt waren, stellen die statistischen Bu-
reaus und ihre Tabellierungen Quellen für den Historiker dar. Aber der Histori-
ker kann auch die Peripetien und Besonderheiten der allmählichen Errichtung
dieser Bureaus als Momente der Bildung moderner Staaten betrachten, wie sie
166 5 Statistik und Staat: Frankreich und Großbritannien

im Laufe des 19. Jahrhunderts entstanden sind. In den beiden vorhergehenden


Kapiteln hatten wir – vom Standpunkt der wissenschaftlichen Rhetoriken und
deren Darlegung – die Konsistenz der von der Statistik produzierten Dinge
untersucht und unsere Untersuchung erstreckte sich von Quetelet bis hin zu
Pearson. Aber diese Konsistenz hing auch mit der Konsistenz der staatlichen
Einrichtungen und deren Solidität zusammen; und sie hing mit dem Umstand
zusammen, der die Individuen veranlaßte, diese Institutionen als Dinge zu be-
handeln, ohne sie ständig infrage zu stellen. Diese Solidität kann ihrerseits das
Ergebnis einer Willkürherrschaft oder einer konstruierten Legitimität sein, wie
es in unterschiedlichen Formen in den Rechtsstaaten der Fall war, die gerade
im 19. Jahrhundert aufgebaut wurden. Diese Legitimität war nicht per Dekret
vom Himmel gefallen. Vielmehr wurde sie Tag für Tag geformt und gewoben,
vergessen, bedroht, infrage gestellt und unter erneuten Anstrengungen wie-
dererrichtet. Innerhalb dieser Legitimität der staatlichen Institutionen nahm
die Statistik eine Sonderstellung ein: sie setzte einen allgemeinen Bezugsrah-
men, der mit zwei Garantien ausgestattet war – der Garantie des Staates
und der Garantie von Wissenschaft und Technik. Das subtile Ineinandergrei-
fen von Staat, Wissenschaft und Technik verlieh der amtlichen Statistik eine
besondere Originalität und Glaubwürdigkeit.
Sollte in den nachfolgenden Kapiteln der Eindruck entstehen, daß wir The-
men anschneiden, die a priori wenig miteinander zusammenhängen, dann hat
das folgende Ursache: es hat lange gedauert und war kostenaufwendig, die
obengenannten beiden Garantien in der Weise miteinander zu verbinden, die
heute natürlich erscheint. Die Statistik ist heute Bestandteil der wesentlichen
Merkmale eines entstehenden oder wiedererstehenden demokratischen Staates
– zusammen mit anderen juristischen und politischen Merkmalen. Aber die
Statistik hängt auch von den singulären Formen ab, die von der Geschichte der
betreffenden Staaten gewoben wurden, und auch von der Beschaffenheit der
Verbindungen zwischen den verschiedenen öffentlichen Einrichtungen und den
anderen Teilen der Gesellschaft: administrative und territoriale Zentralisie-
rung, Status der Beamtenschaft, Beziehungen zu anderen Expertisezentren“

– zu denen die Universitäten, die Gelehrtengesellschaften und die im 19. Jahr-
hundert so wichtigen philanthropischen Gesellschaften gehörten – oder private
Stiftungen von Unternehmen in einigen Ländern im 20. Jahrhundert.
In den Kapiteln 5 und 6 deuten wir einige dieser spezifischen Verbindun-
gen an, die zwischen den statistischen Bureaus, den staatlichen Strukturen
und anderen Stellen für soziale Analysen in der Zeit ab 1830 – in der viele
dieser Bureaus gegründet wurden – bis zu den 1940er Jahren bestanden. In
den 1940er Jahren änderten sich diese Verbindungen radikal in Bezug auf ihre
Beschaffenheit und Größenordnung. Das war einerseits auf die Transformati-
on der Rolle der Staaten zurückzuführen, andererseits aber auch auf die nun
endlich gelungene Allianz der Wirtschafts- und Sozialstatistik mit der mathe-
matischen Statistik. Bei diesem Vergleich beziehen wir uns auf vier Länder.
Für zwei dieser Länder – Frankreich und Großbritannien – war der geein-
te Staat etwas altes und legitimes, obwohl er sich in sehr unterschiedlichen
5 Statistik und Staat: Frankreich und Großbritannien 167

Formen äußerte (Kapitel 5). Für die beiden anderen Länder – Deutschland
und die Vereinigten Staaten – war er im Entstehen begriffen bzw. durchlief ein
schnelles Wachstum (Kapitel 6). Die Unterschiede in Bezug auf die Konsistenz
der Staaten lassen sich aus der Geschichte der jeweiligen statistischen Syste-
me ablesen. In sämtlichen Fällen nennen wir nicht nur die Bedingungen, unter
denen die öffentliche Statistik ihre Legitimität konstruierte, sondern auch die
öffentlichen Debattenräume, in denen sie einen Platz gefunden hat.
In Frankreich ist der Staat zentralisiert und so ist es auch seine Stati-
stik – sowohl vom administrativen als auch vom territorialen Standpunkt aus.
Im Allgemeinen lag die Sachverständigenkompetenz eher innerhalb der Admi-
nistration, beim Berufsstand der Ingenieure und bei der Beamtenschaft. Die
Universitäten hatten einen geringeren Einfluß als in den anderen drei Ländern.
Die öffentliche Statistik, deren hauptsächlicher (aber nicht einziger) Bestand-
teil die Statistique générale de la France (SGF) war, organisierte sich rund um
die Zählungen. Vor allem war die öffentliche Statistik auf den Gebieten der
Demographie (Geburtenrückgang) und der Wirtschaft (gewerbliche Struktu-
ren, Arbeit, Löhne, Lebenshaltungskosten) tätig, aber infolge des Gewichtes
und der Autorität der Behörde waren diese Fragen weniger als anderswo der
Gegenstand großer und öffentlicher Debatten zwischen Fachleuten und Aus-
senstehenden.
In Großbritannien waren die Verwaltungen unabhängiger voneinander und
die Behörden der Grafschaften und Gemeinden hatten umfassendere Befug-
nisse als in Frankreich. Die Statistik war in Großbritannien nie in einer einzi-
gen Institution zentralisiert und die überregionalen Bureaus mußten mit den
örtlichen Bureaus Kompromisse eingehen, wie es im Falle der für den Per-
sonenstand und die Umsetzung der Fürsorgegesetzgebung zuständigen Bu-
reaus auch geschehen war. Die beiden – gesondert bearbeiteten – Hauptgebie-
te waren einerseits Außenhandel und Geschäftstätigkeit (verwaltet durch das
Board of Trade 1 ) und andererseits Bevölkerung, Armut, Hygiene und öffent-
liche Gesundheit (verwaltet durch das General Register Office 2 , GRO). Die
parlamentarischen Untersuchungskommissionen – die zum Beispiel anläßlich
der schweren sozialen Krisen gegründet wurden, welche mit der schnellen In-
dustrialisierung und der zügellosen Verstädterung zusammenhingen – waren
Orte intensiver Diskussionen zwischen Wissenschaftlern, Statistikern, Ökono-
men und führenden Persönlichkeiten der Politik.
In Deutschland zeichnete sich dieser Zeitraum zunächst durch die allmähli-
che Gestaltung der Reichseinigung aus – mit Preußen als Kern –, die 1871
vollendet wurde. Die nachfolgende Zeit war zwischen 1871 und 1914 durch
industrielles Wachstum und schließlich – in der Zeit zwischen den beiden
Weltkriegen – durch die Wirtschaftskrise und politische Krisen gekennzeich-
net. Die amtliche Statistik, die es in den verschiedenen Königreichen bereits
gab, vereinigte sich nach 1871 und organisierte umfangreiche Untersuchun-
1
Handelsministerium.
2
Hauptstandesamt.
168 5 Statistik und Staat: Frankreich und Großbritannien

gen und Zählungen zum Produktionsapparat. Die an den Universitäten täti-


gen Statistiker und Ökonomen verfaßten ihrerseits zahlreiche und reichhaltige
Monographien deskriptiver und historischer Art, deren Inhalt stark mit Stati-
stik durchsetzt war. Die Arbeiten der deutschen historischen Schule“ wurden

durch den Verein für Socialpolitik angekurbelt und in diesem Verein disku-
tiert, der zwischen 1872 und 1914 sehr aktiv war und – ziemlich erfolglos –
versuchte, die Entscheidungen der kaiserlichen Bürokratie zu beeinflussen.
Die Vereinigten Staaten schließlich waren eine vor kurzem gegründete
Föderation, deren Bevölkerung aufgrund der aufeinanderfolgenden Einwan-
derungswellen ein rasantes Wachstum zu verzeichnen hatte. Die Tätigkeit der
öffentlichen Statistik gestaltete sich in ihrem Rhythmus auf der Grundlage
der durch die Verfassung von 1787 vorgesehenen und alle zehn Jahre statt-
findenden Volkszählungen, die das Ziel hatten, die finanziellen Belastungen
und die Sitze im Repräsentantenhaus (House of Representatives) zwischen
den Staaten anteilmäßig und unter Berücksichtigung der sich ständig ändern-
den Bevölkerungszahl aufzuteilen. Die Debatten über die Statistik hingen mit
wiederholten und tiefgreifenden Veränderungen bezüglich der Demographie
des Landes und den sich hieraus ergebenden Konsequenzen zusammen – Kon-
sequenzen politischer Natur (gesetzliche Vertretung der Staaten) und soziale
Konsequenzen (Integration der Einwanderer, entfesselte Verstädterung, Kri-
minalität). Die statistische Verwaltung blieb in unterschiedliche Dienststellen
aufgesplittert. Die wichtigste dieser Behörden war das Bureau of the Census 3 ,
das erst 1902 zu einer ständigen Einrichtung wurde. Vor 1933 gab es keinerlei
Koordinierung. Nach diesem Datum änderte sich die Funktion der Bundes-
verwaltung in Bezug auf Politik, Wirtschaft und Haushaltsplan radikal. Eine
Gruppe von Universitätslehrern, Statistikern und Ökonomen gab den Anstoß
zur Umgestaltung und Koordinierung der amtlichen Statistik. Die Gruppe
erweiterte ihren Aktionsbereich erheblich, rekrutierte junge Leute mit ma-
thematischer Ausbildung, setzte neue Techniken ein (zum Beispiel Stichpro-
benerhebungen) und konstruierte mit Hilfe der Statistik neue Objekte, zum
Beispiel die Begriffe Arbeitslosigkeit“ und soziale Ungleichheit“. Erst zu
” ”
diesem Zeitpunkt entdeckt der Leser im Panorama der öffentlichen Statistik
der vier Länder eine vertraute Landschaft: die für die modernen statistischen
Ämter typischen Merkmale zeichneten sich in den Vereinigten Staaten in den
1930er Jahren ab.
Diese erste skizzenhafte Darstellung der Situation in den vier Ländern
zwischen 1830 und 1940 zeigt, daß ein internationaler Vergleich der Systeme
der statistischen Beschreibung nicht auf Institutionen der amtlichen Statistik
beschränkt werden darf. Der Grund hierfür sind die Unterschiede bezüglich
der relativen Gewichte dieser Einrichtungen, ihrer Mittel, ihrer administrati-
ven Solidität und vor allem die Unterschiede hinsichtlich der jeweiligen Zie-
le. Notwendig wäre ein vollständigerer Überblick über die institutionelle und
soziologische Situation der Orte, an denen statistisches Wissen konstruiert
3
US-amerikanisches Statistisches Bundesamt, auch als Census Bureau bezeichnet.
Französische Statistik – eine diskrete Legitimität 169

wurde. Aber die zu diesen Fragen bereits durchgeführten historischen For-


schungen – die im Falle Großbritanniens und der Vereinigten Staaten zahl-
reich und detailliert, für Frankreich und Deutschland hingegen seltener waren
– bezogen sich im Allgemeinen nur auf Teile dieser Räume, wobei auch die
Sichtweisen sehr unterschiedlich waren. Dementsprechend besteht das Risiko,
die Vergleiche zu verzerren, indem man einen gewissen Aspekt nur deswegen
besonders hervorhebt, weil er gut dokumentiert ist. Die nachfolgenden Analy-
sen, die sich für Großbritannien, die Vereinigten Staaten und Deutschland auf
Sekundärquellen stützen, sind also nicht vor derartigen fehlerhaften Sichtwei-
sen geschützt: diese Gefahr ist bei vergleichenden Studien fast unvermeidlich.
Genau an diesem Problem scheiterte die deutsche Statistik – im Sinne des im
18. Jahrhundert verwendeten Begriffes – ebenso, wie die Statistik der französi-
schen Präfekten im Jahre 1805. Die Errichtung eines Komparabilitätsraumes
muß dem Vergleich vorangehen, aber das betrifft natürlich nicht nur die Be-
schreibung und die Geschichtsforschung. Die folgenden Ausführungen stellen
daher eher eine logisch begründete Gegenüberstellung der vier geschichtlichen
Schilderungen dar, als einen umfassenden Vergleich.

Französische Statistik – eine diskrete Legitimität

Die Statistique générale de la France (SGF) war von 1833 bis 1940 eine kleine
Behörde, die nur in Paris ansässig war. Ihre Hauptaufgabe bestand darin, die
alle fünf Jahre stattfindenden Volkszählungen zu organisieren und auszuwer-
ten und – ausgehend von den Personenstandsregistern (Geburten-, Heirats-
und Sterberegister) – die Bevölkerungsbewegung“ zu analysieren. Die Ge-

schichte dieser Behörde ist die Geschichte der allmählichen Errichtung einer
diskreten Legitimität, die auf strengen fachlichen Kriterien beruhte. Das gilt
insbesondere für die Jahre nach 1890, als Lucien March die gesamte Produkti-
onskette der Zählungen – von den Fragebögen und deren Auswertung bis hin
zu den Veröffentlichungen – umfassend transformierte. Diese Legitimität war
nicht von Anfang an vorhanden. Sie hing mit der Aufstellung von Verwaltungs-
routinen und auch mit dem Vorgehen einer kleinen Gruppe zusammen, die sich
nach 1860 in der Société de statistique de Paris (SSP) zusammengeschlossen
hatte (Kang, 1989, [144]). Aber die statistische Tätigkeit, ihre Kosten, ihre
Zentralisierung und ihre Interpretation waren nicht – wie in Großbritannien
oder in den Vereinigten Staaten – Gegenstand umfassender Diskussionen in
der Presse oder im Parlament.
Bei ihrer Gründung im Jahre 1833 war die an das Handelsministerium
angegliederte SGF damit beauftragt, die von anderen Verwaltungen erstellten
statistischen Tabellen zu sammeln, zu koordinieren und zu veröffentlichen.
Der Gründer der SGF, Moreau de Jonnès (1778-1870), leitete die Einrichtung
bis zum Jahre 1852. Bereits 1835 legte er einen detaillierten Plan zur Publi-
kation von vierzehn Bänden vor, die sich bis zum Jahre 1852 erstreckten und
die verschiedenen Bereiche der Verwaltungstätigkeit abdeckten. Die öffentli-
170 5 Statistik und Staat: Frankreich und Großbritannien

che Gesundheit, die damals in der britischen Statistik einen wesentlichen Platz
einnahm, trat in diesem Plan kaum in Erscheinung: man findet lediglich An-
gaben zur Verwaltung von Krankenhäusern.4 Die Moralstatistiker“, die sich

um die Annales d’Hygiène Publique zusammenschlossen, blieben außerhalb
der französischen öffentlichen Statistik, während sich ihre englischen Amts-
kollegen von der Public Health Movement im General Register Office, dem
Zentrum der amtlichen Statistik befanden.
Die Hauptschwierigkeit der im Entstehen begriffenen SGF bestand darin,
mit Hilfe einer technischen Spezifität die Anerkennung der anderen Ministeri-
en zu finden. Es war keine Selbstverständlichkeit, die Statistiken der Landwirt-
schaft, des Gewerbes und des Handels mit der Statistik der Bevölkerungsbe-

wegung“ (Personenstand) und der Zählungen zu vereinigen, deren Organisati-
on noch vom Innenministerium abhing. Dieses gründete 1840 ein statistisches
Bureau, das von Alfred Legoyt (1815–1885) geleitet wurde. Legoyt kritisierte
Moreau de Jonnès und wurde dessen Nachfolger als Leiter der SGF, deren
Direktor er von 1852 bis 1871 war. Der Aufruf zur Zentralisierung der nume-
rischen Unterlagen im Hinblick auf deren Publikation reichte allein nicht aus,
um die Durchschlagskraft der Institution zu garantieren – es mußten auch die
Standardwerkzeuge zur Registrierung vorhanden sein: regelmäßige Bestands-
aufnahmen, Karteien und Nomenklaturen. Das Vertrauen in die Statistiken
und deren Zuverlässigkeit“ hing mit der Kohärenz und der Stabilität des

Verwaltungsmechanismus zusammen.
In ihrer Anfangszeit veröffentlichte die SGF (außer den Zählungen) zu-
nächst regelmäßige Verwaltungsdaten, die von anderen erstellt worden waren,
aber auch die Ergebnisse der auf eigene Initiative durchgeführten außeror-
dentlichen Enqueten zu den Landwirtschaftsstrukturen (1836–1839) und zu
den Gewerbestrukturen (1841, 1861). Im Vergleich zu den von anderen Ver-
waltungen herausgegebenen Kompilationen war der durch die SGF erzeugte
Mehrwert“ gering und die Überprüfung erwies sich als schwierig. Dennoch

wurden auf diesem Umweg Gewohnheiten“ geschaffen: Beispiele hierfür sind

die 1827 gegründete Kriminalstatistik und die Statistik der Mineralindustrie
(für die Le Play im Jahre 1848 verantwortlich zeichnete). Die Strukturuntersu-
chungen standen dagegen den Monographien in der Hinsicht näher, daß ihre
Ergebnisse – die aus nur einmal verwendeten Ad-hoc-Techniken hervorgin-
gen – kaum verallgemeinerungsfähig waren. Diese Ergebnisse blieben isolierte
Punkte und trugen nicht dazu bei, eine quantitative Routine zu schaffen.
Die Landwirtschaftszählungen wurden als schlecht beurteilt, während die Un-
tersuchungen zu den Katastervorgängen unvollendet blieben: die statistische
Tätigkeit war nur dann operativ, wenn sie sich in eine mit ihr abgestimmte
Verwaltungspraxis einfügte.
Die Kontrolle der Statistiken war ein zentrales Problem dieser Zeit. Die
Arbeit von Bertrand Gille (1964, [108]) über die statistischen Quellen der

4
Dennoch steht Moreau de Jonnès der Medizin nahe: vgl. hierzu Kapitel 3 und die
Debatten über die Cholera.
Französische Statistik – eine diskrete Legitimität 171

Geschichte Frankreichs“ beschreibt die Ambivalenz der Anforderungen der


Zeit aus der Sicht eines Historikers. Gille unterscheidet zwischen kollektiver,

fast demokratischer Kontrolle“, lokaler Kontrolle auf der Grundlage fundier-

ten Wissens angesehener Persönlichkeiten“ und logischer, wissenschaftlicher

Kontrolle“. Das Modell lokal erworbenen Wissens, das durch kollektive Zu-
stimmung garantiert ist, wurde im 19. Jahrhundert häufig angewendet, zum
Beispiel im Fall von Epidemien oder im Kampf gegen ungesunde Lebensbe-
dingungen. Man beauftragte damals örtliche Ausschüsse, deren Mitglieder an-
gesehene Persönlichkeiten waren, mit Aufgaben, die später von zentralisierten
Behörden übernommen wurden, welche ihrerseits Routinevorschriften anwen-
deten. In diesem Sinne wurden das umfassende Vorhaben zur Gründung von
Kantonskommissionen für Statistik“ – das mit der Landwirtschaftszählung

von 1836 begann – im Jahre 1848 fortgesetzt und 1852 systematisiert. Mit
dem Vorhaben unternahm man den Versuch, für die Beteiligten eine Informa-
tionskontrolle einzurichten. Aber die Kommissionen scheiterten – vielleicht
deswegen, weil sie sich in den von Paris durchgestellten standardisierten Fra-
gen nicht wiedererkannt hatten. Die Kombination von lokal erworbenem Wis-
sen und kollektiver Validierung (der Gille die logische und wissenschaftliche“

Kontrolle durch Verifikation der internen Konsistenz mit Hilfe von Rechnun-
gen gegenüberstellt) ging mit dem Risiko einher, sowohl spezifische lokale
Merkmale als auch Unstimmigkeiten zwischen besonderen und allgemeinen
Interessen hervortreten zu lassen. Ebenso wie die Statistik der Präfekten zu
Anfang des 19. Jahrhunderts war auch diese Statistik nicht lebensfähig, denn
sie ging nicht mit der Errichtung eines Verwaltungsraumes einher, der auf dem
gesamten Territorium durch äquivalente Regeln und Verfahren strukturiert
war. Dieser Raum war seinerseits gewiß adäquat für statistische Totalisierun-
gen. Aber auch hier war die Situation in Frankreich eine ganz andere als in
England, wo die lokale Informationsvalidierung ein notwendiger Umweg zur
Begründung der Legitimität des General Register Office gewesen ist.
Die Moralstatistiker, die unter den einheimischen angesehenen Persönlich-
keiten Einfluß hatten, kritisierten den Entwurf einer zentralisierten Verwal-
tungsbehörde, die sich noch nicht durch ihre Technizität rechtfertigen konnte.
Für Villermé (1845, [281]) hat die Verwaltung nichts weiter zustande gebracht,
als eine unbeholfene Kompilierung inkonsistenter Daten – wobei die Daten we-
der geprüft noch abgeglichen wurden. Er wünschte eine Organisation, die dem
dezentralisierten englischen Modell näher steht:

Wir werfen den statistischen Publikationen Ungenauigkeiten, Lücken


und den Mangel einer Einheit von Plan und Denken vor, der es nicht
ermöglicht, sie immer untereinander zu vergleichen und gegeneinander
zu kontrollieren ... Wir weisen auf den Nachteil hin, wichtige Publi-
kationen einem Ministerium anzuvertrauen, das in diesen Angelegen-
heiten unbewandert ist. Wir kündigen an, daß ähnliche Dokumente
in Bezug auf Wirtschaft, Finanzen, Streitkräfte, Marine, Justiz, Kon-
fessionen und öffentliches Schulwesen veröffentlicht werden. Mit der
172 5 Statistik und Staat: Frankreich und Großbritannien

Arbeit müssen diejenigen Verwaltungsbehörden beauftragt werden,


die sich mit diesen Themen befassen. Wir hoffen, daß es den Verwal-
tungsbehörden zur Ehre gereicht, diese Arbeit zu übernehmen und die
Kammern nötigenfalls nicht dulden werden, daß die von ihnen – zur
Ausstattung Frankreichs mit einer allgemeinen Statistik – so dienstbe-
flissen bewilligten Gelder für Zwecke verwendet werden, die der Nation
so wenig würdig sind. (Villermé, 1845, [281])

Die Verteilung der Verantwortlichkeiten ist klar erkennbar für die Zählung,
die zu diesem Zeitpunkt noch durch das von Legoyt geleitete statistische Bu-
reau des Innenministeriums organisiert wurde. Die Ergebnisse der Zählung
wurden hingegen von der SGF veröffentlicht. Jedoch übernahm Legoyt 1852
die Leitung der SGF und sammelte dort alle Zählungsvorgänge. Er führte
wichtige Neuerungen hinsichtlich der Berufe (1851) und der Wirtschaftstätig-
keiten (1866) ein; zuvor hatte es lediglich eine Namensliste der Einzelpersonen
gegeben. Die Position Legoyts im Handelsministerium schien damals sicherer
zu sein, als die seines Vorgängers.
Im Übrigen ließen die Rivalitäten zwischen den Verwaltungsstatistikern
und den Moralstatistikern nach, als 1860 eine Gruppe von Ökonomen und
Sozialforschern – von denen Villermé, Michel Chevalier und Hyppolite Passy
die berühmtesten waren – die Société de statistique de Paris (SSP) gründete.
Sie beantragten und erhielten eine offizielle Garantie des Handelsministeri-
ums. Legoyt war der erste Präsident der SSP. Diese Gelehrtengesellschaft
spielte bis in die 1930er Jahre bei der Gründung der großen Verwaltungen
und statistischen Schulen eine wichtige Rolle: sie war der Begegnungsort von
(öffentlichen und privaten) Statistikern und denjenigen, die deren Arbeiten
nutzten. Darüber hinaus wirkte die Gesellschaft als Zentrum zur Verbreitung
der Ideen und Forderungen dieser Statistiker. Ihre Zeitschrift, das Journal de
la Société de statistique de Paris, bot einer kleinen Gruppe von unermüdli-
chen Propagandisten der Statistik ein Diskussionsforum. Diese Gruppe be-
stand aus Lehrstuhlinhabern und Mitgliedern von Verwaltungskommissionen,
die mit der Förderung und Koordinierung der statistischen Arbeiten beauf-
tragt waren. Der Gruppe gehörten an: Émile Cheysson (1836-1910), Ingenieur
für Brückenbau und Schüler von Le Play; Émile Levasseur (1828–1911), Uni-
versitätsgeograph; Adolphe Bertillon (1821–1883) und sein Sohn Jacques Ber-
tillon (1851–1922), beide Ärzte und leitende Angestellte eines statistischen
Bureaus der Stadt Paris. Dieses Bureau publizierte Informationen über die
öffentliche Gesundheit und die Todesursachen (Alphonse Bertillon, 1853–1914,
der im Kapitel 4 im Zusammenhang mit Galton erwähnte Anthropometrie-
Experte der Polizeipräfektur, war ein weiterer Sohn von Adolphe Bertillon).
Wir treffen diese politisch aktiven Experten auch im Conseil supérieur de
la statistique an, der 1885 gegründet wurde, um die SGF und die anderen
statistischen Bureaus zu unterstützen und ihre Arbeit zu steuern. Jedoch
war die Statistik dieser Zeit noch kaum mit den Werkzeugen ausgestattet,
die ihre heutige Stärke ausmachen: administrative und verordnungsrechtliche
Französische Statistik – eine diskrete Legitimität 173

Infrastruktur, die zur Identifikation und Definition der Objekte erforderlich


ist; Geräte zur maschinellen Datenverarbeitung und später Computer sowie
mathematische Analyse- und Interpretationstechniken. Die kontinuierlichen
Bemühungen der SGF, der SSP und des Conseil supérieur de la statistique
bezogen sich auf die Infrastruktur und auf die Bestätigung der Wichtigkeit der
Statistik. Aber das reichte nicht aus. In den 1890er Jahren war die SGF noch
eine sehr kleine Behörde und der Kampf mußte ohne Unterlaß weitergeführt
werden.
Dieser Voluntarismus läßt sich auch bei den (von Quetelet inaugurierten)
Internationalen Statistischen Kongressen zwischen 1851 und 1875 sowie in
den Anfangszeiten des 1885 gegründeten Internationalen Instituts für Stati-
stik (IIS)5 beobachten. Zunächst brachte das IIS Verwaltungsstatistiker zu-
sammen, die dort einen Ort zur Förderung und anspruchsvollen Bestätigung
ihrer Aktivitäten fanden. Die Kongresse des IIS wurden von den höchsten
Persönlichkeiten der gastgebenden Länder eröffnet. Diese Kongresse boten
Gelegenheit, für die Harmonisierung der Methoden und der Nomenklaturen
zu kämpfen und ermöglichten es jedem, seine eigene Position unter Berufung
auf eine Legitimität höherer Ordnung zu begründen – der Ordnung der in-
ternationalen wissenschaftlichen Instanz (Jacques Bertillon erarbeitete zwei
wichtige Klassifikationen und ließ sie 1893 durch das IIS annehmen: die Klas-
sifikation der Berufe und die Klassifikation der Krankheiten). Die Rolle des
IIS sollte sich nach dem Ersten Weltkrieg, mehr aber noch nach dem Zweiten
Weltkrieg ändern, und zwar aus zweierlei Gründen. Die Aufgabe der Koordi-
nierung der nationalen Statistiken wurde durch die neuen internationalen In-
stitutionen weitergeführt: vom Völkerbund, vom Internationalen Arbeitsamt6
(IAA) und schließlich von der UNO. Das ermöglichte es dem IIS, sich fortan
der Diskussion und Verbreitung der mathematischen Methoden zu widmen,
die aus der Biometrie und aus der englischen Statistik hervorgegangen waren.
Diese Methoden waren zum ersten Mal auf dem 1909 in Paris abgehal-
tenen 12. Kongreß des IIS ausführlich diskutiert worden. Edgeworth sprach
über die Anwendung der Wahrscheinlichkeitsrechnung in der Statistik“. Yule

faßte seine Arbeit über die Methode der Korrelation, angewendet auf die So-

zialstatistik“ zusammen. March zeigte, wie es die mathematische Verfahren

ermöglichen, statistische Zeitreihen zu vergleichen, um deren Übereinstim-
mung oder Nichtübereinstimmung zu untersuchen und die möglichen Bezie-
hungen der verglichenen Größen vorauszuahnen oder zu schätzen“. Bowley
stellte einen internationalen Vergleich der Löhne mit Hilfe des Medians“ vor.

Dieses erste bedeutsame Auftreten mathematischer Verfahren“ in der

Wirtschafts- und Sozialstatistik war im Falle Frankreichs durch die Umge-
staltung der SGF in den 1980er Jahren begünstigt worden. Während die eng-
lischen Statistiker vom General Register Office (GRO) ihre Position um die
Mitte des 19. Jahrhunderts gefestigt hatten, indem sie sich bei der Behand-
5
Institut international de statistique (IIS); International Statistical Institute (ISI).
6
International Labor Office (ILO).
174 5 Statistik und Staat: Frankreich und Großbritannien

lung der Probleme ungesunder städtischer Lebensbedingungen unentbehrlich


machten, zogen ihre französischen Kollegen von der SGF am Ende des Jahr-
hunderts nach, indem sie bei Fragen zur Arbeit und zu den Arbeitskräften ein-
griffen – bei Problemen also, die aus der gegen 1875 beginnenden Wirtschafts-
krise resultierten. Die Bemühungen der kleinen, politisch aktiven Gruppe von
Statistikern vereinigten sich damals mit den Anstrengungen eines Netzwerks
von Beamten, Intellektuellen und Führungspersönlichkeiten der Gewerkschaf-
ten und der Politik, die sowohl die Lohnarbeit besser kennenlernen wollten
als auch neue Gesetze anstrebten, um die Lohnarbeit zu organisieren und zu
schützen. Zu diesen Aktivisten gehörten der Bergbauingenieur Arthur Fon-
taine (1860–1931), die Gewerkschafter Isidore Finance und Auguste Keufer,
die Reformsozialisten Alexandre Millerand und Albert Thomas sowie später
Lucien Herr und François Simiand, die in Verbindung zu Durkheim und zur
École normale supérieure (ENS) standen.
Im Jahre 1891 wurde innerhalb des Handelsministeriums das von Arthur
Fontaine geleitete Arbeitsamt (Office du travail ) gegründet (Luciani und Sa-
lais, 1990, [181]). Diesem war die SGF angegliedert und Lucien March, ein jun-
ger Ingenieur für Maschinenbau, organisierte dort eine zentralisierte Auswer-
tung der Zählung von 1896. Er führte in Frankreich die Hollerith-Maschinen“

ein, das heißt die ersten mit Lochkarten arbeitenden elektrischen Zählmaschi-
7 ”
nen“ , die in den Vereinigten Staaten konstruiert worden waren. Er erfand eine
vervollkommnete Maschine, den classicompteur-imprimeur“ 8 , der bis in die

1940er Jahre benutzt wurde (Huber, 1937, [134]). Schließlich gelang es ihm
durch eine geschickte Auswertung der Zählblätter, die entsprechend der Ar-
beitsplatzanschrift der gezählten Personen sortiert wurden, diese a priori ad-
ministrative und demographische Operation in eine umfassende Untersuchung
zu transformieren, die sich auf den Produktionsapparat und die Arbeitskräfte
(Lohnarbeiter und Selbständige) bezog. Aus Furcht vor der Zurückhaltung
7
Die Zählmaschinen (auch statistische Maschinen“ genannt) dienten zur Verar-

beitung statistischer Daten. Die Maschinen waren ein Hilfsmittel zur Aufstellung
von Tabellen, welche Summen von Zahlen enthielten, die auf der Grundlage ei-
nes Prinzips oder verschiedener Prinzipien zusammengestellt waren. Die Daten-
verarbeitung erfolgte nach dem Lochkartenverfahren, bei dem die Angaben auf
eine gelochte Registrierkarte (Lochkarte) übertragen wurden. Die erste Lochkar-
te war die Jacquard-Karte (1804), benannt nach dem französischen Mechaniker
Joseph-Marie Jacquard (1752–1834). Der englische Mathematiker, Rechentechni-
ker, Ökonom und Wissenschaftsorganisator Charles Babbage (1792–1871) schlug
1839 die Verwendung von Lochkarten bei Rechenarbeiten vor. Die Maschinen,
die zur Herstellung der Lochungen (Lochmaschinen) und zur Auswertung der
Lochkarten (Sortier- und Tabelliermaschinen) dienten, heißen Lochkartenmaschi-
nen. Diese Maschinen wurden 1880 von Hermann Hollerith (1860–1929) erfunden
(Hollerith-Maschinen).
8
Diese Maschine sortierte die Daten nach gewissen Gesichtspunkten, zählte sie und
druckte die Ergebnisse dann aus (classer = sortieren, compter = zählen, imprimer
= drucken).
Entwurf und Scheitern eines Einflußnetzwerks 175

oder Feindseligkeit der Unternehmen war es für unmöglich gehalten worden,


eine derartige Untersuchung direkt in den Betrieben vor Ort durchzuführen:
die Legitimität der öffentlichen Statistik reichte damals noch nicht aus, eine
solche Operation umzusetzen. Die zentrale Position der SGF und ihre An-
gliederung an das neue Arbeitsamt ermöglichten es March, diese doppelte
Nutzung der Zählung – das heißt die demographische und die wirtschaftliche
Nutzung – zu realisieren. Diese Nutzung erfolgte mit wenigen Änderungen von
1896 bis 1936 und lieferte eine von den Historikern sehr geschätzte statistische
Reihe.
Das Arbeitsamt war von 1891 bis zum Krieg von 1914 die erste wissen-
schaftlich-administrative Institution, die mit bedeutenden Mitteln ausgestat-
tet war (was die nach 1945 bereitgestellten Mittel vorausahnen ließ). Das Amt
war ein Vorläufer des 1906 gegründeten Arbeitsministeriums und umfaßte ei-
nerseits Dienststellen für Erhebungen und Untersuchungen zu den Löhnen,
zur Arbeitslosigkeit und zu den Lebensbedingungen der Arbeiter. Zum ande-
ren gehörten dem Amt Dienststellen an, die mehr mit Verwaltungsfragen zu
tun hatten – zum Beispiel mit der Vermittlung von Arbeitskräften, mit der
Arbeiterschutzgesetzgebung, mit Arbeits-, Hygiene- und Sicherheitsvorschrif-
ten sowie mit Berufsverbänden und Arbeitsgerichten. Die Untersuchungen
stützten sich auf direkte statistische Erhebungen (zu den Löhnen und zur Ar-
beitsdauer) und auf Monographien in der LePlayschen Tradition von Studien
über Arbeiterhaushalte (Du Maroussem, 1900, [192]; Savoye, 1981, [251]) und
Untersuchungen über Daten aus administrativen Quellen, wie zum Beispiel
die (von Michelle Perrot, 1974, [228] analysierte) Streikstatistik.

Entwurf und Scheitern eines Einflußnetzwerks

Die Situation der französischen Verwaltungsstatistik zwischen 1890 und 1920


kann mit anderen ähnlichen Situationen verglichen werden. Unter besonderen
historischen Umständen – zum Beispiel in Krisen, Kriegszeiten oder bei ra-
schen Neukonzipierungen der Art und Weise, eine Gesellschaft zu verstehen
und zu verwalten – gelang es den für ihre Bureaus zuständigen Statistikern,
sich derart in umfassendere, gleichzeitig wissenschaftliche, administrative und
politische Netzwerke zu integrieren, daß sie ihre Werkzeuge unentbehrlich
machten und daß diese Werkzeuge sogar nahezu zwangsläufig benutzt wur-
den. So verhielt es sich zwischen 1840 und 1880 mit dem englischen General
Register Office (GRO). Und so war es auch mit dem amerikanischen Census
Bureau in den 1930er und 1940er Jahren, zur Zeit des New Deal und während
des Zweiten Weltkrieges. Dasselbe geschah mit dem französischen INSEE in
den 1960er und 1970er Jahren, als sich die Planifikation und die Modellierung
des Wirtschaftswachstums weitgehend auf die Tabellen der volkswirtschaft-
lichen Gesamtrechnung stützten. Von diesem Standpunkt aus boten das Ar-
beitsamt und die SGF – vor allem während des Ersten Weltkrieges – mit viel
bescheideneren Mitteln den ersten Entwurf eines solchen Netzwerks.
176 5 Statistik und Staat: Frankreich und Großbritannien

Zwischen 1875 und 1890 wurden die Industrieländer von einer schweren
Wirtschaftskrise heimgesucht, deren soziale Folgen in Großbritannien und in
den Vereinigten Staaten gravierender waren als in Frankreich. Aber über-
all diskutierte man neue Gesetze, die ein Recht auf Arbeit definieren und
einführen sollten – eine Neuheit im Vergleich zum klassischen Zivilrecht –
und einen Schutz gegen Arbeitslosigkeit, Arbeitsunfälle, Krankheiten und Al-
tersarmut organisieren sollten. Ein Conseil supérieur du travail, ein überge-
ordneter Betriebsrat, wurde 1891 gegründet und von Millerand und Fontaine
umgestaltet, um diese Gesetze auszuarbeiten. Der Rat brachte Beamte, Leiter
von Unternehmen und Gewerkschafter zusammen und war ein Vorbote für die
Plankommissionen, das Tarifvertragswesen und die Vertragspolitik in der Zeit
nach 1945. Das Arbeitsamt veröffentlichte in diesem Zusammenhang im Jahre
1893 eine große Enquete über Löhne und Arbeitsdauer in der französischen

Industrie“ und führte später Enqueten über die Arbeiterhaushalte und die
Lebenshaltungskosten durch. Im Übrigen arbeiteten Akademiker, die in der
Tradition von Durkheim standen, an den gleichen Themen und veröffentlichen
die ersten Soziologie-Dissertationen mit ausgeprägt empirischem und statisti-
schem Inhalt. François Simiand (1873–1935) analysierte die Schwankungen der
Bergarbeiterlöhne und March diskutierte diese Analyse in der Société de stati-
stique de Paris (Simiand, 1908, [262]). Maurice Halbwachs (1877–1945) legte
1912 seine thèse d’État“ in lettres“ 9 an der Sorbonne vor; diese Dissertation
” ”
befaßte sich mit den Lebensniveaus und Bedürfnissen der Arbeiterklasse und
erschien unter dem Titel La classe ouvrière et les niveaux de vie. Recherches
sur la hiérachie des besoins dans les sociétés industrielles contemporaines. In
seiner Arbeit nutzte Halbwachs die von deutschen Statistikern gesammelten
Informationen über die finanziellen Mittel von Arbeiterfamilien (aber seine
thèse complémentaire“ über die Theorie des Durchschnittsmenschen, Que-
” ”
telet und die Moralstatistik“ blieb durchweg auf der Linie der Fragen des
19. Jahrhunderts). Halbwachs führte eine Enquete zum Familienbudget der
französischen Arbeiter und Bauern durch und veröffentlichte die Ergebnisse
1914 im Bulletin der SGF (Desrosières, 1985 [60] und 1988 [63]).
Die Beziehungen zwischen Statistikern, Universitätslehrern und verant-
wortlichen Politikern verstärkten sich während des Ersten Weltkriegs, vor
allem innerhalb des Kabinetts des Rüstungsministers Albert Thomas (Kui-
sel, 1984, [161]). Intellektuelle spielten bei der Verwaltung der militärischen
Anstrengungen eine wichtige Rolle. Der Mathematiker Paul Painlevé (1863–
1933) war Kriegsminister und später für einige Monate Premierminister. Sein
Kollege, der Wahrscheinlichkeitstheoretiker Émile Borel (1871–1956) war Ge-
9
Die thèse d’État“ in lettres“ besteht aus zwei Teilen: einer thèse principale und
” ”
einer thèse complémentaire. Wie schon der Name sagt (Haupt- und Zusatz-These),
gelten in beiden Fällen jeweils andere Anforderungen: Während die thèse prin-

cipale“ eine ausführlich dokumentierte und detaillierte Behandlung eines Themas
erfordert, darf die thèse complémentaire“ allgemeiner und offener gehalten sein

(beispielsweise kann sie aus der Erarbeitung eines kritischen Apparates im Rah-
men einer wissenschaftlichen Herausgeberschaft bestehen).
Entwurf und Scheitern eines Einflußnetzwerks 177

neralsekretär des Ministerrates – ein Posten für interadministrative Koordi-


nierung, auf dem er ohne Erfolg versuchte, eine gestärkte SGF einzubinden
(Borel, 1920, [23]). Simiand und Halbwachs waren Mitglieder des Kabinetts
von Albert Thomas. Dieses Kabinett hatte aufgrund seines Gewichtes bei der
Lenkung der notwendigerweise stark zentralisierten Kriegsindustrien und we-
gen der damals eingeführten Verfahrensstandardisierung vollständig neue For-
men der staatlichen Verwaltung und der Berufsbeziehungen entwickelt. Zwar
verschwand die Struktur der Kriegswirtschaft nach 1918 vorübergehend, aber
die Erinnerung daran blieb erhalten und inspirierte andere Formen, die nach
1940 eingeführt wurden: zum Beispiel die Organisationskomitees der Vichy-
Regierung oder das Plankommissariat nach der Befreiung. Ein Mann zeichne-
te sich in diesen beiden Zeiten der Rationalisierung der Kriegswirtschaft und
des Wiederaufbaus durch seine ausgeprägten Aktivitäten aus: Jean Monnet
(1888–1979), der 1946 das Plankommissariat gründete.
Simiand erlangte als Sekretär des Komitees für Statistik bedeutenden Ein-
fluß auf die Herstellung von kriegswichtigen Gütern und auf die Rohstoffpro-
duktion. Er setzte sich mehrfach dafür ein, die SGF in ein großes, an den Vor-
sitz des Ministerrates angegliedertes statistisches Zentralamt umzuwandeln.
Er leitete 1921 eine aus Borel, dem Statistiker Liesse und dem Industriellen
Gruner bestehende Abordnung zum Präsidenten der Republik Millerand (dem
ehemaligen Handelsminister, dem das Arbeitsamt und die SGF unterstanden),
um diese Reform der SGF voranzutreiben. Aber die Bedingungen für die Rück-
kehr zum Frieden waren in den 1920er Jahren noch nicht die gleichen wie nach
1945, als das INSEE und das Plankommissariat gegründet wurden. Die SGF
wurde schließlich 1930 dem Vorsitz des Ministerrates angegliedert, aber ih-
re Mittel und ihre Kompetenzen wurden nicht erweitert. Die SGF blieb eine
kleine Behörde mit etwa hundert Mitarbeitern, die in den Jahren von 1920
bis 1936 von Michel Huber (1875–1947) geleitet wurde und vor allem demo-
graphische Arbeiten durchführte (Sauvy, 1975, [249]). Simiand intervenierte
1932 als Mitglied des Conseil national économique erneut bei Regierungsrat
Blondel und forderte eine Verstärkung sowie die wissenschaftliche Autonomie
der SGF (Journal Officiel vom 13. April 1932), aber diese Versuche blieben
ergebnislos. Die SGF wurde schließlich in einem ganz anderen Zusammen-
hang von einer sehr großen statistischen Landesbehörde aufgesogen, die 1941
von dem Militäringenieur René Carmille gegründet worden war (Desrosières,
Mairesse und Volle, 1977, [67]).
Eine weitere Folge der während des Ersten Weltkriegs hergestellten Ver-
bindungen war die Förderung der Lehrtätigkeit auf dem Gebiet der Statistik;
an diesem Projekt waren die politisch aktiven Statistiker der 1880er Jahre
gescheitert (Morrisson, 1987, [205]). Im Jahre 1920 wurde auf Initiative von
March und Borel das Institut de statistique de l’université de Paris (ISUP) ge-
gründet. March, Huber und der Mathematiker Georges Darmois (1888–1960)
hielten die Hauptvorlesungen. Die Institutsgründung war einerseits durch die
Bedeutung begünstigt worden, welche die statistische Rationalisierung für die
Verwaltung der Kriegswirtschaft erlangt hatte, andererseits aber auch durch
178 5 Statistik und Staat: Frankreich und Großbritannien

die Änderungen in den Beziehungen zwischen statistischer Praxis und Wahr-


scheinlichkeitstheorie. Eine gute Illustration hierfür sind die gemeinsamen Ak-
tivitäten der Wahrscheinlichkeitstheoretiker Fréchet (1878–1973) und Borel
(der im Übrigen auch Mitglied eines Rates der SGF war, welcher in der Zeit
von 1907 bis 1936 zunächst March und später Huber unterstützte) und der
Soziologen Simiand und Halbwachs. Fréchet und Halbwachs veröffentlichen
1924 zusammen ein kleines Handbuch mit dem Titel Le calcul des probabilités
à la portée de tous (vgl. [97]). Die Annäherung zwischen Verwaltungsstati-
stikern, Mathematikern und Soziologen, die um 1900 noch unwahrscheinlich
war, wurde nun durch die wissenschaftlichen und politischen Umstände des
Augenblicks begünstigt. Weder Cheysson (der zwar Absolvent der École po-
lytechnique war) noch Bertillon oder Levasseur hatten versucht, sich mit den
Wahrscheinlichkeitstheoretikern ihrer Zeit zusammenzutun und sie kannten
Pearson nicht. Dagegen hatte March in der Zeit zwischen 1900 und 1910 die
mathematischen Werkzeuge der Engländer in Frankreich eingeführt. Mit Bo-
rel, Darmois und Fréchet trat eine neue Generation von Wahrscheinlichkeits-
theoretikern auf den Plan. Von nun an gab es ein Technologieangebot und
qualifizierte Fachleute. Es bot sich aber auch die politisch-administrative Ge-
legenheit, ein neues akademisches Lehrfach ins Leben zu rufen. Dieses Lehr-
fach war aber nur von geringem Umfang und die Durkheimsche Soziologie ist
keine mathematische Soziologie geworden. Die Lehrtätigkeit auf dem Gebiet
der Statistik erreichte erst in den 1950er Jahren einen bedeutenden Umfang
– einerseits durch das Institut de statistique de l’université de Paris (ISUP)
und andererseits durch die École d’application de l’INSEE, die 1960 zur École
nationale de la statistique et l’administration économique (ENSAE) wurde.
Die vorhergehenden Ausführungen dürfen jedoch nicht die Vorstellung sug-
gerieren, daß es von 1890 bis 1920 ein umfassendes wissenschaftlich-politisches
Netzwerk gegeben hat, in dem die SGF eine wesentliche Rolle spielte. Das war
nicht der Fall. Die oben beschriebenen Verbindungen betrafen nur eine kleine
Anzahl von Personen und deren Einfluß war auch nur während des Ersten
Weltkriegs – das heißt in dem Ausnahmezeitraum von 1914 bis 1918 – von
Bedeutung. Ähnlich wie Sauvy beschreiben Autoren wie Lévy (1975, [178])
oder Le Bras (1987, [171]) die damalige SGF als schwach, von der Außenwelt
abgekapselt und schlecht mit den anderen statistischen Behörden koordiniert.
Dieser Eindruck war nicht ganz verkehrt und auch die mehrfachen Stellung-
nahmen von Simiand gingen in diese Richtung. Aber die genannten Wissen-
schaftler betrachteten diesen Zeitabschnitt aus einer Nachkriegsperspektive:
die in den 1930er Jahren, während des Krieges und der Besatzungszeit entwor-
fenen neuen Modernisierungsnetzwerke konnten in den nach 1945 gegründeten
Institutionen fortbestehen, das heißt in der École normale d’administration
(ENA), im Plankommissariat, im Centre nationale de la recherche scientifi-
que (CNRS), im Institut national de la statistique et des études économiques
(INSEE) und im Institut national des études démographiques (INED). Im
Vergleich hierzu sind ihre Vorgänger-Institutionen der Zeit von 1890 bis 1920
natürlich gescheitert. Als Alfred Sauvy (1898–1990) im Jahre 1923 an die SGF
Entwurf und Scheitern eines Einflußnetzwerks 179

kam, fand er dort eine kleine Gruppe von kompetenten und effizienten Wis-
senschaftlern und Technikern vor, die jedoch introvertiert waren und sich

nicht darum kümmerten, sich selbst zu verkaufen“. Das heißt sie kümmer-
ten sich nicht darum, ihre Arbeiten so zu übersetzen, daß andere den Inhalt
verwenden konnten. Sauvy machte sich damals mit Erfolg daran, ein neues
öffentliches Image der Statistiker und der Demographen aufzubauen und zu
popularisieren, wobei er tabula rasa mit allen vorherigen Dingen machte. Er
erwähnte weder March noch das Arbeitsamt (Office du travail ). Es lief alles
so ab, als ob der Erste Weltkrieg eine Bewegung unterbrochen hätte. Mit den
Reformern vom Beginn des Jahrhunderts hatten die Reformer der 1930er Jah-
re kaum noch etwas gemeinsam; die letzteren erfanden die Sprache, die sich
in den 1950er Jahren und 1960er Jahren durchsetzte.
Es geht uns hier nicht darum, vergessene Vorgänger wieder auferstehen
zu lassen – vielmehr wollen wir die Ursachen dafür suchen, warum das Kon-
strukt der 1890er Jahre keinen Bestand hatte, während das, was sich zwischen
1930 und 1950 abzeichnete, fast ein halbes Jahrhundert gehalten hat. Selbst-
verständlich gibt es makrosoziale historische Erklärungen, zum Beispiel die
von Kuisel (1984, [161]) vorgelegte Analyse der Entwicklung der Beziehun-
gen zwischen Kapitalismus und Staat in Frankreich“ in der Zeit von 1900

bis 1960. Laut Kuisel überwog vor 1914 eine ultraliberale Staatskonzeption,
die sich jede makroökonomische Intervention verbat. Diese Konzeption wurde
an der Universität gelehrt und von den angesehensten Ökonomen der Zeit
gerühmt. Unter den außergewöhnlichen Umständen des Ersten Weltkriegs ex-
perimentierte man unter Clémentel (Handelsminister) und Albert Thomas
(Rüstung) mit einer ersten Form der organisierten Wirtschaft, aber diese
Wirtschaftsform wurde 1919 rasch zerschlagen. Die Krise der 1930er Jahre
und die Situation der äußersten Not der 1940er Jahre – vor und auch nach
der Befreiung – ermöglichten das Entstehen von in größerem Maß interven-
tionistisch ausgerichteten Strömungen (die man damals als dirigistisch“ be-

zeichnete). Unter der Vichy-Regierung äußerten sich diese Strömungen mit
Bichelonne in administrativer und autoritärer Form und später, nach 1945,
in der demokratischeren und stimulierenderen Art und Weise der konzertier-
ten und statistisch aufgeklärten Planifikation von Jean Monnet, Pierre Massé
und Claude Gruson. In der von Kuisel ausführlich beschriebenen Geschich-
te wird die Arbeit der Statistiker fast gar nicht erwähnt. Dennoch geht klar
daraus hervor, welche Unterschiede zwischen der von March geleiteten SGF
und dem INSEE der Nachkriegszeit bestanden – vor allem in Bezug auf die
Rolle, welche die Ökonomen spielten (oder nicht spielten). Vor 1939 kam es
selten vor, daß jemand seine Argumente auf statistische Daten stützte. Der
Grund hierfür war nicht nur – wie Sauvy argumentiert – in Ignoranz oder
Inkompetenz zu suchen, sondern leitete sich vor allem aus der Tatsache ab,
daß es weder ein politisches noch ein intellektuelles Gesamtkonstrukt gab. Ein
derartiges Konstrukt wurde – insbesondere von Keynes – erst in den 1930er
Jahren in Großbritannien und in den Vereinigten Staaten und in den 1950er
Jahren in Frankreich geschaffen.
180 5 Statistik und Staat: Frankreich und Großbritannien

Man kann aber auch nach Erklärungen suchen, die auf einer eher mikroso-
zialen Ebene liegen und zum Beispiel mit der komplexen Persönlichkeit Marchs
zusammenhängen. Als Ingenieur des 19. Jahrhunderts war March ein phanta-
sievoller Techniker. Er führte die von Hollerith in den Vereinigten Staaten er-
fundenen Verfahren der maschinellen Datenverarbeitung in Frankreich ein und
gestaltete sie um. Aber er teilte auch die Sorgen vieler seiner Zeitgenossen in
Bezug auf die Bevölkerung, den Rückgang der Geburtenzahlen und die Qua-

lität der Rasse“. In Frankreich gab es damals keine so umfassende und radikale
Eugenikbewegung wie in Großbritannien: es wäre schwer gewesen, gleichzei-
tig eine Steigerung der Geburtenzahlen und eine Senkung der Fertilität der
armen, fruchtbarsten Schichten zu predigen, wie es die Engländer taten. Als
Statistiker kannte und bewunderte March jedoch die Arbeiten von Galton und
Pearson und er übernahm beide Aspekte – den statistischen Aspekt ebenso wie
den eugenischen. Bereits 1905 legte er der Société de statistique de Paris For-
schungsarbeiten zur Korrelation von numerischen Kurven vor. Später orien-
tierte er zwei junge Statistiker der SGF, Henry Bunle (1884–1986) und Marcel
Lenoir (1881–1926), auf die Anwendung dieser Ergebnisse bei der Analyse von
Zusammenhängen zwischen statistischen Wirtschaftsreihen. Bunle (1911) un-
tersuchte Korrelationen zwischen Heiratsraten, Preisniveau, Arbeitslosigkeit
und Außenhandel. Lenoir (1913) verteidigte seine Dissertation über Angebots-
und Nachfragekurven, wobei er u.a. das Ziel verfolgte, Preisbildungen und
Preisbewegungen zu erklären. Lenoirs Dissertation war eine der allerersten
ökonometrischen Arbeiten im engeren Sinne. Aber diese Arbeit stieß auf kei-
nerlei Resonanz und war den Amerikanern (Moore, Working, Schultz) nicht
bekannt, die gleichzeitig oder wenig später die Ökonometrie erfanden (Mor-
gan, 1990, [204]; Armatte, 1991, [5]).
Die Arbeiten Marchs (und seiner Schüler) wurden der Société de statistique
de Paris vorgelegt, dort diskutiert und im Journal der Gesellschaft veröffent-
licht. Jedoch wurden Marchs Forschungsarbeiten und seine Stellungnahmen
zu den Geburtenzahlen und zur Eugenik – die offensichtlich von Pearson inspi-
riert worden waren – an anderer Stelle veröffentlicht, nämlich in Zeitschriften
und Büchern, die von sehr unterschiedlichen Kreisen herausgegeben wurden:
Revue d’hygiène et de médecine infantiles, Revue philanthropique, Eugénique
et sélection (ein kollektives Werk, das von einer französischen Gesellschaft
für Eugenik veröffentlicht wurde, an deren Gründung March 1912 beteiligt
war, als er von einem in London gehaltenen Weltkongreß für Eugenik zurück-
kehrte). Die Kombination von mathematischer Statistik und Eugenik, die da-
mals in England bereits vollzogen war, ließ sich nicht direkt übernehmen:
March war der einzige französische Statistiker, der sich mit beiden Gebieten
beschäftigte. Dieses doppelte Interesse war rein persönlicher Natur und konn-
te daher nicht dazu beitragen, die Verwaltungsstatistik in ein umfassenderes
politisches und wissenschaftliches Netzwerk einzugliedern, da die Strömung
der selektionistischen Eugenik in Frankreich nicht die gleiche Bedeutung hat-
Entwurf und Scheitern eines Einflußnetzwerks 181

te, wie jenseits des Kanals.10 Folglich verhielt es sich nicht nur so, daß die
politischen und wirtschaftlichen Umstände für die Gründung einer bedeuten-
den statistischen Einrichtung ungünstig waren, in der man Forschungsarbei-
ten zu verschiedenen demographischen, sozialen und ökonomischen Bereichen
zentralisieren und zusammenfassen konnte. Auch die persönlichen Bindungen
und Interessen von March begünstigten eine solche Entwicklung keinesfalls.
Dennoch hätte die ursprüngliche Organisation der Volkszählungen von 1896
bis 1938 – welche in einfallsreicher Weise die Demographie mit der Beschrei-
bung von Betriebsstrukturen kombinierte – die Keimzelle für eine solche In-
stitution liefern können. Das wäre in Großbritannien nicht möglich gewesen,
denn dort waren Bevölkerungsstatistik und Wirtschaftsstatistik voneinander
getrennt (und sind es immer noch).
Letzten Endes war die Situation in Frankreich am Vorabend des Zweiten
Weltkriegs dadurch gekennzeichnet, daß es kaum Begegnungs- und Diskus-
sionsorte gab, an denen sich Fachleute der Sozialwissenschaften – seien es
Statistiker, Demographen, Ökonomen oder Soziologen – mit Führungskräften
aus Politik und Verwaltung, mit Unternehmern und mit Gewerkschaftern tref-
fen konnten. Im Rahmen des Staates gab es derartige Diskussionsforen noch
nicht, aber die Umrisse zeichneten sich in den Vorstellungen einiger Intellek-
tueller und Ingenieure ab. Verfolgt man die hier erzählte Geschichte zurück,
dann trifft man immer wieder auf Bewegungen aufgeklärter Persönlichkeiten,
die außerhalb des Staates den Versuch unternahmen, die französische Gesell-
schaft mit Hilfe von Enqueten zu untersuchen und zu analysieren. Später
hat der Staat, der oftmals von diesen Reformern umgestaltet wurde, diese
Begegnungs- und Diskussionsorte auf die eine oder andere Weise in die neuen
Institutionen eingegliedert. Die Demoskopen und die Zeitreisenden unter den
Philosophen des 18. Jahrhunderts verfaßten, nachdem sie Präfekten geworden
waren, die Statistiken“ ihrer Departements. Bis in die 1830er Jahre wurden

lokale Monographien von Provinzbürgern, Ärzten, Verwaltungsbeamten und
Geschäftsleuten verfaßt. Einige von ihnen beteiligten sich am Wettbewerb um
den Montyon-Preis11 für Statistik, der von der Akademie der Wissenschaf-
ten verliehen wurde (Brian, 1991, [36]). Wir begegnen diesen Autoren – den
Anhängern der Moralstatistik“ – erneut in der 1829 gegründeten Zeitschrift

Annales d’hygiène publique (Lécuyer, 1977, [172]), die bis in die 1850er Jahre
hinein aktiv war und die amtliche Statistik kritisierte. Nach 1860 kam es zu
einer Annäherung der beiden Kategorien von Statistikern, das heißt der Ver-
10
Jedoch förderte die von Carrel von Alexis im Jahre 1942 gegründete Stiftung
zum Studium der Probleme der menschlichen Spezies diese eugenistische Kon-
zeption; die Stiftung wurde später in das nach der Befreiung gegründete INED
eingegliedert (Drouard, 1983, [71]; Thévenot, 1990, [274]).
11
Der Montyon-Preis durfte nur für rein deskriptive Arbeiten zur Statistik verliehen
werden; bewertet wurden (wie bereits in der napoleonischen Bürokratie) nur die
strikten Aufzeichnungen kontingenter Fakten. Aus der Statistik des Montyon-
Preises geht hervor, daß mathematische Arbeiten ausdrücklich zurückgewiesen
wurden, weil man sie als zu eng begrenzt ansah (vgl. Armatte, 2001, [344]).
182 5 Statistik und Staat: Frankreich und Großbritannien

waltungsstatistiker und der Moralstatistiker, und sie wurden gemeinsam in


der Société de statistique de Paris (SSP) aktiv. Adolphe und Jacques Bertil-
lon, Ärzte und nacheinander Leiter des Statistischen Bureaus der Stadt Paris,
symbolisierten diese Allianz ebenso, wie Levasseur (Universitätslehrer) und
Cheysson (Ingenieur für Brückenbau).
Die Bewegung der außerhalb des Staates durchgeführten Enqueten hat-
te ab 1840 bis zum Ende des Jahrhunderts eine eigenständige Form mit
den Familienbudgets von Arbeitern“, einer Sammlung von Frédéric Le Play

(1806–1882). Le Play war Bergbauingenieur und Prophet einer konservati-
ven christlich-sozialen Schule, die gleichzeitig dem allgemeinen Wahlrecht, der
Beschäftigung im kapitalistischen Lohnverhältnis und der gleichen Erbtei-

lung“ 12 feindlich gegenüberstand. Aber es war eine technizistische Schule, die
gegenüber der Wissenschaft offen war und die Lebensbedingungen der Arbei-
ter aufmerksam verfolgte (Savoye, 1981, [251]). Aufgrund der Positionen ihres
Gründers, der ein Gegner des republikanischen Staates war, wurde diese dy-
namische Gruppe zu einer Sekte. Einige ihrer Mitglieder spielten jedoch eine
bemerkenswerte Rolle: Cheysson an der SSP und als Professor für Statistik,
du Maroussem (1900) im Arbeitsamt (Office du travail ), wo er monographi-
sche Untersuchungen über Unternehmen verfaßte (die von Halbwachs 1907
und die von Dugé de Bernonville 1913 an der SGF durchgeführten Unter-
suchungen zu den Familienbudgets von Arbeitern waren nicht direkt durch
die Aktivitäten von Le Play inspiriert worden; wir diskutieren diese Enque-
ten im Kapitel 7 ausführlicher). Der von Le Play verwendete Bezugsrahmen
stützte sich auf die Trilogie Familie, Arbeit, Ort“ und hatte später außerhalb

von Frankreich in Großbritannien (Geddes) und in Deutschland (Schnapper-
Arndt) Einfluß. Aber in Frankreich verkümmerte diese von der universitären
Soziologie abgeschnittene Strömung. Ihre letzten Vertreter waren im Umfeld
der Vichy-Regierung zu finden (Kalaora und Savoye, 1985, [142]).

Statistik und Wirtschaftstheorie – eine späte Verbindung


Vor 1930 hatten einige Demographen, Ärzte, Philanthropen und Sozialrefor-
mer häufig auf statistische Argumente zurückgegriffen. Bei den Ökonomen
war das überraschenderweise weit weniger üblich – unabhängig davon, ob sie
geisteswissenschaftlich oder mathematisch gebildet waren. Multiple Korrela-
tionen und multiple Regressionen, die sich auf ökonomische Variable bezogen,
waren zwar bereits von Statistikern (Yule, March, Bunle) berechnet worden,
12
Le Play sprach in diesem Zusammenhang von der unbeständigen Familie“: Beim
” ”
Tode des Vaters wird die schon verstreute Familie aufgelöst; das Erbe wird durch
die gleiche Zwangsteilung zerstückelt, und der landwirtschaftliche oder industri-
elle Betrieb, wenn es einen gibt, wird liquidiert. Dies System hat sich aus dem
Individualismus ergeben und charakterisiert fast alle modernen Gesellschaften
und besonders Frankreich.“
Statistik und Wirtschaftstheorie – eine späte Verbindung 183

aber sie wurden nicht mit wirtschaftswissenschaftlichen Überlegungen ver-


knüpft (eine Ausnahme war jedoch die Arbeit von Lenoir (1913, [177]) zur
Konstruktion der Angebots- und Nachfragekurven). Die Verbindung zwischen
Statistik und Wirtschaftstheorie war nicht selbstverständlich. Die Ökonomen
hatten die Intuition, daß die verfügbaren Messungen – beispielsweise Preis-
messungen – Endprodukte komplexer Verkettungen waren, bei denen sich die
von den entsprechenden Modellen theoretisch beschriebenen Wirtschaftsme-
chanismen nur schwer aufklären ließen. So dachten vor allem Jean-Baptiste
Say, Walras und sogar Cournot, der in Statistik doch ziemlich bewandert war
(Ménard, 1977, [193]). Auf einer tieferliegenden Ebene verhielt es sich so, daß
der Wahrscheinlichkeitsbegriff von diesen Ökonomen noch sehr oft mit dem
Begriff des unzulänglichen Wissens assoziiert wurde und nicht mit der in-
trinsischen Variabilität der ökonomischen Phänomene. Diese Variabilität war
mit der deterministischen Philosophie unvereinbar, die aus der Physik des 19.
Jahrhunderts hervorging. Für die obengenannten Ökonomen war die Physik
des 19. Jahrhunderts ein Modell, das es ihrer Wissenschaft ermöglichte, den
Ungewißheiten und den Undeterminiertheiten der anderen Sozialwissenschaf-
ten und der Philosophie zu entkommen (Mirowski, 1989, [197]). Von dieser
Warte aus war die Statistik – von der man nicht so recht wußte, was sie wi-
derspiegelte – nicht notwendigerweise ein guter Verbündeter im Kampf um
dieselbe Anerkennung, wie sie die Physik erfahren hatte. Statistik ist keine

Experimentalwissenschaft“: seit der von Claude Bernard formulierten Kritik
kam es immer wieder zu Debatten über die Natur der statistischen Erkenntnis.
Aber in den 1920er Jahren sagte sich die Physik mit der Quantenme-
chanik und der Heisenbergschen Unschärferelation13 in entschiedener Weise
vom Laplaceschen Determinismus los. Ungefähr zur gleichen Zeit wurde die
von Kolmogorow axiomatisierte Wahrscheinlichkeitstheorie ein vollwertiges
Teilgebiet der Mathematik und nahm eine zentrale Stellung in verschiedenen
Naturwissenschaften ein. Und schließlich erreichte die inferentielle Statistik 14
mit Ronald Fisher und dann mit Neyman und Egon Pearson ein hinreichend
allgemeines Formalisierungsniveau, um in vielfältigen Zusammenhängen ein-
gesetzt werden zu können. Diese Entwicklungen ermöglichten eine Vereini-
gung von drei früher sehr unterschiedlichen Strömungen, die zur Entstehung
der Ökonometrie im modernen Sinne (das heißt auf der Grundlage von Wahr-
scheinlichkeitsmodellen) beigetragen haben: es handelt sich hier um die neo-
klassische Wirtschaftstheorie von Walras und Marshall15 , um die Anfänge
13
Es gibt eine Reihe von anderen Bezeichnungen für diesen Begriff, zum Beispiel:
Unbestimmtheitsrelation, Ungenauigkeitsrelation, Unsicherheitsrelation.
14
Auch schließende Statistik bzw. induktive Statistik genannt.
15
Alfred Marshall (1842–1924) studierte Mathematik in Cambridge und wandte
sich später der Nationalökonomie zu. Sein Interesse an der Nationalökonomie
erklärte er damit, daß die Untersuchung der Armut gleichzeitig die Untersuchung

der Wurzel der sozialen Deklassierung eines großen Teiles der Menschheit ist.“
Marshalls Bücher lesen sich glatt und flüssig und sind so formuliert, daß die
meisten Aussagen selbstverständlich zu sein scheinen. Mathematik wird kaum
184 5 Statistik und Staat: Frankreich und Großbritannien

der Ökonometrie à la Lenoir und Moore in den Jahren von 1910 bis 1930,
die ohne Modelle auskam, und um die neue inferentielle Statistik, die aus
der englischen Biometrie hervorgegangen war. Diese Konvergenz wurde von
Haavelmo (1944, [116]) formalisiert und führte zum Programm der amerikani-
schen Cowles Commission 16 , das die strukturelle Abschätzung von Modellen
mit simultanen Gleichungen zum Gegenstand hatte (Morgan, 1990, [204]).
Diese neue Synthese von Statistik und Wirtschaftstheorie fand in Frank-
reich unmittelbar in der Nachkriegszeit Verbreitung, wobei eher Ingenieure als
Universitätslehrer beteiligt waren: die Bergbauingenieure Maurice Allais und
René Roy, sowie Edmond Malinvaud am INSEE und an der ENSAE (Bun-
gener und Joël, 1989, [40]). Und so bahnte sich nunmehr mit Nachdruck ei-
ne starke Allianz zwischen theoretischer Wirtschaftslehre, angewandter Wirt-
schaftslehre und dem statistischen Apparat an. Diese Allianz trug dazu bei,
die Statistik mit einer Legitimität und Autorität auszustatten, die sich über-
haupt nicht mit der Situation von vor zwanzig Jahren vergleichen ließ. Die
wesentliche Transformation der Rolle und der Art und Weise des Eingreifens
von Ökonomen, die eher an Ingenieursschulen als an Universitäten lehrten
oder in öffentlichen Verwaltungen oder Unternehmen arbeiteten, war bereits
vor dem Krieg von einem Kreis von ehemaligen Schülern der École polytech-
nique angekündigt und vorbereitet worden.
Das Centre polytechnicien d’études économiques (auch X-Crise genannt)
wurde unter den Bedingungen der Wirtschaftskrise und der politischen und
intellektuellen Krise der 1930er Jahre (Boltanski, 1982) von einer Gruppe ge-
gründet, der Jean Ullmo (1906–1980), Alfred Sauvy (1898–1990) und Jean
Coutrot angehörten. Die von der Gruppe organisierten Vorträge sind ein gu-
tes Beispiel für die Errichtung eines Netzwerks, das in den Wirren der Krise
die Erarbeitung einer gemeinsamen Sprache und eines neuen Bezugssystems
anstrebte. Statistik und Ökonomie – die im Begriff waren, sich im Rahmen
der Ökonometrie zu vereinigen – sollten fortan Objekte dieser gemeinsamen
Sprache bleiben. Außer den obengenannten Gründern, die oft Vorträge hiel-
ten, referierten die Ökonomen Charles Rist und Jacques Rueff, die Soziologen
Bouglé, Halbwachs und Simiand (der damals in diesem Umfeld ein großes Pre-
stige hatte), der Historiker Marc Bloch, der Mathematiker und Wahrschein-
lichkeitstheoretiker Darmois sowie Paul Reynaud und Paul Valéry (X-Crise,
1982, [289]). Aber im Unterschied zu ihren Saint-Simonistischen oder ihren le-
playsianischen Vorläufern des 19. Jahrhunderts ergriffen diese Absolventen der
verwendet oder in die Fußnoten verbannt, damit jeder Interessierte die Bücher
lesen kann.
16
Die 1932 von dem amerikanischen Geschäftsmann und Ökonomen Alfred Cowles
in den USA gegründete Cowles Commission for Research in Economics arbeitete
eng mit der Ökonometrischen Gesellschaft zusammen. Ab Mitte der 1940er Jahre
war die Cowles Commission zum wichtigsten Zentrum für quantitative Ökono-
mie geworden. Die mit der Kommission assoziierten Ökonomen entwickelten bis
Anfang der 1950er Jahre den ökonometrischen Ansatz, der die Ökonometrie mehr
als zwei Jahrzehnte lang dominierte.
Statistik und Wirtschaftstheorie – eine späte Verbindung 185

École polytechnique nicht mehr den Beruf eines Soziologen, sondern wurden
vielmehr Ökonomen.
Eine Reihe von Konferenzen war der Ökonometrie“ gewidmet (in ihrem

ursprünglichen Sinne der Quantifizierung von Wirtschaftsmodellen). François
Divisia (1889–1964), einer der ersten französischen Universitätsökonomen, die
sich für den systematischen Gebrauch der Statistik in den Wirtschaftswis-
senschaften einsetzten, sprach 1933 über die Arbeiten und Methoden der

Gesellschaft für Ökonometrie“, die drei Jahre zuvor gegründet worden war.
Er zitierte Irving Fisher, aber auch March und dessen Arbeiten über den
Preisindex, bezeichnete Lenoir als den Ersten, der die Methode der multi-

plen Korrelationen bei den Preisuntersuchungen einführte“, nannte Gibrat
und dessen Ungleichheitsindex“ der Einkommensverteilungen und zitierte

den englischen Statistiker Arthur Bowley wegen dessen Untersuchung zur

Preisstreuung als Symptom von Wirtschaftskrisen“. Jan Tinbergen17 (1903–
1994) beschrieb 1938 seine ökonomischen Forschungen über die Bedeutung

der Börse in den Vereinigten Staaten“. Jacques Rueff hielt 1934 ein Referat
mit dem Titel Warum ich trotz allem liberal bleibe“, während Jean Ullmo

1937 die theoretischen Probleme einer gelenkten Wirtschaft“ untersuchte.

Die beiden letztgenannten Titel zeigen, wie die theoretischen Überlegun-
gen, die durch die Krise der 1930er Jahre ausgelöst worden waren, mit einer
Kritik des liberalen Denkens und einem Interesse für gelenkte Wirtschaften“,

das heißt für Planwirtschaften, zusammenhingen. Diese Betrachtungen stan-
den ganz im Gegensatz zu den Überlegungen, die später durch die Krise der
1980er Jahre ausgelöst wurden; sie beruhten auf der Kritik der Planwirtschaf-
ten und makroökonomischen Regulierungen, wobei diese Kritik ihrerseits aus
exakt denjenigen Theorien hervorging, die in den 1930er Jahren in Zirkeln
wie X-Crise formuliert worden waren. Die diskutierten Vorstellungen kamen
anschließend erneut zur Sprache, zum Beispiel in Einrichtungen wie dem Plan-
kommissariat, in dem von Claude Gruson 1950 gegründeten Service des études
économiques et financières (SEEF), im INSEE (das Gruson von 1961 bis 1967
leitete), oder in dem von Sauvy 1946 gegründeten INED. Einmal mehr führ-
ten also Themen, die außerhalb des staatlichen Rahmens entwickelt worden
waren, zu einer Umgestaltung des Staates und zu einer Institutionalisierung
des öffentlichen Debattenraumes. Die technische Kompetenz tendierte dazu,
sich in den Staat einzugliedern. Das unterscheidet Frankreich deutlich von
Großbritannien und von den Vereinigten Staaten. In diesen Ländern besaßen
die Universitäten eine große Vitalität und knüpften mit der Verwaltung en-
ge, aber keine ständigen Wechselbeziehungen und diese Tatsache verlieh der
Verbindung von Wissenschaft und Staat ein ganz anderes Gefüge.
17
Tinbergen erhielt 1969 zusammen mit Ragnar Frisch den ersten Nobelpreis für
Wirtschaftswissenschaften.
186 5 Statistik und Staat: Frankreich und Großbritannien

Britische Statistik und öffentliche Gesundheit

Das Großbritannien des 19. Jahrhunderts war nicht nur das Land, in dem
die Biometrie und die mathematische Statistik entstanden sind. Es war auch
das Land, in dem unter den Bedingungen des industriellen und städtischen
Wachstums und seiner dramatischen Folgen die verschiedensten Formen der
Beziehungen zwischen Verwaltungsstatistik und nichtadministrativer Stati-
stik, Gesellschaftsanalyse und Gesetzgebung ausprobiert worden sind, um die
mit diesem Wachstum zusammenhängenden Probleme zu behandeln: Armut,
öffentliche Gesundheit (public health) und Arbeitslosigkeit. Die britische Ver-
waltung neigte nicht dazu, den überwiegenden Teil des statistischen Wissens
und der einschlägigen Expertise in Ämter zu integrieren, die von ihr abhängig
waren. Gewiß gab es diese Ämter, aber sie waren breiter gestreut als in Frank-
reich. Zudem waren sie umstritten und ihre Organisation wurde oft infrage
gestellt. Darüber hinaus pflegten Gruppen von Sozialreformern, Gelehrtenge-
sellschaften und Universitätslehrern die gute Tradition der Erhebungen und
der Debatten zur Konstruktion eines praktischen Wissens, das sich unmit-
telbar umsetzen ließ. Die beiden Umfelder – das heißt der Verwaltungsbe-
reich und der Bereich der Sozialforscher und Wissenschaftler – waren von-
einander verschieden, standen aber in kontinuierlicher Wechselwirkung: die
Sozialforscher und die Wissenschaftler waren zum Beispiel im Rahmen der
parlamentarischen Untersuchungskommission ständig an den Entscheidungen
des Verwaltungsbereiches beteiligt. Das unterschied England von Frankreich,
wo dieser Personenkreis (zum Beispiel die Leplaysianer) weniger aktiv oder
weniger an die Verwaltung gebunden war. Und das war auch ein Unterschied
zu Deutschland, in dem das Gelehrtenmilieu zwar vorhanden war, aber auch
mehr Mühe hatte, sich Gehör zu verschaffen. Arthur Bowley (1869–1957) war
eine Persönlichkeit, die diese typisch englische Verbindung zwischen Univer-
sität und Verwaltung besonders gut symbolisierte. Er war Professor an der
London School of Economics (LSE) und formulierte zu Beginn des 20. Jahr-
hunderts in deutlicher Weise die wissenschaftlichen und beruflichen Normen
eines Metiers, das es in dieser Form überhaupt noch nicht gab: es handelte sich
um den Beruf des Verwaltungsstatistikers, der sich auf die Errungenschaften
der mathematischen Statistik stützte.
Die Geschichte der britischen amtlichen Statistik war durch die Aufein-
anderfolge von gesetzgebenden Akten großer Tragweite und durch institutio-
nelle Ad-hoc-Gründungen gekennzeichnet, die zu einem zersplitterten System
führten, das erst im Jahre 1941 durch das Central Statistical Office (CSO)
teilweise koordiniert wurde. Zwischen 1832 und 1837 stellte eine Reihe von
politischen und wirtschaftlichen Reformen den liberalen Bezugsrahmen auf,
der mindestens bis zum Jahre 1914 den Hintergrund für alle Debatten bil-
dete. Dieser Rahmen beinhaltete vor allem das Prinzip des Freihandels, die
Bedeutung der örtlichen Gewalten (Stadtgemeinden und Grafschaften), die
Armenfürsorge in Arbeitshäusern (workhouses) anstelle einer direkten Beihil-
fe (Fürsorgegesetzgebung von 1834, welche die Speenhamland Act of Parlia-
Britische Statistik und öffentliche Gesundheit 187

ment von 1796 ersetzte; letztere sah Geldbeihilfen für die Kirchengemeinden
vor (vgl. Polanyi, 1983, [234])). Diese drei Aspekte bestimmten die Formen
des im Entstehen begriffenen statistischen Systems. Im Jahre 1832 wurde im
Board of Trade (Handelsministerium) ein statistisches Bureau gegründet, das
sich mit Handelsbeziehungen, Export und Import befaßte. Im Übrigen erfolgte
die Verwaltung des Fürsorgerechtes auf lokaler Ebene und zog die Gründung
von Fürsorgeverbänden in jeder Grafschaft nach sich (1834). Die auf dem
Territorium verstreute neue Struktur ermöglichte 1837 die Akzeptanz des
General Register. Dieses weltliche Personenstandsregister wurde damals ge-
gründet, um Abhilfe gegen die Tatsache zu schaffen, daß die Ausbreitung von
religiösen Konfessionen, die sich von der amtlichen anglikanischen Kirche un-
terschieden, eine zusammenhängende Registrierung der Taufen, Heiraten und
Sterbefälle verhinderte. Der nicht konfessionsgebundene Personenstand hing
also von Anfang an mit der Verwaltung des Fürsorgegesetzes und den dafür
zuständigen örtlichen Behörden zusammen. Die britische öffentliche Statistik
war somit gleich auf Anhieb in zwei unterschiedliche Teile geteilt: für den Teil
der Wirtschaftsstatistik war das Board of Trade zuständig, für die Sozialsta-
tistik hingegen das General Register Office (GRO). Zum großen Teil besteht
diese Situation immer noch: das Office of Population, Censuses and Surveys
(OPCS), das 1970 die Nachfolge des GRO angetreten hatte, ist weiterhin eine
autonome Institution geblieben und das Central Statistical Office (CSO), das
im Prinzip das ganze System koordiniert, ist mehr auf Wirtschaftsstatistik
ausgerichtet. In Frankreich dagegen hatte die SGF schon ab 1833 wenigstens
die Aufgabe, die Statistik zu zentralisieren (selbst wenn sie dieser Aufgabe
nicht vollständig nachgekommen ist). Und die SGF war ein ausschließlich in
Paris ansässiges Bureau ohne örtliche Verbindungen: die zwischen 1837 und
1852 geplanten statistischen Kantonskommissionen waren gescheitert.
Die Situation in Großbritannien war eine ganz andere. Das GRO, das von
1837 bis 1880 durch den Arzt William Farr (1807–1883) in Schwung gehalten
wurde, hing eng mit der Public Health Movement zusammen und kann mit
den französischen Hygienikern verglichen werden. Die Behörde war in die Ver-
waltung des Fürsorgegesetzes einbezogen – und zwar nicht nur deswegen, weil
sie in die örtlichen Fürsorgeverbände (poor law unions) eingegliedert war, son-
dern auch aufgrund der Tatsache, daß ihr diese Verwaltung ein Mittel in die
Hand gab, eine Legitimität von unten zu konstruieren, die ihr nicht sofort vom
Zentralstaat übertragen werden konnte (Szreter, 1991, [271]). Die englische
öffentliche Meinung stand damals den Interventionen einer nationalen Exe-
kutive feindselig gegenüber, die ohne weiteres bonapartistischer Tendenzen
verdächtigt wurde. Die Bewegung zur öffentlichen Gesundheit konnte sich nur
auf unabhängige örtliche Initiativen stützen. Das GRO hatte seinerseits kei-
nen direkten Zugang zu den Entscheidungsprozessen. Die Behörde hatte nur
wenig Macht; sie konnte lediglich Überzeugungsarbeit leisten und Ratschläge
geben. Das GRO schmiedete eine Politik der Allianzen mit lokal ansässigen
Ärzten und Behörden, um die Bevölkerungsstatistik zu fördern, das heißt die
vom klassischen Personenstand (Geburten, Heiraten, Sterbefälle) und von der
188 5 Statistik und Staat: Frankreich und Großbritannien

Morbidität gebildete Gesamtheit, wobei die Morbidität die Statistik der spe-
zifischen Todesursachen bezeichnete. Diese Daten wurden entsprechend einer
geographischen Feineinteilung zusammengestellt, die das Ziel verfolgte, schnell
auf die Brutstätten von Epidemien und Zentren des Elends hinzuweisen. Das
GRO spielt somit eine wesentliche Rolle bei der Diagnose und der Behand-
lung eines Problems, das die englische Gesellschaft während des gesamten
Jahrhunderts bedrängt hatte – das Problem der mit der Industrialisierung
und der anarchischen Verstädterung zusammenhängenden Not. Beispielswei-
se veröffentlichte und verglich das GRO die Kindersterblichkeit in den großen
Industriestädten. In Liverpool starb die Hälfte der Kinder, bevor sie das Alter
von sechs Jahren erreicht hatten. Zuvor hatte man aus dem schnellen Bevölke-
rungwachstum, das die Stadt zwischen 1801 und 1831 zu verzeichnen hatte,
die Schlußfolgerung abgeleitet, daß dort das Klima vermutlich besonders ge-
sund war.
Das GRO schuf auf diese Weise mit seinen vereinheitlichten Daten einen
Komparabilitäts- und Konkurrenzraum zwischen den Städten. Die Behörde
erweckte das Interesse für einen nationalen Wettbewerb in Bezug auf die
Senkung der Sterblichkeitsraten. Die Gesundheitsdienste eines jeden Ortes
verfügten über diese Informationen und hätten sie deswegen auch selbst auf-
bereiten können. Das GRO erzeugte jedoch durch die gleichzeitige Sammlung
und Veröffentlichung dieser Informationen ein neues Bedürfnis und schuf da-
durch einen Markt für seine Produkte. Die Sterblichkeitsrate im Allgemeinen
und insbesondere die Kindersterblichkeit wurden zu relevanten Indikatoren für
die Gemeindepolitik. Es konnte kein direktes allgemeines Interesse für diese
Statistiken erweckt werden, da es keine nationale Politik für den Umgang mit
der Armut gab. Das öffentliche Interesse wurde jedoch dadurch erweckt, daß
man mit Hilfe der Sterblichkeitsraten die Konkurrenz zwischen den Städten
förderte. Auf diese Weise wurden die Sterblichkeitsraten zu einer Angelegen-
heit von nationaler Bedeutung; sie wurden 1848 sogar im neuen Gesetz zur
öffentlichen Gesundheit (public health law ) verankert. Dieses Gesetz legte fest,
daß Orte mit einer Sterblichkeitsrate von mehr als 23 von Tausend (vom GRO
berechneter nationaler Durchschnitt) sogenannte Gesundheitstafeln“ (health

tables) aufstellen mußten, um die Durchführung von Gesundheitsreformen zu
unterstützen. In den 1850er Jahren ging William Farr noch weiter, indem
er die mittlere Sterblichkeitsrate der 63 gesündesten Distrikte ermittelte (ein
Zehntel aller Distrikte): er kam auf 17 von Tausend und wies diese Sterblich-
keitsrate allen anderen Distrikten als Ziel zu. Er ersetzte somit den nationalen
Durchschnitt durch ein ehrgeizigeres Optimum und bereitete damit auf sei-
ne Weise die später von Galton durchgeführte Verschiebung vor: das durch
den Durchschnitt ausgedrückte Ideal (Quetelet) wird durch den Begriff des
Optimums ersetzt, den das äußerste Ende der Verteilung repräsentiert. Unter
Bezugnahme auf die Mortalität, die für die im gesamten Territorium verstreu-
ten Distrikte festgehalten wurde, war er dann dazu in der Lage, die Tausende
von Todesfällen zu berechnen, die man in den anderen Distrikten hätte ver-
Britische Statistik und öffentliche Gesundheit 189

meiden können, wenn die – keineswegs nur theoretische, sondern sehr wohl
reale – Rate von 17 von Tausend überall existiert hätte.
Das GRO machte sich diese Verhaltensrichtlinie zu eigen und positionier-
te sich dadurch im Zentrum einer allgemeineren Bewegung, deren Ziel die
Prävention war. Darüber hinaus stellte die Behörde eine spezifische Spra-
che und Werkzeuge bereit, welche sich von denen der Ärzte unterschieden,
die ihrerseits einzeln mit isolierten“ Patienten zu tun hatten. Der englischen

Behörde gelang, was ihre französischen Amtskollegen nicht erreicht hatten:
zunächst in den örtlichen Verwaltungen und dann nach 1900 auf nationaler
Ebene diejenigen Instrumente des statistischen und wahrscheinlichkeitstheore-
tischen Risikomanagements einzuführen, mit denen die Versicherungsmathe-
matiker bereits vertraut waren. Somit übersetzte das GRO diejenigen Ideen in
eine öffentliche Handlungsweise, die implizit bereits in den von Quetelet popu-
larisierten Durchschnittsbegriffen enthalten waren (im Übrigen war Farr ein
Bewunderer von Quetelet). Darüber hinaus lenkte das GRO die Aufmerksam-
keit und die Debatte auf das wirtschaftliche und soziale Umfeld als erklären-
den Faktor der Mortalität, die ihrerseits als Folge des Elends wahrgenommen
wurde. Wie zur gleichen Zeit in Frankreich stand auch in Großbritannien der
Durchschnitt als Analysewerkzeug in einem engen Zusammenhang zur Verbes-
serung der sanitären Bedingungen und der Gesundheitspflege im städtischen
Umfeld.18 Zum Zweck des Handelns führte Farr eine Neuklassifikation der
Todesursachen aus einem verallgemeinerten Blickwinkel durch:

Die Überlegenheit einer Klassifikation läßt sich nur durch die Anzahl
der verallgemeinerungsfähigen Fakten oder durch die praktischen Er-
gebnisse feststellen, zu denen diese Klassifikation führt ... Die Klas-
sifikation der Krankheiten muß durch die Art und Weise begründet
werden, in der sich diese Krankheiten auf die Bevölkerung auswirken
... Die erste Klasse umfaßt die endemischen oder epidemischen Krank-
heiten, denn diese sind es, die am meisten variieren und fast immer
verhütet oder abgemildert werden können. (Farr, 1839, zitiert nach
Szreter, 1991, [271].)
Diese Art der Klassifizierung, die mit einer präventiven oder abmildern-

den“ Handlung verbunden ist, kann von einer wissenschaftlichen oder klini-
schen Ätiologie abweichen, welche sich auf die Untersuchung von Einzelfällen
stützt, die der Arzt mit der Absicht durchführt, seine Patienten zu heilen. Das
GRO konzentrierte seine Arbeit auf die Verbesserung der öffentlichen Gesund-
heit und schuf sich dadurch die Position einer wissenschaftlichen Autorität im
Zentrum eines informellen nationalen Netzwerks, das für den Informationsfluß
18
Die Verwendung von Mittelwerten war auch kohärent mit der Position, die von
den Ärzten des GRO in der im Kapitel 3 beschriebenen Debatte vertreten wurde,
bei der die Kontagionisten“ den Verfechtern der Miasmentheorie“ gegenüber
” ”
standen: William Farr neigte zur Miasmentheorie und war antikontagionistisch
eingestellt.
190 5 Statistik und Staat: Frankreich und Großbritannien

sorgte. Dieses Netzwerk umfaßte die an den Verbesserungsbestrebungen be-


teiligten Ärzte, aber auch die entsprechenden örtlichen Behörden und Verwal-
tungsbehörden: Die Kraft der verbreiteten Botschaften hing nicht nur einfach

von der wissenschaftlichen Strenge der entsprechenden Betrachtungsweise ab,
sondern auch – und zwar auf kritischere Weise – von der kommunikativen
Fähigkeit des GRO, mit den betreffenden Informationen umzugehen und sie
so zu präsentieren, daß sie maximalen Einfluß auf ein Publikum ausüben, das
größer und vielgestaltiger ist, als nur die Zielgruppe der Ärzte.“ (Szreter, 1991,
[271].) Die statistische Totalisierung ließ eine allgemeinere Sichtweise hervor-
treten, als den Standpunkt der Ärzte, die – vor allem wenn sie im Krankenhaus
arbeiteten – nur ihre Patienten sahen und deswegen eine andere Auffassung
von Fragen der öffentlichen Gesundheit hatten.
Die vom GRO gewählte Aktionsform trug dazu bei, eine Weiterentwick-
lung des britischen Staates und eine Wandlung der Wahrnehmung des Staates
in der öffentlichen Meinung vorzubereiten. Das Spektrum der öffentlichen Mei-
nung erstreckte sich von der Furcht vor einem als Unterdrücker fungierenden
Zentralstaat bis hin zum Wohlfahrtsstaat des 20. Jahrhunderts. Die Statistik
spielte bei dieser Transformation eine wesentliche Rolle, und zwar gleichzei-
tig als Werkzeug (in diesem Kontext entstanden die Stichprobenerhebungen)
und als Symbol einer neuen Funktion des Staates. Diese Verschiebung war
schon 1859 von John Stuart Mill beobachtet worden, der in seinem Essay
Representative Government die Probleme der Volksgesundheit nannte: Der

Zentralstaat erlangt durch seine Fähigkeit, Auskünfte zu sammeln und diese
Informationen zu verarbeiten, eine ausgeprägte Funktion, die über den loka-
len und persönlichen Autonomieforderungen steht.“ (Mill, 1859, zitiert von
Szreter, [271].)
Die Linie des GRO war auf der medizinischen Ebene gleichzeitig epide-
miologisch und antikontagionistisch und auf der sozialen Ebene sowohl en-
vironmentalistisch als auch reformistisch. Diese Linie wurde seit Beginn der
1880er Jahre aufgrund einer zweifachen Fortentwicklung bekämpft und teil-
weise ausgegrenzt: einerseits durch die Fortschritte in der Mikrobiologie und
andererseits durch den Aufstieg des Sozialdarwinismus und der evolutioni-
stischen Theorien der natürlichen Auslese. Die Entdeckungen auf dem Ge-
biet der Bakteriologie, die sich auf die Ursachen und die unmittelbare Be-
handlung von Krankheiten bezogen, verringerten die relative Bedeutung der
statistischen Epidemiologie und disqualifizierten die Theorie der Miasmen.
Die Eugeniker behaupteten ihrerseits, daß die philanthropischen und refor-
mistischen Unterstützungsmaßnahmen für die Ärmsten nur die Reproduktion
von untauglichen Personen begünstigen und die natürliche Auslese behindern
würden. Diese Position stellte einen Frontalangriff auf die Politik der Public
Health Movement dar und stieß sich an der Aufmerksamkeit, die diese Bewe-
gung den örtlichen Milieus und Umfeldern schenkte. Zunächst (vor 1910) hatte
das GRO diese seine Position verteidigt und bei der Vorlage der Zählergeb-
nisse auch weiterhin den Akzent auf geographische Unterteilungen gesetzt,
von denen man annahm, daß sie die soziale Situation am besten erklärten.
Britische Statistik und öffentliche Gesundheit 191

Die Anhänger der Eugenik, die gegen das GRO auftraten, sprachen jedoch
von Degeneration und von sozialem Verfall als Folge von erbbedingten Merk-
malen und Fähigkeiten, die sich auf einer eindimensionalen Ordinalskala dar-
stellen ließen. Diese Überzeugung führte Galton dazu, adäquate Instrumente
zur Messung der Vererbung zu schmieden (Kapitel 4): die Statistiker vom
GRO und die Begründer der Biometrie befanden sich somit in entgegenge-
setzten Lagern. Die Biometriker verwendeten die beruflichen Tätigkeiten der
Individuen als Indikatoren der entsprechenden Eignungen und das wiederum
führte dazu, diese auf einer eindimensionalen Skala anzuordnen (Szreter, 1984,
[270]). Und so spiegelte sich für einige Zeit die Debatte zwischen den beiden
Strömungen in der Gegensätzlichkeit zweier als relevant vorausgesetzter Un-
terteilungen wider – für die eine Strömung war die geographische Unterteilung
relevant, für die andere dagegen die berufliche Unterteilung.
Aber die Situation änderte sich gegen 1910. Zwischen 1906 und 1911 er-
setzte eine Reihe von neuen Sozialgesetzen das ehemalige Fürsorgegesetz von
1834. Ein Rentensystem (1908), Arbeitsvermittlungsbüros (1909) und Sozial-
versicherungen (1911) kamen hinzu. Im Unterschied zu den hauptsächlich lokal
angesiedelten Fürsorgemaßnahmen des 19. Jahrhunderts wurde der entstehen-
de Wohlfahrtsstaat auf der Grundlage von nationalen Gesetzen aufgebaut, die
ihrer Form nach auf dem gesamten Territorium homogen waren. Das führte zu
einer Änderung der Termini in der Debatte zwischen den Statistikern des GRO
und den Eugenikern. Anläßlich der Volkszählung von 1911 gaben die GRO-
Statistiker ihre Zustimmung, die Hypothesen der Eugeniker unter Verwendung
einer nationalen Berufsklassifikation zu testen, die aus fünf hierarchisch an-
geordneten Kategorien bestand. Diese Klassifikation bildete die ursprüngliche
Matrix der Nomenklaturen der sozialen Schichten – Nomenklaturen, die dann
im gesamten 20. Jahrhundert von den englischen und amerikanischen Demo-
graphen und Soziologen verwendet wurde. Die behauptete eindimensionale
Struktur dieser Kategorien – die stark von der Struktur der französischen
berufssoziologischen Nomenklatur abwich – hatte ihren fernen Ursprung in
dieser alten Debatte, die sich fast über ein ganzes Jahrhundert hingezogen
hat.
Die Bewegung zur öffentlichen Gesundheit und ihre Verbindung zum GRO
ist ein beispielhafter Fall für eine Verkettung, die sich auch in anderen Fällen
beobachten läßt: Debatten und statistische Erhebungen in Reformkreisen aus-
serhalb des Staates wurden von parlamentarischen Ad-hoc-Kommissionen auf-
gegriffen und führten zu einer neuen Gesetzgebung, die ihrerseits der Ursprung
eines spezialisierten statistischen Bureaus war. Die Frage nach der Bildung der
Volksschichten wurde im Zusammenhang mit der Kriminalität und der Trunk-
sucht aufgeworfen. Man führte zu diesen Themen statistische Untersuchungen
durch, deren Ergebnisse umstritten waren: manche Fachleute leiteten daraus
die Schlußfolgerung ab, daß die Kriminalität in gebildeten Kreisen nicht nied-
riger ist. Im Jahre 1870 wurde ein Gesetz zum Schulwesen verabschiedet;
1876 erfolgte die Gründung eines statistischen Bureaus für Schulwesen. Die
Aufmerksamkeit richtete sich anschließend auf die Wirtschaftsstatistiken von
192 5 Statistik und Staat: Frankreich und Großbritannien

Einrichtungen zur Selbsthilfe (self-help) innerhalb der Arbeiterklasse: Ver-


sicherungsgesellschaften auf Gegenseitigkeit und Sparkassen. Innerhalb des
Board of Trade kam es 1886 zur Gründung eines Labour Department (in
Frankreich wurde das Office du travail 1891 innerhalb des Handelsministe-
riums gegründet; ähnliche Einrichtungen entstanden zur gleichen Zeit in den
Vereinigten Staaten). Das Labour Department sammelte Statistiken, die von
den Gewerkschaften, den Versicherungsgesellschaften auf Gegenseitigkeit und
von den Genossenschaften kamen (Metz, 1987, [195]). Bis zur Gründung der
Arbeitsvermittlungsämter im Jahre 1909 waren die Daten der Gewerkschaften
die einzigen, mit denen man die Arbeitslosigkeit messen konnte, die um 1880
als unabhängiges soziales Problem in Erscheinung trat, das sich vom Pro-
blem der Armut unterschied (Mansfield, 1988, [187]). In diesen dreißig Jahren
vervielfachten sich die Debatten zur Taxonomie, um im Rahmen umfassen-
derer Diskussionen – mit dem Ziel der Reformierung des Gesetzes von 1834
– zwischen Untauglichen, Armen und Arbeitslosen unterscheiden zu können
(die im Kapitel 4 vorgestellten Forschungen von Yule zum Pauperismus las-
sen sich nur in diesem Kontext verstehen). Im Jahre 1905 wurde eine Royal
Commission zur Reform des Fürsorgerechtes gegründet. Der Kommissions-
bericht wurde 1909 veröffentlicht (mit einem widersprüchlichen Gutachten
einer Minderheit von Kommissionsmitgliedern) und man richtete Arbeitsver-
mittlungsämter ein, die den Beginn einer Organisation des Arbeitsmarktes
darstellten.
Die Vielfalt der untereinander nicht koordinierten Bureaus für amtliche
Statistik führte in den 1920er und 1930er Jahren zu Kritiken und Reformvor-
schlägen. Mehrmals – aber vergeblich – wurde die Gründung eines übergeord-
neten Central Statistical Office (CSO) vorgeschlagen. Die Gründung des CSO
erfolgte erst 1941 im Zusammenhang mit der kriegsbedingten intensiven Mo-
bilisierung der wirtschaftlichen Ressourcen (Ward und Doggett, 1991, [285]).
Die ersten Berechnungen des Nationaleinkommens (Richard Stone) spielten
eine aktive Rolle bei der teilweisen Vereinheitlichung der Standpunkte der
verschiedenen Behörden. Im Gegensatz zu den entsprechenden französischen
und deutschen Behörden faßte das CSO jedoch nicht den überwiegenden Teil
der Verwaltungsstatistik unter einem Dach zusammen. Das CSO koordinierte
aber die Methoden mehrerer unabhängiger Behörden, von denen die folgenden
beiden die wichtigsten waren: das für Produktionsstatistik zuständige Busi-
ness Statistical Office (BSO) (das schließlich 1989 mit dem CSO fusionierte)
und das alte GRO, das 1970 in das neue Office of Population, Censuses and
Surveys (OPCS) eingegliedert wurde. In jeder Phase ihrer Geschichte grif-
fen diese Behörden in umfassender Weise auf den Rat und die Mitarbeit von
Universitätslehrern zurück, denn zumeist waren es die Universitäten, deren
methodologische Untersuchungen zu statistischen Neuerungen führten. Harry
Campion, der Gründer des CSO, war Professor in Manchester. Arthur Bowley,
der noch bis in die 1940er Jahre eine wichtige Beraterfunktion innehatte, lehr-
te an der London School of Economics (LSE). Richard Stone, der Vater der
volkswirtschaftlichen Gesamtrechnung, gehörte der University of Cambridge
Sozialenqueten und wissenschaftliche Gesellschaften 193

an. Nichts oder fast nichts dergleichen gab es in Frankreich, wo die amtlichen
Statistiker aus Ingenieurskreisen hervorgingen und die Universitätslehrer bei
Debatten zur Statistik höchstens in seltenen Ausnahmefällen (Divisia, Per-
roux) in Erscheinung traten.

Sozialenqueten und wissenschaftliche Gesellschaften

Die Einbeziehung von Wissenschaftlern und Intellektuellen in die praktischen


Probleme der Regierung ihres Landes ist ein neuartiges Merkmal der briti-
schen Gesellschaft. Die englischen Wissenschaftler erfanden die Techniken zur
Objektivierung wissenschaftlicher Fakten. Diese Fakten ließen sich vom Be-
obachter abkoppeln, konnten übertragen werden, waren reproduzierbar und
vor widersprüchlichen Leidenschaften und Interessen geschützt. Für die Na-
turwissenschaften, insbesondere für die Physik und die Astronomie, war ein
derartiges Modell im 17. und im 18. Jahrhundert konstruiert worden. Die Be-
deutungsverschiebung des Begriffes Statistik“ von der allgemeinen Beschrei-

bung der Staaten (in diesem Sinne wurde das Wort im 18. Jahrhundert in
Deutschland verwendet) hin zur zahlenmäßigen Beschreibung von Gesellschaf-
ten (das war der Bedeutungsinhalt des Wortes im 19. Jahrhundert), ging mit
einer intensiven Arbeit einher, die das Ziel hatte, die Ansprüche und Metho-
den der Naturwissenschaften in die menschliche Gesellschaft zu überführen.
Diese Umsetzung erfolgte nicht im Selbstlauf. Man spürt das Ringen in den
endlosen Debatten zur Beschaffenheit der Statistik – im gesamten 19. Jahr-
hundert waren die statistischen Gesellschaften der europäischen Länder von
diesen Debatten beseelt. Ist die Statistik eine unabhängige Wissenschaft oder
ist sie eine Methode, die sich in verschiedenen Wissenschaften als nützlich
erweist? Kann man die Statistik mit den Experimentalwissenschaften verglei-
chen? Lassen sich die Fakten von den Meinungen über die Fakten trennen?
In Frankreich und in Deutschland spielten sich diese Debatten oft auf einer
akademischen Ebene ab. Im Gegensatz hierzu waren sie in Großbritannien
weitgehend mit Erhebungspraktiken, Diskussionen zu brennenden Fragen und
mit politischen Maßnahmen verknüpft, die sich auf folgende Probleme bezo-
gen: Freihandel, Armut, öffentliche Gesundheit, Ausbildung, Kriminalität und
Arbeitslosigkeit. Die Arbeiten der 1834 gegründeten Statistical Society of Lon-
don (die 1887 zur Royal Statistical Society wurde) zeigen die Spannung, die
damals aus der Schwierigkeit resultierte, zwei teilweise widersprüchliche Zie-
le zu verfolgen: einerseits wollte man die Zusammenstellung der Rohfakten
vollständig von jeglicher Interpretation und Ursachenanalyse abkoppeln; an-
dererseits beabsichtigte man, in der Nähe derjenigen lokalen oder nationalen
Führungskräfte zu bleiben, die für die Maßnahmen zur Lösung der prakti-
schen Probleme verantwortlich zeichneten (Abrams, 1968, [1]). Die Statistical
Society of London verkündete in dem anläßlich ihrer Gründung im Jahre 1834
veröffentlichten Manifest den Unterschied zwischen politischer Ökonomie und
Statistik. Beide hatten zwar das gleiche Ziel, nämlich die Wissenschaft vom

194 5 Statistik und Staat: Frankreich und Großbritannien

Wohlstand“, aber die Statistik unterschied sich von der politischen Ökonomie
durch folgende Tatsache:
... sie diskutiert weder die Ursachen, noch argumentiert sie bezüglich
der wahrscheinlichen Wirkungen, sondern versucht vielmehr, diejeni-
gen Faktenklassen zu sammeln, zu kombinieren und zu vergleichen,
welche allein die Basis für korrekte Schlußfolgerungen vom Stand-
punkt der gesellschaftlichen und politischen Exekutive liefern ... Dieser
Unterschied schließt jede Art von Spekulation aus ... Die statistische
Gesellschaft betrachtet es als ihre erste und wichtigste Verhaltensregel,
aus ihren Arbeiten und Publikationen sorgfältig alle Meinungen auszu-
schließen, um ihre Aufmerksamkeit strikt auf Fakten zu beschränken,
und zwar soweit wie möglich auf Fakten, die sich numerisch zusam-
menstellen lassen und in Tabellen angeordnet werden können. (London
Statistical Society, 1837, zitiert von Abrams, 1968, [1].)
Die Gründer und treibenden Kräfte dieser Gesellschaft standen der Regie-
rung nahe, und zwar so sehr, daß ihr Rat als Unterkommission des liberalen

Kabinetts“ bezeichnet werden konnte. Sie waren an den öffentlichen Dienst
gebunden, dienten einer Regierung, berieten diese und versuchten, sie zu be-
einflussen und zu rationalisieren. Indem sie das taten, erfanden und vertieften
sie die Regeln der Arbeitsteilung zwischen Politikern und Technikern. Die
Elimination der Meinungen und der Interpretationen war der Preis, den die-
se Statistiker zahlen mußten, das Opfer, das sie bringen mußten, damit ihre
Objekte die von den Politikern geforderte Glaubwürdigkeit und Universalität
erlangten. Dickens lästerte in einem seiner Romane über das Auftreten des
strengen und unerbittlichen Mr. Gradgrind, der unschuldige Leute zugrunde-
richtete, indem er Fakten, nichts als Fakten“ forderte. Ein Mitglied einer

anderen statistischen Gesellschaft – der Gesellschaft von Ulster – versicherte,
daß das Studium der Statistik langfristig die politische Ökonomie vor der

Ungewißheit bewahren wird, von der sie gegenwärtig umgeben ist“. Dieser
Zusammenhang zwischen Statistik und objektiver Gewißheit, der im Gegen-
satz zu Spekulationen und persönlichen Meinungen steht, hilft uns in der
Retrospektive beim Verständnis dessen, warum die Wahrscheinlichkeitsrech-
nung – die ursprünglich mit der Idee der Ungewißheit zu tun hatte – erst so
spät in den Werkzeugkasten der Statistiker (im Sinne des 19. Jahrhunderts)
aufgenommen wurde. Das statistische Manifest gab im Jahre 1837 eine klare
Definition der Funktion des Statistikers.
Aber ein so drastisches Opfer trug seine eigenen Schranken in sich, indem
es dem Statistiker eine enggefaßte Rolle zuwies und ihm verbot, seine Ener-
gie und seine Talente unter Umständen in zwei verschiedenen Richtungen zu
entfalten: in Richtung der Politik und in Richtung der Wissenschaft. Der Stati-
stiker konnte sich nur dann auf die Seite von politischen Entscheidungsträgern
stellen, wenn er vorher seine Religion Fakten ohne Meinung“ abgelegt hatte.

Aber er konnte auch nicht mehr aktiv an den Sozialwissenschaften, Wirt-
schaftswissenschaften oder an der Soziologie teilnehmen, denn dann müßte er
Sozialenqueten und wissenschaftliche Gesellschaften 195

seine Fakten in allgemeinere erklärende und interpretierende Systeme einord-


nen, die er nicht allein mit der Logik der in gebührender Weise konstatierten
Fakten rechtfertigen konnte. Der Statistiker war also gleichsam eingekeilt und
in die Enge getrieben. Diese Probleme führten dazu, daß dem Enthusias-

mus für Statistik“, der in den 1830er und 1840er Jahren deutlich ausgeprägt
war, für den nachfolgenden Zeitraum von etwa dreißig Jahren der Atem aus-
ging. In der ersten Zeit konzipierten die statistischen Gesellschaften – nicht
nur in London, sondern auch in Manchester und weiteren Industriestädten
– ehrgeizige Erhebungsprojekte. Diese Projekte bezogen sich auf Sparkassen,
Verbrechen, Mieten, Lebensbedingungen der Arbeiter und Streiks. Fragebögen
wurden nicht nur an eine repräsentative Auswahl der Bevölkerung versendet,
sondern auch an die zuständigen Behörden und an kompetente Personen: Poli-
zei, Krankenhäuser, Schulausschüsse, Versicherungsgesellschaften, Verwaltun-
gen des Fürsorgegesetzes, Fabrikdirektoren, Grundbesitzer, Zeitungsverleger,
Verwaltungsbeamte, Gefängnisdirektoren und vor allem an ortsansässige Mit-
glieder der statistischen Gesellschaften.
Aber in Ermangelung eines standardisierten Definitionsapparates und ei-
nes homogenen Erfassungsnetzes sowie aufgrund der Tatsache, daß manche
Ergebnisse unerwartet oder unbegreiflich waren, schlugen diese Versuche fehl
– ähnlich wie es vierzig Jahre zuvor (aber innerhalb der Verwaltung selbst)
den Enqueten der französischen Präfekten ergangen war (vgl. Kapitel 1). Der
technische Apparat, die Infrastruktur der Verwaltung und die Werkzeuge zur
Formalisierung der Daten waren noch zu beschränkt und erlaubten es den
Statistikern nicht, ihren 1836 unvermittelt proklamierten Prinzipiendiskurs
in anspruchsvollen Arbeiten auszutragen. Auch waren die Statistiker nicht
dazu in der Lage, ihre spezifische Legitimität gegenüber Politikern und Öko-
nomen deutlich durchzusetzen – ja, dies gelang ihnen nichteinmal gegenüber
Mathematikern und Philosophen der Wahrscheinlichkeitsrechnung, die zwar
ebenfalls in Großbritannien aktiv waren (George Boole19 , John Venn20 ), aber
in einer ganz anderen Welt lebten und keine Verbindung zu dieser Statistik
hatten.
Zwischen 1850 und 1890 wurde die statistische Gesellschaft mit den ag-
gregierten Daten versorgt, die von den amtlichen statistischen Büros kamen.
Diese Daten waren Nebenprodukte der bürokratischen Verwaltungstätigkeit:
Zölle, Armengesetz, Totenscheine, Statistiken von Gewerkschaften und Versi-
cherungsgesellschaften für gegenseitige Hilfe. Die Tradition der Umfragen leb-
te gegen 1890 wieder auf (Hennock, 1987, [128]). Charles Booth (1840–1916),
19
George Boole (1815–1864), Mathematiker und Logiker, baute die von ihm be-
gründete Logik ( Boolesche Algebra“) in seinem Hauptwerk An Investigation of

the Laws of Thought, on which are Founded the Mathematical Theories of Logic
and Probabilities (1854) systematisch aus.
20
John Venn (1834–1923) widmete sich unter dem Einfluß der Arbeiten von A. de
Morgan, G. Boole und J.S. Mill den Fragen der Logik und der Wahrscheinlich-
keitsrechnung (The Logic of Chance, 1866). Er entwickelte die grafische Darstel-
lung der kategorischen Aussagen der Klassenlogik weiter (Venn-Diagramme).
196 5 Statistik und Staat: Frankreich und Großbritannien

ein reicher bürgerlicher Reformer opferte sein Vermögen für eine beispiellose
Untersuchung über die Armut in London. Rowntree (1871–1954), ein Schoko-
ladenfabrikant, führte die Methoden von Booth weiter, um andere englische
Städte zu untersuchen und sie mit London zu vergleichen. Bowley, ein Öko-
nom und mathematisch ausgebildeter Statistiker, erfaßte und standardisierte
die Techniken der Stichprobenerhebung und allgemeiner die Techniken des
Sammelns, des Aufbereitens und der Interpretation von Sozialstatistiken auf
der Grundlage von Normen, die später von Fachleuten, Verwaltungsstatisti-
kern, Ökonomen und Soziologen übernommen wurden (Bowley, 1906 [29] und
1908 [30]). Die aufeinanderfolgenden Auflagen des Handbuchs von Bowley lie-
ferten bis in die 1940er Jahre für die Aufzeichnung und Aufbereitung von
Wirtschafts- und Sozialstatistiken einen Standard, der mit dem des Buches
von Yule über die mathematischen Techniken der Datenanalyse vergleichbar
war.21
Diese Arbeiten wurden zunächst von angesehenen Bürgern durchgeführt,
die technisch – und vor allem mathematisch – nicht allzu qualifiziert wa-
ren (Booth und Rowntree); sie drückten sich mit Hilfe der Methoden und in
der Sprache des 19. Jahrhunderts aus, aber dabei fand keine strikte Tren-
nung zwischen Fakten, Interpretationen und Empfehlungen“ statt. Eines der

Ziele von Booth bestand darin, zwischen den nichtresozialisierbaren Armen,
die für ihren eigenen Verfall verantwortlich waren und denjenigen zu unter-
scheiden, die Opfer von strukturellen Ursachen geworden waren, welche mit
der Wirtschaftskrise zusammenhingen. Er schätzte den relativen Anteil die-
ser Kategorien und leitete daraus Formen der Relegierung“ (zum Beispiel

die Ausweisung aus einer Stadt) oder einer geeigneten Fürsorge ab. Bow-
ley hingegen sah in der Anwendung anspruchsvoller technischer Normen die
Möglichkeit, mit größeren Erfolgschancen als in den 1830er Jahren eine klare
Trennung zwischen Experten und Entscheidungsträgern zu fordern. Auf diese
Weise bereitete er den Boden für die Autonomisierung einer neuen Gestalt
vor – der Gestalt des Staatsstatistikers, der mit einer besonderen beruflichen
Kompetenz ausgestattet ist und sich von Politikern und hohen Verwaltungs-
beamten ebenso unterscheidet wie von Universitätslehrern oder spezialisierten
akademischen Forschern. Noch zu Anfang des 20. Jahrhunderts war diese Ge-
stalt eine Seltenheit, aber ab 1940 war sie in der amtlichen Statistik allgemein
verbreitet.
In einem 1908 vor der Royal Statistical Society gehaltenen Vortrag The

improvement of official statistics“ analysierte Bowley sieben Voraussetzungen
dafür, daß eine statistische Operation konsistente Objekte erzeugt: Defini-
tion der Einheiten; Homogenität der untersuchten Populationen; Exhausti-
vität (das heißt adäquate Stichprobenerhebung); relative Stabilität (das heißt
Messungswiederholungen in dem von der Instabilität geforderten Rhythmus);
Vergleichbarkeit (eine isolierte Zahl hat keine Bedeutung); Relativität (Zähler
21
Vergleich und Interpretation der Untersuchungen von Booth, Rowntree und Bow-
ley werden im Kapitel 7 weitergeführt.
Sozialenqueten und wissenschaftliche Gesellschaften 197

und Nenner eines Quotienten müssen auf kohärente Weise geschätzt werden);
Genauigkeit (accuracy), die aus der Kombination der sechs vorhergehenden
Bedingungen resultiert. Er stellte fest, daß die Genauigkeit der amtlichen Sta-

tistiken – trotz der Aufmerksamkeit und der systematischen Überprüfungen,
der sie unterzogen worden sind – nur oberflächlich ist“. Zur Illustration seiner
Äußerungen gab er eine Reihe von konkreten Beispielen und machte mehrere
Vorschläge, die betreffenden Messungen vor allem durch die Verwendung wis-

senschaftlich ausgewählter Stichproben“ zu verbessern, wobei obligatorische
Fragen zu beantworten sind, um Verzerrungen zu vermeiden, die aufgrund
willkürlich gegebener Antworten auftreten. Zum Schluß schlug er – da es kein
Zentralamt für Statistik gab – die Gründung eines Central Thinking Office of
Statistics vor und erinnerte seine Zuhörer an den Ratschlag, den ein anderes
Mitglied der Gesellschaft gegenüber Statistikern geäußert hatte: Denken Sie

mehr nach und publizieren Sie weniger!“
In der sich anschließenden Debatte stimmte Yule den Äußerungen von
Bowley zu, machte aber zwei signifikante Bemerkungen. Er stellte fest, daß
die Annahme der Homogenität der Bevölkerungsgruppen nicht notwendig ist
und daß die neuen statistischen Methoden (das heißt die Methoden von Pear-
son) genau darauf abzielen, heterogene Bevölkerungsgruppen zu analysieren.
Bowley antwortete, daß es sich um ein Mißverständnis handelte. Im Übrigen
war Yule nicht davon überzeugt, daß eine Stichprobe wirklich zufällig und

für die Gesamtbevölkerung repräsentativ sein kann, selbst wenn eine entspre-
chende Antwort in ähnlicher Weise zur Pflicht gemacht wird, wie die Teilnah-
me an Geschworenengerichten“ (ein interessanter und selten angestellter Ver-
gleich). Die Debatte wurde dann mit einer scheinbar praktischen Frage fortge-
setzt, die jedoch das Problem der Beschaffenheit und des Realitätsstatus der
veröffentlichten amtlichen Statistiken aufwarf. Bowley hatte behauptet, daß
diese Veröffentlichungen immer auch von sämtlichen Einzelheiten zu den Me-
thoden und Definitionskonventionen sowie von allen Details zur Aufzeichnung,
Kodierung und Tabellierung begleitet sein müßten. Man hielt ihm entgegen,
daß diese Vorgehensweise das Risiko birgt, die betreffenden Veröffentlichun-

gen so voluminös und sperrig zu machen, daß sich deren Nützlichkeit eher
verringert als erhöht“. Bowley schlug in professioneller Weise vor, die Black
Box wenigstens einen Spalt geöffnet zu lassen, damit die Verfahren zur Her-
stellung der Objekte teilweise sichtbar bleiben. Man antwortete ihm in der
Fachsprache der Ökonomie: Wozu ist diese gewichtige Investition überhaupt
gut, wenn man sie nicht mit geschlossenen Augen benutzen kann und sie sich
nicht schlüsselfertig in andere Konstrukte integrieren läßt? Dieser scheinbar
harmlose Spannungszustand war der Kern der statistischen Realitätskonstruk-
tion. Die Entscheidung zwischen den beiden Anforderungen hing weitgehend
von der Legitimität und Glaubwürdigkeit der veröffentlichenden Institution
ab. Die Normen, die den für notwendig gehaltenen kritischen Apparat be-
stimmten, unterschieden sich je nachdem voneinander, ob es sich um eine
Dissertation, eine wissenschaftliche Zeitschrift oder um eine Verwaltungspu-
blikation handelte. Die Auswahl, die in dieser Hinsicht von den verschiedenen
198 5 Statistik und Staat: Frankreich und Großbritannien

Informationsverbreitungsträgern“ eines statistischen Amtes getroffen wird,



ist ein Hinweis darauf, ob sich die Legitimität des betreffenden Amtes eher
auf die Wissenschaft oder eher auf den Staat stützt.22
Das paradoxe Merkmal des englischen Gefüges bestand darin, daß das
neue Berufsprofil von einem Universitätslehrer kodifiziert wurde und daß es
dieser Umstand ermöglichte, die obengenannten Fragen zu einem sehr frühen
Zeitpunkt zu stellen. In Großbritannien nahmen abstrakte theoretische Über-
legungen an den Universitäten viel weniger Raum ein als in Frankreich und
sehr viel weniger als seinerzeit in Deutschland. Dagegen war die enge Wech-
selwirkung zwischen Universitäten, Verwaltung und Politik in Großbritannien
eine alltägliche und traditionsreiche Angelegenheit. In Deutschland fanden die
Vorstöße, die zwischen 1871 und 1914 in dieser Richtung unternommen wur-
den, bei der Verwaltung und im politischen Dienst des Kaiserreiches einen nur
geringen Anklang.

22
Ein weiterer wichtiger Indikator zu diesem Thema war der mehr oder weniger ano-
nyme Charakter einer Veröffentlichung. Eine Unterschrift wurde mit der Praxis
der wissenschaftlichen Konkurrenz in Verbindung gebracht, Anonymität hingegen
mit der Verwaltungspraxis.
6
Statistik und Staat:
Deutschland und die Vereinigten Staaten

Zu Beginn des 19. Jahrhunderts war die Existenz eines Nationalstaates in


Frankreich, Großbritannien und sogar in den Vereinigten Staaten gesichert
und wurde nicht mehr infrage gestellt. In Deutschland war das jedoch nicht
der Fall und das Land war noch immer in unterschiedliche Staaten von sehr
ungleichem Gewicht zersplittert. Die aufeinanderfolgenden Abschnitte der Er-
richtung der deutschen Nation prägten die Geschichte der nächsten beiden
Jahrhunderte: das Königreich Preußen, das Bismarcksche Kaiserreich, die
Weimarer Republik, das Nazireich, die BRD und die DDR voneinander ge-
trennt und schließlich das wiedervereinigte Deutschland. Diese Ungewißheit in
Bezug auf den Staat, seine Konsistenz und seine Legitimität hinterließen ihre
Spuren nicht nur in den Strukturen der statistischen Institutionen, sondern
auch in den Denkweisen und im Argumentationsverhalten. Die Ungewißheit
verlieh der deutschen Statistik – und allgemeiner den Sozialwissenschaften
und deren Beziehungen zur Macht – in ihren aufeinanderfolgenden Formen
eine besondere Färbung, die sich zumindest bis 1945 deutlich von den drei
anderen Ländern unterschied. Der in historischen und religiösen Traditionen
verankerte Wunsch nach Beibehaltung der Besonderheiten der Einzelstaaten
(und später der Bundesländer ) wurde durch einen Rechtsformalismus und
eine Organisation kompensiert, welche den Zusammenhalt des Ganzen auf
eine Art und Weise garantierten, die früher autoritär war und heute demo-
kratisch ausgerichtet ist. Philosophische Debatten hatten lange Zeit hindurch
in den deutschen Sozialwissenschaften – einschließlich der Statistik – einen
bedeutenden Raum eingenommen. Diese Debatten zeichneten sich durch ho-
listisches und historizistisches Denken aus, das dem Individualismus und den
vermeintlich reduktiven Universalismen des französischen Rationalismus und
des englischen Ökonomismus feindlich gegenüberstand. Die Beziehungen der
Universitätslehrer und der Statistiker zum Staat waren komplex, häufig kon-
fliktbeladen und erreichten selten die in Großbritannien beobachtete Flexi-
bilität und Kontinuität. Diese Merkmale waren für das Deutschland des 19.
Jahrhunderts und des beginnenden 20. Jahrhunderts typisch. Einige dieser
Merkmale bestehen seit 1945 weiter: der Föderalismus, der Rechtsformalis-
200 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

mus und die Organisation. Dagegen haben sich die statistischen Techniken
und deren Nutzung in der Verwaltung und in den Sozialwissenschaften den
entsprechenden anglo-amerikanischen Vorbildern angenähert.

Deutsche Statistik und Staatenbildung

Das Wort Statistik“ hat seinen Ursprung im Deutschland des 18. Jahrhun-

derts und bezeichnete eine deskriptive und nichtquantitative Staatenkunde“

oder Staatswissenschaft“, einen Bezugsrahmen und eine Nomenklatur, die

den Fürsten zahlreicher deutscher Staaten von Universitätsgelehrten vorge-
legt wurde (Kapitel 1). Unter diesen Staaten nahm Preußen eine herausragen-
de Stellung ein und es waren auch schon Quantifizierungspraktiken bekannt,
die sich deutlich von der Statistik unterschieden, wie sie von den Professo-
ren betrieben wurde. Wie zur gleichen Zeit in Frankreich teilten sich diese
Praktiken auf zwei verschiedene Bereiche auf: einerseits beschäftigte sich die
Verwaltung mit Statistik; andererseits befaßten sich aufgeklärte Amateure
damit (Hacking, 1990, [119]). Die königliche Regierung und ihre Bürokratie
sammelte Informationen, die geheim und ausschließlich dem eigenen Gebrauch
vorbehalten waren, um die Armee zu organisieren und Steuern zu erheben. In
der preußischen Statistik des 19. Jahrhunderts blieb die fundamentale Tren-
nung zwischen Militär und Zivilisten bestehen. Das führte zu einer entspre-
chenden Strukturierung der Tabellierungen und später auch der deutschen
Volkszählungen – die Unterscheidung zwischen den Beamten und den anderen
Berufsgruppen ist noch heute erkennbar: der Staatsdienst war ein wichtiges
Element bei der Definition der Identität von Individuen. Im Übrigen produ-
zierten Amateure“ – Geographen oder Reisende, die weder in der Verwaltung

noch an Universitäten tätig waren – zusammenfassende Arbeiten, die sich auf
Zahlen stützten und der Statistik im Wortsinne der folgenden Jahrhunderte
näher standen. Der bekannteste dieser Amateure war der Pfarrer Süssmilch
(1707–1767), dessen Göttliche Ordnung eines der Werke war, welche die De-
mographie begründeten (Hecht, 1979, [126]).
Nach der Niederlage gegen die Armeen Napoleons wurde der preußische
Staat umorganisiert und mit einem statistischen Dienst ausgestattet. Die-
ser existierte ohne Unterbrechung von 1805 bis 1934 und war die wichtigste
Behörde des im Jahre 1871 proklamierten Deutschen Reiches (Saenger, 1935,
[246]). Die anderen deutschen Staaten – Bayern, Sachsen, Württemberg, ... –
erhielten in der ersten Hälfte des 19. Jahrhunderts ebenfalls statistische Bu-
reaus. Das Deutsche Statistische Reichsamt wurde 1872 gegründet, aber die
Ämter der verschiedenen Staaten blieben bis 1934 unabhängig und wurden
danach vom vereinigten Statistischen Reichsamt des Nazistaates aufgesogen.
(Im Jahre 1949 stellte die neue Bundesrepublik das vor 1934 existierende
System wieder her: die Bundesländer erhielten statistische Landesämter, die
sich von dem in Wiesbaden gegründeten Statistischen Bundesamt unterschei-
den, wobei die Aktivitäten der einzelnen Ämter jedoch ziemlich koordiniert
Deutsche Statistik und Staatenbildung 201

sind). Das Königlich Preußische Statistische Bureau und die anderen deut-
schen statistischen Bureaus erbten die drei Traditionen des 18. Jahrhunderts
und amalgamierten sie miteinander: die von den Universitätslehrern verfaß-
ten politischen, historischen und geographischen Beschreibungen, die Verwal-
tungsregister der Beamten und die Zahlentabellen der gelehrten Amateure.
Die Leiter der statistischen Bureaus (und späteren statistischen Ämter) waren
oft gleichzeitig Universitätsprofessoren für Staatswissenschaften“. In diesen

beiden Tätigkeitsbereichen erarbeiten sie umfangreiche Kompilationen über
die verschiedenen Aspekte eines Territoriums, dessen historische, religiöse, kul-
turelle und wirtschaftliche Identität den deskriptiven und explikativen“ Leit-

faden lieferte. Aber im Unterschied zu ihren Vorgängern im 18. Jahrhundert
bezogen diese Statistiken“ immer mehr Zahlentabellen aus den Bereichen der

Demographie und der Verwaltungstätigkeit ein. Die engen Verbindungen zur
Verwaltung waren durch die Tatsache gekennzeichnet, daß diese Ämter an das
Innenministerium angegliedert waren – ein Ministerium der direkten politi-
schen Verwaltung –, während ihre französischen und englischen Amtskollegen
eher den Ministerien aus dem Bereich der Wirtschaft (Handel, Arbeit, Finan-
zen) unterstellt waren. Dieser Unterschied blieb auch weiterhin bestehen: die
Statistik ist einer der Mechanismen, die einen Staat zusammenhalten, dessen
Konsistenz mehr Probleme aufweist, als es in anderen Staaten der Fall ist.
Das Königlich Preußische Statistische Bureau zeigte eine große Beständig-
keit. In den einhundertneunundzwanzig Jahren seiner Existenz hatte es nur
sechs Leiter. Zwei von ihnen übten einen besonders langen und weitreichen-
den Einfluß aus: Hoffmann, Leiter von 1810 bis 1845, und vor allem Ernst
Engel1 , Leiter von 1860 bis 1882. Die ersten Leiter der statistischen Bureaus
waren hohe Beamte, die gleichzeitig andere Positionen innehatten – nicht nur
an Universitäten, sondern auch im diplomatischen Dienst oder im Staatsrat,
wo sie an der Gesetzgebung mitwirkten. Vor der Ernennung Engels im Jahre
1860 bestand die Tätigkeit dieses Bureaus – vergleichbar mit der Tätigkeit der
SGF unter Moreau de Jonnès – darin, große Mengen von Daten zu sammeln
und zu veröffentlichen, die von anderen Verwaltungen aufgezeichnet worden
waren und sich somit jeglicher technischen Kontrolle, aber auch jeder zen-
tralen Koordinierung entzogen. Die veröffentlichten Tabellen bezogen sich auf
Bevölkerungsbewegungen“ (Personenstand), aber auch auf Preise, Existenz-
” ”
mittel“, Finanzstatistiken, Gebäude und Schulen für das gesamte Königreich
und für dessen Provinzen: diese subtilen geographischen Beschreibungen wa-
ren von großer Bedeutung. Die Gesamtheit der deskriptiven Arbeiten bildete
ein unzusammenhängendes administratives und territoriales Patchwork, des-
sen Reputation als Datenquelle in der Retrospektive eher schwach war. Aber
1
Ernst Engel wurde 1821 in Dresden geboren, wo er 1896 auch starb. Er studierte
an der École des mines in Paris bei Le Play. In Belgien lernte Engel Adolphe Que-
telet kennen, mit dem er später eng zusammenarbeitete. Bevor Engel nach Berlin
ging, war er von 1850 bis 1858 Leiter des Königlich Sächsischen Statistischen

Bureaus“ in Dresden.
202 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

es ist wahrscheinlich, daß diese Publikationen durch ihre Existenz und ihr Vo-
lumen – als Symbole der Staatsmacht und ihrer Verwaltung – genauso wichtig
waren, wie durch die Details und die Präzision ihrer imposanten Tabellen. Im
Unterschied zu England war Deutschland noch nicht sehr industrialisiert und
die sozialen Probleme waren noch nicht im gleichen Maße erkennbar. Dagegen
spielten die Probleme, die durch die politischen und militärischen Beziehun-
gen zwischen den Staaten, durch den im Entstehen begriffenen Zollverein und
durch die wachsende Macht Preußens hervorgerufen wurden, in der Zeit vor
1860 eine wesentliche Rolle. Danach änderte sich die Situation, nicht nur auf-
grund der starken Persönlichkeit von Engel, sondern auch deswegen, weil der
wirtschaftliche und politische Kontext – aufgrund der schnellen Industriali-
sierung und der Reichseinigung mit Preußen an der Spitze – nicht mehr der
gleiche war.
Ernst Engel ist vor allem wegen seiner Arbeiten über Familienbudgets
und wegen der Formulierung einer Elastizitätsrelation, des Engelschen Ge-

setzes“, bekannt, gemäß dem sich mit steigendem Einkommen der Anteil der
Ausgaben für Nahrungsmittel zugunsten der Ausgaben für Dienstleistungen
verringert. Zunächst war Engel ein typischer Statistiker des 19. Jahrhunderts,
ein aktiver und streitbarer Organisator, der sich aber gegenüber den Finessen
der Mathematik noch nicht übermäßig aufgeschlossen zeigte. Die Rolle eines
solchen Statistikers bestand darin, Verwaltungsmechanismen ex nihilo zu er-
schaffen, zu ändern oder ihnen eine andere Richtung zu geben, um Bureaus
zu vereinigen oder zu koordinieren und deren Tätigkeit – auf der Grundlage
von mehr oder weniger hierarchisierten und zentralisierten Formen – einer all-
gemeinen Logik unterzuordnen. Zu seinen Funktionen gehörte es aber auch,
das Interesse anderer Akteure zu erwecken und das statistische Amt in umfas-
sendere wissenschaftliche und politische Netzwerke einzubinden. Wir hatten
bereits festgestellt, daß die französische SGF unter Lucien March und das bri-
tische GRO unter William Farr diese beiden Ziele mehr oder weniger erreicht
hatten. In Bezug auf Engel und das Preußische Statistische Bureau verhielten
sich die Dinge jedoch anders. Zwar gelangen ihm die technische Umgestaltung
und die administrative Zentralisierung, die seine Vorgänger nicht zustandege-
bracht hatten. Jedoch scheiterte er teilweise an der zweiten Aufgabe, das heißt
am Aufbau eines wissenschaftlich-politischen Netzwerks, obgleich er einen be-
deutenden Beitrag zur 1872 erfolgten Gründung des Vereins für Socialpolitik
geleistet hatte. Aber das Scheitern Engels betraf nicht nur ihn allein. Es war
auch das Schiffbruch des aus Professoren und angesehenen liberal-gemäßigten
Persönlichkeiten bestehenden Vereins, dem es nicht gelang, der autoritären
Politik Bismarcks eine andere Richtung zu geben. Die Geschichte von Engel
und seinem statistischen Bureau läßt sich nicht von diesem umfassenderen
Vorhaben trennen, das mit den Sozialgesetzen zwar zur Hälfte gelungen war,
dessen andere Hälfte jedoch fehlschlug, da das politische Bündnis schließlich
auseinanderbrach.
Engel machte sich 1861 an die Aufgabe, das Preußische Statistische Bu-
reau vollständig umzugestalten, indem er die Statistiken des Staates so er-
Deutsche Statistik und Staatenbildung 203

weiterte und vereinheitlichte, daß ihm der überwiegende Teil ihrer Umset-
zung anvertraut wurde. Für die Zählungen schuf er individuelle Berichte, da-
mit die grundlegenden Daten aller befragten Personen – und nicht nur die
Daten der maßgeblichen angesehenen Persönlichkeiten (Bürgermeister, Prie-
ster) – gespeichert wurden. Die Berichte wurden vom Bureau selbst entworfen
und ausgewertet (die zentrale Auswertung wurde in Frankreich erst 1896 von
March eingeführt). Engel erhöhte die Anzahl und Vielfalt der Publikationen.
Darüber hinaus gründete er eine zentrale statistische Kommission, die als
Verbindungsstelle zwischen den Ministerien und dem Bureau fungierte. Und
schließlich gründete er 1870 – gemäß dem für die damaligen deutschen Univer-
sitäten typischen Modell – auch ein statistisches Seminar , um die Statistiker
der anderen Verwaltungen oder Staaten auszubilden, die bald darauf im neuen
Reich vereinigt wurden. Viele Ökonomen und Wirtschaftshistoriker besuchten
dieses Seminar und wurden in der Folgezeit, nach den Vertretern des Vereins,
zu den bekanntesten Repräsentanten der wirtschaftswissenschaftlichen Denk-
richtung, die den Namen deutsche historische Schule 2 trug. Diese Ökonomen,
die Gegner der österreichischen und der englischen abstrakten deduktiven und
formalisierten Ökonomie waren, legten großen Wert auf empirische Monogra-
phien mit historischer und statistischer Grundlage und verfuhren nach den
Methoden, die Engel gelehrt hatte.3
Zu der Zeit, als Engel das statistische Bureau leitete, setzte in Deutschland
ein rasches industrielles Wachstum ein. Deutschland holte England und Frank-
reich ein – Länder, in denen der Start zur Industrialisierung früher erfolgt war.
Es mußte eine Statistik der gewerblichen Betriebe geschaffen werden. Engel
stellte sich eine vereinheitlichte Zählung der Individuen, Berufe und Betriebe
auf der Grundlage individueller Berichte vor (so war auch das in Frankreich
im Jahre 1896 gewählte System beschaffen). Die erste Zählung der Industrie-
betriebe erfolgte 1876, eine Vollerhebung zu den industriellen Einrichtungen
wurde 1882 durchgeführt. Diese Zählungen waren im letzten Viertel des 19.
Jahrhunderts der Ursprung einer historisch bedeutsamen statistischen Rei-
he zu Berufen und Betrieben (Stockmann und Willms-Herget, 1985, [268]).
Auf diese Weise wurden die Statistiken des Produktionsapparates mit den
Beschäftigungsstatistiken verbunden. Die Industrialisierung hatte ein schnel-
les Wachstum der Arbeiterklasse zur Folge. Die Arbeiterklasse war durch die
sozialdemokratische Bewegung gewerkschaftlich und politisch hochorganisiert.
Engel und die Ökonomen des Vereins kämpften für die Schaffung von Versiche-
rungssystemen für gegenseitige Hilfe, die auf der Idee der Selbsthilfe beruhten.
2
Die deutsche historische Schule repräsentiert die ökonomische Ausprägung des
historistischen Denkens. Der Historismus bestreitet die Existenz allgemeingülti-
ger sozialwissenschaftlicher Gesetze. Anders als in den Naturwissenschaften seien
Gesetze“ in den Sozialwissenschaften geschichtlich bedingt.
3 ”
Die betreffenden Ökonomen waren später selbst eine Quelle der Inspiration für
die amerikanischen institutionalisierten Ökonomen, welche ihrerseits die Statistik
umfassend nutzten und zwischen 1910 und 1930 zur Gründung der Ökonometrie
beitrugen.
204 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Engel hatte bereits 1858 die Idee einer Versicherungsgesellschaft neuen Typus
und eine solche Gesellschaft auch gegründet: Hypotheken bildeten die Grund-
lage des Schutzes gegen die Androhung der Wohnungspfändung, die damals
bei Arbeitern häufig durchgeführt wurde (Hacking, 1987, [118]). Außerdem
wirkte er an der Sozialgesetzgebung mit, die von der Bismarck-Regierung in
Antwort auf die von der Arbeiterbewegung erhobenen Forderungen in die
Wege geleitet wurde. Im Zeitraum von 1881 bis 1889 führte die Regierung
die Kranken-, Unfall-, Invaliden- und Alterssicherungsgesetze ein; 1891 folg-
te das Arbeiterschutzgesetz.4 Dieses allererste soziale Sicherungssystem hatte
denjenigen Statistikern und Ökonomen sehr viel zu verdanken, die mit Engel
innerhalb des vom Verein geknüpften Netzwerks in Verbindung standen.
Aber als diese Gesetze verabschiedet wurden, mußte Engel 1882 von sei-
nem Posten zurücktreten, da er gegen die protektionistische Politik Bismarcks
auftrat5 (Bismarck, der Verbindungen zu den ostpreußischen Grundbesitzern
hatte, lehnte erhöhte Importzölle für Getreide ab, was zu einer Steigerung
der Nahrungsmittelpreise führte und die Löhne belastete. Dadurch waren Ar-
beiter und Fabrikanten gleichermaßen benachteiligt und die Spannungen zwi-
schen ihnen nahmen zu). Bereits zuvor war dem Engelschen Vorhaben die Luft
ausgegangen. Im Jahre 1873 stagnierte sein statistisches Seminar und das In-
teresse der preußischen Beamten für Statistik ließ nach. Es war ihm weder
gelungen, die Beziehungen zwischen dem statistischen Amt und den lokalen
Verwaltungen aufrechtzuerhalten (die er anfangs durch die Gründung von 97
örtlichen Ämtern fördern wollte), noch hatte er es erreicht, die in den anderen
Ministerien erstellten statistischen Untersuchungen vollständig zu vereinheit-
lichen. Nach dem erzwungenen Abgang von Engel im Jahre 1882 kam es zu
einem Vertrauensbruch zwischen der Regierung und dem Preußischen Stati-
stischen Landesamt. Saenger rekonstruierte 1935 die Geschichte dieses Amtes
(zu einem Zeitpunkt also, an dem dieses von der statistischen Zentralbehörde
aufgesogen wurde) und beschrieb die sich abzeichnende Schwächung des wis-
senschaftlichen und politischen Netzwerks:

Im Gegensatz zu Friedrich dem Großen hatte Bismarck nicht viel für


Statistik übrig und dachte sogar, daß man darauf verzichten könne. Es
ist nur allzu verständlich, daß der Blitz, der unerwartet den Leiter des
Amtes getroffen hatte und dieses in seiner Tätigkeit lähmte, nur zur
Vorsicht gemahnen konnte und zu einem großen Vorbehalt gegenüber
allen Eingriffen von außen führte ... Die zentrale statistische Kommis-
sion, die zur Zeit von Engel eine sehr anregende Tätigkeit ausgeübt
hatte, schlief allmählich ein ... Das Preußische Statistische Landesamt
4
Die erste Berufszählung des Deutschen Reiches wurde 1882 durchgeführt, um
insbesondere Unterlagen für die ein Jahr zuvor eingeleitete Etablierung der Sozial-
versicherung zu liefern.
5
Engel hatte 1881 unter einem Pseudonym einen Angriff auf die Bismarcksche
Schutzzollpolitik veröffentlicht und trat später aus gesundheitlichen Gründen“

zurück.
Deutsche Statistik und Staatenbildung 205

ging fast unmerklich von einer Institution, die als Unterstützungsor-


gan für Gesetzgebung, Verwaltung und Wirtschaft vorgesehen war,
in ein wissenschaftliches Institut über, in dem Forschungsarbeiten je
nach Begabung oder Interessenlage der Institutsmitglieder veröffent-
licht wurden. (Saenger, 1935, [246].)

Dieses retrospektive Urteil wurde also fünfzig Jahre nach dem Rücktritt
Engels gefällt – und zwar von einem Leiter des gleichen Amtes, das zudem ge-
rade von einem Blitz getroffen wurde, der noch viel vernichtender als der von
Bismarck geschleuderte Blitz sein sollte. Vielleicht wollte Saenger damit nur
den Gedanken nahelegen, daß sich Hitler – ebenso wie Bismarck – nicht auf die
Autorität Friedrichs des Großen berufen konnte, denn er hatte das Preußische
Statistische Landesamt schlecht behandelt. Dennoch war die Tätigkeit die-
ses Amtes zwischen 1882 und 1914 von Bedeutung und es war durchaus kein
Institut, in dem Forschungsarbeiten je nach Interessenlage der Institutsmit-

glieder veröffentlicht wurden“. Bevölkerungsstatistiken wurden alle fünf Jahre
erstellt. Zwei große Zählungen – eine Berufszählung und eine Betriebszählung
– fanden 1895 und 1907 statt. Es wurden statistische Untersuchungen durch-
geführt, deren Themen ein deutlicher Hinweis darauf waren, wie das Amt dem
jeweiligen Hauptanliegen der Verwaltung folgte: zusätzliche Steuern, Taug-
lichkeit für den Wehrdienst und dessen Aufteilung zwischen Stadt und Land,
Schul- und Universitätssystem, Nationalitäten und Gemeindefinanzen. Aber
das Preußische Statistische Landesamt spürte allmählich die doppelte Kon-
kurrenz, die aus dem Wirtschaftswachstum und der deutschen Einigung re-
sultierte. Die rasche industrielle Entwicklung ging mit der Gründung von sehr
großen Firmen, Kartellen und Arbeitgeberverbänden einher; diese wiederum
führten ihre eigenen Datenaufzeichnungen, was früher der amtlichen Statistik
oblag und nun einen Verlust dieses Monopols nach sich zog. Saenger beschreibt
die Folgen der deutschen Einheit in Ausdrücken, die ein Jahrhundert später an
die Folgen der europäischen Einigung erinnern – mit Ausnahme der Tatsache,
daß es heute in Europa keinen Staat gibt, der die Gemeinschaft so deutlich
dominiert, wie damals Preußen das Reich dominiert hatte:
In dem Maße, in dem eine vereinheitlichte deutsche Wirtschaft ge-
schaffen wurde, verloren die ausschließlich auf Preußen beschränkten
Daten ihren Wert. Es war noch ein Staat, aber es war keine vollwer-
tige wirtschaftliche Entität mehr. Je mehr sich die Gesetzgebung des
Reiches ausbreitete, desto stärker war der Bedarf an Daten, die über-
all auf einheitlicher Grundlage erfaßten werden ... Man konnte die
einzelnen Staaten nicht mehr berücksichtigen und Preußen sogar nur
in geringerem Maße als die mitteldeutschen Staaten, die noch mehr
oder weniger geschlossene wirtschaftliche Entitäten bildeten ... Die
Statistik des Reiches wurde immer wichtiger. Die preußische zentrale
Kommission wurde allmählich durch Arbeitskommissionen ersetzt, in
denen die statistischen Ämter der Staaten und des Reiches vereinigt
206 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

waren. Die beratende Rolle der Kommission wurde von nun an vom
Bundesrat übernommen. (Saenger, 1935, [246].)

Jedoch übernahm das Preußische Amt zunehmend Arbeiten für die an-
deren Staaten und es kam zu einer allmählichen Arbeitsteilung zwischen der
preußischen Statistik und der gesamtdeutschen Statistik. Dieses empirische
Gleichgewicht bestand bis zum Zusammenschluß beider Behörden im Jahre
1934. Der beschriebene Prozeß ist bedeutsam: die Vereinheitlichung erfolgte
schrittweise und es konnten mehrere Behörden nebeneinander bestehen, deren
Konkurrenz- und Komplementaritätsbeziehungen durch die jeweiligen politi-
schen Verhältnisse, durch Verhandlungen und Kompromisse geregelt waren.
Im Gegensatz hierzu kannte der französische Staat, der politisch schon seit
langem geeint war, keine derartigen wechselnden Beziehungen. Auch die ge-
genwärtige deutsche Statistik beruht auf einem Gleichgewicht, das zwischen
dem Bund und den Ländern ausgehandelt wird, wobei der Bundestag (und
vor allem die zweite Versammlung, der die Bundesländer vertretende Bundes-
rat) eine wichtige Kontrollfunktion der Tätigkeit des Statistischen Bundesam-
tes ausübt. Die im Aufbau begriffene europäische Statistik – beginnend mit
dem Statistischen Amt der Europäischen Gemeinschaften (dem in Luxem-
burg eingerichteten EUROSTAT) – wird womöglich durch seinen föderalen
und zwischen unabhängigen Staaten ausgehandelten Charakter mehr mit der
historisch gewachsenen deutschen Statistik gemeinsam haben, als mit dem
zentralisierten französischen System, das auf dem Territorialprinzip beruht.
Die gleichen Probleme stellen sich in den anderen Ländern Mittel- und Ost-
europas, die nach dem bundesstaatlichen Prinzip aufgebaut sind.

Historische Schule und philosophische Tradition

Die Schwierigkeiten, die Engel und das Preußische Statistische Landesamt


nach 1880 mit der politischen Macht hatten, beschränkten sich nicht nur auf
die von Saenger beschriebenen wirtschaftlichen und administrativen Proble-
me. Die Abkühlung der Beziehungen zwischen den Statistikern und der kai-
serlichen Regierung war eine allgemeinere Erscheinung und betraf die gesamte
gemäßigt-liberale Strömung, der Engel durch den Verein für Socialpolitik an-
gehörte. In den ersten Jahren nach seiner Gründung im Jahre 1872 hatte
dieser Verein zunächst – aufgrund der geringen Bedeutung des Reichstags –
die Funktion eines Fürstenberaters und eines Beraters von Spezialisten, Sta-
tistikern und Ökonomen, die Gesetzestexte vorbereiteten. In dieser Hinsicht
ließ sich der Verein mit der englischen Statistical Society vergleichen. Aber
diese national-liberal orientierte Gruppierung geriet anschließend in zahlrei-
chen Punkten mit dem Bismarckschen Autoritarismus aneinander und zerfiel
schließlich in mehrere Gruppen unterschiedlicher Richtungen. Diese Richtun-
gen hingen von den politischen Organisationsformen ab, die zur Bewältigung
der betreffenden Situation befürwortet wurden. In diesem neuen Kontext, in
Historische Schule und philosophische Tradition 207

dem Beratung und direkter Einfluß nicht mehr möglich waren, wurde der
Verein mit Wirtschaftserhebungen und Sozialenqueten aktiv, die einen ausge-
prägten statistischen Inhalt hatten. Der Verein betrachtete das vor allem als
Mittel zur Aussöhnung seiner verschiedenen Fraktionen.
Eine der wichtigsten dieser Enqueten wurde 1891 von Max Weber durch-
geführt und bezog sich auf die ostpreußischen Landarbeiter.6 Trotz ihres
scheinbar technischen und begrenzten Themas war die Untersuchung durch ein
wirtschaftliches und politisches Problem ausgelöst worden, das für das dama-
lige Deutschland wesentlich war: Wie ließ sich die Identität des gerade entste-
henden Nationalstaates aufrechterhalten und stärken, während die industrielle
Entwicklung gleichzeitig das soziale Gleichgewicht zwischen Grundbesitzern,
Betriebsinhabern, Landarbeitern und Fabrikarbeitern erschütterte? In Eng-
land wurde das Problem des Gleichgewichts zwischen den Klassen durch die
Begriffe der Armut und der Gefahr zum Ausdruck gebracht, die vom Lumpen-
proletariat – den am meisten Benachteiligten – ausging. In Deutschland hinge-
gen formulierte man das Problem mit Hilfe der Frage der nationalen Identität,
die man durch nichtdeutsche Bevölkerungsanteile bedroht sah. Die Industria-
lisierung hatte innerhalb des Kaiserreiches zu bedeutenden Bevölkerungsbe-
wegungen geführt, die vom preußischen Nordosten in Richtung des rheinischen
Südwesten verliefen. Arbeitskräfte slawischen (polnischen und russischen) Ur-
sprungs übernahmen in Ostpreußen die freigewordenen Arbeitsstellen auf den
großen Gütern der preußischen Junker , die das Regime politisch unterstütz-
ten. Die traditionellen patriarchalischen Bindungen wurden allmählich durch
anonyme kapitalistische Beziehungen ersetzt.
Die Enquete verfolgte das Ziel, die neuen Beziehungen durch ökonomi-
sche Begriffe zu beschreiben und die Auswirkungen dieser Beziehungen auf
den sozialen und nationalen Zusammenhalt zu bewerten. Bei der Erhebung
wurden zwei verschiedene Fragebögen verwendet. Der erste Fragebogen war
für die Grundbesitzer bestimmt und beinhaltete faktische Fragen: Anzahl der
Lohnempfänger, Anteil der Entlohnung in Geld und Sachleistungen, sozia-
le Merkmale der Arbeiter, Formen der Arbeitsverträge, Möglichkeit des Zu-
gangs zu Schulen und Bibliotheken. Von den 3100 versendeten Fragebögen
wurden 2277 (69%) zurückgeschickt. Der zweite Fragebogen beinhaltete ei-
ne Bewertung. Er richtete sich an Lehrer, Pfarrer, Notare und Beamte, von
denen man vermutete, daß sie die Werte und Meinungen der Landbevölke-
rung kannten. Der Fragebogen wurde an 562 Personen versendet und von 291
Adressaten (das heißt 52%) ausgefüllt. Auf der Grundlage dieser Umfrage
erstellte Weber einen 900 Seiten umfassenden Bericht mit zahlreichen stati-
stischen Tabellen, in denen die Lage der Wirtschaft und der Landwirtschaft
Preußens beschrieben wurde. Er befürwortete die Entwicklung einer kleinen
unabhängigen Landwirtschaft, welche die großen kapitalistischen Güter der
6
Im Kontext des Vereins für Socialpolitik hat Michaël Pollak (1986, [236]) in
französischer Sprache einen Auszug aus diesen Untersuchungen veröffentlicht und
analysiert.
208 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

nicht ortsansässigen und in Berlin lebenden Junker ersetzen sollte. Das Ziel
dieses Vorhabens bestand darin, deutsche Arbeitskräfte zu binden, welche die
Freiheit des Lebens mehr schätzten als höhere Löhne. Gleichzeitig sollte da-
mit auch der Zustrom slawischer Lohnarbeiter verhindert werden. Das Ziel
der Umfrage und die daraus abgeleiteten Schlußfolgerungen waren vor allem
politisch ausgerichtet, auch wenn sich die Beweisführung auf wirtschaftliche
Argumente stützte, die von statistischen Tabellen untermauert wurden. Wie
kann und muß sich die deutsche Nation unter Berücksichtigung der tiefgreifen-
den sozialen Veränderungen entwickeln, die auf das industrielle Wachstum und
die Migrationsbewegungen zurückzuführen waren? Die Untersuchung wurde
technisch korrekt durchgeführt. Der Statistiker Grohmann, ein Kollege von
Weber, wertete die Fragebögen aus. Der methodologische Aspekt war jedoch
nicht das Wichtigste. Im damaligen Deutschland waren die überzeugenden
Argumente, an denen sich der Furor des Methodenstreits 7 entzündete, philo-
sophischer und politischer Natur. Man führte noch keine statistischen oder
mathematischen Argumente ins Feld, wie sie zur gleichen Zeit von der engli-
schen biometrischen Schule ausgearbeitet wurden.
Das intellektuelle Konstrukt von Quetelet hatte – mit seinen statistischen
Regelmäßigkeiten und seinem Durchschnittsmenschen – im Deutschland der
zweiten Hälfte des 19. Jahrhunderts in der Philosophie einen Anklang gefun-
den, für den es in Frankreich und England kein Äquivalent gab. Dieser Einfluß
war im Übrigen indirekter Natur. Es war eine Reihe von (nicht nur lingui-
stischen) Übersetzungen erforderlich, bevor das eigentlich ziemlich einfache
Schema Eingang in die Subtilitäten der intellektuellen Debatte in Deutsch-
land finden konnte. Als Vermittler trat der englische Historiker Henry Buckle
auf, dessen monumentale History of Civilisation in England (1857, [38]) sich
von der Idee leiten ließ, daß es die – von der Statistik freigelegten – makro-
sozialen Regelmäßigkeiten ermöglichen, die langfristigen und unabwendbaren
Tendenzen des Schicksals einer Nation explizit anzugeben. Mit Hilfe der Be-
griffe des historischen Determinismus und der nationalen Identität ließ sich das
statistische Konstrukt Quetelets im Rahmen einer deutschen Debatte erneut
einführen, transformieren und kritisieren – in einer Debatte, die sich genau um
die obengenannten Fragen drehte. Ähnliche philosophische Rückübersetzun-
gen erfolgten in den 1920er und 1930er Jahren auch in Bezug auf verschiedene
andere Theorien, zu denen die Relativitätstheorie und die Theorie der Wahr-
7
Eigentlich gab es nicht nur einen Methodenstreit, sondern zwei Methodenstreite;
an beiden war die jüngere historische Schule beteiligt (vgl. Söllner, 2001, [442]).
Die ältere Kontroverse in den letzten beiden Jahrzehnten des 19. Jahrhunderts
drehte sich um die Methode der Nationalökonomie: es ging um die Rolle der Theo-
rie bzw. um die Frage, ob ein deduktives oder ein induktives Vorgehen sinnvoll
sei. Der zweite, jüngere Methodenstreit fand Anfang des 20. Jahrhunderts statt
und drehte sich um die Frage, welche Rolle Werturteile in der Wissenschaft bil-
den. Max Weber postulierte das Prinzip der Werturteilsfreiheit, wonach Normen
nicht Gegenstand der Wissenschaft sind, weil sie nicht aus Tatsachen abgeleitet
werden können.
Historische Schule und philosophische Tradition 209

scheinlichkeitsmodelle sowie in jüngerer Vergangenheit die Katastrophentheo-


rie und die Chaostheorie gehörten.8
Die deutschen Neuinterpretationen von Quetelet sind das Werk von Stati-
stikern, Ökonomen und Historikern, die hauptsächlich Universitätslehrer wa-
ren. Sie waren von einer alten philosophischen Tradition durchdrungen, für die
der Gegensatz zwischen Freiheit und Determinismus ebenso wesensmäßig war
wie der Gegensatz zwischen einem angeblich deutschen Holismus und einem
reduktiven Individualismus – unabhängig davon, ob dieser Individualismus
französisch-rationalistisch oder englisch-ökonomistisch war. Ein statistisches
Schema, das den Anspruch auf die Präsentation unabwendbarer Gesetze er-
hob, die den physikalischen Gesetzen ähneln, schien in diesem Kontext me-
chanistisch zu sein und den Sachverhalt zu verzerren. Ein solches Schema
negierte die Besonderheiten und die spezifischen Merkmale freier und mitein-
ander nicht vergleichbarer Individuen ebenso wie die ursprünglichen kultu-
rellen Traditionen.9 Diese Kritik an der Aufstellung einer Äquivalenz, die der
(im modernen Sinne verstandenen) statistischen Konstruktion vorangeht, war
bereits in der im deutschen Wortsinn betriebenen Statistik“ des 18. Jahrhun-

derts anzutreffen (Kapitel 1). Aber der Begriff des Durchschnittsmenschen –
der durch seine Regelmäßigkeiten eine Realität höherer Ordnung ausdrückte,
als es die kontingenten und unberechenbaren Individuen taten – konnte auch
in einem entgegengesetzten Sinne verwendet werden: nämlich als Argument
aus holistischer Sicht, in der das Ganze in einem umfassenderen Sinne exi-
stiert, als die Individuen, aus denen es sich zusammensetzt: so hatte auch
Durkheim in seinen frühen Arbeiten sein Konstrukt der vor den Individuen
existierenden sozialen Gruppe verwendet (vgl. Kapitel 3). Im deutschen Kon-
text konnte man Quetelet also je nachdem als mechanistischen Individuali-
sten stigmatisieren, der aus dem trockenen Rationalismus der Philosophie der
Aufklärung hervorgegangen war, oder ihn als modernistischen Bezugspunkt
in einer Argumentation verwenden, die den traditionellen Kulturen und na-
tionalen Gemeinschaften eine große Bedeutung beimißt.
Die Statistiker und die Ökonomen der historischen Schule“ debattierten

vor allem im Rahmen des Vereins für Socialpolitik viel über den Status und die
Methoden der Sozialwissenschaften im Vergleich zu den Naturwissenschaften.
Dabei ließen sie sich von einer Geschichtsphilosophie leiten, die im Gegen-
satz zur entsprechenden Philosophie der Franzosen und der Engländer stand.
8
Mit dieser Bemerkung ist nicht beabsichtigt, die philosophische Debatte aufgrund
ihres eklektischen Opportunismus für ungültig zu erklären. Wir wollen vielmehr
andeuten, daß derartige Übertragungen Vorsichtsmaßregeln implizieren, ohne die
das ursprüngliche Modell, ähnlich wie im Falle des Durchschnittsmenschen, ganz
anders interpretiert werden könnte.
9
Jacques Bouveresse (1993, [28]) zeigt in Der wahrscheinliche Mensch: Robert

Musil, der Zufall und der Durchschnitt“, daß das Thema Der Mann ohne Eigen-

schaften“ (das heißt ohne Singularitäten“) teilweise von den deutschen Debat-

ten über den Durchschnittsmenschen und über die individuelle Freiheit beeinflußt
worden war.
210 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Man griff häufig auf die Statistik zurück, aber sie wurde als deskriptive Me-
thode und nicht als Methode zur Herausarbeitung von Gesetzen verstanden.
So bekannte sich etwa Engel zu der Vorstellung, daß die Statistik möglicher-
weise empirische Regelmäßigkeiten aufzeigen kann; keinesfalls könne sie aber
den Anspruch erheben, Gesetze aufzustellen, die den Gesetzen der Physik
ähneln, denn die physikalischen Gesetze implizierten eine Kenntnis der zu-
grundeliegenden Elementarursachen.10 Die deutschen Ökonomen nutzten die
reichlich vorhandenen Daten, die von den – ihnen intellektuell und politisch
oft nahestehenden – Verwaltungsstatistikern veröffentlicht worden waren. Ins-
besondere verwendeten sie diese Daten zur Unterlegung von deskriptiven Mo-
nographien über präzise und lokalisierte Themen. Beispielhaft hierfür war die
von Weber durchgeführte Landarbeiter-Enquete, die ein hohes Niveau hat-
te. Für diese Ökonomen war die Statistik eines von mehreren deskriptiven
Elementen – andere Elemente waren historischer, institutioneller oder sozio-
logischer Natur. Die Tatsache, daß diese verschiedenen Erkenntnisweisen noch
nicht in gesonderten Disziplinen getrennt voneinander behandelt wurden, war
der auslösende Faktor für den philosophischen Charakter dieser Debatte und
der Ursprung des Methodenstreits“, den die dem Verein für Socialpolitik

angehörenden Universitätslehrer führten.
Die Akkumulation dieses aufgesplitterten Wissens und die Ablehnung von
Formalisierungen, die von denen der traditionellen deutschen Philosophie
abwichen, können rückblickend den Eindruck erwecken, daß es sich um ei-
ne wissenschaftliche Strömung ohne Zukunft handelte – insbesondere wenn
man einen Vergleich zu den Entwicklungen zieht, die wenig später mit den
Anfängen der Ökonometrie und der Soziologie der Umfragen eingeleitet wur-
de. Dennoch hatte diese Tradition ihre geistigen Erben. Das hing vor allem
mit der Tatsache zusammen, daß viele der französischen, englischen und ame-
rikanischen Akademiker zur damaligen Zeit in Deutschland studierten oder
umherreisten und daher das intellektuelle Milieu kannten. Halbwachs ver-
wendete die deutschen Statistiken für seine Dissertation über das Lebens-
niveau der Arbeiter. Karl Pearson hielt sich in seiner Jugend in Heidelberg
auf und brachte von dort eine Wissenschafts- und Kausalitätsphilosophie mit,
die der Philosophie von Engel nahestand und Gesetze“ zugunsten festge-

stellter Regelmäßigkeiten ausschloß. Die amerikanischen institutionalistischen
Ökonomen – zum Beispiel die Soziologen der Chicagoer Schule“ zu Beginn

des zwanzigsten Jahrhunderts – kannten die Arbeiten und die Debatten der
deutschen historischen Schule gut. Ein wichtiger Grund dafür, warum die-
ser Strömung in Deutschland die Luft ausging, ist darin zu suchen, daß sie
es nicht vermocht hatte, sich im Rahmen einer Bewegung unentbehrlich zu
machen, die zu einer tiefgreifenden Transformation der makroökonomischen
Politik und der Makrosozialpolitik führte. Im Gegensatz hierzu war diese In-
10
Es ist eine Ironie des Schicksals, daß die Bezeichnung Engelsches Gesetz“ für

die Beziehung beibehalten wurde, die Engel zwischen den Einkommen und den
Ausgaben für Nahrungsmittel aufgestellt hatte.
Volkszählungen in der amerikanischen politischen Geschichte 211

tegration der quantitativen Sozialwissenschaften in den 1930er und 1940er


Jahren in den Vereinigten Staaten und nach dem Krieg auch in Frankreich
und Großbritannien erfolgreich durchgeführt worden.

Volkszählungen in der amerikanischen politischen


Geschichte
Volkszählungen sind impliziter Bestandteil des Mechanismus zur Errichtung
und Organisation des amerikanischen Bundesstaates auf der Grundlage von
Modalitäten, für die es in Europa kein Äquivalent gibt. Die Volkszählungen
liefern alle zehn Jahre einen Bezugsrahmen für die anteilmäßige Verteilung
(apportionment 11 ) der zu wählenden Abgeordneten und der direkten Steuern
auf die Einzelstaaten, aus denen sich die Union zusammensetzt. Das in der
Verfassung von 1787 festgeschriebene Prinzip der regelmäßigen Beschaffung
der demographischen Daten wurde zwischen 1790 und 1990 einundzwanzigmal
angewendet – vor allem bei der Verteilung der Sitze im Repräsentantenhaus
(House of Representatives). In den europäischen Ländern, in denen sich die
Bevölkerung nur langsam entwickelte, war dieses Verfahren etwas alltägli-
ches, von dem man kaum Notiz nahm. Im Gegensatz hierzu lief dieser Prozeß
in einem Land, dessen Einwohnerzahl von einer Volkszählung zur nächsten
rasch anstieg, im Rampenlicht der Öffentlichkeit ab und war Gegenstand von
erbitterten Debatten: das auf jeweils zehn Jahre bezogene durchschnittliche
Bevölkerungswachstum belief sich zwischen 1790 und 1860 auf 35%, zwischen
1860 und 1910 auf 24% und zwischen 1910 und 1990 auf 13%. Die Bevölke-
rung wuchs also von 4 Millionen Einwohnern im Jahre 1790 auf 31 Millionen
im Jahre 1860, auf 92 Millionen im Jahre 1910 und 250 Millionen im Jahr
1990. Die Einwanderungswellen, die Verschiebung der Grenze nach Westen,
Verstädterung, Wirtschaftskrisen und Nationalitätenkonflikte – all das hat zu
einer kontinuierlichen und tiefgreifenden Änderung des politischen Gleichge-
wichts zwischen den Regionen und den Parteien beigetragen.
Die Techniken, mit deren Hilfe die Bevölkerung der einzelnen Staaten
gezählt wurde und die Zählergebnisse anschließend in Kongreßmandate umge-
wandelt wurden, führten im Kongreß zu ständig wiederkehrenden Debatten.
Wie sollte man die Sklaven, wie die Ausländer zählen? Welche arithmeti-
schen Verfahren mußte man anwenden, um proportional zur Bevölkerungs-
zahl eine ganzzahlige Anzahl von Sitzen zu verteilen. Weitere wichtige Fragen
wurden im Zusammenhang mit den Zählergebnissen diskutiert, wobei unter
Umständen die Methoden und die Konventionen angefochten wurden. Wie
sollte man die ökonomischen und sozialen Auswirkungen der Sklaverei beur-
teilen (in den 1850er Jahren)? Ließ sich die Einwanderungsflut eindämmen
11
Definiert als the apportioning of representatives or taxes among states or districts

according to population“. Insbesondere versteht man unter apportionment of re-

presentatives“ die Festlegung der Anzahl der Abgeordneten für die Einzelstaaten
und unter apportionment of a tax“ die Steueraufteilung.

212 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

oder konnte man ihr eine andere Richtung geben (1920er Jahre)? Wie soll-
te man die Arbeitslosigkeit und die sozialen Ungleichheiten messen (1930er
Jahre)? In jeder dieser Debatten wurden Statistiken reichlich zitiert, kritisiert
und zueinander in Konkurrenz gesetzt. Statistiken waren gleichzeitig allge-
genwärtig und relativ. Sie traten bei Verhandlungen und Kompromissen auf,
in denen die Kräfteverhältnisse für einige Zeit bestätigt wurden und der Ge-
sellschaft die Möglichkeit gaben, bis zur nächsten Krise voranzuschreiten. Die
Statistiken waren das Abbild eines Staates, der nicht wie in Frankreich ein
über den persönlichen Interessen stehendes allgemeines Interesse verkörperte.
Vielmehr stellten die Statistiken durch das Gleichgewicht der verschiedenen –
in der Verfassung und in ihren aufeinanderfolgenden Änderungen kodifizier-
ten – Gewalten ein Spiegelbild der Kompromisse dar, die es den Individuen
erlaubten, ihre Rechte auszuüben und zu verteidigen.
Folgerichtig waren die Vereinigten Staaten das Land, in dem sich die Sta-
tistik am üppigsten entwickelte. Aber die Vereinigten Staaten waren auch das
Land, in dem der Apparat der öffentlichen Statistik niemals eine so starke
Integration und Legitimität aufwies, wie es – wenn auch in unterschiedlichen
Formen – in Frankreich, Großbritannien und Deutschland der Fall war. Umge-
kehrt hatten jedoch Universitäten, Forschungszentren und private Stiftungen
auf den Gebieten der Soziologie und der Wirtschaft zahlreiche Untersuchun-
gen (surveys 12 ), Kompilierungen und Analysen von Statistiken durchgeführt,
die aus äußerst unterschiedlichen Quellen kamen, und keine der genannten
Institutionen hatte die Aufgabe, die Ergebnisse zu zentralisieren. Im Übrigen
wurden in den Vereinigten Staaten bereits in den 1930er Jahren einige derjeni-
gen bedeutenden technischen Innovationen experimentell eingesetzt, die nach
1945 zu einer radikalen Umgestaltung der statistischen Tätigkeit und des Sta-
tistikerberufes führten: Stichprobenerhebungen, volkswirtschaftliche Gesamt-
rechnung und Ökonometrie sowie – in den 1940er Jahren – Computer.13
Das konstitutionelle Prinzip, gemäß dem die Bevölkerungszahl der Einzel-
staaten sowohl für die Verteilung der Steuerlast als auch für die Verteilung der
politischen Vertretung den Bezugspunkt darstellt, ist wohldurchdacht. Dieses
Prinzip verhindert nämlich, daß die Einzelstaaten den Versuch unternehmen,
ihre Bevölkerungsstatistik zu manipulieren: in diesem Falle würde die eine
Hand verlieren, was die andere gewonnen hätte. Dieser Mechanismus ermutigt
zum Kompromiß zwischen gegensätzlichen Zielen. Er spielte jedoch faktisch
12
Die Bezeichnung survey“ ist von den zuerst in Indien durchgeführten Flächen-

stichproben in die Fachsprache der Statistik übernommen worden. Bei diesen
Flächenstichproben ging es einerseits um eine sorgfältige Prüfung und Schätzung
des Bestandes und andererseits auch um ein Verfahren, das sich der Landvermes-
sung bediente, und die Bestandsaufnahme, zumindest in der ersten Stufe, auf der
Grundlage von Landkarten durchführte. Das englische Wort survey“ wird u.a.

auch durch Erhebung, Untersuchung, Studie“ wiedergegeben.
13 ”
Die hier vorgelegte Analyse der amerikanische Statistik hat den Arbeiten von
Duncan und Shelton (1978, [74]) und Margo Anderson (1988, [4]) viel zu verdan-
ken.
Volkszählungen in der amerikanischen politischen Geschichte 213

kaum eine Rolle, denn der Bundesstaat nutzte seine fiskalische Strecke im 19.
Jahrhundert nur selten. Der Bundesstaat blieb lange Zeit hindurch ziemlich
unbedeutend: Jefferson sprach von einer weisen und genügsamen Regierung“.

Die Zolleinnahmen reichten – außer in Kriegszeiten – für den Staatshaushalt
aus. Die Census-Verwaltung wurde alle zehn Jahre zu dem Zeitpunkt neu
konstituiert, als die Erhebung durchgeführt, ausgewertet und verwendet wer-
den mußte, um die parlamentarische Vertretung der Staaten zu berechnen.
Nach drei oder vier Jahren wurde die Census-Verwaltung wieder aufgelöst.
Ein ständiges Amt, das Census Bureau (Statistisches Bundesamt der USA,
auch Bureau of the Census genannt), wurde erst im Jahre 1902 gegründet.
Die Organisation der Zählung und die Einrichtung eines Ad-hoc-Dienstes wa-
ren jedes Mal Gegenstand eines Sondergesetzes. Der Verabschiedung dieses
Gesetzes ging eine lebhafte Debatte im Kongreß voraus, in der man u.a. über
folgende Probleme diskutierte: Welche Konventionen sollen bei der Zählung
und anteilmäßigen Verteilung des Zählergebnisses angewendet werden? Wel-
che Fragen sollte man stellen und wie soll man die Befrager und Mitarbeiter
rekrutieren, die mit der Durchführung der Operation beauftragt werden?
Von Anfang an und bis zum Sezessionskrieg (1861) stellte sich die Fra-
ge nach der Berücksichtigung der Sklaven in der Bemessungsgrundlage für
die politischen Verteilung. Die Nordstaaten und die Südstaaten vertraten in
dieser Frage selbstverständlich entgegengesetzte Standpunkte. Wenn aber die
Union nicht auseinanderbrechen sollte – was keine der beteiligten Seiten woll-
te –, dann mußte ein Kompromiß geschlossen werden, dessen einziger Vorzug
es war, von beiden Parteien akzeptiert zu werden: das war die Drei-Fünftel-

Regel“ (three-fifth rule), nach der ein Sklave drei Fünftel eines freien Mannes
zählte. Diese Konvention erscheint uns heute besonders schockierend, denn
sie läßt sich nicht durch eine Objektivität (oder Realität) rechtfertigen, die
außerhalb des Konfliktes liegt. Die Konvention bedeutet, daß ein Sklave zwar
mit einem freien Mann vergleichbar, gleichzeitig aber minderwertiger ist. Eine
solche Kombination konnte sich nur als äußerst instabil erweisen. Sie wurde
nach dem Sieg des Nordens über den Süden im Jahre 1865 abgeschafft. Die
Debatte nahm danach eine andere Form an, denn den Südstaaten gelang es
unter Anwendung verschiedener Mittel, den Schwarzen das Wahlrecht auch
weiterhin zu entziehen. Der Norden versuchte daraufhin, die unberechtigter-
weise um ihre Stimme gebrachten Erwachsenen aus der Bemessungsgrundlage
für die Verteilung auszuschließen. Der Süden konterte mit dem Vorschlag,
die Ausländer (das heißt die Neueinwanderer) aus dieser Bemessungsgrund-
lage auszuschließen, was wiederum den Norden benachteiligen würde, da sich
die Neueinwanderer dort niedergelassen hatten. Der Kompromiß bestand nun
darin, alle Erwachsenen zu zählen.
Auch eine andere, scheinbar technische Frage, führte bis in die 1920er Jah-
re zu endlosen Diskussionen: Welche arithmetische Konvention soll berück-
sichtigt werden, um die zur Bevölkerungszahl proportionale Verteilung in ei-
ne ganzzahlige Anzahl von Kongreßsitzen umzuwandeln? Nacheinander wur-
den mehrere Lösungsmöglichkeiten angewendet (Balinski und Young, 1982,
214 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

[7]), die zu unterschiedlichen Ergebnissen führten ( major fractions“ und



equal proportions“) und jeweils andere Staaten begünstigten. Statistiker, die

Anhänger unterschiedlicher Lösungen waren, wurden vor den Kongreß geladen
und sahen sich dort zwischen 1923 und 1929 mit Kongreßmitgliedern konfron-
tiert, die nichts von der Sache verstanden, weil das Thema so überaus trocken
war. Da man schließlich über das Gesetz zur Durchführung der Volkszählung
von 1930 abstimmen mußte, einigte man sich und schuf ein hybrides System
auf halbem Weg zwischen den beiden Lösungen. Nachdem die Zählung statt-
gefunden hatte, stellt man durch Zufall fest, daß beide Methoden zu genau
den gleichen Ergebnisse geführt hätten (Anderson, 1988, [4]). Inzwischen war
die Wirtschaftskrise ausgebrochen. Die Kongreßmitglieder und die Statistiker
hatten jetzt andere Sorgen. In den Debatten rief man die Statistiker nun nicht
mehr deswegen zu Hilfe, damit sie die Wahrheit erzählen – vielmehr sollten
sie Lösungen liefern, die einen Weg aus der politischen Sackgasse ermöglichen.
Die Statistiker standen den Juristen (lawyers), die den Entscheidungsträgern
halfen, näher als den über dem Kampfgetümmel stehenden Wissenschaftlern,
zu denen sie später werden sollten. Der Dreh- und Angelpunkt war das kon-
stitutionelle Prinzip des apportionment und die Debatte drehte sich um die
Anwendungsmodalitäten dieses Prinzips.
Die Statistik wurde auch bei Polemiken angerufen, in denen es um die
entscheidenden Probleme der amerikanischen Gesellschaft ging, das heißt –
in Abhängigkeit von der jeweiligen Zeit – um Sklaverei, Armut, Einwande-
rung, Arbeitslosigkeit und Rassenintegration. Im Jahre 1857 führte Helper,
ein aus dem Norden stammender Ökonom, einen systematischen Vergleich
der Indikatoren für folgende Bereiche durch: Produktion, Wohlstand, sozia-
le und kulturelle Entwicklung. Diese Indikatoren wurden gesondert für die
Nordstaaten und die Südstaaten berechnet. Helper machte die Sklaverei für
die Tatsache verantwortlich, daß die Nordstaaten stets besser als die Südstaa-
ten abschnitten. Sein Werk wirbelte viel Staub auf und führte zu Gegenat-
tacken der Südstaatler. Ein Journalist namens Gordon Bennett schrieb, daß
die Sklaverei nur deswegen ein Übel ist, weil die Arbeit an sich ein Übel

ist. Das System der freien Arbeit ist in Wahrheit die weiße Sklaverei des Nor-
dens“. Dieses Plädoyer für die Südstaaten stützte sich auf Statistiken der (von
den Einzelstaaten geleiteten) Sozialfürsorgeverwaltungen, die zeigten, daß es
in den Neuenglandstaaten (im Norden) mehr Arme, Taube, Blinde, Stumme

und Idioten“ gibt, als in den Südstaaten. Diese beiden konträren statistischen
Argumentationen wurden ihrerseits aufgrund der Konstruktion und Relevanz
der verwendeten Daten angefochten. Die Südstaatler wiesen darauf hin, daß
Helper seine Wohlstandsindikatoren nicht in Beziehung zur Bevölkerungszahl
der Einzelstaaten gesetzt hatte und daß die Daten deswegen – nach Meinung
der Südstaatler – keinerlei Vergleichswert hätten. Die Nordstaatler kritisier-
ten ihrerseits, daß Gordon Bennett Angaben zu denjenigen Armen verwen-
det hätte, die Beihilfen erhielten, wie sie in den Gesetzen der verschiedenen
Einzelstaaten explizit vorgeschrieben waren. Diese Statistiken spiegelten die
besonderen Verfahrensweisen der Einzelstaaten und nicht die absolute Zahl
Volkszählungen in der amerikanischen politischen Geschichte 215

der Armen wider: Jedem Vergleich muß eine Prüfung der Gesetze und Ge-

wohnheitsrechte in Bezug auf die aus der Staatskasse gezahlte Armenhilfe
vorangehen.“ (Jarvis, zitiert von Anderson, 1988, [4].)
Demnach führte bereits seit den 1850er Jahren das Feuer der Kontroverse
dazu, daß man explizit die Frage stellte, wie sich die Realität auf der Grund-
lage administrativer Aufzeichnungen konstruieren läßt. Genau das war die
Frage, die Yule in Großbritannien vierzig Jahre später in seiner mathemati-
schen Analyse der Armut nicht so deutlich formuliert hatte (vgl. Kapitel 4).
Die Tatsache, daß die Statistik in den Vereinigten Staaten so eng und auch
so frühzeitig in einem widersprüchlichen Debattenraum in Erscheinung trat,
regte den kritischen Verstand an und begünstigte eine Vielfalt von Interpre-
tationen und Anwendungen dieses Werkzeugs. Mehr als anderswo waren die
statistischen Belegstellen an Argumentationen gebunden und nicht an eine
vermutete Wahrheit, die über den verschiedenen Lagern stand. Diese Sicht-
weise scheint typisch für die amerikanische Demokratie zu sein, die sich mehr
auf Debatten und die Suche nach Kompromissen stützt als auf die Beteuerung
eines allgemeinen Interesses und einer einzigen Wahrheit; auf jeden Fall finden
wir dort die Spur eines besseren Verständnisses für die unterschiedlichen Be-
deutungen und Funktionen der statistischen Argumentsweise – entsprechend
den politischen und kulturellen Traditionen auf beiden Seiten des Atlantiks.
Im gesamten 19. Jahrhundert hatten die Vereinigten Staaten immer größe-
re Wellen von Einwanderern aufgenommen, was dazu führte, daß sich die
Bevölkerungsanzahl zwischen 1790 und 1910 mit dem Faktor 23 multiplizier-
te. Die Einwanderer kamen zunächst von den Britischen Inseln (England, Ir-
land), später aus Nordeuropa (Deutschland, Skandinavien) und dann um die
Wende zum 20. Jahrhundert verstärkt aus Südeuropa (Italien) und Osteu-
ropa (Polen, Rußland, Balkanländer). In Bezug auf die ersten Einwanderer
(aus West- und Nordeuropa) bestand die Annahme, daß sie sich – aufgrund
der Sprachverwandtschaft und der Religion (Protestantismus) – mühelos an
die Lebensweise und die Ideale des ursprünglichen Kerns der Nation anpassen
konnten. Hingegen sah sich die zweite Gruppe in den 1920er Jahren immer
mehr dem Verdacht ausgesetzt, nicht assimilierbare kulturelle Elemente zu
befördern, die – insbesondere wegen ihrer Religionen (Katholiken, Juden, Or-
thodoxe) – mit der liberalen Demokratie unvereinbar seien. Zum ersten Mal
wurde die Doppelfrage nach einer Beschränkung der Einwanderung und ei-
ner entsprechenden Quotenregelung auf der Grundlage des Einwanderungs-
anteils der betreffenden Länder gestellt. Zwischen 1920 und 1929 fand eine
intensive politische und statistikbezogene Debatte über die Kriterien statt,
mit deren Hilfe die Quoten festgelegt und gerechtfertigt werden sollten. An
dieser Debatte nahmen nicht nur die Kongreßabgeordneten und die Statisti-
ker teil, die mit der Aufstellung dieser Kriterien beauftragt waren, sondern
auch Vertreter entgegengesetzter Interessengruppen: Industrielle, die einer Be-
schränkung der Einwanderung aus Furcht vor einem Mangel an Arbeitskräften
feindselig gegenüber standen; Vertreter der verschiedenen Nationalitätengrup-
pen; verschiedene Wissenschaftler; Ökonomen, welche die Auswirkungen ei-
216 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ner Verlangsamung der Einwanderungsfluten ermittelten; Psychologen, welche


die Intelligenzquotienten der Einwanderer entsprechend den jeweiligen Her-
kunftsländern miteinander verglichen; Soziologen, welche die Sozialisierung
der Einwanderer in Städten wie Chicago untersuchten, die aus dem Boden
gestampft worden sind; Historiker, welche die ethnische Zusammensetzung
der Besiedlungen vor der Unabhängigkeit im Jahre 1776 und die späteren
Veränderungen dieser Besiedlungen rekonstruierten.
Die Volkszählung ermöglichte es, die Bevölkerung gemäß den jeweiligen
Geburtsorten zu sortieren. Im Jahre 1920 wurde dem Kongreß vorgeschlagen,
für jede ursprüngliche Staatsangehörigkeit14 die jährliche Einwanderung auf
5% der Anzahl derjenigen Personen zu beschränken, die entsprechend den
Angaben der 1910 durchgeführten Zählung im betreffenden Land geboren
wurden. Der Kongreß reduzierte die vorgeschlagene Quotenregelung auf 3%.
Präsident Wilson legte gegen dieses Gesetz sein Veto ein, aber sein Nachfolger
Harding unterzeichnete es ein Jahr später. Das Gesetz war eine entscheidende
Wende in der amerikanischen Bevölkerungspolitik und wurde als Verkörpe-
rung des Willens wahrgenommen, das ungestüme Wachstum der Städte zu
bremsen, die allmählich die Macht der ländlichen Einzelstaaten aushöhlten.
Bei dem obengenannten technischen Streit über den Berechnungsmodus der
Kongreßsitze ging es um die gleiche Sache, denn es hatte den Anschein, daß
die eine Methode die urbanisierten Einzelstaaten begünstigte, die andere hin-
gegen die ländlichen Einzelstaaten. Allen diesen Debatten lag die Sorge um
das politische Gleichgewicht zweier verschiedener Amerikas zugrunde: das ei-
ne war das industrielle, städtische, kosmopolitische Amerika, das andere das
ländliche und traditionelle Amerika.
Die Debatte über die ethnischen Quoten wurde in dem Jahrzehnt ab 1920
unter starker Beteiligung der Statistiker des Census Bureau weitergeführt. Es
hatte zunächst den Anschein, daß die Verwendung der letzten, 1910 durch-
geführten Volkszählung zur Quotenfestsetzung ein Problem für diejenigen dar-
stellte, die eine Einwanderung aus West- und Nordeuropa gegenüber einer
Einwanderung aus Süd- und Osteuropa bevorzugen wollten. Die Einwande-
rungswellen nach 1900 setzten sich mehrheitlich aus Süd- und Osteuropäern
zusammen und deswegen bestand das Risiko, daß die den entsprechenden
Ländern bewilligten Quoten höher als erwünscht waren. Dieses Risiko wäre
noch größer gewesen, wenn man sich in den nachfolgenden Jahren dazu ent-
schlossen hätte, die Zählung des Jahres 1920 als Grundlage zu nehmen. Zur
Vermeidung dieser Gefahr wurde vorgeschlagen, die Zählung von 1890 als
Berechnungsgrundlage für die Quoten zu nehmen. Dieser Vorschlag erwies
sich jedoch als äußerst ungünstig für die Italiener, Polen und Russen, die als
letzte gekommen waren. Aber die Wahl der Volkszählung von 1890 erschien
willkürlich und ungerechtfertigt, wie die Gegner dieser Maßnahmen ausführ-
ten, die entweder selber aus den betreffenden Ländern kamen oder aber In-
dustrielle waren, die sich Arbeitskräfte aus diesen Ländern zunutze machten.
14
Gemeint ist die durch Geburt erworbene Staatsangehörigkeit.
Volkszählungen in der amerikanischen politischen Geschichte 217

Das führte zu einer Ausweitung der Diskussion auf den Begriff des Gleichge-
wichts zwischen den ursprünglichen Staatsangehörigkeiten der Vorfahren der
jetzigen Amerikaner vor deren Einwanderung. Das Census Bureau wurde also
ersucht, dieses ziemlich heikle Problem zu lösen. Ein erster Versuch in dieser
Richtung wurde 1909 von Rossiter unternommen, einem Statistiker des Bu-
reau, der aber ein anderes Ziel hatte: er verglich die Fertilität der nach ihrem
Abstammungsland klassifizierten Amerikaner mit den Fertilitätsziffern, die
seither in diesen Ländern beobachtet wurden, um die günstigen Wirkungen
und die Vitalität der amerikanischen Demokratie zu beweisen. Im Jahre 1927
wurde Hill, der stellvertretende Direktor des Census damit beauftragt, diese
Arbeit weiterzuführen, damit ein neues Einwanderungsgesetz auf der Grund-
lage dieser Aufgliederung der Nationalitäten der Vorfahren der Amerikaner
erarbeitet werden konnte.
Sehr bald bemerkte Hill die Schwachstellen der Berechnung von Rossiter:
eine geringfügige Änderung der Schätzungen bezüglich der im 18. Jahrhundert
niedrigen Bevölkerungszahl führte zu wesentlichen Änderungen der andert-
halb Jahrhunderte später berechneten Quoten. Rossiter hatte die Familienna-
men der Personen als Indiz für deren Abstammung verwendet, ohne dabei
die Tatsache zu berücksichtigen, daß zahlreiche Einwanderer ihre Namen bei
ihrer Ankunft anglisiert hatten. Das führte zu einer starken Heraufsetzung
der Anzahl der Personen britischer Abstammung – vor allem zum Nachteil
der Iren und der Deutschen, das heißt genau derjenigen west- und nordeu-
ropäischen Länder, deren Quoten man eigentlich erhöhen wollte. Während al-
so die früheren Einwanderungsgesetze die Immigrantenlobbies spalteten, ging
die neue Formulierung mit dem Risiko einher, diese Lobbies unter der Flagge
einer gemeinsamen feindlichen Einstellung wieder zu vereinen. Man beauf-
tragte daraufhin eine aus Historikern und Genealogen bestehende Kommis-
sion, das Problem eingehender zu studieren und die fatalen Ergebnisse zu
korrigieren, zu denen die Methode von Rossiter geführt hatte. Zur Lösung des
Problems wurden zwischen 1927 und 1929 zahlreiche Verwaltungsleute und
Akademiker mobilisiert, was für das Census Bureau eine schwierige Aufgabe
war. Zu Beginn des Jahres 1929 bestätigten Fachhistoriker die vom Bureau
berechneten Ziffern. Präsident Hoover konnte im Frühjahr 1929 die amtliche

und wissenschaftliche“ Aufschlüsselung der Abstammungsländer der amerika-
nischen Bevölkerung ankündigen. Diese Aufschlüsselung diente als Grundlage
für die Einwanderungsquoten, die bis in die 1960er Jahre verwendet wurden
und in den Jahren zwischen 1933 und 1945 ein furchtbares Hindernis für Ju-
den und politische Flüchtlinge bedeuteten, die der Naziherrschaft entkommen
wollten. Das Census Bureau sah sich einige Monaten nach Beendigung die-
ser Arbeit der Jahre 1927–29 mit einem ganz anderen Problem konfrontiert,
einer Folge der Oktoberkrise des Jahres 1929: eine neue Zahlenschlacht war
ausgebrochen – die Schlacht um die Arbeitslosenzahlen. Die Krise und die zu
ihrer Entschärfung ab 1933 gegebenen politischen, wirtschaftlichen und ad-
ministrativen Antworten der Roosevelt-Regierung führten zum Aufbau eines
vollkommen neuen Systems der öffentlichen Statistik, das sich vor allem und
218 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

zum ersten Mal auf wahrscheinlichkeitstheoretische Techniken und auf die


Methode der Stichprobenerhebungen stützte.

Das Census Bureau: Aufbau einer Institution

Im Unterschied zu den europäischen Staaten verfügte der amerikanische Bun-


desstaat im gesamten 19. Jahrhundert über kein ständiges Amt für Verwal-
tungsstatistik. Bei jeder Volkszählung wurde ein Superintendent ernannt und
vorläufiges Personal rekrutiert, das man nach getaner Arbeit wieder entließ.
Diese sich ständig wiederholende Diskontinuität hing mit der konstitutionel-
len Definition der Volkszählungen zusammen, deren Funktion darin bestand,
alle zehn Jahre das Gleichgewicht zwischen den Einzelstaaten und ihrer Ver-
tretung im Kongreß neu zu ermitteln. Aber die Bevölkerung und das Ter-
ritorium wuchsen sehr schnell und deswegen nahm die Operation im Laufe
des Jahrhunderts ein Ausmaß an, das 1790 noch unvorstellbar war. Jedes
Mal wurden die Organisation der Feldarbeit, der Inhalt des Fragebogens, die
Modalitäten der Personalrekrutierung ebenso wie die entsprechenden Mittel
und Termine erneut zwischen dem Kongreß, seiner Haushaltsbehörde (Budget
Office) und dem verantwortlichen Superintendenten ausgehandelt. Der Su-
perintendent versuchte unweigerlich, seine Meisterschaft in der Beherrschung
der verschiedenen politischen, administrativen und technischen Komponenten
dieses langen und komplexen Prozesses zu steigern, indem er auf die beson-
deren Opportunitäten und Umstände eines jeden Jahrzehnts setzte. Demnach
kann man die – von Margo Anderson (1988, [4]) ausführlich geschilderte –
Geschichte der Volkszählungen und des Bureau als die Geschichte der lang-
wierigen Konstruktion eines politischen und wissenschaftlichen Mechanismus
interpretieren. Die Solidität der Produkte dieses Mechanismus läßt sich nicht
in absoluter Form feststellen, sondern kann nur entsprechend den Zwängen
und Erfordernissen des jeweiligen Augenblicks beurteilt werden.
Der Superintendent sah sich in seinen ständigen Verhandlungen mit dem
Kongreß in einem Widerspruch gefangen, der jedem leitenden Mitarbeiter im
Bereich der öffentlichen Statistik wohlbekannt ist, aber im amerikanischen
Kontext in erheblich zugespitzter Form zum Ausdruck kommt. Zum einen
versuchte der Superintendent, die Kreisläufe des Sammelns und Aufbereitens
des statistischen Rohmaterials unabhängig von den Zufälligkeiten und äußeren
Zwängen zu machen, um eine stabile industriemäßige Werkzeugroutine zu rea-
lisieren. Zum anderen mußte er aber am normalen Spiel des politischen und ad-
ministrativen Lebens teilnehmen, in dem das temporäre Gleichgewicht durch
den Druck von Interessengruppen (Lobbying), durch Mehrheitsumschwünge
und durch Änderungen der Agenda des Kongresses unaufhörlich infrage ge-
stellt wurde. Der Kongreß seinerseits wurde alle zwei Jahre teilweise erneuert.
Diese scheinbare Instabilität war jedoch im unveränderlichen Rahmen der
Verfassung festgeschrieben, deren Einhaltung zu Kompromissen zwang. Die
alle zehn Jahre durchzuführenden Volkszählungen und der Mechanismus des
Das Census Bureau: Aufbau einer Institution 219

Apportionment waren Bestandteil dieser unantastbaren Zwänge. Diese Tat-


sache bot dem Statistiker, der für die korrekte Durchführung der Operation
ausersehen war, eine wichtige Verhandlungsressource.
Die politische Schirmherrschaft“ ist ein gutes Beispiel für dieses stets

gleichbleibende Spiel. Die Rekrutierung des zeitlich befristeten Personals, das
mit dem Sammeln der Feldinformationen und deren Auswertung in Washing-
ton beauftragt war, ermöglichte es den gewählten Vertretern, Druck für die
Anstellung derjenigen Personen auszuüben, deren Stimmen sie sich sichern
wollten. Dieser Umstand war ein regelmäßig wiederkehrendes Hindernis für
die Bildung eines Berufsstandes von beamteten Statistikern, die den Kon-
greßabgeordneten dieses Tauschmittel entziehen würden. Der Mechanismus
hängt mit dem uralten Zögern zusammen, die Anzahl und das Gewicht der
Bundesbehörden zu erhöhen und liefert darüber hinaus eine Erklärung dafür,
warum ein ständiges Census Bureau erst 1902 gegründet wurde. Im vorher-
gehenden Zeitraum fand ab Beginn der 1880er Jahre ein intensives Lobby-
ing statt, das die Gründung dieser Institution begünstigte. Im Ergebnis der
Arbeit wurden Akademiker, Geschäftsleute und Gewerkschafter zusammen-
gebracht, die aus verschiedenen Gründen daran interessiert waren, daß die
öffentliche Statistik über ihre traditionelle konstitutionelle Funktion hinaus-
geht und Konjunkturdaten sowie Daten zur Sozialstruktur produziert, die den
aktuellen industriellen und städtischen Boom widerspiegeln. In diesem vorteil-
haften Kontext konnte der Superintendent den Mechanismus der politischen
Schirmherrschaft zu seinem Nutzen wenden, indem er seine Angestellten da-
zu bewegte, bei ihren Vertretern zu intervenieren, um die Arbeitsplätze zu
sichern.
Die aufeinanderfolgenden Etappen, in denen das Census Bureau seine Kon-
trolle auf die Produktionskette der Ergebnisse ausdehnte, waren gleichzeitig
administrativer und technischer Natur. Bis 1840 wurden die Informationen
von örtlichen Beamten (marshalls) auf der Grundlage territorialer Eintei-
lungen gesammelt, die vollkommen unabhängig vom Bundesamt waren. Das
vorläufige Personal dieses Bundesamtes zählte weniger als 50 Personen. Es gab
sich damit zufrieden, die von den Einzelstaaten auf lokaler Ebene bereits ag-
gregierten Daten zusammenzufassen, wobei es nicht möglich war, diese Daten
zu prüfen. Die individuellen amtlichen Berichte wurden ab 1850 gesammelt
und in Washington manuell ausgewertet. Der erforderliche Personalbestand
erhöhte sich dann schnell, von 160 im Jahre 1850 auf 1500 im Jahre 1880,
denn die manuelle Stimmenzählung bedeutete eine gigantische Arbeit. Fran-
cis Walker (1840–1896), der Superintendent der Volkszählungen von 1870 und
1880, kämpfte für die Ausdehnung seiner Kontrolle über den Prozeß und für
die Erweiterung seines Netzwerks von Allianzen. Im Jahre 1880 wurde er vom
Kongreß autorisiert, die Feldarbeit zu kontrollieren. Seit dieser Zeit durfte das
Bureau die Erhebungsgebiete selbst aufteilen und auch die Hilfsangestellten
(census takers) und Kontrolleure (supervisors) rekrutieren und bezahlen. Das
war sowohl ein Vorteil als auch ein Nachteil, da sich die Gefahr erhöhte, daß
die gewählten örtlichen Vertreter Druck auf diese Anstellungen ausüben. Wal-
220 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ker schlug 1888 vor, den Census an das neu gegründete Arbeitsamt (Labor
Office) anzugliedern, das über bedeutende Ressourcen verfügte. Eine unerwar-
tete Änderung der Präsidentschaftsmehrheit ließ das Projekt jedoch scheitern,
denn der neue Präsident wollte, daß seine Partei vom Census profitierte (eine
analoge Angliederung erfolgte 1891 in Frankreich, wo die SGF in das neue
Arbeitsamt (Office du travail ) integriert wurde. Die Entwicklung der Arbeits-
statistik fand in Großbritannien und in Deutschland gleichzeitig statt). Die
ungeheure manuelle Arbeit verringerte sich 1890 mit der Verwendung der er-
sten Geräte zur maschinellen Datenverarbeitung, die von Herman Hollerith
(1860–1929), einem Büroangestellten, erfunden und gebaut wurden. Aber die
Aufgabe war immer noch groß genug und man mußte für die Volkszählungen
von 1890 und 1900 mehr als 3000 Personen rekrutieren.
Das Problem bestand darin, den Kongreß davon zu überzeugen, die Mit-
tel für die Gründung eines ständigen statistischen Amtes bereitzustellen: man
führte dem Kongreß die Notwendigkeit vor Augen, zusätzlich zu den alle zehn
Jahre stattfindenden Volkszählungen auch regelmäßig jährliche Erhebungen
durchzuführen – vor allem im Bereich der landwirtschaftlichen Produktion
und der Industrieproduktion. Eine Gelegenheit für diese Überzeugungsarbeit
bot sich 1899 anläßlich des Verfalls der Baumwollpreise, der sich für die Klein-
produzenten als dramatisch erwies. Die englischen Abnehmer prognostizierten
höhere Ernten, um Preissenkungen anzukündigen. Man mußte ihnen gesicher-
te Produktionsstatistiken entgegenhalten können, um derartige Spekulationen
zu unterbinden. Seit Beginn des 19. Jahrhunderts waren die Volkszählungen
(in unregelmäßiger Weise) durch Zählungen der Manufakturen ergänzt wor-
den, so daß es möglich war, die Baumwollentkörnungsmaschinen zu identifizie-
ren und zu lokalisieren. Die bei der Zählung 1900 aufgestellte Liste dieser Ma-
nufakturen ermöglichte die Durchführung einer jährlichen Erhebung zu den
Ernten. Das wiederum lieferte ein ausgezeichnetes Argument, um den Kongreß
davon zu überzeugen, die Einrichtung eines ständigen Amtes zu akzeptieren,
das für diese regelmäßigen – und für die Marktregulierung unerläßlichen –
Erhebungen zuständig war. Die im Jahre 1902 verabschiedete institutionelle
Neuerung war ihrerseits Bestandteil einer umfassenderen administrativen Um-
strukturierung, die auch die Gründung eines neuen Ministeriums für Handel
und Arbeit (Department of Commerce and Labor ) einschloß. Das Ministerium
faßte zahlreiche zuvor verstreute Dienststellen zusammen und war bestrebt,
den Außen- und Binnenhandel, den Bergbau, die veredelnde Industrie und den
Schiffbau, den Fischfang und das Transportwesen zu fördern und entwickeln.
Außer dem Census Bureau gehörten dem Ministerium auch noch andere stati-
stische Bureaus an, zum Beispiel das Bureau für Arbeitsstatistik und die sta-
tistischen Bureaus der Finanzbehörde und des Außenhandels. Eines der Ziele
bei der Gründung des Ministeriums bestand darin, diese Bureaus zu vereini-
gen oder wenigstens zu koordinieren, um unnötige Arbeitsverdopplungen zu
vermeiden und allgemeine Methoden und Nomenklaturen zu verbreiten.
Die Tätigkeit des neuen ständigen Census Bureau entwickelte sich da-
mals in die Richtung häufiger und regelmäßiger Wirtschaftsstatistiken und
Das Census Bureau: Aufbau einer Institution 221

beschränkte sich nicht darauf, in zehnjährigen Abständen Zählungen durch-


zuführen. Um diese Zeit begann man, Wirtschaftsstatistiken umfassend zu
verbreiten und zu diskutieren. Aber der Census scheiterte in seinem Ehr-
geiz, das gesamte statistische System zu dominieren und zu kontrollieren.
Die Produkte der anderen spezialisierten Dienststellen hingen eng mit dem
laufenden Management der Verwaltungen zusammen, denen die betreffenden
Dienststellen unterstanden. Diese Dienststellen hatten kein Interesse daran,
ihre Verbindungen zu schwächen und die Vormundschaft und Sprache eines
Neulings zu akzeptieren, dessen Interessen weniger mit diesem Management
zusammenhingen und dessen Legitimität noch nicht offensichtlich war. Das
Problem, welchen Platz der Census im neuen Ministerium einnehmen soll-
te, wird anhand eines Streites deutlich, in dem es um die Bezeichnung dieses
Amtes ging: das Ministerium wollte es als Census Bureau bezeichnen, um es
mit den anderen administrativen Einheiten in eine Reihe zu bringen, während
es der Census bevorzugt hätte, seine frühere Bezeichnung Census Office bei-
zubehalten, da dieser Begriff – ähnlich dem französischen Terminus Institut
– eine größere Autonomie implizierte. Diese Spannung war charakteristisch:
die statistischen Ämter waren erst dreißig Jahre später dazu in der Lage, die
Originalität ihrer Position – zwischen einer klassischen Verwaltung und ei-
nem Forschungslabor – voll zu rechtfertigen, das heißt zu einem Zeitpunkt,
als sie zusätzlich zur rein administrativen Kompetenz auch eine spezifische
Technizität geltend machen konnten.
Der unregelmäßige Fortschritt dieser Professionalisierung der öffentlichen
Statistik erfolgte in den Vereinigten Staaten durch einen Austausch mit Aka-
demikern und Vereinigungen wie der American Statistical Association (ASA)
oder der American Economic Association (AEA), in denen Wissenschaftler
zusammengebracht wurden, die für die Entwicklung der statistischen Pro-
dukte kämpften. Diese Wissenschaftler fanden im Census nicht nur Quellen
für ihre Arbeiten, sondern auch einen Ausbildungs- und Praktikumsort für
Studenten und junge Forscher. Deswegen versuchten die Wissenschaftler sys-
tematisch, die noch junge Institution – deren Status zudem noch unklar war
– für den Nachwuchs attraktiv zu machen und einige ihrer eigenen Leute
im Census unterzubringen. Aber sie waren nicht die einzigen. Die politische
Schirmherrschaft zeigte auch weiterhin ihre Wirkungen. Das Betreuungsper-
sonal stand auf einem noch schwachen professionellen Niveau und es boten
sich keine Aufstiegsmöglichkeiten für junge Leute, die von der Universität ge-
kommen waren. Nachdem die Absolventen im Census gute Kenntnisse des
damaligen statistischen Systems und seiner Möglichkeiten erworben hatten,
verließen sie das Amt, um ihre Forschungsarbeiten im National Bureau for
Economic Research (NBER), in der Brookings Institution oder in der Carne-
gie Foundation fortzusetzen.
Der Eintritt der Vereinigten Staaten im Jahre 1917 in den Krieg hatte
– wie in den europäischen Ländern – eine intensive Mobilisierung und ri-
gorose Planung aller wirtschaftlichen Ressourcen zur Folge. Das erhöhte die
Funktion und die Bedeutung der öffentlichen Statistik und begünstigte de-
222 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

ren Koordinierung, da es nun mit den Routinen der Friedenszeiten vorbei


war. Die damals für kurze Zeit neugeschmiedeten Allianzen erinnerten an die
bereits beschriebenen Allianzen des Kabinetts von Albert Thomas in Frank-
reich. Wilson gründete im Juni 1918 ein Zentralamt für Planung und Statistik,
das sämtliche statistikbezogenen Bestrebungen der Regierungsbehörden ko-
ordinierte und Universitätsstatistiker mit ehemaligen Census-Statistikern wie
Wesley Mitchell zusammenbrachte. Aber das Zentralamt wurde bereits im Ju-
ni 1919 wieder aufgelöst. Dennoch führten die aufgefrischten Beziehungen der
Verwaltung und der akademischen Kreise im November 1918 zur gemeinsa-
men Gründung eines Beraterkomitees für den Census. Diesem Komitee, das
von den Statistikern der ASA und den Ökonomen der AEA gegründet wurde,
gehörten die besten Spezialisten der damaligen Zeit an. In den 1920er Jah-
ren hatte das Komitee die Funktion eines Brain Trust und einer Lobby der
öffentlichen Statistik und garantierte dadurch die geistige Kontinuität in einer
administrativen Welt, die kein Erinnerungsvermögen hatte. Jedoch scheiterte
das Komitee – wie schon seine Vorgänger vor dem Krieg – an der Koordinie-
rung und internen Professionalisierung dieser Ämter. Die betreffenden Ämter
waren den bereits genannten Zufälligkeiten und Debatten der Tagespolitik un-
terworfen, in der es beispielsweise um die Festlegung ethnischer Quoten oder
um die Berechnung der anteilmäßigen Verteilung der Kongreßmandate ging
(im Übrigen waren die Akademiker nicht abgeneigt, in diese Debatten ein-
zugreifen). Erst der wirtschaftliche Zusammenbruch der 1930er Jahre führte
zu einer vollständigen Umgestaltung der Landschaft der öffentlichen Statistik
und ihrer Beziehungen zur akademischen Welt.

Arbeitslosigkeit und Ungleichheit:


Die Konstruktion neuer Objekte

In den wenigen Jahren zwischen 1933 und 1940 änderten sich die in der sozia-
len Debatte verwendeten Termini ebenso grundlegend, wie die statistischen
Werkzeuge, die in dieser Debatte eine Rolle spielten. Die beiden Transforma-
tion hingen eng miteinander zusammen, denn gleichzeitig fanden zwei Ent-
wicklungen statt: es entstand eine neue Art und Weise, das politische, wirt-
schaftliche und soziale Ungleichgewicht des amerikanischen Bundesstaates zu
verstehen und zu verwalten und es bildete sich eine Sprache heraus, mit de-
ren Hilfe sich diese Tätigkeit ausdrücken ließ. Arbeitslosigkeit im nationalen
Maßstab, Ungleichheiten zwischen den Klassen, Rassen und Regionen und
die Tatsache, daß die entsprechenden Objekte mit statistischen Werkzeugen
bearbeitet werden müssen, um darüber debattieren zu können – all das war
Bestandteil dieser neuen Sprache, die nach 1945 in allen westlichen Ländern
alltäglich wurde. Der Vergleich der Art und Weise, in der diese Probleme in
den drei aufeinanderfolgenden Zeiträumen von 1920 bis 1929, von 1930 bis
1932 und schließlich von 1933 bis 1940 aufgeworfen und behandelt worden
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 223

waren, verdeutlicht das gleichzeitige Umschwenken der politischen Program-


me und der Techniken. Die beiden Traditionen, das heißt die administrative
und die mathematische Tradition der Statistik, die in den vorhergehenden
Kapiteln getrennt voneinander beschrieben wurden, vereinigten sich in einem
Konstrukt, das von nun an mit einer doppelten Legitimität ausgestattet war:
mit der Legitimität des Staates und mit der Legitimität der Wissenschaft.
Herbert Hoover, republikanischer Präsident von 1928 bis 1932, sah sich
ab Oktober 1929 zunächst mit dem Börsenkrach und dem Zusammenbruch
der Wirtschaft und danach mit einem schnellen Anstieg der Arbeitslosigkeit
konfrontiert. Hoover wurde oft als fanatischer Anhänger des freien Spiels der
Marktkräfte beschrieben, der demzufolge jeglichen Eingriffen seitens des Bun-
des feindselig gegenüberstand – unabhängig davon, ob es sich um makroöko-
nomische Eingriffe (Ankurbelung der Nachfrage) oder um soziale Eingriffe
(Arbeitslosenhilfe) handelte. Nach dieser Version hätte er sich damit begnügt,
passiv auf den unabwendbaren Konjunkturumschwung zu warten, was keiner-
lei detaillierte statistische Analyse der Ursachen und Wirkungen der Krise und
der anzuwendenden Mittel bedeutet hätte. Aber die Dinge waren nicht ganz
so einfach und paradoxerweise betätigte sich Hoover in den 1920er Jahren
als aktiver Förderer der Bundesstatistik, vor allem in Bezug auf die Unter-
nehmenstätigkeit. Bereits ab 1921 hatte er als Handelsminister (Secretary of
Commerce) eine ständige Erhebung zu dieser Tätigkeit eingeleitet, den Be-
richt über die laufende Geschäftstätigkeit (Survey of Current Business). Zu
diesem Zeitpunkt befand sich das Land bereits in der Krise und kannte das
Problem der Arbeitslosigkeit. Hoover überzeugte Präsident Harding davon, die
Schirmherrschaft über eine landesweite Konferenz zu diesem Thema zu über-
nehmen, deren Ziel es war, die Ursachen der Arbeitslosigkeit zu analysieren
und Maßnahmen zu deren Senkung vorzuschlagen. Die vorgelegten Erklärun-
gen, die Beobachtungsmethoden und die in Betracht gezogenen Lösungen wa-
ren kohärent und unterschieden sich deutlich von denen, die in den 1930er
Jahren die Oberhand gewinnen sollten. Die Ursachen für die Krise waren
im Wesentlichen auf folgende Faktoren zurückzuführen: Überproduktion, in-
effiziente Managementpraktiken der Unternehmensleitungen, Verschwendung,
Übertreibungen im Zusammenhang mit Spekulationen und übertriebene In-
flation in der Wachstumsphase. Die von Hoover im Jahre 1921 organisierte
Konferenz über die Arbeitslosigkeit sammelte detaillierte Berichte zur Situa-
tion von Firmen in Hunderten von Städten und zu der Art und Weise, in der
sich Arbeitgeber und politische Führungskräfte auf lokaler Ebene organisier-
ten, um die Märkte zu sanieren.
Weder waren diese Berichte quantifiziert, noch waren sie in landeswei-
ten Messungen aggregiert. Sie wurden sorgfältig aufgelistet und analysiert,
um die am meisten betroffenen Gebiete ausfindig zu machen und diejeni-
gen Maßnahmen zu orten, die sich als die effizientesten erwiesen hatten. Die
Regierung und die Unternehmen sollten diese Maßnahmen unterstützen, um
Übertreibungen bei konjunkturellen Aufwärtsbewegungen abzumildern. Die
Konferenz schlug sogar Auftragserteilungen für öffentliche Arbeiten in Pha-
224 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

sen konjunktureller Abschwächungen und Umstrukturierungen der in schlech-


tem Zustand befindlichen Industrien vor, wobei diese Umstrukturierungen im
Umkreis der führenden Unternehmen durchgeführt werden sollten. Aber die-
se Maßnahmen konnten die Übernahme einer lokalen Verantwortung für das
Funktionieren des Arbeitsmarktes nur begleiten – die Bundesregierung konnte
die lokale Verantwortung nicht übernehmen. Die Hauptverantwortung für die
Durchführung der Maßnahmen lag bei den Unternehmensleitern, aber diese
mußten über die Konjunkturzyklen und Marktbedingungen informiert wer-
den. Die auf lokaler Ebene und branchenweise diversifizierten Informationen
konnten von den Bundesbehörden aufgegriffen und verbreitet werden. Die von
Hoover in den 1920er Jahren verfochtene Tendenz in der Statistik führte we-
der zu einer landesweiten Schätzung des Gesamtgeschäftsvolumens und der
Arbeitslosigkeit noch zu einer Analyse der Lebensbedingungen der Arbeits-
losen, da keine öffentlichen Programme zu deren Unterstützung vorgesehen
waren. Bei der Messung der Arbeitslosigkeit hielten sich die Experten zurück.
Die Zurückhaltung war so groß, daß das Census-Beraterkomitee – ein Able-
ger der ASA und der AEA – im Jahre 1920 eine Frage zu diesem zwischen
1880 und 1910 diskutierten Thema streichen ließ, weil man die Ursachen

nicht erkennen kann, warum jemand zum Zeitpunkt der Umfrage nicht arbei-
tet: Wirtschaftskonjunktur, saisonbedingte Schwankungen, Krankheiten ...“
Ein weiterer Vorschlag, diese Frage zu streichen, wurde im Dezember 1928
im Hinblick auf die 1930 durchzuführende Volkszählung unterbreitet, aber es
gelang dem gut informierten demokratischen Senator Wagner, eine Änderung
zu verabschieden, auf deren Grundlage die Frage im Juni 1929 – vier Monate
vor dem Börsenkrach – erneut gestellt wurde.
Der Zufall wollte es, daß die alle zehn Jahre durchgeführte Volkszählung
am 1. April 1930 stattfand, das heißt zu einem Zeitpunkt, an dem die Arbeits-
losigkeit bereits dramatisch angestiegen war und ihre landesweite Messung
erstmalig ein wesentliches politisches Streitobjekt in der Debatte zwischen
Regierung und demokratischer Opposition geworden war. Auf das Census Bu-
reau wurde ein starker Druck ausgeübt, um eine schnelle Bekanntgabe der Ar-
beitslosenzahlen zu erreichen, aber in dem vor der Krise konzipierten Auswer-
tungsplan hatten die Arbeitslosenzahlen nur eine geringe Priorität. Darüber
hinaus trat die entsprechende Information auf einem anderen Fragebogen auf,
der gesondert ausgewertet wurde. Der Vergleich dieses Fragebogens mit den
im Hauptfragebogen stehenden Fragen, die sich auf Rasse, Geschlecht, Alter
und Beruf bezogen, bedeutete eine beträchtliche Arbeit in einer Zeit, in der es
noch keine elektronische Stimmenzählung gab. Dennoch sah sich das Census
Bureau dem Druck der öffentlichen Meinung ausgesetzt, sehr schnell Ergeb-
nisse zu einer Frage zu liefern, die sich fast durch Zufall aus einer Zählung
ergaben, die überhaupt nicht für diesen Zweck konzipiert worden war. In-
folgedessen kündigte das Bureau Ende Juni an, daß eine erste Zählung 2,4
Millionen Arbeitslose registriert hätte. Aber die Konventionen bezüglich der
Definition und der Zählung dieser Arbeitslosen“ waren umstritten und es

wurde behauptetet, daß die wahre Zahl zwischen 4 Millionen und 6,6 Millio-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 225

nen liegt. Die Arbeitslosigkeit war vorher noch nie klar definiert worden und
das Bureau hatte aufgrund der Dringlichkeit restriktive Konventionen ange-
wendet: weder wurden die Arbeiter gezählt, die zwar noch eine Stelle hatten,
aber kurz vor ihrer Entlassung standen, noch erfolgte eine Zählung der Ju-
gendlichen, die noch nie gearbeitet hatten, aber eine Stelle suchten. Hoover
behauptete seinerseits, daß die Arbeitslosigkeit nicht so hoch war, wie es die
vorgeblichen Zahlen suggerierten; die Zählung hätte seiner Meinung nach nur
deswegen zu einem sehr hohen Ergebnis geführt, weil viele der als arbeitslos

registrierten Personen in Wirklichkeit gar keine Arbeit suchten“.
Alle Bestandteile der modernen Debatte zur Arbeitslosigkeit waren also
innerhalb weniger Monaten entstanden. Was war ein Arbeitsloser? Falls er
als eine Person definiert war, die keine Beschäftigung hatte, aber eine solche
suchte, und falls er sofort verfügbar war, dann erwies sich jede dieser drei
Bedingungen als problematisch und führte zu einer Diskussion, weil häufig
zweifelhafte Fälle ins Spiel kamen: da gab es Leute, die in Ermangelung von
etwas besserem nur ab und an arbeiteten; entmutigte Leute, die nicht mehr
intensiv nach Arbeit suchten; Menschen in Notlagen, mit labiler physischer
oder psychischer Verfassung, wie sie unter den sehr Armen häufig vorkamen.
Mißt man darüber hinaus nicht nur die Anzahl der Arbeitslosen, sondern auch
die Arbeitslosenquote, dann stellt auch die Definition des Nenners ein Problem
dar: Soll man die Arbeitslosenzahl zur Gesamtbevölkerung ins Verhältnis set-
zen oder nur zur potentiell berufstätigen Bevölkerung? In diesem Fall gab
es an der Trennlinie zwischen der potentiell beruftstätigen und der nichtbe-
rufstätigen Bevölkerung viele zweifelhafte Fälle. Vor 1930 stellten sich diese
Fragen kaum und sie erlangten erst deswegen Bedeutung, weil die demokrati-
sche Opposition eine national organisierte Politik im Kampf gegen die Arbeits-
losigkeit forderte. Niemand hatte diese Fragen 1920–1921 aufgeworfen, da zu
dieser Zeit die Vorstellung dominierte, daß der Verlauf der geschäftlichen Pro-
zesse von lokalen Umständen und Initiativen abhängt. Das war die Position,
die Hoover auch im Jahre 1930 weiter vertrat. Er machte jedoch den Vor-
schlag, örtliche Hilfen zu organisieren, Teilzeitbeschäftigung und Job-Sharing
zu fördern sowie Ausländer mit illegalem Status abzuschieben. Aber er lehnte
die Vorschläge ab, die das historische Gleichgewicht zwischen den Gewalten
der Stadtgemeinden, der Einzelstaaten und der Föderation ändern würden.
Aus diesem Grund blieben die Statistiken bezüglich Landwirtschaft, Arbeit
und Arbeitslosigkeit, Unterstützung, Ausbildung und Gesundheit noch in der
Zuständigkeit der örtlichen Behörden. Die Bundesstatistik wurde durch die
von der Regierung Hoover beschlossenen Einschränkungen mit voller Wucht
getroffen. Ihr Budget wurde 1932 um 27% beschnitten. Aber ihre Lage änderte
sich in jeder Hinsicht, als Roosevelt im März 1933 an die Macht kam.
Wie wir gesehen hatten, führte in Kriegszeiten die allgemeine Mobilisie-
rung der Ressourcen zur Bildung von ungewöhnlichen Allianzen und Orga-
nisationsweisen, deren Auswirkungen sich auch in der öffentlichen Statistik
bemerkbar machten. Ähnlicherweise führten im Jahre 1933 – in dem die Krise
ihren Höhepunkt erreichte – die Bemühungen der neuen Administration zur
226 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Ankurbelung der Wirtschaft sowie zur Unterstützung der Millionen von Ar-
beitslosen und ruinierten Landwirten zu einer umfassenden Transformation
der Mechanismen und der Funktion der Bundesregierung. Dementsprechend
änderte sich auch der Stellenwert, den die Statistiker in diesen Mechanismen
hatten. Diese Veränderungen bezogen sich auf die Ziele der öffentlichen Poli-
tik, auf die technischen und administrativen Verfahren zur Erreichung dieser
Ziele und auf die Sprache, in der sich diese Maßnahmen ausdrückten. Damit
hatten diese Ziele die gleiche Bedeutung für alle, die sich an deren Umsetzung
beteiligten. Mehr als je zuvor spielte die Statistik damals eine entscheiden-
de Rolle bei dem Vorgang, diejenigen Dinge konsistent zu machen, um die
es bei der kollektiven Aktion ging. Diese Dinge, zu denen Arbeitslosigkeit,
Sozialversicherung, Ungleichheiten zwischen Gruppen oder Rassen und das
Nationaleinkommen gehörten, wurden von nun an auf der Grundlage ihrer
Definitionen und ihrer statistischen Messungen formuliert. Es war nicht das
erste Mal, daß soetwas geschah: bereits im England des 19. Jahrhunderts
nahm die Politik der öffentlichen Gesundheit Bezug auf die lokalen Sterb-
lichkeitsziffern und das General Register Office (GRO) schöpfte hieraus seine
Bedeutung und seine Legitimität. Aber es ging jetzt nicht mehr darum, einer
besonderen – wenn auch sehr wichtigen – Maßnahme Ausdruck zu verleihen.
Vielmehr ging es darum, die Unternehmen und ihre Stiftungen, die Univer-
sitäten und ihre Fachleute, die Gewerkschaften und die Wohltätigkeitsvereine
zu koordinieren und sie über die Aktivitäten zu informieren, die von der Ad-
ministration zusammen mit denjenigen sozialen Kräften umgesetzt wurden,
auf die sie sich bei der betreffenden Maßnahme stützte. Zu einer Zeit, in der
andere Ausdrucksmittel der kollektiven Aktion – Ausdrucksmittel, die auf
die Sprache der Marktökonomie oder der örtlichen Solidarität zurückgriffen –
nicht mehr fähig zu sein schienen, die Dramatik der Lage in die Überlegungen
einzubeziehen, war es nur allzu einleuchtend, neue Formen der Rationalität
und Universalität zu verwenden, die sich durch wissenschaftliche und vor al-
lem durch statistische Begriffe ausdrücken ließen. Einige Jahre zuvor schien
das durchaus noch nicht plausibel gewesen zu sein.
In den ersten drei Jahren der Krise hatte es erbitterte Debatten zwischen
den Mitglieder der republikanischen Administration, den Statistikern der ASA
und den Ökonomen der AEA gegeben. Diese Debatten bezogen sich nicht nur
auf die Messung der Arbeitslosigkeit, sondern auch auf die als archaisch beur-
teilte Organisation der Statistik. Darüber hinaus ging es um Maßnahmen, die
durchzuführen waren, damit sich die Regierungen und die öffentliche Meinung
in einer derart neuen Situation auf vertrauenswürdige Beschreibungen stützen
konnten, denn keine der früheren zyklischen Krisen hatte ein solches Ausmaß.
Bereits in den ersten Wochen der neuen Regierung wurden die mit den Repu-
blikanern sympathisierenden Leiter der wichtigsten statistischen Ämter durch
Mitglieder der ASA ersetzt, die an diesen Debatten teilgenommen hatten. Der
neue Arbeitsminister (zu dessen Ressort das Bureau of Labor Statistics, BLS,
gehörte) und der neue Handelsminister (dem das Census Bureau unterstand)
gründeten zwei Komitees, die damit beauftragt wurden, die Arbeitsweise aller
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 227

statistischen Ämter zu untersuchen und Vorschläge zu deren Umgestaltung zu


erarbeiten. Die wichtigste dieser Expertengruppen, das Committee on Govern-
ment Statistics and Information Services (COGSIS), spielte eine entscheiden-
de Rolle bei der Koordinierung und Rationalisierung derjenigen administrati-
ven Kreisläufe, die zu statistischen Messungen führten. Eine ebenso wichtige
Rolle spielte das Committee bei der Professionalisierung der Ämter. Das Com-
mittee wurde von der Rockefeller-Stiftung finanziert; seine Vorsitzenden waren
zunächst Edmund Day, der Leiter des Bereiches Sozialwissenschaften der Stif-
tung, und danach Frederick Mills, Professor an der Columbia University. Day
verschaffte jungen Spitzenakademikern mit mathematischer und wirtschafts-
wissenschaftlicher Ausbildung Zutritt zum Census. Die jungen Leute nahmen
allmählich die Stellen der alten, überwiegend in der Verwaltung ausgebildeten
Leitungskräfte ein, die noch von den – ansonsten längst vergessenen – politi-
schen Querelen der 1920er Jahre gezeichnet waren. In normalen Zeiten zogen
die offiziellen Ämter nur wenige brillante Studenten an; anders verhielt es sich
jedoch zu einer Zeit, in der die Absatzmärkte der Unternehmen verlorengegan-
gen waren. Die neue Generation, die bis in 1970er Jahre aktiv war, gab dem
Census, dem BLS, dem Amt für Landwirtschaftsstatistik und einigen weiteren
Dienststellen für Statistik und Wirtschaftsstudien, die der Bundesverwaltung
unterstellt waren, ein sehr originelles Profil. Die nachrückende Generation
von Fachleuten transformierte diese Dienststellen in Standorte der Innova-
tion und des Experimentierens mit den neuen Wissensgebieten, die aus der
Mathematisierung der Statistik und der Wirtschaftswissenschaften hervorge-
gangenen waren: hierzu gehörten die Theorie der Stichprobenerhebungen, die
volkswirtschaftliche Gesamtrechnung und die ökonometrischen Modelle (vgl.
Kapitel 9).
Die Technik der Stichprobenerhebungen, die bereits Laplace im 18. Jahr-
hundert ersonnen hatte und die in der Folgezeit in Vergessenheit geraten war,
wurde gegen 1900 von Kiaer in Norwegen und später von Bowley in Groß-
britannien wieder aufgegriffen (vgl. Kapitel 7). Das Zusammentreffen dreier
verschiedener Ereignisse in der 1930er Jahren in den Vereinigten Staaten führ-
te zur routinemäßigen Anwendung dieser Technik und ihrer Verbreitung. Jerzy
Neyman (1894–1981), ein Statistiker polnischer Abstammung und Mitarbei-
ter von Egon Pearson (1895–1980) in London, formalisierte im Jahre 1934 die
Methoden der Stichprobenerhebung und der Stratifizierung. Damit eröffne-
te er einen Weg, der von den am Census frisch rekrutierten jungen Leuten
(Dedrick, Hansen, Stephan und Stouffer) beträchtlich vertieft wurde, indem
sie diese Methoden auf regelmäßige Erhebungen anwendeten. Diese Technik
eignete sich ausgesprochen gut für den Kontext der neuen Wirtschafts- und
Sozialpolitik und für die Bestrebungen des COGSIS, ein ständiges statistisches
System aufzubauen, das eine Umsetzung dieser Politik ermöglichte – ein Ziel,
das sich nicht mit den alle zehn Jahre durchgeführten Volkszählungen errei-
chen ließ. Die Technik wurde schließlich 1936 von Gallup bei Wahlprognosen
erfolgreich eingesetzt. Das trug zur Zerstreuung der Zweifel bei, welche die
öffentliche Meinung über die Konsistenz von Messungen hatte, die sich le-
228 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

diglich auf einen Bruchteil der zu beschreibenden Bevölkerung stützten. Auf


diese Weise hatte die Allianz aus Mathematikern, Statistikern, politischen
Führungskräften und Journalisten nach einigem Hin und Her einen durch-
schlagenden Erfolg.
Viel weniger aufwendig als Zählungen waren Stichprobenerhebungen, die
mit einem festen Fragebogen wiederholt durchgeführt werden konnten. Da-
durch war es möglich, in eleganter Weise die Einwände zu umgehen, die sich
auf die Konventionen und die Willkür der Kodierung bezogen: Läßt sich die
Realitätsnähe einer Niveaumessung anfechten, dann ist die Realitätsnähe der
Schwankungen dieser Messung in geringerem Maße anfechtbar, sobald sich
die Aufzeichnungskonventionen verfestigt haben. Dadurch wurde eine routi-
nemäßige Anwendung der Statistik möglich und diese Anwendung schloß teil-
weise die Kritik ihres Realismus ein. Aber bevor sich die Statistik endgültig
durchsetzte, wurde die neue Realität der Stichprobenerhebung immer noch in
Zweifel gezogen, und zwar von den Politikern und sogar von der Leitung des
Census. Die jungen Statistiker mußten den Beweis antreten, daß ihre Objekte
dauerhafter und besser sind als diejenigen Objekte, die mit Hilfe von klas-
sischen Verwaltungsaufzeichnungen konstruiert wurden. In der im Folgenden
dargelegten Geschichte der Stichprobenerhebungen spielen zwei überzeugende
Tests die Rolle der Gründungsurkunde. Einer der Tests bezog sich auf die Ar-
beitslosigkeit und überzeugte die Führungskräfte in Politik und Verwaltung.
Der andere betraf die zukünftigen Wahlen und überzeugte die Presse und die
öffentliche Meinung.
Die Arbeitslosigkeit blieb für die neue Administration eine ebenso brennen-
de Frage, wie sie es für die vorhergehende war. Um 1935 stießen die Wünsche
nach einer besseren Beschreibung und Messung der Arbeitslosigkeit noch auf
die gleiche Reserviertheit wie früher. So wie sein Vorgänger zog auch Roose-
velt die Realität gewisser Fälle von Arbeitslosigkeit und sogar die Möglichkeit
in Zweifel, hierüber eine Statistik aufzustellen. Niemand – so Roosevelt –
ist dazu in der Lage, einen Arbeitslosen definieren ... Gewisse Frauen ar-

beiten für ihr Taschengeld ... Die Zimmerleute hören auf zu arbeiten, wenn
schlechtes Wetter ist“. Er meinte, daß bei einer Zählung der Arbeitslosigkeit
derartige Fälle in ungerechtfertigter Weise mit den Fällen von Personen ver-
mengt würden, die sich wirklich in Not“ befänden. Aber zwei Jahre später,

im Jahre 1937, wurde der politische Druck so groß, daß der Kongreß Kredite
für eine nationale Umfrage zur Arbeitslosigkeit beschloß. Hierbei handelte es
sich um eine Vollerhebung: die Fragebögen wurden per Post verschickt und
die Arbeitslosen antworteten freiwillig darauf. Die Statistiker waren mit die-
ser Methode nicht einverstanden: sie behaupteten, daß zahlreiche Personen
nicht antworten würden, da sie die Arbeitslosigkeit als demütigende Situati-
on wahrnehmen. Eine weniger kostenaufwendige Stichprobenerhebung würde
es ermöglichen, Interviewer in nur 2% der Haushalte zu schicken; dieser di-
rekte Kontakt würde ein Vertrauensverhältnis zu den Leuten herstellen und
ein besseres Bild von der Realität der Arbeitslosigkeit liefern. Dedrick und
seine jungen Kollegen überzeugten ihren Direktor, diese experimentelle Be-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 229

fragung parallel zu der postalisch durchzuführenden Zählung abzuwickeln,


um die Ergebnisse bezüglich derjenigen Personen zu vergleichen, die sich an
beiden Operationen beteiligt hatten. Der Test war überzeugend: 7,8 Millionen
Arbeitslose beantworteten die postalische Vollerhebung, aber von denen, die
sich in der direkten Stichprobenerhebung als arbeitslos bezeichneten, hatten
nur 71% auf die postalische Umfrage geantwortet (der Prozentsatz lag bei den-
jenigen Arbeitslosen sehr viel höher, die von speziellen Behörden eine Beihilfe
erhielten und deswegen bereits bekannt waren: von diesen Arbeitslosen hatten
98% geantwortet). Somit war es zum ersten Mal möglich geworden, die bei-
den klassischen Arten der Zählung der Arbeitslosen – durch direkte Befragung
oder über die mit Fürsorgeleistungen beauftragten Behörden – miteinander
zu vergleichen. Der Vergleich der postalisch durchgeführten Zählung mit der
Stichprobenerhebung ermöglichte also die Schätzung einer größeren Zahl von
Arbeitslosen, nämlich 11 Millionen anstelle von 7,8 Millionen.
Der andere überzeugende Test der Methode der Zufallsstichprobenerhe-
bung im Vergleich zur spontanen“ Stichprobenerhebung ergab sich 1936 auf-

grund der Erfahrungen des amerikanischen Statistikers George Horace Gallup
(1901–1984), der als Meinungsforscher (pollster ) die Wiederwahl von Roose-
velt vorausgesagt hatte, während das Magazin Literary Digest, das die Leser
auf freiwilliger Grundlage befragt hatte, einen republikanischen Sieg progno-
stizierte und sich damit gewaltig irrte. Gallup und die Anhänger der neuen
Methode vergaßen nicht, die Tatsache hervorzuheben, daß die Zufallsstichpro-
be viel kleiner war, als die des Magazins, aber dennoch zum richtigen Ergebnis
geführt hatte.15 Damit wurde der Begriff der Repräsentativität umfassend po-
pularisiert und das untermauerte die Argumente derjenigen Statistiker, die für
eine regelmäßige Durchführung von Stichprobenerhebungen zu sozialen und
wirtschaftlichen Fragen kämpften. Kurze Zeit später – bei der Vorbereitung
der normalen Volkszählung von 1940 – bot sich diesen Statistikern erneut ei-
ne Gelegenheit, ihre Methoden zu testen und deren Effizienz unter Beweis zu
stellen.
Die zahlreichen Anträge auf Hinzufügung neuer Fragen hätten dazu geführt,
den Fragebogen übermäßig lang zu machen. Die Statistiker der neuen Ge-
neration schlugen vor, der Vollerhebung einen Ergänzungsfragebogen hinzu-
zufügen, der sich jedoch nur an 5% der zu befragenden Personen richtete. In
Verbindung mit der Vollerhebung ermöglichte es dieser Vorgang, wesentliche
theoretische und praktische Fragen zur Zuverlässigkeit des Stichprobenverfah-
rens zu stellen und zu lösen. Die Aktion ermunterte auch dazu, die Formu-
lierung von Fragen zu testen und zu konsolidieren sowie gewisse Messungen
zu standardisieren, die für einen umfassenden Verwendungszweck bestimmt
15
Die sogenannten pre-election surveys“ oder polls“ wurden in den USA seit
” ”
den 1930er Jahren durchgeführt, um eine Vorhersage der Wahlergebnisse (z.B.
bei Präsidentschaftswahlen) zu ermöglichen. Polls und mit ihnen auch andere
Stichprobenuntersuchungen kamen jedoch erst beim Literary Digest Desaster“

zu Ansehen, als die Ergebnisse der Präsidentschaftswahl 1936 die Vorhersage von
Gallup und anderen Meinungsforschern bestätigten.
230 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

waren. Hierzu gehörte die Schätzung der Anzahl der Erwerbspersonen (labor
force), das heißt der Gesamtheit derjenigen Personen, die eine Arbeitsstelle ha-
ben oder eine solche in der Woche suchen, in der die Zählung stattfindet. Von
nun an diente diese Größe als Nenner in der Standardabschätzung der Arbeits-
losenquote. Die verschiedenen Erfahrungen waren hinreichend überzeugend:
fortan konnte das Ergebnis einer Stichprobenerhebung als amtliche Arbeits-

losenziffer“ vorgelegt werden, was zehn Jahre früher unvorstellbar gewesen
wäre. Nach 1940 wurden derartige Erhebungen jeden Monat durchgeführt –
zunächst unter der Bezeichnung Stichprobenerhebung zur Arbeitslosigkeit“

(sample survey of unemployment), danach im Jahre 1942 als Monatsbericht

zu den Erwerbspersonen“ (monthly report on the labor force) und schließlich
1947 als ständige Erhebung“.

Die gleichzeitige Richtungsänderung der Ziele und der Werkzeuge der Sta-
tistik in den 1920er und 1930er Jahren erwies sich auch in Bezug auf Fra-
gen zur Bevölkerung und zu Ungleichheiten zwischen sozialen und ethnischen
Gruppen als spektakulär. Vor 1930 erfolgte die Beschreibung dieser Unter-
schiede im Allgemeinen durch die Begriffe der angeborenen Fähigkeiten oder
der kulturellen und religiösen Unfähigkeit, sich in die amerikanische Gesell-
schaft zu integrieren. Diese Analysen stützten sich auf intellektuelle Konstruk-
te, die auf die Eugenik oder auf eine Form des Kulturalismus zurückgingen,
bei der die Unveränderlichkeit der charakteristischen Merkmale der Abstam-
mung hervorgehoben wurde. Die Debatten der 1920er Jahre zu den ethnischen
Quoten waren deutlich von derartigen Argumenten geprägt. Zehn Jahre später
waren die Terminologie und die aufgeworfenen Fragen nicht mehr die gleichen.
Die Regierung beauftragte Komitees, die sich aus Akademikern und Beamten
zusammensetzten und von den großen privaten Stiftungen unterstützt wur-
den, mit der Analyse der Probleme und der Erarbeitung von Vorschlägen. In
diesen Komitees wurde eine liberale“ politische Linie, das heißt eine Linie

des Fortschritts“ entworfen und formuliert – im amerikanischen Sinne dieses

Begriffes (der in Europa eine andere Konnotation hat). Eines dieser Komitees
untersuchte 1934 die Verbesserung der nationalen Ressourcen“ mit der Über-

zeugung, daß Wissenschaft und Technik als solche mobilisiert werden müssen,
um die sozialen Probleme zu lösen:
Die Anwendung der Ingenieurskunst und des technologischen Wissens
auf die Reorganisation der natürlichen Ressourcen der Nation muß
als ein Mittel konzipiert werden, die Last der Arbeit schrittweise zu
verringern und dadurch den Lebensstandard und den Wohlstand der
Masse der Bevölkerung zu erhöhen. (National Resources Committee,
1934, zitiert von Anderson, 1988, [4]).
Vom ersten Komitee wurde ein weiteres Komitee zu Bevölkerungsproble-

men“ mit dem Ziel bestellt, die Fragen der sozialen und ethnischen Unterschie-
de genauer zu untersuchen. Der von diesem Komitee im Jahre 1938 übergebe-
ne Bericht vertrat einen Standpunkt, der das genaue Gegenteil der Theorien
der 1920er Jahre war. Entsprechend diesem Bericht hat die Einwanderung
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 231

der verschiedenen nationalen Minderheiten die Vitalität der amerikanischen


Gesellschaft ganz und gar nicht verringert. Der Bericht unterstrich die posi-
tiven Aspekte der Vielfalt der kulturellen Traditionen der Einwanderer, der
Schwarzen und der Indianer. Die Probleme der am meisten benachteiligten
Gruppen resultieren aus ihren Schwierigkeiten, eine Ausbildung zu erhalten,

aus der falschen Nutzung der Ressourcen des Erdbodens und des Untergrun-
des sowie aus einer unkorrekten Vorhersage der technischen Veränderungen“.
Die Lösung dieser Probleme liegt in der Verantwortung der Bundesregierung
– vor allem bei der Bereitstellung des Personals und der Finanzierung zur
Sicherung der Chancen auf Schulausbildung und normale Gesundheit für alle
Amerikaner, bei der Wiederherstellung der von den früheren Generationen
gnadenlos ausgebeuteten Wälder und landwirtschaftlichen Böden sowie bei
der Prognostizierung technologischer Veränderungen durch eine entsprechen-
de Wachstumsplanung. Die Tatsache, daß der Föderation die Zuständigkeit
für einen derartigen Fragenkomplex zuerkannt worden war, stellte eine bedeu-
tende Neuerung in der amerikanischen politischen Tradition dar und prägte
bis zum Beginn der 1980er Jahre die Administrationen unabhängig davon, ob
es sich um Demokraten oder Republikaner handelte. Parallel hierzu entwickel-
te sich gleichzeitig das statistische System (mußte dann aber ab 1981 starke
Budgetkürzungen hinnehmen). Die Frage der Beschreibung und der Messung
der Ungleichheiten der (durch prägnante Begriffe der amerikanischen Kultur
wie opportunities und birthright ausgedrückten) Anfangschancen der sozialen
Gruppen, Regionen, Rassen und Geschlechter stand im Mittelpunkt zahlrei-
cher politischer und gesetzgeberischer Bestrebungen, die in der Folgezeit aus-
probiert wurden, um ein Gegengewicht gegen Benachteiligungen aller Art zu
schaffen. Die Philosophie dieser Versuche kommt in der Schlußfolgerung des
Ausschußberichtes treffend zum Ausdruck:
Man kann die Tatsache gar nicht genug hervorheben, daß dieser
Bericht in Bezug auf die Bevölkerung nicht nur Probleme der An-
zahl, Merkmale und Verteilung behandelt, sondern auch Probleme der
Erhöhung der Chancen (opportunities) der Individuen, aus denen sich
diese Bevölkerung zusammensetzt, und seien sie noch so zahlreich. Un-
ser demokratisches System muß schrittweise allen Gruppen zugänglich
machen, was wir für den amerikanischen Lebensstandard halten. Der
Fortschritt der Nation ist vor allem der Fortschritt der Masse des Vol-
kes und das Geburtsrecht (birthright) darf nicht durch Gleichgültigkeit
oder Nachlässigkeit verloren gehen. (National Resources Committee,
1934, zitiert von Anderson, 1988, [4]).
Die Umsetzung dieser Politik führte bereits 1935 zur Verabschiedung ei-
nes Gesetzes zur Sozialversicherung, das durch Bundesmittel finanziert wurde,
die ihrerseits von den staatlichen und den örtlichen Behörden verteilt und ver-
waltet wurden. Es stellte sich demnach die Frage nach der Verteilung dieser
Subventionen (grant-in-aid ) auf die verschiedenen Zwischeninstanzen. Hier-
zu wurde das alte konstitutionelle Verfahren des apportionment zu neuem
232 6 Statistik und Staat: Deutschland und die Vereinigten Staaten

Leben erweckt und man mobilisierte das Census Bureau, damit es die Berech-
nungsgrundlage zur Verteilung der Subventionen auf die Einzelstaaten lieferte.
Aber die Gerechtigkeitsprinzipien, von denen diese neuen Politik beseelt war,
stützten sich nicht mehr nur auf die anteilmäßige Verteilung der Vertretungen
und der finanziellen Belastungen, wie es in der Tradition der Gründerväter
üblich war. Diese Gerechtigkeitsprinzipien bezogen sich von nun an auch auf
individuelle Ungleichheiten, die mit der Rasse, dem Beruf und dem Einkom-
mensniveau zusammenhingen. Zur Durchführung dieser Strategie waren Infor-
mationen neuen Typs erforderlich. Individuell-nationale“ Statistiken konn-

ten nicht durch aufwendige Zählungen bereitgestellt werden, die nur selten
durchgeführt wurden. Dagegen erwiesen sich regelmäßige und auf Bundes-
ebene durchgeführte Stichprobenerhebungen als adäquat zur Durchführung
von Maßnahmen, die sich am Begriff der landesweit empfundenen individu-
ellen Ungleichheiten orientierten. Der Raum der Nation war nicht mehr nur
ein politischer und juristischer Raum. Er war auch zu einem statistischen
Äquivalenz- und Komparabilitätsraum geworden, der das Verfahren der Zu-
falls