Sie sind auf Seite 1von 192

Wissenschaftstheorie III

Wissenschaft zwischen Positivismus und Hermeneutik

U. Mortensen
FB Psychologie und Sportwissenschaften, Institut III
Westfalische Wilhelms Universitat M
unster

Das Skriptum wurde urspr


unglich f
ur die Vorlesung Einf
uhrung in die Wissenschaftstheorie, WS 2004/2005, konzipiert. Es sind seitdem Erweiterungen
des Textes vorgenommen worden, die u
ber den Stoff der Vorlesung hinaus
gehen. Fehler werden, sobald sie gefunden werden, korrigiert.
Letzte Korrektur: 16. 02. 2010

Inhaltsverzeichnis
1 Positivismus, Neopositivismus, und Kritischer Rationalismus

1.1

Kants Erben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

August Comte: die Konzeption des Positivismus . . . . . . . . . . . . . . .

1.3

Ernst Mach: Empiriokritizismus . . . . . . . . . . . . . . . . . . . . . . . .

1.4

Positivismus und Realismus . . . . . . . . . . . . . . . . . . . . . . . . . .

11

1.5

Ludwig Boltzmann: die Relativierung des Positivismus . . . . . . . . . . .

12

1.6

Logischer Empirismus: der Wiener Kreis . . . . . . . . . . . . . . . . . . .

13

1.7

Ludwig Wittgenstein: der Tractatus . . . . . . . . . . . . . . . . . . . . .

17

1.8

Wahrheit und Verifikation . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

1.9

Begriffe, Definitionen und Explikationen . . . . . . . . . . . . . . . . . . .

25

1.9.1

Explikationen und Definitionen . . . . . . . . . . . . . . . . . . . .

26

1.9.2

Operationale Definitionen . . . . . . . . . . . . . . . . . . . . . . .

28

1.10 Karl R. Popper: Falsifikationismus . . . . . . . . . . . . . . . . . . . . . .

30

1.10.1 Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

1.10.2 Demarkation, Induktion und Falsifikation . . . . . . . . . . . . . .

31

2 Statistische Aspekte der Falsifikation

37

2.1

Das Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

2.2

Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

2.2.1

Der formale Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . .

41

2.2.2

Die klassische Definition von Wahrscheinlichkeiten . . . . . . . . .

44

2.2.3

Logische Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . .

46

2.2.4

Subjektive Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . .

56

2.2.5

Objektive Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . .

57

Bayesianische und frequentistische Statistik . . . . . . . . . . . . . . . . .

65

2.3

3 Entstehung und Uberwindung


von Theorien

71

3.1

T. S. Kuhn: Paradigmen und Revolutionen . . . . . . . . . . . . . . . . .

72

3.2

I. Lakatos: sophistizierter Falsifikationismus . . . . . . . . . . . . . . . . .

77

3.3

J. Sneed: das strukturalistische Theorienkonzept . . . . . . . . . . . . . .

80

3.4

P. Feyerabend: Wissenschaftstheorie und unerforschter Irrsinn . . . . . . .

82

4 Geistes- versus Naturwissenschaft

86

4.1

Die verschiedenen Positionen . . . . . . . . . . . . . . . . . . . . . . . . .

87

4.2

F. Brentano: Intentionalitat und Evidenz . . . . . . . . . . . . . . . . . .

87

4.3

W. Windelband: nomothetische und idiographische Wissenschaften . . . .

90

4.4

W. Dilthey: Naturerklaren und Seelenverstehen . . . . . . . . . . . . . . .

93

4.5

Hermeneutik: Die Methodologie der Deutung . . . . . . . . . . . . . . . .

95

5 Verstehen ist Erkl


aren ist Verstehen

101

5.1

Der praktische Syllogismus . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5.2

Zur phanomenologischen Undurchsichtigkeit . . . . . . . . . . . . . . . . . 104

5.3

Zur phanomenologischen Instabilitat . . . . . . . . . . . . . . . . . . . . . 105

5.4

Zum Begriff der wissenschaftlichen Erklarung . . . . . . . . . . . . . . . . 107

6 Die Empirismuskritik der Frankfurter Schule

114

6.1

Der Weg zur Dialektik: Descartes, Kant, Fichte, Hegel . . . . . . . . . . . 114

6.2

Hegel zur Einstimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

6.3

Hegelsche Dialektik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

6.4

Kritik der hegelschen Dialektik . . . . . . . . . . . . . . . . . . . . . . . . 126

6.5

6.4.1

von Wrights und Simon-Schafers Kritik . . . . . . . . . . . . . . . 126

6.4.2

Russels Kritik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

6.4.3

Poppers Kritik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

6.4.4

Puntels Kritik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

Empirie und Positivismus . . . . . . . . . . . . . . . . . . . . . . . . . . . 139


6.5.1

Der Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

6.5.2

Kritik am Positivismus . . . . . . . . . . . . . . . . . . . . . . . . . 141

6.5.3

Positivismus und Affirmation . . . . . . . . . . . . . . . . . . . . . 142

6.5.4

Positivismus und formale Logik . . . . . . . . . . . . . . . . . . . . 147

6.5.5

Empirie und Adornos Zorn . . . . . . . . . . . . . . . . . . . . . . 153

Philosophie und Asthetik,


Jazz und Faschismus . . . . . . . . . . . 165

6.5.6
6.6

Selbstreflexion und die Kausalitat des Schicksals . . . . . . . . . . . . . . 169

7 Metaphysik und Evidenz

176

7.1

Betrachtungen zur Metaphysik . . . . . . . . . . . . . . . . . . . . . . . . 176

7.2

Zum Begriff der Evidenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

7.3

Das M
unchhausen-Trilemma

. . . . . . . . . . . . . . . . . . . . . . . . . 181

8 Literatur und Index

183

Paul Feyerabend schrieb 1969 an seinen Freund Hans Albert


u
ber seine anarchistische Erkenntnistheorie:
Anarchismus heit also nicht: u
berhaupt keine Methoden, sondern alle Methoden, nur unter verschiedenen Umstanden angewendet ... Und wenn du mich fragst, ob es allgemeine Regeln
gibt, die es uns gestatten zu entscheiden, wann welche Methode angewendet werden muss, dann sage ich nein, denn die
Richtigkeit des Vorgehens stellt sich oft erst hinterher heraus.
Abbildung 1: Escher: Mobiusband

Positivismus, Neopositivismus, und Kritischer Rationalismus

1.1

Kants Erben

Kants Befund, dass die Dinge nicht an sich erkannt werden konnen, gab Auftrieb f
ur zwei
verschiedene Denkrichtungen. In England und Frankreich f
uhrte die Kantsche Philosophie zu einer Starkung des Empirismus und Skeptizismus, in Deutschland dagegen zu
einer Starkung des Idealismus. Unter Idealismus wird dabei die Lehre, dass die externe
Welt nicht unabhangig vom erkennenden Geist (mind) ist, verstanden. Radikale Formen
des Idealismus finden sich im orientalischen Spiritualismus, demzufolge Geist und Gedanken alles sind, was existiert. Die Philosophie Berkeleys kann als eine Variante dieser
Art des Idealismus angesehen werden. Nach Berkeley gilt esse est percipi: damit etwas
real ist, mu es wahrgenommen werden, und: esse est percipile esse, real zu sein heit
wahrnehmbar zu sein.
Es hat eine lange Diskussion dar
uber gegeben, ob der Geist auerhalb oder hinter
der zu erkennenden Natur steht (absoluter Idealismus), oder ob er eine die Natur durchdringende rationale Kraft ist (kosmischer Idealismus), oder ob es sich um den kollektiven,
unpersonlichen Geist der Menschen im Allgemeinen (sozialer Idealismus) handelt, oder
ob der Geist einfach die verteilte Ansammlung der Geister (= Minds) der Individuen in
einer Gesellschaft ist (personaler Idealismus). Die in gewisser Weise schwachste Version
des Idealismus ist, dass jede adaquate Erklarung der realen Welt in irgend einer Weise
durch die Operationen des Geistes bestimmt bzw. gepragt sein wird.
In Deutschland war es insbesondere Johann Gottlieb Fichte (1762 - 1814), der in
seiner Wissenschaftslehre den idealistischen Aspekt in Kants Philosophie aufnahm. Hier
ist das Ideal dasjenige, was das Reale bestimmt; die Wissenschaft, die wir betreiben,
erfat dieses Ideal noch nicht, das Ideal ist vielmehr das Ziel aller wissenschaftlichen
Bem
uhungen.
Friedrich Wilhelm Joseph Schelling (1775 - 1854), u.a. Sch
uler von Fichte, entwarf und
4

anderem eine Naturphilosophie, in der die Natur holistischer als in Newtons Physik oder
in Kants transzendentalem Ansatz verstanden werden soll. Schelling beginnt mit dem
Begriff der reinen Objektivitat; danach entwickelt sich die Natur in einem unbewuten
Prozess hin zu einem Zustand der Selbstreprasentation, - eben unserem Bewutsein. Die
Natur wird dabei als ein System entgegengesetzter Krafte oder Polaritaten aufgefat,
die sich in immer komplexeren Niveaus (Potenzen) ausdr
ucken. Schelling begann dann,
sich f
ur die Kunst zu interessieren und betrachtete die Kunst als die Verwirklichung der
Philosophie. Nach seiner Berufung nach Berlin interessierte er sich immer mehr f
ur die
Religion und entwickelte eine Philosophie der Offenbarung: diese sei die positive Philosophie, im Unterschied zur rein negativen Philosophie von Kant, Fichte und Hegel.
Schelling versuchte nicht, ein System aufzustellen, denn Wahrheit mu erschaut werden. Das absolute Ich sei kein Ding, konne also auch nicht wie ein Ding erfat werden,
dh es kann nicht in einem begrifflichen System gedacht werden. Es kann nur in einer
vom verstandesmaigen Erkennen vollig verschiedenen Art erfat werden, die analog zur
sinnlichen Anschauung konzipiert werden mu; Schelling spricht von intellektueller Anschauung. Schelling hat sich damit weit von Kant entfernt und liefert die Argumente
f
ur eine Denkrichtung, die der wissenschaftlichen Denkweise nicht nur wenig entspricht,
sondern sie dar
uber hinaus abwertet und eher eine gedankliche Basis f
ur die spekulative,
romantische Philosophie ist; in Abschnitt 6 wird noch einmal auf die idealistische Position
und ihre Rolle in der Philosophie der Frankfurter Schule zur
uckgekommen.
Die gedanklichen Produkte einzelner Philosophen sind haufig keine singularen Erscheinungen. Man kann sie vielleicht als gedankliche Konzentrate einer geistigen Klimalage bezeichnen, ausgezeichnet durch den Versuch, Konsistenz im jeweiligen Aussagensystem zu erreichen. Dies erleichtert einerseits die mentale Identifikation mit einem
philosophischen Ansatz, gleichzeitig ermoglicht eine Philosophie die Formulierung einer
Gegenphilosophie. In der Tat ist der Idealismus immer wieder attackiert worden. Der
amerikanische Philosoph Charles Sanders Peirce (1839 - 1914) schlug das nach ihm so
benannte Harvard-Eperiment als Gegenbeweis vor: er hielt einen Stein in die Luft und
lie ihn fallen. Sollte die Realitat nur im Geiste existieren, so sollte die Zuhorerschaft
imstande sein, den Stein am Fallen zu hindern. Es wird berichtet, dass es es der Zuhorerschaft nicht gelang, den Stein in der Schwebe zu halten. Allerdings werden Idealisten
von dieser Demonstration nicht u
ullbare Erwartung ist eben
berzeugt, denn eine nicht erf
auch eine Erwartung. Die Falsifikation einer Theorie ist kein einfaches Unterfangen, wie in
Abschnitt 3.2 noch ausf
uhrlich dargelegt werden wird. Kant selbst versuchte bereits, den
Idealismus zu widerlegen: unsere Vorstellung von uns als mit Geist versehenen Wesen
setze die Existenz materieller Objekte voraus, da wir uns in einer objektiven zeitlichen
Ordnung wahrnehmen. Diese zeitliche Ordnung wiederum setze die Existenz periodischer
physikalischer Prozesse voraus, wie man sie in Uhren, Pendeln, Planetenbewegungen etc
beobachten konne. Die idealistische Gegenposition zu diesem Argument ist, dass hier nur
gezeigt werde, dass die Existenz solcher Prozesse vom wahrnehmenden Geist offenbar vorausgesetzt werden m
usse, diese deswegen aber noch nicht unabhangig von diesem Geist
existieren m
uten. Da hier die eine Auffassung als die Negation der anderen erscheint,
konnte man meinen, dass eine der beiden wahr sein mu. Solchen Schl
ussen mu mit
Vorsicht begegnet werden; in Abschnitt 7, insbesondere in Abschnitt 7.3 wird auf die
Problematik der Letztbegr
undung von Auffassungen explizit eingegangen.
Man kann also sagen, dass Kants Kritk an der Metaphysik nicht deren Untergang
besiegelt, sondern sie in anderer Form neu erstehen lassen hat. Gleichwohl kann nicht
von einem Fortschritt der Metaphysik gesprochen werden, der mit den Fortschritten in
der Mathematik und in den Naturwissenschaften vergleichbar ware. Der Prozess des Philosophierens scheint denn auch die Struktur eines Aktivierungs-Inhibierungs-Prozesses zu
haben, den man vielfach in der Natur findet (Murray, 1989). Die idealistischen Varianten
5

metaphysisch orientierter Philosophien regen zur Formulierung weiterer Varianten dieser


Art an und tragen gleichzeitig zur Formulierung ihrer Gegenphilosophien bei. Es stellt
sich namlich die Frage, ob sich irgendwelche Kriterien finden lassen, anhand derer gepr
uft
werden kann, ob metaphysische S
atze u
berhaupt sinnvolle Satze sein konnen. Dazu mu
zun
achst der Begriff der Metaphysik prazisiert werden. Kant verstand unter Metaphysik
Systeme von Aussagen u
ber die Existenz Gottes, der Unsterblichkeit der Seele, der Vollkommenheit des Kosmos, etc. Vertreter des Positivismus (Abschnitt 1.2) andererseits
empfinden bereits Kants Satze u
ber das unerkennbare Ding an sich als metaphysische
Satze, weil es keine empirische Bestatigung f
ur derartige Aussagen geben kann. Stegm
uller (1954) betrachtet zwei Moglichkeiten, den Begriff der Metaphysik zu explizieren. Man
konne zum einen ein Kriterium definieren, nach dem ein Objekt als entweder metaphysisch
oder nicht metaphysisch klassifiziert werden kann, oder man charakterisiert ein Urteil als
entweder metaphysisch oder nicht. Der Ausdruck Metaphysik bezieht sich sicher auf alle
geistigen Tatigkeiten, die weder im Rahmen einer empirischen noch einer formalen (zB
Mathematik) Wissenschaft ausgef
uhrt werden. Der ersten Moglichkeit entsprechend ware
die Metaphysik die Wissenschaft vom Seienden als Seiendem. Diese Charakterisierung
definiert, was unter Ontologie verstanden wird. Betrachtet man andererseits Urteile, so
m
ussen metaphysische von nicht-metaphysischen Urteilen unterschieden werden. Nach
Kant gibt es analytische und synthetische Urteile. Analytische Urteile sind aus rein logischen Gr
unden richtig bzw wahr. Die Wahrheit dieser Aussagen ergibt sich aus ihrer
Form, sie haben keinen Wirklichkeitsgehalt. Satze u
ber die Wirklichkeit sind nicht analytisch, sondern synthetisch. Dies gilt auch f
ur ihre Negationen. Metaphysische Aussagen
sind nicht analytisch; waren sie es, konnte man logisch-mathematische Aussagen und
metaphysische Aussagen nicht auseinanderhalten. Andererseits sind metaphysische Aussagen nicht empirische Aussagen. Metaphysische Aussagen sind also synthetische, nicht
empirische Aussagen. Sie entsprachen damit den synthetischen Aussagen a priori. In Abschnitt 7.1 wird die hier angedeutete Problematik metaphysischer Aussagen ausf
uhrlicher
behandelt; hier gen
ugt es, anzumerken, dass metaphysische Satze nicht-hypothetisch sind
(was auch f
ur logische Aussagen gilt!) und in irgendeiner Form auf Evidenz basieren. Der
Begriff der Evidenz erweist sich als nicht definierbar, er kann nur anhand von Beispielen
erlautert werden; Metaphysiker sprechen in diesem Zusammenhang von intellektueller
Anschauung und von Wesensschau, von der Intuition, die das Wesen der Dinge erfasse. Es zeigt sich, dass die Abgrenzung der Metaphysik von der einzelwissenschaftlichen
Arbeit nicht deutlich unterschieden werden kann.
Die Analyse des Begriffs der Metaphysik (Abschn. 7.1) ist neueren Datums. In skeptischen Geistern haben metaphysische Spekulationen insbesondere ontologischer Art den
Verdacht mangelnder intellektueller Seriositat erzeugt und zu der Auffassung gef
uhrt,
dass sie ganz aus der Wissenschaft zu verbannen seien. Ein entsprechendes Programm
zum Aufbau der Wissenschaften hat A. Comte vorgeschlagen, dessen als Positivismus
bekannte Theorie der Wissenschaft im folgenden Abschnitt behandelt wird.

1.2

August Comte: die Konzeption des Positivismus

August Comte (1798 - 1857) studierte in Paris an der lEcole


Polytechnique, wo er dann
auch Mathematik lehrte. In seiner Philosophie war von von Kant beeinflut. Auerdem
war er Soziologe und von der empiristischen Annahme u
berzeugt, dass sich das Wissen u
ber
die
Welt
aus
Beobachtungen
derselben
ergeben.
Er war radikal in dem Sinne,

dass er es f
ur unmoglich hielt, physikalische Objekte zu erkennen, die nicht beobachtbar
sind. Positivismus sei demach die Methode, die Welt auf der Basis von Beobachtungen
des positiv Gegebenen zu studieren bzw. zu erkennen, wobei diese Methode auf die
Wissenschaft beschrankt sein sollte. Der Positivismus kann als die Lehre vom Tatsach6

Abbildung 2: Auguste Comte (1798 - 1857)

lichen aufgefat werden: die Wissenschaft soll weder durch vorgefassten Glauben noch
durch bestimmte Interessen beeinflusst werden. Dem Positivismus liegt die Auffassung
Kants zugrunde, dass man nur Zugang zu Phanomenen, nicht aber zu den Dingen an sich
hat; es mache keinen Sinn, nach dem Wesen oder den Ursachen der Dinge zu fragen.
Das Ziel der Wissenschaft sei die Vorhersage; demnach ist der Begriff der der Erklarung
aquivalent zu dem der Vorhersage. Ereignisse werden in Gesetzen der Aufeinanderfolge zusammengefasst, bzw. Gesetze bestehen in der Zusammenfassung von Ereignissen,
die in einer bestimmten zeitlichen Folge geschehen, wobei diese zeitliche Folge allerdings
noch nicht Kausalitat bedeutet. Die Metaphysik wird als unbegr
undete Spekulation u
ber
derartige Zusammenhange betrachtet, die Imagination schiee hier u
ber die Beobachtung
hinaus. Dieser Positivismus als Methode soll f
ur alle Wissenschaften gelten, wobei jede
Wissenschaft ihre speziellen Methoden im Rahmen des Positivismus finden solle.
Comte gilt als der Begr
under der Soziologie, die von ihm auch Sozialphysik genannt
wurde und von die er als Kronung der Wissenschaften sieht. Die Wissenschaften konnen
in zwei Zweige aufgeteilt werden: die Statischen und die Dynamischen Wissenschaften.
Die ersteren befassen sich mit der sozialen Organisation, die letzteren mit der sozialen
Entwicklung. Alle Gesellschaften durchlaufen drei Phasen, die durch ihre jeweilige Art,
in der sie die Welt interpretieren, charakterisiert werden:
1. die theologische Phase,
2. die metaphysische Phase,
3. die positivistische Phase.
Die drei Phasen stellen gewissermaen ein Naturgesetz der gesellschaftlichen Entwicklung
dar; das Postulat der Existenz eines solchen Gesetzes wurde von Karl Marx u
bernomnmen. Das Ziel der Soziologie sei, das nat
urliche Gef
uhl, f
ur sich selbst zu handeln,
durch ein soziales Gef
uhl zu ersetzen, damit die Gesellschaft als Ganzes verbessert wird.
(Kommentar des Sir James Fitzjames Stephens: To me this is like saying, the great
object of mechanics is to alter the laws of gravitation.) Auch zur Psychologie hatte
Comte Grundsatzliches zu sagen: eine auf Selbstbeobachtung und Bewusstseinsanalyse
basierende Psychologie gabe es nicht, denn wir konnen nur die Inhalte bzw. Phanomene
wahrnehmen, nicht aber das Wahrnehmen selbst. Mit den Inhalten und den Mechanismen ihrer Verarbeitung hat aber die Naturwissenschaft zu tun. Die Psychologie lose sich
deshalb in die Biologie einerseits und in die Phrenologie (Gall, Broussart) andererseits
7

auf; die Fragw


urdigkeit der phrenologischen Beobachtungen waren zu Comtes Zeit noch
nicht offenbar geworden.
In seiner zweiten Lebenshalfte entwickelte Comte eine mystisch-religiose Einstellung,
die in seinem Werk System der positiven Politik ihren Ausdruck fand. Er gr
undete eine
positivistische Gesellschaft und gab sich als Prophet einer neuen Religion des Fortschritts
aus (Positiver Katechismus). Die (auf welchen Beobachtungen beruhende?) Einsichten
Comtes waren:
Ein Parlament als Ausdruck des Volkswillens werde es nicht geben. Die weltliche
Macht und Regierung werde durch eine ausgewahlte Menge von Bankiers, Kaufleuten, Fabrikanten und Ackerbauern gestellt.
Moralische Kontrolle der Gesellschaft u
bernehme der Gewissensrat der Philosophen.

Uberdies
war Comte der Ansicht, dass nicht der Mensch als Individuum die Geschichte
mache, sondern dass er Produkt einer gesetzmaig ablaufenden Geschichte sei; der Einzelne m
usse sich an die Menschheit hingeben. Der Ausdruck Altruismus ist eine Wortschopfung Comtes. Bissige Zeitgenossen haben den Positivismus durch eine Geschichte
charakterisiert: Zwei Positivisten fahren u
ber Land, auf dem Schafe weiden. Der eine sagt
zum anderen: Sieh, die Schafe sind schon geschoren! Darauf der andere: Was die uns
zugewendete Seite anbetrifft, so erweckt sie den Eindruck. Polemiken wie diese haben,
wie gute Karikaturen, einen wahren Kern, schieen aber u
ur die
ber das Ziel hinaus. F
Psychologie relevante Einwande gegen einen bedingungslos applizierten Positivismus findet man in der Schrift Theodor W. Adornos (Adorno et al., 1991)Der Positivismusstreit
in der deutschen Soziologie, in dem die nicht hinreichende Ber
ucksichtigung von Werturteilen das zentrale Argument gegen den Positivismus ist; Wissenschaft konne nicht
(nur) ein System von Satzen zur Erklarung der Wirklichkeit sein, sondern m
usse auch
zur Veranderung der gesellschaftlichen Wirklichkeit hin zu mehr Demokratie und M
undigkeit des B
urgers bewirken. Es komme nicht auf die Analyse isolierter Daten, sondern
auf die Ber
ucksichtigung der komplexen Totalitat der gesellschaftlichen Wirklichkeit an.
Diese Argumente lassen sich direkt auf die wissenschaftliche Erforschung der menschlichen Psyche u
uhrbar ist, ist
bertragen. Ob ein solches Programm tatsachlich auch durchf
allerdings eine andere Frage.

1.3

Ernst Mach: Empiriokritizismus

Ernst Mach (1838 - 1916) war Physiker, lehrte aber zuerst Mathematik an der Universitat
Graz und spater Physik an der Universitat in Prag, bevor er auf einen neugeschaffenen
Lehrstuhl f
ur Philosophie unter besonderer Ber
ucksichtigung der induktiven Wissenschaften in Wien berufen wurde.
Es mag an dieser Stelle angemerkt werden, dass die Berufung eines Physikers auf
einen Lehrstuhl f
ur Philosophie in eine Zeit fallt, die eine insgesamt philosophiefreundliche Phase der Physik ab der Wende vom 19. zum 20. Jahrhundert ist. Dieser Phase
ging eine seitens der Physker ausgesprochen philosophiefeindliche Zeit voran (Scheibe
(2007), p. 22). Die Philosophiefeindlichkeit wiederum war ein Resultat der Opposition
gegen die romantische Naturphilosophie und die idealistische Philosophie allgemein. Diese Philosophie hatte zu einer tiefen Entfremdung von Naturforschung auf der einen und
Philosophie und Metaphysik auf der anderen Seite gef
uhrt. Scheibe zitiert die Reaktion
einer Reihe bedeutender Naturforscher wie wie Liebig, Helmholtz und Ostwald auf die
Philosophie ihrer Zeit, von denen zur Illustration nur zwei angef
uhrt werden sollen. In
einem Brief von Gau an einen Freund im November 1844 heit es:
8

Dass Sie einem Philosophen ex professo keine Verworrenheiten in Begriffen und


Definitionen zutrauen, wundert mich fast. Nirgends mehr sind solche ja zu Hause
als bei Philosophen . . . Sehen Sie sich doch nur bei den heutigen Philosophen um,
bei Schelling, Hegel . . . und Consorten, stehen Ihnen nicht die Haare bei solchen
Definitionen zu Berge?

Der Physiker Ludwig Boltzmann, Professor f


ur theoretische Physik in Wien, bekam 1903
einen Lehrauftrag u
ber Philosophie der Natur und Methodologie der Naturwissenschaften und schrieb:
Bin ich nur mit Z
ogern dem Ruf gefolgt, mich in die Philosophie hineinzumischen,
so mischen sich desto
ofter Philosophen in die Naturwissenschaft hinein. Bereits vor
langer Zeit kamen sie mir ins Gehege. Ich verstand nicht einmal, was sie meinten,
und wollte mich daher u
ber die Grundlehren aller Philosophie besser informieren.
Um gleich aus den tiefsten Tiefen zu sch
opfen, griff ich nach Hegel; aber welch
unklaren, gnadenlosen Wortschwall sollte ich da finden. Mein Unstern f
uhrte mich
von Hegel zu Schopenhauer. In der Vorrede des ersten Werkes, das mir in die H
ande
fiel, fand ich folgenden Passus: . . . Die K
opfe der jetzigen Gelehrten Generation
sind desorganisiert durch Hegelschen Unsinn. Zum Denken unf
ahig . . . werden sie
die Beute des platten Materialismus. . .. Damit war ich nun freilich einverstanden,
nur fand ich, dass Schopenhauer seine . . . Keulenschl
age ganz wohl selbst verdient
h
atte . . .
Mein Widerwille gegen die Philosophie wurde u
brigens damals von fast allen Naturwissenschaftlern geteilt. Man verfolgte jede metaphysische Richtung und suchte sie
mit Stumpf und Stiel auszurotten; doch diese Gesinnung dauerte nicht an . . . Der
Trieb zu philosophieren scheint uns unausrottbar eingeboren zu sein . . . Maxwell,
Helmholtz, Kirchhoff, Ostwald und viele andere opferten [der Metaphysik] willig und
erkannten ihre Fragen als die h
oschten an, so dass sie heute wieder als die K
onigin
der Wissenschaften dasteht.
(zitiert nach Scheibe (2007),p. 26)

Einen Geschmack hegelscher Argumentationskunst erhalt man in Abschnitt 6.2 dieses


Skriptums. von Weizsacker (1958/1976), p. 201, merkt an, dass die Physiker ihre Philosophien weitgehend selbst erfinden, die sich dann mit denen der professionellen Philosophen schlecht zusammenreime. Die Spannung zwischen Physikern und Philosophen mag
die Radikalitat der Machschen Anschauungen mit erklaren.
Mach gilt als Vorlaufer der modernen Wissenschaftstheorie, insbesondere des Neopositivismus bzw. des logischen Empirismus; in seinem philosophischen Hauptwerk Analyse der Empfindungen finden sich die Antimetaphysischen Vorbemerkungen, die sein
Programm charakterisieren. Mach betrachtete sich nicht als Philosophen, sondern als
Naturwissenschaftler, und nannte seinen wissenschaftstheoretischen Ansatz Empiriokritizismus. Er war der Ansicht, dass es keine Machsche Philosophie, sondern nur eine naturwissenschaftliche Methodologie und Erkenntnispsychologie gabe.
Mach vertrat eine reduktionistische Ansicht, derzufolge Erfahrungsinhalte, seien sie
aus dem Alltag oder aus der Wissenschaft, auf einfache Elemente zur
uckgef
uhrt werden
konnen. Diese Elemente sind einfache Empfindungen, wie Farben, Temperaturen, etc.
Demnach sind Dinge nichts weiter als komplexe, relativ bestandige Empfindungen. Damit vertritt er eine Ansicht, die der von Locke und anderen Empiristen ahnlich ist. Dass
Empfindungen zu einem Komplex zusammengefat werden ist ein Resultat der Denkoko
nomie (Machsches Okonomieprinzip),
einer gedanklichen Sparsamkeit (Rod, p. 343).
Ein Ding ist ein gedankliches Symbol f
ur einen Empfindungskomplex mit relativer Stabilitat. Der Ausdruck Empfindungbezeichnet dabei aber nicht einen Bewutseinsinhalt,
9

Abbildung 3: Ernst Mach (1838-1916)

der von einem Ding erzeugt wird: Nicht Korper erzeugen Empfindungen, sondern Elementenkomplexe (= Empfindungskomplexe) bilden den Korper. Sie findet Mach, dass
Empfindungen - dh Elemente in der Machschen Sprechweise - nicht notwendig psychische Inhalte bezeichnen. Z.B. ist die Farbe Gelb zunachst eine Eigenschaft von Dingen.
Aber die Farbwahrnehmung kann sich unter dem Einflu von Medikamenten, Krankheiten
etc verandern. In diesem Fall bekommt gelb eine subjektive Komponente; man betrachtet sie nun als psychischen Inhalt. Also besteht zwischen Physik und Physiologie oder
Psychologie nur ein Unterschied in der Perspektive. Nach Mach reflektiert diese Sichtweise
einen Monismus, der vom Materialismus einerseits und dem Spiritualismus andererseits
unterschieden werden m
usse. Denn: der Materialist m
usse den Korpern Empfindungen
zuschreiben, was er aber eigentlich nicht wolle, und andererseits kann der Spiritualist
nicht erklaren, woher Eigenschaften wie zB die Festigkeit materieller Korper kommen.
Der Monist - im eben erklarten Sinne - kann mit beiden Fragen fertigwerden. Wissen ist
stets ein Wissen von Bewutseinsinhalten, und so ergibt sich f
ur Mach die Losung des
Leib-Seele-Problems (Mach, 1990?, p. 50). Nach Mach handelt es sich bei diesem Problem
um ein Scheinproblem, das aus dem metaphysischen Dualismus von Geist und Materie
resultiert: Die in der Erfahrung vorgefundenenen Elemente sind immer dieselben, nur
von einerlei Art und treten je nach Art ihres Zusammenhanges bald als physische, bald
als psychische Elemente auf. Mach spricht in diesem Zusammenhang vom vollstandigen Parallelismus des Psychischen und des Physischen. Dieser Parallelismus sei ein
methodologisches Prinzip, dh ein Forschungsgrundsatz.
Im Unterschied zum Lockeschen Empirismus werden bei Mach die Wechselwirkungen
zwischen den Empfindungen explizit in Rechnung gestellt; der Begriff der Gestalt in der
Wahrnehmung geht auf ihn zur
uck.
Mach hat u.a. den Kantschen Begriff des Dings an sich kritisiert (in den Antimetaphysischen Vorbemerkungen spricht er von der Ungeheuerlichkeit dieses Begriffs).
So seien auch grundlegende physikalische Begriffe wie Raum und Zeit nicht vorgegebenene Kategorien, sondern konnen und m
ussen der Analyse unterworfen werden (vergl.
Wissenschaftstheorie II, Abschnitt 2.8.3). Jeder bekannte Gegenstand enthalt demnach
subjektive und objektive Gegenstande im alten Sinn und die Vorstellung, reine Objektivitat und reine Subjektivitat seien moglich beruhe auf einem Irrtum. Mach lehnte
die Suche nach Erklarungsgr
unden ab und ersetzte den Begriff der Kausalitat durch den
10

der Funktion bzw. der funktionalen Abhangigkeit; es komme zunachst auf die Beschreibung der Phanomene und der konstanten Beziehungen zwischen ihnen an; die dar
uber
hinausgehende Unterstellung von materiellen Substanzen - etwa Lichtstoff, Warmstoff,
magnetischer bzw elektrischer Stoff - dieser Relationen sei falsche Metaphysik.

1.4

Positivismus und Realismus

Die zum Teil dominante Rolle des Positivismus ist wohl zum Teil als Reaktion auf die
Thesen des Idealismus, insbesondere des Deutschen Idealismus, zu verstehen; in Abschnitt
6.1 wird eine kurze Einf
uhrung gegeben. Dies bedeutet nicht, dass alle Naturforscher den
positivistischen Ansatz stets bedingungslos geteilt haben. So haben zum Beispiel die
Physiker Max Planck und Albert Einstein anfanglich positivistische Positionen bezogen,
diese aber dann fallengelassen beziehungsweise relativiert. Interessanterweise befand sich
Mach nicht nur im Widerspruch zu den Metaphysikern, sondern auch zu den Realisten
unter den Physikern. Das mag auf den ersten Blick erstaunlich zu sein, ergibt sich aber
aus dem Begriff des Realismus, auf den kurz eingegangen werden mu.
Mach war ein Vertreter der Lehre, dass die Welt als Menge von Sinnesdaten, Empfindungen, Gedanken gegeben ist; insofern vertritt er eine idealistische Position, denn
er postuliert keine davon separierte, dahinterliegende externe Welt. Das Postulat einer
solchen Welt charakterisiert die Realisten. Scheibe (2007) hat die Frage, ob es eine vom
menschlichen Bewutsein unabhangige, reale Auenwelt gibt, als das erkenntnistheoretisches Grundproblem schlechthin gesehen. Der Positivist Mach kann in diesem Sinne zu
den Idealisten gezahlt werden. Das Problem der Realisten besteht darin, den philosophischen Nachweis f
ur ihren Standpunkt zu erbringen, nachdem Descartes durch seine
Argumente den monstrosen Standpunkt des Solipsismus . . . in die Welt gesetzt hat
(Scheibe (2007), p. 52). Scheibe zitiert die Anstrengungen des britischen Philosophen G.
E. Moores1 , die in einem Vortrag im Jahre 1939 mit dem Thema Proof of an external
world darin gipfelten, dass er zuerst die rechte Hand erhob und darauf hinwies, hier sei
eine Hand, und dann die linke mit dem Hinweis, hier sei eine andere. Scheibe f
uhrt zu
recht aus, dass es nicht darum geht, Moore mit dem Erzahlen dieser Geschichte lacherlich
zu machen, sondern zu illustrieren, dass die philosophischen Rechtfertigungen der externen Welt letztlich bei der Alltagserfahrung stehen bleiben. Putnam (1984) argumentierte,
dass das typische Argument der Realisten gegen die Idealisten darin bestehe, den Erfolg
der Wissenschaft zu einem Wunder zu machen. Der Positivist2 m
usse es ohne Erklarung
lassen, dass man u
ule, Raumzeit-Kalk
ule und DNS-Kalk
ule be ber Elektron-Kalk
obachtbare Phanomene erfolgreich vorhersagen konne, da die Idealisten/Positivisten die
Existenz von Elektronen, den gekr
ummten Raum und DNS-Molek
ule leugneten. Wenn
diese begrifflichen Einheiten kein Pendant in der Wirklichkeit hatten, seien die korrekten
Vorhersagen ein Wunder.
Es sei, so Scheibe, die in diesem Wunder-Argument enthaltene Gegen
uberstellung
von Sinneswahrnehmungen einerseits und direkt nicht beobachtbaren Groen wie Atomen etc, die die Physiker um 1900 zur Diskussion erkenntnistheoretischer Fragen angeregt habe. Die Diskussionen konnten durchaus, wie etwa die Kontroverse zwischen Mach
und Planck, in emotionalisierter Form gef
uhrt werden. Max Planck hatte in einem Vor1 George Edward Moore (1873 - 1958), Professor f
ur Philosophie an der University of Cambridge.
Moore war, zusammen mit Bertrand Russell, Ludwig Wittgenstein, und Gottlob Frege einer der Begr
under der Analytischen Philosophie. Er argumentierte gegen den die britische Philosophie bis zu seiner
Zeit dominierende idealistische Philosophie und dem zu ihr korrespondierenden Zweifel an der externen
Wirklichkeit mit dem Argument, dass die metaphysischen Argumente des Idealismus nicht plausibler
seien als die Common-Sense-Argumente f
ur die Existenz der externen Wirklichkeit; das Here is one
hand-Argument geh
ort in diese Argumentationskette.
2 Der Idealist ist in diesem Zusammenhang ja Positivist!

11

trag 1908 Machs erkenntnistheoretische Position angegriffen, indem er diese durch drei
Thesen zu charakterisieren versuchte3 : (1) es gebe keine andere Realitat als die eigenen
Empfindungen, (2) alle Naturwissenschaft sei nur die okonomische Anpassung unserer
Gedanken an unsere Empfindungen Anpassung im darwinistischen Sinne; (3) die Grenze zwischen Physischem und Psychischem sei nur eine praktische und konventionelle.

Gegen (1) f
uhrt Planck das Wunder-Argument an, zu den Ubrigen
hat, so Scheibe, nicht
viel zu sagen. Planck kritisiere, dass dem Machschen Positivismus ein konstantes Weltbild fehle; dieses sei das Ziel, dem sich die Naturwissenschaft fortwahrend annahere. Das
von Planck postulierte Konstante sei von jeder menschlichen Intellektualitat unabhangig
und sei das, was wir das Reale nennen (Planck). Damit warf Planck dem Positivismus
hier: dem Positivismus der Machschen Pragung vor, dass ihm der Realismus im Sinne
einer unabhangigen Existenz fehle.
Eine Konsequenz seines Positivismus war, dass Mach die Annahme von real existierenden Atomen ablehnte. Scheibe (2007), p. 80, berichtet, dass Mach kein Gesprach u
ber
die Existenz von Atomen f
uhrte, ohne den Gesprachspartner zu fragen:HamS schon mal
eins gsehn?. Machs Positivismus brachte ihn in Gegensatz zu anderen bedeutenden Physikern seiner Zeit, so etwa zu Ludwig Boltzmann, und nat
urlich, wie schon angedeutet,
zu Max Planck. Man mu sich kurz klar machen, was es bedeutet, nicht anzunehmen,
dass Atome existieren. Materie mu dann als ein Kontinuum aufgefasst werden; dies ist
eine grundsatzlich andere Konzeption der Materie als die, die auf der Annahme von Atomen beruht. Die Machsche Auffassung wird auch in diesem Zusammenhang als eine
phanomenologische Auffassung bezeichnet, da sie sich nur an das halt, was phanomenal,
also empirisch-wahrnehmungsmaig gegeben ist. Die atomistischen Theorien galten in
diesem Sinne als nicht phanomenologisch. Es ist f
ur das Verstandnis des Positivismus
von Interesse, die Reaktion Boltzmanns auf den Standpunkt Machs kurz zu reflektieren.
Abbildung 4: Ludwig Boltzmann (1844-1906)

1.5

Ludwig Boltzmann: die Relativierung des Positivismus

Ein anderer Physiker an der Universitat Wien war Ludwig Boltzmann (1844-1906), der
eine Art Gegenpol zu Mach darstellte. Wahrend Mach von der Basis seiner positivistischen Ansichten aus die Atomtheorie der Materie strikt ablehnte, war Boltzmann nicht
nur ein Bef
urworter, sondern ein Pionier dieser Theorie. Atome konnen nicht direkt be3 zitiert

nach Scheibe (2007), p. 68

12

obachtet werden, - Grund genug f


ur Mach, die Hypothese des Aufbaus der Materie durch
Atome nicht ernst zu nehmen. Um 1860 hatten Clausius und Maxwell erstmals die Groe
von Atomen als von der Ordnung 108 cm bestimmt; Boltzmann kam zu einer ahnlichen
Abschatzung. F
ur Mach hatte die Mathematik nur eine beschreibende, gewissermaen
handwerkliche Funktion, f
ur Boltzmann dagegen hatten mathematische Modelle Realitatsgehalt, und u
ber Atome kann man nur u
ber den Umweg von mathematischen Modellen reden. Boltzmann begr
undete u.a. die statistische Mechanik, in der die Bewegungen
von Molek
ulen in Gasen beschrieben werden. Der Ansatz erlaubt, die Phanomenologie
der Warme auf mechanische Modelle zu reduzieren und damit zu erklaren; die Implikationen dieses Ansatzes sind f
ur die Physik auerordentlich bedeutsam. Boltzmann (1903)
kritisierte den phanomenologischen Standpunkt:
Wenn die Ph
anomenologie glaubte, die Natur darstellen zu k
onnen, ohne irgendwie
u
ur eine Illusion. Keine Gleichung
ber die Erfahrung hinauszugehen, so halte ich das f
stellt irgendwelche Vorg
ange absolut genau dar, jeder idealisiert sie, hebt Gemeinsames heraus und sieht von Verschiedenem ab, geht also u
ber die Erfahrung hinaus.
Dass dies notwendig ist, wenn wir irgendeine Vorstellung haben wollen, die uns etwas K
unftiges vorauszusagen erlaubt, folgt aus der Natur des Denkprozesses selbst,
der darin besteht, dass wir zur Erfahrung etwas hinzuf
ugen und ein geistiges Bild
schaffen, welches nicht die Erfahrung ist und darum viele Erfahrungen darstellen
kann.
(zitiert nach Scheibe (2007), p. 82)

Boltzmann verlat hier den strengen Positivismus, weil er f


ur die Notwendigkeit argumentiert, dass gedanklich u
ber das unmittelbar Gegebene hinausgegangen werden mu.
Ironischerweise tun dies auch antirealistische Positivisten wie Mach, wenn sie ein materielles Kontinuum postulieren, denn dieses kann ebenso wenig wie die Atome unmitelbar
wahrgenommen werden.
1905 veroffentlichte Einstein seinen ber
uhmten Aufsatz u
ber die Brownsche Bewegung;
dies ist die Bewegung von Bl
utenstaubpartikeln auf der Wasseroberflache, die zum ersten
Mal von dem englischen Botaniker Brown unter dem Mikroskop beobachtet wurde. Einstein erklarte diese Bewegung auf der Basis der Atomtheorie und der statistischen Physik,
wie sie von Boltzmann schon formuliert worden war, und leitete kritische Experimente
aus diesem Modell ab, die zugunsten der Atomtheorie sprachen. Es hat Boltzmann nicht
mehr geholfen. Von den Machschen Polemiken zerm
urbt, nahm Boltzmann sich im Jahr
1906 das Leben (vergl. Yourgrau, 2005)4 . Bestatigt hat sich sein Ansatz, auch das nicht
unmittelbar Wahrnehmbare u
ber die Mathematik so modellieren zu konnen, dass sich
u
berpr
u
fbare
Hypothesen
aus
den Modellen ableiten lassen. Der erkenntnistheoretische

Gewinn dieses Ansatzes auch f


ur die Psychologie kann nicht unterschatzt werden.

1.6

Logischer Empirismus: der Wiener Kreis

Machs Antimetaphysische Vorbemerkungen wurden zum Ausgangspunkt einer Weiterentwicklung des Positivismus, dem Neopositivisums. Es bildete sich der Wiener Kreis,
deren Mitglieder in den zwanziger und fr
uhen dreiiger Jahren eine wissenschaftliche
Philosophie vertraten, die von ihnen Logischen Empirismus genannt wurde. Die Mitglieder des Wiener Kreises (z.B. Moritz Schlick, Rudolf Carnap, Herbert Feigl, C.G.
Hempel, Otto Neurath, Friedrich Waismann) bildeten einen Verein, den sie ins Vereinsregister als Verein Ernst Mach eintragen lieen. Die zentrale Zielsetzung des Vereins
4 Das Buch enth
alt interessante Anmerkungen zu Varianten positivistischer Auassungen bei Einstein
und anderen Wissenschaftlern zu der Zeit.

13

war die Entwicklung einer nichtmetaphysischen Philosophie, die die Basis von an der
Sinneserfahrung orientierten Einzelwissenschaften liefern sollte. Der Ansatz des Wiener

Kreises korrespondierte zu Uberlegungen


franzosischer Wissenschaftler wie des Mathematikers Jules Henri Poincare sowie des Physikers und Wissenschaftshistorikers Pierre
Duhem.
Kern des Wiener Kreises war der erste Wiener Kreisum den Sozial- und Wirtschaftswissenschaftler Otto Neurath, der diesen Kreis initiierte, den Physiker Philipp Frank, und
den Mathematiker Hans Hahn. Der erste Wiener Kreis wurde dann zum Wiener Kreis mit
dem 1922 von Kiel nach Wien berufenen Physiker und Philosophen Moritz Schlick als intellektuellem Zentrum. Zum Wiener Kreis gehorten dann Felix Kaufmann sowie Schlicks
engste Sch
uler und Mitarbeiter Herbert Feigl und Friedrich Waismann. Der Logiker Kurt
Godel nahm zeitweise an den regelmaigen Sitzungen des Kreises teil, hielt sich aber in
den Diskussionen zur
uck; die charakteristischen Auffassungen der Mitglieder des Wiener
Kreises scheint er nicht geteilt zu haben5 . 1926 stie noch der aus Deutschland kommende
Dozent f
ur Philosophie Rudolf Carnap hinzu, damals einer der bedeutendsten Philosophen, Logiker und Wissenschaftstheoretiker. Zum Umkreis des Wiener Kreises gehorten
ferner der Psychologe Karl B
uhler sowie die Sprachphilosophen Alfred Ayer und Arne
Nss.
Abbildung 5: Moritz Schlick (1882-1936)

M. Schlick war ein scharfer Gegner jeglicher Metaphysik. Die Zitate aus seiner Arbeit
Erleben, Erkennen, Metaphysik, (Kantstudien, Bd. 31, S. 146) illustrieren diese Gegnerschaft:
An die Stelle von Untersuchungen des menschlichen Erkenntnisvermogens
tritt, soweit sie nicht der Psychologie u
berantwortet werden konnen, die Besinnung u
ber das Wesen des Ausdrucks, der Darstellung, d. h. jeder moglichen
Sprache im allgemeinsten Sinne des Worts.
Es gibt daher keine prinzipiell unbeantwortbaren Fragen, keine prinzipiell
unlosbaren Probleme. Was man bisher daf
ur gehalten hat, sind keine echten
Fragen, sondern sinnlose Aneinanderreihungen von Worten, die zwar auerlich
wie Fragen aussehen, da sie den gewohnten Regeln der Grammatik zu gen
ugen
scheinen, in Wahrheit aber aus leeren Lauten bestehen, weil sie gegen die
5 Goldsteen,

R.: Incompleteness The proof and paradox of Kurt G


odel. New York/London 2005

14

tiefen inneren Regeln der logischen Syntax verstoen, welche die neue Analyse
aufgedeckt hat.
Die Fragen nach der Geltung und den Grenzen der Erkenntnis fallen fort.
Erkennbar ist alles, was sich ausdr
ucken lasst, und das ist alles, wonach man
sinnvoll fragen kann.
Durch die Philosophie werden Satze geklart, durch die Wissenschaften verifiziert. Bei diesen handelt es sich um die Wahrheit von Aussagen, bei jener
aber darum, was die Aussagen eigentlich meinen. Inhalt, Seele und Geist der
Wissenschaft stecken nat
urlich in dem, was mit ihren Satzen letzten Endes
gemeint ist; die philosophische Tatigkeit der Sinngebung ist daher das Alpha
und Omega aller wissenschaftlichen Erkenntnis.
Es war einer der schwersten Irrt
umer vergangener Zeiten, dass man glaubte,
den eigentlichen Sinn und letzten Inhalt wiederum durch Aussagen zu formulieren, also in Erkenntnissen darstellen zu konnen: es war der Irrtum der
Metaphysik.
So fallt die Metaphysik dahin, nicht weil die Losung ihrer Aufgabe ein Unterfangen ware, dem die menschliche Vernunft nicht gewachsen ist (wie etwa
Kant meinte), sondern weil es diese Aufgabe gar nicht gibt.
Ob man die Metaphysik so radikal als sinnlos diffamieren kann, soll noch diskutiert
werden. Man kann die heftige Ablehnung der Metaphysik als Reaktion auf bestimmte
Versuche von Philosophen, physikalische Groen konzeptuell zu fassen, verstehen. Diese
Versuche machen Gebrauch von Begriffen oder von begrifflichen Konstruktionen, die
einerseits als irgendwie metaphysisch gelten und die andererseits den mathematisch klar
fassbaren Kern der jeweils betrachteten Groen vollig verdecken. Zur Illustration soll
Hegels Definition der Elektrizitat (1805) angegeben werden:
Die Elektrizitat ist der reine Zweck der Gestalt, der sich von ihr befreit, die
Gestalt, die ihre Gleichg
ultigkeit aufzuheben anfangt, denn die Elektrizitat ist
das unmittelbare Hervorheben oder das noch von der Gestalt Herkommende
noch durch sie bedingte Dasein, aber noch nicht die Auflosung die Gestalt
selbst, sondern der oberflachliche Proze, worin die Differenzen die Gestalt
verlassen, aber sie zu ihren Bedingungen haben und noch nicht zu ihnen
selbstandig sind.
Man mu bedenken, dass im Jahre 1805 schon wesentlich mehr u
ber die Elektrizitat
gewut wurde, als es diese Definition vermuten lat. Es zeigt sich allerdings, dass metaphysische Aussagen bzw. Annahmen (i) nicht typischerweise abstrus, und (ii) unvermeidlich sind (vergl. Abschnitt 7).
1929 erschien ein Manifest des Wiener Kreises: Wissenschaftliche Weltauffassung
Der Wiener Kreis6 .
1936 wurde M. Schlick von Dr. Johann Nelbock, einem ehemaligen Sch
uler, im Treppenhaus der Wiener Universitat erschossen. Es ging das Ger
ucht, Nelbock habe in dem
Glauben gehandelt, seine von ihm verehrte Kommilitonin Sylvia Borowicka habe ihn nur
wegen Schlick verschmaht. Die Tat loste Reaktionen aus, die die politische Atmosphare
des Jahres 1936 erleuchten. Die politischen Verhaltnisse f
uhrten auch zum Ende des Wiener Kreises, denn die meisten Mitglieder emigrierten. Das anonyme Schreiben eines Prof.
Dr. Austriacus beleuchtet die politische Atmosphare, die die Ursache dieser Emigrationen
bildete:
6 Ver
offentlichungen

des Vereines Ernst Mach, hrsg. vom Verein Ernst Mach, Artur Wolf Verlag,
Wien 1929: das Werk hat keine offiziell genannten Verfasser.

15

Und was diesem Schu auf der Feststiege der Wiener Universit
at einen wahrhaft
unheimlichen Charakter verleiht, ist der Umstand, dass der 33j
ahrige Dr. Nelb
ock
nicht etwa ein geborener Psychopath war, sondern dass er es manchen Anzeichen
nach erst unter dem Einfluss der radikal niederreienden Philosophie, wie sie Dr.
Schlick seit 1922 an der Wiener Universit
at vortrug, geworden ist; dass also diese
Kugel nicht mit der Logik eines Irrsinnigen nach einem Opfer gesucht hat, sondern
vermutlich mit der Logik einer um den Sinn des Lebens betrogenen Seele, und dass
schlielich dieser Fall nicht vereinzelt, eben als psychopathischer dasteht, sondern
nur als ein Symptom, als ein katastrophenartiger Ausdruck von jener weltanschaulichen Not und Verzweiflung, in welche eine gewisse Universit
atsphilosophie
die akademische Jugend st
urzt.
Und ebenso hat dieser k
uhne Leugner von Gott und Seele zu seinen Sch
ulern gesagt:
Wenn einer in 200 Jahren das Wort ,Unsterblichkeit h
ort, dann wird er im Lexikon
nachschauen m
ussen, was denn dieses Wort eigentlich bedeutet. Wie schrecklich hat
sich nun die in so vielen Vorlesungen geleugnete Seele ger
acht und ihrem Leugner
gegen
uber sich als Realit
at geoffenbart!
Nun war aber Schlick von Haus aus gar kein Philosoph, sonder nur Physiker.
Um ihn scharten sich alsbald alle metaphysikfeindlichen Elemente, insbesondere alle
Juden und Freimaurer. Unter Schlicks F
uhrung bildete sich der sog. Wiener Kreis,

der sehr r
uhrig war und der - sehr zum Schaden f
ur den Ruf Osterreichs
als eines
christlichen Staates - im Ausland als die
osterreichische Philosophie angesehen wird.
.... so kommt hier der unheilvolle geistige Einfluss des Judentums an den Tag. Es ist
bekannt, dass Schlick, der einen Juden (Waismann) und zwei J
udinnen als Assistenten hatte, der Abgott der j
udischen Kreise Wiens war. Jetzt werden die j
udischen
Kreise Wiens nicht m
ude, ihn als den bedeutendsten Denker zu feiern. Wir verstehen das sehr wohl. Denn der Jude ist der geborene Ametaphysiker, er liebt in der
Philosophie den Logizismus, den Mathematizismus, den Formalismus und Positivismus, also lauter Eigenschaften, die Schlick in h
ochstem Mae in sich vereinigte.

Abbildung 6: Adolf Hitler spricht vor der Geschichte auf dem Heldenplatz in Wien

Wir m
ochten aber doch daran erinnern, dass wir Christen in einem christlich-

16

deutschen Staate leben, und dass wir zu bestimmen haben, welche Philosophie gut
und passend ist. Die Juden sollen in ihrem Kulturinstitut ihren j
udischen Philosophen haben! Aber auf die philosophischen Lehrst
uhle der Wiener Universit
at im

christlich-deutschen Osterreich
geh
oren christliche Philosophen! Man hat in letzter

Zeit wiederholt erkl


art, dass die friedliche Regelung der Judenfrage in Osterreich
im
Interesse der Juden selbst gelegen sei, da sonst eine gewaltsame L
osung derselben
unvermeidlich sei.

Es sei angemerkt, dass M. Schlick kein Jude, sondern protestantischer Christ war. Viele
Wiener Zeitgenossen betrachteten ihn aber gleichwohl als durch den j
udischen Geist
verdorben. Bemerkenswert am Text des Dr. Austriacus ist unter anderem, dass bereits
1936 von einer gewaltsamen Losung der Judenfrage gesprochen wurde. Die von dem
in der Abbildung 6 gezeigten Herrn vertretenen Ansichten gingen einer Mehrheit von
Mitb
urgern Schlicks mehr zu Herzen als dessen Fokussierung auf den Verstand.

1.7

Ludwig Wittgenstein: der Tractatus

Ludwig Josef Johann Wittgenstein (1889- 1951) u


bte den starksten Einflu auf den Wiener Kreis aus, obwohl er nie an den Sitzungen des Kreises teilgenommen hat. Wittgenstein
wuchs in Wien auf; das Haus Wittgenstein galt als eines der kulturellen Zentren in Wien.
Wittgenstein studierte zunachst Maschinenbau in Berlin und, seit 1908, in Manchester.
Er beschaftigte sich mit Flugzeugmotoren, erwarb ein Patent und experimentierte mit
Abbildung 7: Ludwig Wittgenstein (1889- 1951)

Drachen (kites). Die mathematischen Probleme, mit denen in Zusammenhang mit Fragen des Maschinenbaus zu tun bekam, erzeugten ein Interesse an den Grundlagen der
Mathematik, die ihn wiederum zu den Grundfragen der Philosophie f
uhrten. Er wandte
sich deshalb an den Mathematiker und Philosophen Gottlob Frege (1848-1925), der ihm
empfiehlt, Bertrand Russell in England zu kontaktieren.
Russel - Lord, Mathematiker, Logiker, Philosoph, Schriftsteller, Pazifist - hatte zusammen mit Alfred North Whitehead die Principia Mathematica publiziert und damit
die Logik revolutioniert7.
7 F
ur Russel war es u.a. logisch zwingend, Pazist zu sein; er verweigerte den Kriegsdienst (im Weltkrieg I) und ging daf
ur ins Gef
angnis.

17

Abbildung 8: Eingang zum Haus der Wittgensteins in Wien, Alleegasse 16

Abbildung 9: Bertrand Russel (1872-1970)

Ludwig Wittgenstein zeichnete sich durch eine gewisse Radikalitat aus. Bei Ausbruch
des ersten Weltkriegs meldet er sich freiwillig, wird Artillerieoffizier und verteidigt die
jeweilige Position bis zum letzten, - so bekam er mehrere Orden. Nebenher schrieb er, angeregt durch die Arbeiten G. Freges und B. Russels, den Tractatus logico-philosophicus.
Wittgenstein kam aus einer der reichsten (gleich nach den Rothschilds) Familien Europas. Sein Vater Karl war im Stahlgeschaft wohlhabend geworden, und als der 1913 stirbt,
verschenkt Ludwig sein Vermogen an seine Schwestern und Br
uder, - wohl aus Gr
unden
der Logik und Ethik. Als der Krieg zuende ist, zieht er sich in eine einsame H
utte in
Norwegen - s
udlich von Bergen - zur
uck, wo er den Tractatus u
berarbeitet und beendet.
B. Russel und G.E. Moore in Cambridge erkennen den Tractatus als Dissertation im Fach
Philosophie an. Seine asketische Lebensweise hat er stets beibehalten, die im Tractatus
vertretene Philosophie verwirft er jedoch spater. Hier soll nur kurz auf den Tractatus
eingegangen werden, da dieser auf den Wiener Kreis einen auerordentlichen Einflu gehabt hat. Der Tractatus besteht aus einer Reihe von Aussagen, die als durchnummerierte
Satze erscheinen. Einige Satze seien als Beispiele aufgef
uhrt:
18

1. Die Welt ist alles, was der Fall ist.


1.1 Die Welt ist die Gesamtheit der Tatsachen, nicht der Dinge
1.11 Die Welt ist durch die Tatsachen bestimmt und dadurch, dass es alle
Tatsachen sind.
1.12 Denn, die Gesamtheit der Tatsachen bestimmt, was der Fall ist und auch,
was alles nicht der Fall ist.
1.13 Die Tatsachen im logischen Raum sind die Welt
1.2 Die Welt zerfallt in Tatsachen.
1.21 Eines kann der Fall sein oder nicht der Fall sein und alles u
brige gleich
bleiben.
4. Der Gedanke ist der sinnvolle Satz
4.001 Die Gesamtheit der Satze ist die Sprache.
4.01 Der Satz ist ein Bild der Wirklichkeit. Der Satz ist ein Modell der Wirklichkeit, so wie wir sie uns denken.
4.0312 Die Moglichkeit des Satzes beruht auf dem Prinzip der Vertretung von
Gegenstanden durch Zeichen. Mein Grundgedanke ist, dass sich die Logik der
Tatsachen nicht vertreten l
at.
5.6 Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.
6.522 Es gibt allerdings Unaussprechliches. Dies zeigt sich, es ist das Mystische.
6.53 Die richtige Methode der Philosophie ware eigentlich die: Nichts zu sagen,
als was sich sagen lat, also Satze der Naturwissenschaft - also etwas, was mit
Philosophie nichts zu tun hat - , und dann immer, wenn ein anderer etwas
Metaphysisches sagen wollte, ihm nachzuweisen, dass er gewissen Zeichen in
seinen Satzen keine Bedeutung gegeben hat. Diese Methode ware f
ur den
anderen unbefriedigend - er hatte nicht das Gef
uhl, dass wir ihn Philosophie
lehrten - aber sie ware die einzig streng richtige.
6.54 Meine Satze erlautern dadurch, dass sie der, welcher mich versteht, am
Ende als unsinnig erkennt, wenn er durch sie - auf ihnen - u
ber sie hinausgestiegen ist. (Er mu sozusagen die Leiter wegwerfen, nachdem er auf ihr
hinaufgestiegen ist).
Er mu diese Satze u
berwinden, dann sieht er die Welt richtig.
7. Wovon man nicht sprechen kann, dar
uber mu man schweigen.
Der erste Satz 1. sowie der letzte Satz 7. des Tractatus sind nahezu zu gefl
ugelten
Wortern geworden. Wichtig an dieser Arbeit ist zunachst die antimetaphysische Grundposition und in diesem Zusammenhang die sogenannte Bildtheorie der Bedeutung von
Sprache. Dieser Theorie zufolge sind Aussagen nur sinnvoll, wenn sie empirische Fakten

oder Sachverhalte abbilden. Alle Aussagen, die sich auf etwas Normatives, Ubernat
urliches oder Metaphysisches beziehen, gelten als unsinnig. Die Analyse des Textes f
uhrt
aber auf ein Problem: Nach den Regeln des Tractatus d
urften die Ausdr
ucke Realitat,
Objekt, Welt gar nicht im Tractatus gebraucht werden, denn die Aussage: Es gibt
Objekte in der Welt bezeichnet selbst noch keinen empirischen Sachverhalt, sondern
setzt bereits den Begriff des Sachverhalts voraus. Die Bildtheorie negiert die Sinnhaftigkeit der Aussagen, aus denen der Tractatus selbst besteht, sie negiert gerade den Rahmen,
der sie st
utzen soll. Tatsachlich heit es in 4.003:
19

Die meisten Satze und Fragen, welche u


ber philosophische Dinge geschrieben
worden sind, sind nicht falsch, sondern unsinnig. Wir konnen daher Fragen
dieser Art u
berhaupt nicht beantworten, sondern nur ihre Unsinnigkeit feststellen. Die meisten Fragen und Satze der Philosophen beruhen darauf, dass
wir unsere Sprachlogik nicht verstehen.
Und es ist nicht verwunderlich, dass die tiefsten Probleme eigentlich keine
Probleme sind.
Im Vorwort zum Tractatus schreibt Wittgenstein:
Wenn diese Arbeit einen Wert hat, so besteht er in zweierlei: Erstens darin,
dass in ihr Gedanken ausgedr
uckt sind, und dieser Wert wird um so groer
sein, je besser die Gedanken ausgedr
uckt sind. - Hier bin ich mir bewut, weit
hinter dem Moglichen zur
uckgeblieben zu sein. Einfach darum, weil meine
Kraft zur Bewaltigung dieser Aufgabe zu gering ist, ... Dagegen scheint mir die
Wahrheit der hier mitgeteilten Gedanken unantastbar und definitiv. Ich bin
also der Meinung, die Probleme im Wesentlichen endg
ultig gelost zu haben.
Und wenn ich mich hierin nicht irre, so besteht nun der Wert der Arbeit
zweitens darin, dass sie zeigt, wie wenig damit getan ist, dass die Probleme
gelost sind.
Der Aussage, dass die Wahrheit der hier mitgeteilten Gedanken unantastbar und definitiv sei, scheint auf einem Evidenzerlebnis Wittgensteins zu beruhen; auf solche Erlebnisse wird spater noch die Rede kommen. Jedenfalls wurde der Tractatus 1922 mit Russels
Hilfe publiziert; Wittgenstein war der Auffassung, nun alle Probleme der Philosophie gelost zu haben. Deshalb wurde er Grundschullehrer in einer entfernten landlichen Gegend

Osterreichs,
plante und baute schlielich in den Jahren 1926-1928 in Wien ein Haus f
ur
seine Schwester Gretl. 1929 bemerkte er aber, dass er doch noch nicht alle Probleme der
Philosophie gelost hatte, also kehrte er nach Cambridge zur
uck, um am Trinity College
Philosophie zu lehren. 1939 wurde er dort Professor f
ur Philosophie; die Philosophie in
dieser zweiten philosophischen Phase ist der des Tractatus entgegengesetzt. Im zweiten
Weltkrieg meldete er sich freiwillig, um als Sanitatsgehilfe erst in London, dann in Newcastle zu arbeiten. Nach dem Krieg nahm er seine Professur wieder auf, legte sie aber
1947 nieder, um sich nur auf das Schreiben (oft in Irland) zu konzentrieren. 1949 hatte er
alles geschrieben, was nach seinem Tod als Philosophische Untersuchungen publiziert
wurde. Wittgenstein starb 1951 an Krebs. Seine letzten Worte waren: Tell them Ive had
a wonderful life.
Vorbild f
ur die Form des Tractatus war die formalisierte Sprache der Principia Mathematica von Russel und Whitehead. In der zweiten philosophischen Phase erkannte Wittgenstein allerdings, dass es keine logische Ursprache gibt und dass das, was er Sprachkritik nennt, sich nur auf die gewohnliche, dh auf die Umgangssprache beziehen kann. In
der Umgangssprache wird aber die Bedeutung eines Wortes durch den Gebrauch in der
Sprache festgelegt. In der Bildtheorie der Sprache, wie sie im Tractatus vertreten wird,
wird jede metaphysische Deutung der Welt als sinnlos charakterisiert, denn die Bedeutung der Sprache hangt ja von erfahrbaren und bestatigbaren Umstanden ab. F
ur die
Anh
anger des Wiener Kreises war demnach die logische Analyse der Sprache von zentraler Bedeutung. Die Wahrheit oder Falschheit eines Satzes ist nur dann feststellbar, wenn
der Satz u
berhaupt einen Sinn hat, und der Sinn ergibt sich durch die Methode der Verifikation. F
ur die logischen Empiristen folgt deshalb, dass es u
berhaupt nur zwei Arten von
zulassigen Satzen geben kann: die gema der Kantschen Klassifikation analytischen und
die synthetischen (a posteriori) Satze. Die analytischen Satze sagen bekanntlich nichts
u
ber die Wirklichkeit aus, sie sind aufgrund ihrer Form entweder wahr oder falsch. Die
20

Wahrheit oder Falschheit der synthetischen Satze a posteriori ergibt sich aus den Zustanden der Welt. Die synthetischen Satze a priori sind dann die metaphysischen Satze
und haben, den Kriterien der logischen Empiristen zufolge, keinen Sinn; auf diese Auffas
sung wird spater ebenfalls zur
uckgekommen. Im Aufsatz Rudolf Carnaps Uberwindung
der Metaphysik durch logische Analyse der Sprache (1931) wird diese Auffassung weiter
elaboriert.
Es ist ja schon angedeutet worden, dass der Positivismus bzw. Neopositivismus nicht
unwidersprochen geblieben ist; insbesondere haben sich auch namhafte Physiker wie
Planck und etwas spater, Einstein, Schrodinger, etc gegen die radikalen und deshalb vereinfachenden Lehren des Positivismus gewandt. Es war dann insbesondere Karl
Raimund Popper, der auf die zentrale These des Positivismus, dass namlich Theorien
induktiv verifiziert w
urden, zielte und damit den Kritischen Rationalismus begr
undete.
Diesem Rationalismus entsprechend geschieht der Fortschritt nicht induktiv, sondern deduktiv (und deshalb rational) in einem Sinne, der in Abschnitt 1.10 naher bestimmt wird.
Zuvor wird kurz auf das Problem der Wahrheit im allgemeinen und das der Induktion
bzw. Verifikation eingegangen.

1.8

Wahrheit und Verifikation

Francis Bacon hatte als erster explizit postuliert, dass die Wissenschaft induktiv8 zur
Wahrheit gelangen konne. Es fragt sich dann, was Wahrheit ist, wie dieser Begriff definiert ist. Hierzu haben sich verschiedene Theorien herausgebildet. Die erste, schon auf
Aristoteles zur
uckgehende Theorie besagt, dass ein Satz dann wahr ist, wenn er mit dem
u
uber er etwas aussagt. Dies ist die
bereinstimmt, wor
Korrespondenztheorie der Wahrheit. Die in Wittgensteins Tractatus formulierte Bildtheorie der Wahrheit ist eine explizite Ausformulierung der Korrespondenztheorie. Diese
Theorie hat einen gewissen intuitiven Appeal, da sie dem umgangssprachlichen Wahrheitsbegriff sehr nahe kommt. Tarski (1956) hat dementsprechend definiert
Die Aussage P ist wahr genau dann, wenn P.
Dabei ist P die Aussage u
ber den Sachverhalt P. P sei der Sachverhalt, dass ein gegebener Rabe schwarz ist, und P ist die Aussage, Der Rabe ist schwarz. Das Problem
mit diesem Ansatz ist, dass die Korrespondenztheorie eher ein Kriterium f
ur die Wahrheit
eines Satzes angibt als dass sie definiert, was Wahrheit ist. F
ur einen gegebenen Raben
kann man noch feststellen, ob er tatsachlich schwarz ist. Bei Allaussagen der Form Alle
Raben sind schwarz verhalt es sich schon anders: man mu feststellen, ob wirklich alle
Raben schwarz sind. Als Ausweg hat man die
Koh
arenztheorie der Wahrheit vorgeschlagen. Dieser Theorie zufolge ist eine Aussage
wahr wenn sie nicht in Widerspruch zu einer Menge von bereits als wahr erkannten Aussagen steht; man sagt die Aussagen stehen in einer Relation der inferentiellen Abhangigkeit
zueinander. Der Bezug zur Realitat geht nicht in die Wahrheitsdefinition ein. Es folgt,
dass ein gegebener Satz in der einen Theorie wahr, in der anderen falsch sein kann, denn
es kommt ja nur auf die logische Widerspruchsfreiheit in bezug auf eine Menge von Aussagen an. Damit wird aber der Wahrheitsbegriff, der von einem intuitiven Standpunkt
aus ja absolut (also nicht relativ zu einem bestimmten Aussagensystem) gelten soll, relativiert. Dar
uber hinaus wird die logische Widerspruchsfreiheit zu einem Kriterium, und
8 Er

hat, so Windelband in seiner Straburger Rede (vergl Abschn. 4.3), die Induktion mit programmatischer Emphase empfohlen und . . . scholastisch beschrieben.

21

damit wird die Wahrheit der Logik vorausgesetzt, wodurch die Wahrheitsdefinition etwas
Zirkulares bekommt.
Pragmatische Wahrheitstheorie: Nach dieser Theorie sind Aussagen (
uber einen Gegenstandsbereich) wahr, wenn sie n
utzlich sind; solche Aussagen bewahren sich ja, sonst
waren sie nicht n
utzlich. Aussagen konnen also unwahr werden, wenn sie nicht mehr in
die Zeit passen, dh wenn die Welt sich so verandert hat, dass andere Aussagensysteme
n
utzlicher sind. Es gibt hier also keinen absoluten Wahrheitsanspruch.
Konsenstheorie der Wahrheit. Hier wird davon ausgegangen, dass es stets eine Menge
von Sprechern einer Sprache gibt, in der sie sich u
ber die verschiedenen Gegenstandsbereiche verstandigen. Eine Aussage in einer Sprache S gilt nun als wahr, wenn jeder
Sprecher in der Menge, die S spricht, dieser Aussage zustimmt. Nat
urlich kann es sein,
dass zumindest ein Mitglied der Menge Erfahrungen macht, die der Aussage widersprechen und somit nicht mehr alle Mitglieder der Menge der Aussage zustimmen, - und
damit ist sie nicht mehr wahr. Trotzdem kann sie im korrespondenztheoretischen Sinne
wahr sein, denn das bewute Mitglied der Menge kann sich ja irren.
Die bis jetzt genannten Wahrheitstheorien heien auch substanzielle Wahrheitstheorien. Es gibt noch eine Klasse von Theorien, die deflationistischen Theorien. Eine spezielle
Theorie dieser Klasse ist die
Redundanztheorie der Wahrheit. Ein wichtiger Vertreter dieser Richtung war Gottlob
Frege. Es wird behauptet, dass das Pradikat ist wahr u
ussig sei. Demnach ver berfl
ugt,
andert die Aussage, Alle Raben sind schwarz nicht ihren Sinn, wenn man hinzuf
diese Aussage sei wahr. Man kann sagen, dass die Wahrheit des Satzes bereits mit der
Behauptung, die im Satz ausgedr
uckt wird, gegeben ist. Die Frage ist aber, wie die Redundanztheorie mit Aussagen der Art Alles, was der Prasident der USA sagt, ist wahr
fertig wird.
Zum Verifikationsprinzip Es gibt noch weitere Varianten von deflationistischen Wahrheitstheorien, auf die hier aber nicht eingegangen werden mu. In der Wissenschaft soll
ja, nach Ansicht einiger Philosophen und Wissenschaftler, das Prinzip der Verifikation
gelten. Per Induktion soll eine Aussage (Theorie) immer mehr bestatigt werden. Das
setzt sicherlich voraus, dass verschiedene Forscher bez
uglich der verifizierenden Daten
miteinander u
bereinstimmen. Man konnte hier argumentieren, dass der dem Verifikationsprinzip unterliegende Wahrheitsbegriff also auch zu den Konsenstheorien gehort und
deshalb mit den oben genannten Schwierigkeiten behaftet ist. Die wesentlichere Frage
scheint aber zu sein, wie sich das Induktionsprinzip rechtfertigen lat, denn es besagt ja,
dass aus einer Menge von Einzelaussagen eine generelle Aussage gefolgert werden kann.
Eine Rechtfertigung des Prinzips bedeutet, dass nachgewiesen wird, dass das Induktionsprinzip wahr ist. Dazu m
ute es aus irgendwelchen a priori-Gr
unden deduziert werden;
gelingt dies, ist es notwendig wahr. Dies wiederum w
urde bedeuten, dass das Prinzip
stets zu wahren Allgemeinaussagen kommt. Popper hat allerdings nachdr
ucklich auf die
Problematik des Prinzips hingewiesen (vergl. Abschnitt 1.10). Der vielleicht extensivste
Versuch, die Kritik Poppers an diesem Prinzip gewissermaen zu unterlaufen wurde von
Rudolf Carnap (1891 - 1970) unternommen. Sein Ziel war es, eine Induktive Logik zu
entwickeln. Ist H eine Hypothese, so soll nach dieser Logik die Wahrscheinlichkeit p(H)
bestimmt werden, mit der H korrekt ist. p(H) soll als Bestatigungsgrad der Hypothese H
aufgefasst werden und ist eigentlich eine bedingte Wahrscheinlichkeit: es sei E die Menge
der empirischen Satze, die H st
utzen bzw. mit H kompatibel sind. Statt p(H) mu also
22

Abbildung 10: (a) Rudolf Carnap, (b) Hans Reichenbach


(a)

(b)

etwas vollstandiger p(H|E) geschrieben werden9 . Intuitiv entspricht dieser Ansatz der
Tatsache, dass man eine Allgemeinaussage um so mehr als bestatigt ansieht, je haufiger
man sie als bestatigt gefunden hat. Nur liefert diese Intuition noch keine Rechtfertigung
f
ur den Ansatz, die Groe p(H|E) als Bestatigungsgrad f
ur H aufzufassen; man macht
sich leicht klar, dass u.a. Vorurteile dann leicht den Charakter von Wahrheiten bekommen. In der Tat versucht Carnap vielmehr, den Ansatz logisch zu begr
unden. Betrachtet
werde die Aussage (Hypothese) Alle Schwane sind wei. Da nie wirklich alle Schwane
daraufhin u
uft werden konnen, ob sie wei sind, kann der Satz nicht direkt bestatigt
berpr
werden. Der Grad der Bestatigung wird durch eine Umformulierung in eine Vorassage
bestimmt: Der nachste Schwan, der beobachtet wird, ist mit der Wahrscheinlichkeit
p(w|Schwan) wei (w steht f
ur wei). Jetzt ist die Frage, in welcher Weise p(w|Schwan)
von der Anzahl bestatigender Falle abhangen soll. Die Antwort ist langlich, kompliziert
und am Ende nicht zufriedenstellend, weil jede Losung neue Fragen aufwirft (Carnap et
al., 1956), die hier nicht diskutiert werden konnen.
Hans Reichenbach (1891-1953) versuchte, den Grad der Bestatigung einer Hypothese
anders zu definieren. Er ging von der von von Mises (1928) eingef
uhrten Definition von
Wahrhscheinlichkeiten als Grenzwert relativer Haufigkeiten aus (vergl. Abschnitt 2.2.5).
Es sei n die Gesamtzahl der Beobachtungen, u
ber die in der Hypothese H gemachten
Ereignisse (oder Sachverhalte), und m sei die Gesamtzahl der f
ur die Hypothese g
unstigen
Beobachtungen. Dann soll
m
p(H) = lim
(1)
n n
gelten. Das Problem mit diesem Ansatz ist allerdings, dass er auf kaum zu rechtfertigen9 p(H|E) ist eine bedingte Wahrscheinlichkeit; p(H|E) ist die Wahrscheinlichkeit p der Hypothese H
unter der Bedingung, dass die S
atze E gelten. Im Allgemeinen ist die unbedingte Wahrscheinlichkeit p(H)
nicht gleich der bedingten Wahrscheinlichkeit p(H|E). Es ist allerdings umstritten, ob man Hypothesen
u
alligen
berhaupt Wahrscheinlichkeiten zuordnen kann; Wahrscheinlichkeiten werden u
blicherweise zuf
Ereignissen zugewiesen, aber eine Hypothese ist zun
achst kein zuf
alliges Ereignis. Man kann aber p(H|E)
als Ausma des subjektiven Glaubens an die Korrektheit von H interpretieren. Damit vollzieht man aber
einen Schritt von der objektiven zur subjektiven Wahrscheinlichkeit. Die Diskussion um die korrekte
Interpretation von Wahrscheinlichkeiten ist extensiv und kann an dieser Stelle nicht gef
uhrt werden;
eine Einf
uhrung in die Interpretation von Wahrscheinlichkeiten als subjektive Gr
oen ndet man z.B. in
Savage (1972).

23

den Grundannahmen beruht:


Annahme 1: Die Natur ist kontinuierlich. Damit ist gemeint, dass wahrend des
gesamten Beobachtungszeitraums, also der Zeit, in der n , der durch H beschriebene Sachverhalt konstant bleibt.
Annahme 2: Die in (1) behauptete Konvergenz mu nicht gelten; sie kann z.B. f
ur
die ersten n1 Beobachtungen gelten, aber dies impliziert noch nicht, dass sie auch
f
ur alle folgenden n > n1 gilt, selbst wenn die Annahme 1 der Kontinuitat gilt.
Die Annahme 1 hat den pikanten Beigeschmack, eine metaphysische zu sein, denn sie
folgt nicht aus Beobachtungen. Metaphysische Annahmen sollen ja gerade, dem Ansatz
der logischen Empiristen zufolge, aus den Wissenschaften vertrieben werden. Wenn man
in M
unster millionenfach die Gravitationskonstante g schatzt, wird man - bis auf zufallig
variierende Messfehler - immer den gleichen Wert messen, und die entsprechende Aussage H u
ber den Wert von p scheint auf diese Weise wahr zu werden. Aber sie gilt

nicht allgemein, denn am Aquator


wird man moglicherweise einen anderen Wert messen. Auerdem kann sich auch in M
unster der Wert von g langfristig verandern, etwa
aufgrund plattentektonischer Verschiebungen (die Kontinente driften, wie man wei).
In psychologischen Zusammenhangen ist die Problematik sowieso klar: durch Lernvorgange konnen sich Reaktionsweisen verandern, etc. Die Annahme 2 ist problematisch,
weil nicht weiter kontrollierbare Randbedingungen zwar eine Konvergenz f
ur n1 Beobachtungen nahelegen konnen, daraus aber nicht folgt, dass die Randbedingungen f
ur die
restlichen Beobachtungen auch die gleichen bleiben; nicht umsonst legt man heute in der
Wahrscheinlichkeitstheorie die Axiome von Kolmogoroff zugrunde und nicht den der Gleichung (1) zugrundeliegenden Ansatz. Die Diskussion der Reichenbachschen Annahmen
macht deutlich, dass die Annahme, die Natur konne durch bestimmte Gesetzmaigkeiten
beschrieben werden, eben nur eine Annahme ist, denn sie kann nicht bewiesen werden.
Eine grundsatzliche Kritik an der Induktionslogik kommt von Hempel (1946) und ist
auch als Rabenparadox bekannt. Die betrachtete Hypothese H sei
H: Alle Raben sind schwarz.
Man kann nun H etwas umstandlicher, aber daf
ur exakter ausdr
ucken. Mit R(x) werde
die Aussage x ist ein Rabe bezeichnet, und mit S(x) die Aussage x ist schwarz. Im
Folgenden ist mit f
ur alle gemeint; heit auch Allquantor. Der Pfeil stehe f
ur die
Implikation, d.h. f
ur Wenn . . . dann. H hat dann die Form
x, R(x) S(x).

(2)

Man liest dies so: f


ur alle x, die das Merkmal (das Pradikat) R haben, folgt, dass sie auch
das Merkmal S haben. Diese Aussage ist bekanntlich logisch aquivalent mit der Aussage
x, S(x) R(x),

(3)

wobei f
ur nicht steht; f
ur alle x, die nicht das Merkmal S haben, folgt, dass sie auch
nicht das Merkmal R haben. (3) meint einfach, dass, wenn x nicht schwarz ist, x auch kein

Rabe ist. Wegen der logischen Aquivalenz


bestatigt aber jede Aussage, die (3) bestatigt,
auch die Hypothese H, namlich (2). Es sei Xs die Menge der x, auf die S(x) zutrifft,
also Xs = {x|S(x)}. Xs umfat dann die Menge der nichtschwarzen Teetassen, der
nichtschwarzen Turnhosen, der nichtschwarzen Ostfriesen, etc. F
ur alle diese x gilt, dass
sie keine Raben sind. Alle diese x bestatigen die Aussage (2). Die Aussage Diese Tasse ist
wei bestatigt also die Aussage Alle Raben sind schwarz. Das wirklich Unangenehme
24

an diesem Befund ist, dass man auf diese Weise auch vollig unsinnige Aussagen bestatigen
kann, z.B. die Aussage H1 : Alle H
uhner haben drei Beine. Alle x, die keine drei Beine
haben, sind demnach keine H
uhner und bestatigen die Aussage H1 . Nat
urlich ist dies eine
absurde Konsequenz, die allerdings eine Konsequenz des Versuches ist, Aussagen induktiv
zu bestatigen. Daraus folgt, dass es keinen Sinn macht, Aussagen induktiv bestatigen zu
wollen.
Das eben vorgetragene Argument von Hempel ist nicht unwidersprochen geblieben.

Ein Einwand dagegen richtet sich auf die Aquivalenz


von (2) und (3): diese Aussagen

sind zwar logisch aquivalent, aber diese Aquivalenz


sei f
ur den induktiven Ansatz nicht
relevant. So lat sich aber schlecht argumentieren, denn der Einwand impliziert, dass
die Logik nur manchmal angewendet werden kann, und manchmal nicht. Man m
ute
dann ein Entscheidungskriterium einf
uhren, nach dem entschieden werden kann, wann
die Logik gilt und wann nicht. Abgesehen davon, dass es schwer einzusehen ist, dass die
Logik manchmal nicht gelten soll, ergibt sich noch ein grundsatzlicheres Argument: dieses
Vorgehen - namlich ein Kriterium f
ur die Anwendung von Logik zu finden - ist selbst eine
logische Schlufolgerung, d.h. man setzt die Logik eben doch generell voraus und kann sie
dementsprechend nicht mehr nur von Fall zu Fall anwenden. Damit bleibt das Problem
der Induktionslogik bestehen; die Annahmen dieser Logik sind zu bezweifeln.

Die intuitive Unzufriedenheit mit dem Argument der logischen Aquivalenz


verweist
aber auch auf einen anderen Sachverhalt, der allerdings ebenfalls gegen die induktive Lo
gik spricht. Das Argument auf der Basis der logischen Aquivalenz
von (2) und (3) macht
von der Tatsache Gebrauch, dass nur auf die in (2) und (3) vorkommenden Begriffe
und auf sonst keine Bezug genommen wird. Tatsachlich bezieht man sich bei wissenschaftlichen Aussagen aber nicht nur auf einzelne Aussagen, sondern auf Mengen von
miteinaner verkn
upften Aussagen und Begriffen. Die Bestatigung von Aussagen wird in
irgendeiner Form in Bezug auf das gesamte System gesehen oder nicht gesehen, nicht
aber anhand des Bestatigungsgrades einzelner Aussagen. In den nachsten Abschnitten
wird dieser Sachverhalt weiter verdeutlicht.
Generell ist der Wahrheitsbegriff sehr komplex; eine weiterf
uhrende Diskussion der
mit diesem Begriff verbundenen Problematik findet man in Davidson und Rorty (2005).

1.9

Begriffe, Definitionen und Explikationen

In wissenschaftlichen Aussagen werden Begriffe miteinander verkn


upft. Damit man den
Sinn der Aussagen versteht, m
ussen die in ihnen vorkommenden Begriffe bekannt sein.
Die Frage ist nun, wie die Bekanntheit der Begriffe sichergestellt werden kann. Ein Beispiel ist der Begriff der Kraft (vergl. Wisstheorie II, Abschnitt 2.8.1). Wahrend man
u
ber eine durch die Umgangssprache und die unmittelbare Erfahrung (zB einen Koffer
in ein Gepacknetz heben) vermittelte Intuition von dem, was Kraft bedeutet verf
ugt,
stellt die wissenschaftliche Fassung dieses Begriffs eine schwierige Aufgabe dar. Die aus
der personlichen, taglichen Erfahrung resultierende Bedeutung des Kraftbegriffs legt nahe, dass Kraft sich verbraucht. Die Planeten scheinen aber bei ihrem Lauf um die Sonne
nicht nachzulassen, so dass man letztendlich einen Ersten Beweger anehmen mu, der
das Universum in Gang halt. Die Einsicht, dass ein Korper sich ohne Krafteinwirkung
gleichformig weiterbewegt, ist er einmal in Bewegung versetzt worden, ist auch Galilei
nicht selbstverstandlich gewesen und mute m
uhsam erarbeitet werden. Descartes postulierte noch, dass Kraft gleich Masse mal Geschwindigkeit sei, was dem Galileischen
Tragheitsprinzip schon widerspricht, denn f
ur eine von Null verschiedene Geschwindigkeit
ist auch die einwirkende Kraft ungleich Null. In Newtons Lex II wird dann eine Definition
gegeben, derzufolge Kraft gleich Masse mal Beschleunigung ist. Man kann diese Aussage
25

als eine Definition auffassen, - es zeigt sich aber, dass sie mehr als eine Definition ist.
Gleichzeitig lat sich diese Aussage als Definition von Masse denken, - wenn man davon
ausgeht, dass der Begriff der Kraft bereits definiert ist. Bei den Begriffen des Es, des Ich

und des Uberich


in der Psychoanalyse Freuds geht es einem, wie bei anderen psychologischen Begriffen, nicht anders. Schon ein so alltaglicher Begriff wie Aggression erweist
sich als schwer zu fassen, und man kann auf die Idee kommen, dass die Schwierigkeit, etwa die Frustrations-Aggressions-Hypothese eindeutig zu bestatigen oder verwerfen, auch
ein Resultat der Schwierigkeit ist, die Begriffe Aggression und Frustration eindeutig zu
definieren. Die Beziehung zwischen den Begriffen Gesetz und Hypothese einerseits und
dem Begriff der Definition andererseits ist, wie es scheint, nicht ganz trivial. Es soll
kurz auf den Begriff der Definition und den der Explikation, einer schwacheren Form der
Definition, eingegangen werden.
1.9.1

Explikationen und Definitionen

Explikationen Es wird zuerst der Begriff der Explikation erlautert, - dh expliziert. Der
lateinische Ausdruck explicatio bedeutet einfach Darlegung, Entwirrung, Erlauterung.
Der zu erklarende - also zu explizierende - Ausdruck heit auch Explikandum (das zu
Erklarende). Ein Begriff wird expliziert, wenn seine Bedeutung mithilfe anderer, bereits
bekannter Begriffe prazisiert wird. Damit ist die Explikation eine Prazisierung der Umgangssprache, aber damit noch keine Erklarung. Man kann die Funktion der Explikation
an einem einfachen Beispiel, dem des Begriffes Fisch, erlautern (Leinfellner, 1965): umgangssprachlich umfat der Ausdruck Fisch auch den Walfisch - der Wal ist aber
bekanntlich kein Fisch - und im Mittelalter wurde sogar der Fischotter zu den Fischen
gezahlt; wie Leinfellner (p. 87) ausf
uhrt, wurde dadurch das Fasten ertraglicher. Leinfellner fasst die wesentlichen Aspekte einer Explikation zusammen:

1. Ahnlichkeit
Das Explikat - also der Begriff oder die Begriffe, die zur Explikation
herangezogen werden - m
ussen dem Explikandum ahnlich sein. Im allgemeinen ist
der zu explizierende Ausdruck ungenauer als die explizierenden Ausdr
ucke, so dass

eben nur Ahnlichkeit


, keine Identitat von Explikat und Explikandum erforderlich
ist.
2. Regeln Es m
ussen die Regeln, nach denen das Explikandum in ein System wissenschaftlicher Aussagen eingef
ugt werden soll, explizit angegeben werden.
3. Allgemeinheit Das Explikat soll die Formulierung moglichst vieler genereller Aussagen ermoglichen.
4. Einfachheit Das Explikat soll so einfach wie moglich sein.
Definitionen10 Die Lehre von den Definitionen geht auf Aristoteles zur
uck; da gelegentlich von bestimmten Definitionen, in denen aristotelische Bezeichnungen f
ur Definitionen
vorkommen, soll kurz darauf eingegangen werden. Der traditionellen Klassifikation von
Definitionsarten zufolge kann man zunachst reale von nominellen Definitionen unterscheiden. Realdefinitionen beziehen sich i.a. auf durch Substantive bezeichenbare Objekte und
definieren diese durch Resultate von Erkenntnis- und/oder Forschungsprozessen. Gold ist
demnach definiert als Element mit der Atomzahl 79. Etwas allgemeiner gesagt sollen
sich reale Definitionen auf das Wesen des zu definierenden Objekts oder Begriffs beziehen; sie charakterisieren die metaphysisch notwendigen und hinreichenden Bedingungen
daf
ur, dass das, was definiert werden soll, ist, was es ist (Audi, 1999). In einer Realdefinition soll also der Begriff Kraft so definiert werden, dass das Wesen der Kraft explizit
10 von

lateinisch: de (= ab, weg) und finis (= Grenze), also Denitio = Abgrenzung)

26

Abbildung 11: Die klassische Klassifikation von Definitionen


Definition
nominal

real

syntaktisch

semantisch
analytisch

synthetisch

gemacht wird. Das Problem ist aber, dass das Wesen der Kraft erst noch erforscht werden
mu. Die Begriffe mannlich und weiblich m
ussen, soll es reale Definitionen f
ur diese
Begriffe geben, demnach das Wesen des Mannlichen bzw. Weiblichen erfassen. Hier gilt
das Gleiche: eigentlich mu erst noch erforscht werden, worin das typisch Mannliche
bzw. Weibliche denn besteht. Definiert man den Menschen als vern
unftiges Tier, so
sagt man damit aus, dass die Vern
unftigkeit einem Menschen wesentlich zukommt. Nun
ist der Begriff Wesen sehr allgemein, es wird eben immer darauf ankommen, welche Art
von Wesen in einem speziellen Falle charakterisiert werden soll. Aber genau hier scheint
das Problem zu liegen: was das Wesen eines Zusammenhanges, eines Objekts etc sein soll,
mu i.a. erst erforscht werden, und vielleicht macht es gar keinen Sinn, dabei vom Begriff
des Wesens auszugehen. Was etwa ist das Wesen der Elektrizitat (vergl. Hegels Versuch
einer Charakterisierung der Elektrizitat auf Seite 15), oder wie lat sich das Wesen eines
Menschen in einer Typendefinition fassen?
Die nominelle Definition dagegen f
uhrt nur ein sprachliches Zeichen f
ur den zu definierenden Begriff bzw. f
ur das zu definierende Objekt ein. Daraus folgt, dass eine nominelle
Definition keinen Erkenntnisgewinn liefert, - wohl aber auf einem Erkenntnisgewinn beruhen kann.
Bei einer syntaktischen Definition insbesondere wird ein Zeichen durch ein anderes
Zeichen oder eine Gruppe von Zeichen definiert. Ein typisches Beispiel aus der Aussagenlogik ist die Definition von p q, dh Wenn p gilt, dann auch q, wobei p und q
Aussagen sind. Man kann daf
ur die syntaktische Definition
def

p q = p q

(4)

einf
uhren, wobei p q f
ur die Ausage A: Es gilt nicht p oder es gilt q. Diese Aussage
ist wahr genau dann, wenn p falsch ist oder p wahr ist. Angenommen, die Aussage p
ist wahr. Dann ist p, also die Aussage p ist falsch falsch, und A kann nur wahr sein,
wenn q wahr ist. (4) bedeutet, dass p q genau dann wahr ist, wenn A, also die rechte
Seite von (4), wahr ist. Damit definiert (4) die Aussage p q syntaktisch, - denn auf die
Bedeutung von p und q wird gar nicht bezug genommen.
Definitionen sind semantisch, wenn sie entweder analytisch oder synthetisch sind
(vergl. Abb. 11). Eine Definition ist analytisch, wenn sie entweder eine analytische Aussage ist oder eine Analyse des Definiendums liefert: Ein Schimmel ist ein weies Pferd.
Formal ausgeschrieben heit dies: die Aussage F
ur alle x, x ein Schimmel genau dann
wenn x ein weies Pferd ist ist eine analytische Aussage. Synthetische Definitionen sind
analog durch synthetische Aussagen definiert (vergl. Wisstheorie II, p. 59).
Nach der traditionellen Lehre soll eine Definition durch Angabe (i) der nachsthoheren Gattungseigenschaft (genus proximum), und (ii) des spezifischen Artmerkmals (differentia specifica) charakterisiert sein. Dieses spezifische Artmerkmal darf nur in dem zu
27

definierenden Begriff (= Menge von Objekten) zukommen und nicht auch bei anderen
Objekten, die nicht unter den zu definierenden Begriff fallen. Weiter soll die Definition
keinen Zirkelschlu oder logischen Widerspruch enthalten und nicht nur negativ bestimmt
sein; Mehrdeutigkeiten d
urfen in einer Definition nicht auftreten. So kann man die Hauskatze wie folgt definieren (Leinfellner (1965), p. 89): Hauskatzen bilden den (mengentheoretischen) Durchschnitt von Felis und Domestica. Eine volljahrige Person ist der
Durchschnitt der Menge aller Personen mit der Menge aller Personen u
ber 18 Jahre. Wie
Leinfellner (1965) ausf
uhrt sind zoologische Systeme oder das Linnesche Pflanzensystem
keine reinen Definitionssysteme, sondern Einteilungssysteme, die auf empirischer Arbeit
beruhen und deren Ergebnisse in nominalen Definitionen eingeteilt werden.
Ein Hauptproblem der traditionellen Definitionslehre ist, dass sie sich auf einfache
Eigenschaften bzw. Merkmale konzentriert, im wissenschaftlichen Betrieb aber oft Relationen wie groer als, schneller als etc in die Definitionen eingehen sollen. Vielfach
werden im Rahmen der traditionellen Definitionstheorie Begriffe ostensiv eingef
uhrt, indem man auf einen Gegenstand verweist, der das definierende Merkmal zeigt. So definiert
man auf diese Weise Rot, indem man auf einen roten Gegenstand verweist. Damit ist
die Definition nicht mehr eine Relation zwischen Zeichen, sondern eine Aussage u
ber eine
Erkenntnis oder eine Beschreibung eines empirischen Phanomens. Hat man andererseits
Rot empirisch bestimmt, so kann man die nominelle Definition Rot =def 400 Billionen
Schwingungen/Sekunde einf
uhren. Um diese Definition aufstellen zu konnen, mu man
aber den Begriff Rot schon haben, weil man sonst die Frequenz der entsprechenden
elektromagnetischen Schwingung gar nicht bestimmten konnte.
Zusammenfassend kann man sagen, dass der Ausdruck Definition nur dann verwendet werden sollte, wenn (i) der Gebrauch, oder (ii) die Bedeutung neuer Terme (Ausdr
ucke) festgelegt werden soll. Soll ein Begriff u
ber empirische Sachverhalte charakterisiert werden, sollte von einer Explikation die Rede sein. Dementsprechend waren Definitionen analytische bzw. syntaktische Definitionen im traditionellen Sinn, wahrend semantische Definitionen Explikationen sind. Die Regel, nach der man entscheiden kann, ob man
eher von einer Definition oder von einer Explikation reden soll, heit Eliminations- oer
Vertauschungsregel : nach dieser Regel kann das Definiens stets durch das Definiendum
ersetzt werden, und umgekehrt.
Der hier gegebene Abriss u
ber die Arten von Definitionen ist keineswegs vollstandig;
man kann zB noch die definitio attributiva vel accidentalis betrachten, die zufallige Definition. Ein Beispiel hierf
ur ist die Definition des Menschen als Tier, das auf zwei Beinen
geht und das Feuer zur Essenszubereitung benutzt. Solche Definitionen sind zufallig
insofern, als wesentliche Merkmale des zu definierenden Objekts unbekannt sind und die
definierenden Merkmale willk
urlich gewahlt werden. Eine andere, hier nicht behandelte
Definition ist die rekursive Definition, in der definierende Merkmale benutzt werden, die
ihrerseits definiert werden m
ussen. Eine relativ ausf
uhrliche Diskussion der Definitionsregeln findet man in Leinfellner, p. 89 - 95. F
ur die Zwecke dieses Skriptums ist die im
folgenden Abschnitt charakterisierte operationale Definition von Bedeutung.
1.9.2

Operationale Definitionen
If you cant measure it, Im not interested.11
Clyde Coombs.

11 C. Coombs hat sich um das Problem der Messung in der Psychologie verdient gemacht; insbesondere
versuchte er, Skalentypen zu entwickeln, bei denen das Messniveau zwischen dem der Ordinal- und dem
der Intervallskala angesiedelt ist. Sein Buch Theory of Data war in den sp
aten sechziger und fr
uhen
siebziger Jahren ein Mu f
ur jeden Psychologen, der als methodisch qualiziert gelten wollte.

28

Newton f
uhrte in seiner Principia12 die Begriffe des absoluten Raums und der absoluten Zeit ein. Einstein (1905) stellte diese Begriffe in seiner Speziellen Relativitatstheorie
(SRT) in Frage. Bridgman (1953) argumentierte, dass man die Idee bzw. den Begriff zB
einer absoluten Zeit nicht verstehen konne, wenn man nicht angeben konne, wie man
bei einem konkreten Ereignis die absolute Zeit dieses Ereignisses feststellen, dh messen
konne. Konne man keine derartige Messvorschrift angeben, sei der Begriff der absoluten
Zeit bedeutungslos. Damit charakterisierte er eine neue Art der Definition: Begriffe sollten nicht durch Merkmale der Ereignisse oder Objekte definiert werden, sondern durch
die Operation, mit der die Ereignisse oder Objekte erfasst, also im allgemeinsten Sinne
des Wortes gemessen werden konnen; so sollen u.a. metaphysische Voreinstellungen, wie
sie etwa in den Begriffen des absoluten Raumes und der absoluten Zeit enthalten sind,
ausgeschlossen werden. Bridgman diskutiert diese Art der Definition in bezug auf den
Begriff der Gleichzeitigkeit, der bekanntlich in der SRT eine bedeutsame Rolle spielt.
Es ist nicht u
berraschend, dass die operationalistische Definition von den positivistischen
und neopositivistischen Wissenschaftstheoretikern, dh von den logischen Empiristen, aufgegriffen und in ihre Philosophie inkorporiert wurde: theoretische Terme (Ausr
ucke) T
sollten durch logisch aquivalente, direkt beobachtbare Bedingungen O definiert werden.
Bridgman (1953) expliziert seinen Ansatz anhand der Langenmessung, worauf hier nicht
weiter eingegangen werden kann, aber die Konsequenzen seines als Operationalismus bekannt gewordenen Ansatzes waren und sind f
ur die empirische Psychologie so bedeutsam,
dass sie kurz beschrieben werden sollen.
In der Psychologie wurde der Operationalismus wichtig in Zusammenhang mit dem
1913 von J.B. Watson in die Diskussion gebrachten Behaviourismus. Clark L. Hull, E.C.
Tolman und B.F. Skinner entwickelten den Ansatz als Kontrast insbesondere zur introspektiven Psychologie weiter: die Aufgabe der Psychologie sei die Erklarung und Vorhersage von Verhalten. Das Erklaren von Verhalten beruht dem Behaviourismus zufolge auf
einer funktionalen Analyse, die wiederum in der Spezifikation von unabhangigen Variablen - zB Stimuli - bestehe, von denen das Verhalten in gesetzhafter Weise abhange. Das
Verhalten kann in Termen von abhangigen Variablen erfasst, also gemessen werden.
Diese abhangigen Variablen m
ussen durch die experimentelle, oder allgemein empirische
Methode, die zur Untersuchung angewendet wird, spezifiziert werden. Damit werden
introspektiv erfasste interne Zust
ande von Personen als nicht relevant f
ur die psychologische Forschung erklart. Diese insbesondere von Skinner vertretene Auffassung wurde
von anderen behaviouristischen Psychologen relaxiert, indem sie intervenierende Variable
zuliessen, die neurophysiologische Prozesse charakterisieren sollten, die zwischen unabhangigen und abhangigen Variablen vermitteln sollen. Die Schwierigkeiten, die sich bei
einer strikten behaviouristischen Auffassung der Psychologie ergeben und die zu einer
Transformation des Behaviourismus in die heutige kognitive Psychologie f
uhrten, andern
nichts an der Tatsache, dass operationale Definitionen eine zentrale Rolle in der Psychologie spielen: diese Definitionen sind letztlich immer dann notwendig, wenn Hypothesen
experimentell gepr
uft werden sollen. Denn dann mu angegeben werden, wie das in Frage
stehende Merkmal oder der untersuchte Prozess denn in der Untersuchung erfasst worden
ist. Will man untersuchen, ob traumatische Erlebnisse verdrangt werden konnen, so mu
man festlegen, wie man den Prozess oder die Tatsache der Verdrangung erfassen will,
und die Notwendigkeit dieses Erfassens f
uhrt in der einen oder anderen Form zu einer
operationalen Definition des Begriffs Verdrangung.
Man kann einwenden, dass operationale Definitionen notwendig eine Unterspezifikation der auf diese Weise charakterisierten Begriffe darstellen und damit prinzipiell einem
unzulassigen Reduktionismus Vorschub leisten. Eine kurze Diskussion des mit einer experimentellen Psychologie verbundenen Reduktionismus findet man in Grauman und
12 vergl.

Wisstheorie II, p. 44-45

29

Metraux (1977); generell wird auf die geisteswissenschaftlich orientierte Psychologie in


diesem Skriptum in den Abschnitten 4 und 5 eingegangen.

1.10

Karl R. Popper: Falsifikationismus


Die Frage: Ist dieses auch wahr? ja bei allem
zu tun, und dann die Gr
unde aufzusuchen, warum
man Ursache habe zu glauben, dass es nicht wahr
sei.
G. C. Lichtenberg (1742-1799), Aphorismen

1.10.1

Hintergrund

Karl Raimund Popper (1902-1994) wurde in Wien geboren und wurde zunachst Oberschul(Gymnasial)lehrer; obwohl protestantischer Sohn protestantischer Eltern, wurde ihm
eine Hochschulkarriere mit der Begr
undung, er sei j
udischer Herkunft verwehrt (Edmonds et al., 200113), - man erinnere sich an den Kommentar des Prof. Austriacus zur
Ermordung M. Schlicks. Wahrend seiner Zeit als Lehrer schrieb er bereits an der Logik
der Forschung. 1936 verlie Popper Wien und ging an die University of Canterbury in
Christchurch, New Zealand, wo er 10 Jahre blieb und Philosophie lehrte. 1946 ging er an
die London School of Economics, wo er zuerst als Reader, dann als Professor f
ur Logik
und wissenschaftliche Methode arbeitete. 1965 wurde er in den Adelsstand erhoben (Sir
Karl), 1976 wurde er zum Fellow der Royal Society gewahlt, und 1982 wurde er zum
Companion of Honour ernannt.
Abbildung 12: Karl Raimund Popper

13 Kapitel

Popper liest Mein Kampf .

30

1.10.2

Demarkation, Induktion und Falsifikation

In der Logik der Forschung elaboriert er u.a. die Moglichkeiten, Wissenschaft von Pseudowissenschaft zu unterscheiden. Die Frage nach der Moglichkeit einer solchen Unterscheidung ist das Demarkationsproblem. Popper argumentiert gegen die logischen Empiristen,
dass nicht die Verifikation von Hypothesen, oder allgemein die Induktion zu wissenschaftlicher Erkenntnis f
uhre, sondern die Falsifikation. Ein induktiver Schlu besteht darin,
von besonderen Satzen, etwa u
ber experimentelle oder allgemein empirische Befunde,
auf allgemeine Satze zu schlieen. Diese allgemeinen Satze sind wieder Hypothesen oder
Theorien. Die Problematik induktiver Schl
usse ist allerdings bekannt; man kann, um
Poppers Beispiel zu nennen, von noch so vielen Beobachtungen weier Schwane nicht zu
dem Satz, alle Schwane sind wei gelangen14 . Der Versuch der Rechtfertigung induktiver Schl
usse m
usse auf den Konstruktion eines Induktionsprinzips basieren, das angibt
wie induktive Schl
usse in eine logisch zugangliche Form gebracht werden konnen. Nach
Reichenbach (1930; p. 186) soll ja gelten:
. . . dieses Prinzip entscheidet u
ber die Wahrheit wissenschaftlicher Theorien.
Es aus der Wissenschaft streichen zu wollen, hiee nichts anders, als die Entscheidung u
ber Wahrheit und Falschheit der Theorien aus der Wissenschaft
herauszunehmen. Aber es ist klar, dass dann die Wissenschaft nicht mehr das
Recht hatte, ihre Theorien von den willk
urlichen Gedankenschopfungen der
Dichter zu unterscheiden.
Popper zeigt nun, dass das Induktionsprinzip kein analytischer Satz (im Sinne Kants)
sein kann, d.h. es kann sich nicht um eine logische Umformung handeln. Solche Umformungen sind tautologisch. Also mu - halt man sich in die nach Kant exhaustive15
Unterscheidung zwischen analytischen und synthetischen Urteilen - das Induktionsprinzip
ein synthetischer Satz sein. Da das Induktionsprinzip kein empirischer Satz ist, sondern
eine allgemeine Aussage u
ber empirische Satze, mu es sich dabei um einen synthetischen
Satz a priori handeln. Damit ware die Negation dieses Satzes logisch nicht moglich16 .
Deswegen benotigt man Gr
unde, die ein solches Prinzip rechtfertigen. Nun kann das
Induktionsprinzip nur ein allgemeiner Satz sein, denn andernfalls ware es ja kein allgemeines Prinzip. Fate man es nun als empirisch g
ultigen Satz auf, so benotigte man
allerdings zu seiner Rechtfertigung wiederum ein Induktionsprinzip, das dann von hoherer Ordnung ware. Damit lauft man aber direkt in einen infiniten Regress und hat nichts
gewonnen.
Den logischen Empiristen war diese Argumentation zwar nicht fremd, aber sie versuchten dennoch, das Induktionsprinzip zu retten. Ihrer Argumentation nach liefern Induktionsschl
usse immerhin Grade von Sicherheit, oder Wahrscheinlichkeiten f
ur Hypothesen:
. . . Wir nannten das Induktionsprinzip das Mittel f
ur den Wahrheitsentscheid
der Wissenschaft. Genauer m
ussen wir sagen, dass es dem Wahrscheinlichkeitsentscheid dient. Denn Wahrheit oder Falschheit ist . . . nicht die Alternative der Wissenschaft, sondern es gibt f
ur wissenschaftliche Satze nur stetige
Wahrscheinlichkeitsstufen, deren unerreichbare Grenze nach oben und unten
Wahrheit und Falschheit sind. (Reichenbach, 1930, p. 186)
Nach Popper werden aber die Schwierigkeiten mit dem Induktionsprinzip durch diese
Anwendung des Wahrscheinlichkeitsbegriffes nicht behoben. Denn wenn man induzier14 Popper,

Logik der Forschung, p. 3


Unterscheidung, dh jedes m
ogliche Urteil kann entweder als analytisch oder als synthetisch klassiziert werden.
16 warum nicht?
15 ersch
opfende

31

ten (dh anhand des Induktionsprinzips abgeleiteten) Satzen einen gewissen Grad von
Wahrscheinlichkeit zuschreibt, so beruft man sich implizit wieder auf ein entsprechend
modifiziertes Induktionsprinzip, das dann seinerseits gerechtfertigt werden mu. Ein Ausweg konnte sein, dieses so modifizierte Induktionsprinzip nicht als wahr, sondern eben
nur als wahrscheinlich zu charakterisieren, aber genaueres Hinschauen zeigt, dass auch
die Wahrscheinlichkeitslogik entweder zu einem infiniten Regress wie oben f
uhrt, oder
zu einem weiteren Apriorismus; bei der Diskussion des Evidenzbegriffes wird noch einmal
darauf zur
uckgekommen.
Poppers Ansatz steht, wie er selbst schreibt (Logik der Forschung, p. 5), in scharfstem
Widerspruch zu allen induktionslogischen Versuchen. Er selbst vertritt die deduktive
Methodik der Nachpr
ufung. Nach Popper mu dabei zwischen der empirischen Erkenntnispsychologie und der nur an logischen Zusammenhangen interessierten Erkenntnislogik
unterschieden werden, denn der induktionslogische Ansatz gehe auf eine Vermengung psychologischer und erkenntnistheoretischer Fragestellungen zusammen. Eine logische Analyse des Prozesses des Aufstellens von Theorien scheint ihm dabei weder moglich noch
u
berhaupt notwendig zu sein. Die Frage, wie es zugeht, dass jemandem eine neue Theorie
einf
allt, ist nicht von wissenschaftstheoretischem Interesse, sondern eher eine Frage der
empirischen Psychologie. Die Erkenntnislogik interessiert sich nicht f
ur Tatsachenfragen
(nach Kant: quid facti), sondern f
ur Geltungsfragen (nach Kant: quid iuris): es geht
ihr darum, ein Kriterium bereitzustellen, nach dem entschieden werden kann, ob u
berhaupt und wenn ja wie ein Satz begr
undet werden kann. Damit ein Satz auf diese Weise
diskutiert werden kann, mu er bereits vorliegen, und warum er gebildet worden ist, spielt
dann keine Rolle mehr.

Bei der deduktiven Uberpr


ufung von Theorien geht es um die deduktive Herleitung
von Implikationen, etwa Prognosen, und diese Implikationen werden dann mit anderen
Satzen in bezug auf die logischen Beziehungen verglichen, die der Satz mit ihnen hat.
Es gibt dann vier Richtungen, in die die Pr
ufung durchgef
uhrt werden kann: (i) der
logische Vergleich der Folgerungen untereinander; dadurch wird das System der Satze auf
Widerspruchsfreiheit u
uft, (ii) die Untersuchung der logischen Form der Theorie in
berpr
bezug auf ihre Eigenschaft, eine empirisch-wissenschaftliche Theorie zu sein (sie soll nicht
tautologisch sein), (iii) der Vergleich mit anderen Theorien in bezug auf die Frage, ob
die Theorie einen wissenschaftlichen Fortschritt darstellt, und schlielich (iv) die Pr
ufung
durch empirische Anwendung der deduzierten Implikationen. Besteht die Theorie diese
Tests, so kann sie als vorl
aufig verifiziert gelten, andernfalls gilt sie als falsifiziert. Die
Verifikation ist jeweils nur vorlaufig, Theorien konnen niemals als entweder wahr oder
wahrscheinlich erwiesen werden.
Ein wichtiges, wenn nicht ein zentrales Problem einer Wissenschaftstheorie ist das
Abgrenzungs- oder Demarkationsproblem. Dieses Problem besteht darin, wissenschaftliche Theorien von nicht-wissenschaftlichen abzugrenzen. Es entspricht dem Problem, zu
definieren, was unter einer empirischen Wissenschaft im Unterschied zur Mathematik und
Logik einerseits und sogenannten metaphysischen Aussagesystemen andererseits verstanden werden soll17 .
Im urspr
unglichen Positivismus wurden bestimmte Begriffe als entweder wissenschaftlich oder aber nichtwissenschaftlich angesehen. Als wissenschaftlich sollten solche Begriffe
gelten, die sich auf Erfahrungen (Empfindungen, Wahrnehmungen, Erinnerungserlebnisse) zur
uckf
uhren lassen. Im Neopositivismus hat sich die Einsicht durchgesetzt, dass
Wissenschaft aus einem System von S
atzen besteht. Insbesondere gelten, so die neopositivistische Lehre, solche Satze als wissenschaftlich, die sich auf elementare Erfahrungssatze
17 Da schon Kant dieses Problem diskutiert hat, kann man nach Popper bei diesem Problem als vom
Kantschen Problem sprechen.

32

(Protokollsatze) logisch zur


uckf
uhren lassen. Popper weist darauf hin, dass diese Konzeption wissenschaftlicher Aussagen mit der Forderung nach einer Induktionslogik identisch ist. Da er diese ablehnt, folgt f
ur ihn, dass auch diese Konzeption wissenschaftlicher
Aussagen nicht akzeptabel ist. Damit wird das Abgrenzungsproblem zu einer zentralen
Aufgabe. Gleichzeitig wird die Frage nach der Metaphysik erneut gestellt. Im Positivismus ebenso wie im Neopositivismus ist ja Metaphysik als sinnloses Gerede denunziert
worden; schon David Hume sprach in seinem Werk Enquiry of Human Understanding
von der Metaphysik als vom Blendwerk, das ins Feuer gehort.
Die Frage ist allerdings, was mit sinnlos gemeint ist. Nach Wittgenstein (Tractatus)
mu jeder sinnvolle Satz logisch auf Elementarsatze zur
uckf
uhrbar sein18 . Elementarsatze sind Bilder der Wirklichkeit (vergl. die Bildtheorie der Bedeutung der Sprache). Popper merkt an, dass das wittgensteinsche Sinnkriterium mit dem induktionslogischen Abgrenzungskriterium u
bereinstimmt, wenn man den Ausdruck wissenschaftlichlegitim durch sinnvoll ersetzt. Weist man den induktionslogischen Ansatz zur
uck, so
mu man die wittgensteinsche Auffassung zur
uckweisen. Popper: Der positivistische Radikalismus vernichtet mit der Metaphysik auch die Naturwissenschaft: Auch die Naturgesetze sind auf elementare Erfahrungssatze logisch nicht zur
uckf
uhrbar. Die konsequente
Anwendung des wittgensteinschen Sinnkriteriums f
uhrt dann zu dem Schlu, dass auch
Naturgesetze sinnlos und demnach keine legitimen Satze sind. Also f
uhrt, so Popper, das
induktionslogische Abgrenzungsproblem in der Tat gar nicht zu einer Abgrenzung, sondern zu einer Gleichsetzung von naturwissenschaftlichen und metaphysischen Theorien.
Nach dem positivistischen und dem neopositivistischen Dogma best
unden damit naturwissenschaftliche Theorien aus sinnlosen Scheinsatzen. Poppers Ziel dagegen ist nicht,
die Metaphysik zu u
berwinden, sondern sie ebenso wie die empirische Wissenschaft zu
definieren.
Das Problem, das Popper losen mu, um sein Programm durchf
uhren zu konnen,
ist das Problem der Erfahrungsgrundlage, auch Basisproblem genannt. Dieses Problem
bezieht sich auf die empirischen Satze, aus denen sich eine mogliche Falsifikation ergeben
kann. Ein einfaches Schema der Falsifikation lat sich dann wie folgt angeben: Aus einer
Theorie oder Hypothese T wird eine Voraussage oder Prognose P abgeleitet, dh es gilt,
wenn T gilt, die Aussage T P , dh T impliziert den Satz P . P soll einem Protokollsatz
entsprechen. Nun liege aber ein Befund vor, dem der Protokollsatz P entspricht, und P
impliziere P , wobei P die Bedeutung nicht-P hat. Dann impliziert P die Aussage
T . Ein einfaches Beispiel ist T : Es regnet, P : die Strae ist na. Sicherlich gilt T P .
Man findet nun aber, dass die Strae trocken ist. Dann folgt, dass es nicht regnet, also
T . Die Schluregel T P impliziert P T heit modus tollens, oder auch
ausf
uhrlicher modus tollendo tollens. Der Punkt hierbei ist, dass man von der G
ultigkeit
der Aussage P nicht auf die G
ultigkeit von T schlieen kann: aus der Tatsache, dass
die Strae na ist, folgt noch nicht logisch, dass es auch regnet, denn sie konnte zB
von jemandem na gespritzt worden sein. Allgemein heit dies, dass andere Sachverhalte
bzw Theorien ebenfalls die Prognose P implizieren konnen. Logisch ist nur der Schlu
von P auf T . Dieser Sachverhalt ist der formale Hintergrund f
ur die grundsatzliche
Unmoglichkeit der Verifikation. Eine andere Aussage ist P dann und nur dann, wenn
T , formal T P . Hier impliziert T die Aussage P , und P impliziert die Aussage T . In
diesem Fall kann man von der G
ultigkeit von P auf die G
ultigkeit von T zur
uckschlieen.
Derartige Aussagen bzw Prognosen lassen sich aber nur extrem selten machen, oder sie
gelten nur unter allgemeinen Randbedingungen, die man aus irgendwelchen Gr
unden
nicht in Frage stellen will. Da diese Randbedingungen aber letztlich auch zur betrachteten
Theorie gehoren, wird man eben doch wieder auf die Form T P zur
uckgef
uhrt.
18 Satz

33

Die Frage, wann eine empirische Aussage als Protokollsatz, also als eine rein empirische Aussage gelten kann, erweist sich als schwierig. Eine Moglichkeit, solche Satze
als rein empirisch zu charakterisieren, besteht darin, sie als Aussagen u
ber unmittelbare
Wahrnehmungserlebnisse zu definieren. Die Wahrheit der Satze soll durch das Wahrnehmungserlebnis als unmittelbar einsichtig bzw evident sein. Damit handelt man sich aber

das Problem ein, dass es sich bei diesen Aussagen um subjektive Uberzeugungsaussagen
handeln kann. Gesucht sind aber objektive Aussagen. Popper schliet sich hier Kant an:
objektiv sollen Aussagen sein, die grundsatzlich von jedermann nachgepr
uft und eingesehen werden konnen. Damit definiert Popper die Objektivitat einer wissenschaftlichen
Aussage als ihre intersubjektive Nachpr
ufbarkeit19. Dies ist genau der Objektivitatsbegriff, der der psychologischen Testtheorie zugrundeliegt.
Das hier skizzierte wissenschaftstheoretische Programm Poppers wird in der Logik der
Forschung ausf
uhrlich expliziert. Viele der Popperschen Aussagen sind extensiv diskutiert
und teilweise modifiziert worden. Es zeigt sich dabei, dass insbesondere der zunachst so
u
undig erweist,
berzeugende Begriff der Falsifizierbarkeit sich als auerordentlich abgr
vergl. Abschnitt 3.2.
Eine Zusammenfassung seines Ansatzes sowie die Beschreibung des Prozesses, der ihn
zu seinen Aufassungen f
uhrte, erschien 1963 unter dem Titel Conjectures and Refutations.

Auf die Arbeit soll hier kurz eingegangen werden, zumal in ihr viele seiner Uberlegungen
plausibel illustriert werden.
Zunachst wird das Demarkationsproblem illustriert. Demnach sind die Theorien von
Marx und Engels, von Freud, Adler und C.G. Jung zwar zunachst u
berzeugend, da sie
anscheinend alle Phanomene aus ihrem jeweiligen Gegenstandsbereich erklaren konnen.
Popper fand, dass viele seiner Freunde in Wien, die etwa der Marxschen Theorie und/oder
der Freudschen Psychoanalyse oder der Adlerschen Individualpsychologie anhingen, von
der anscheinend erklarenden Kraft (explanatory power) ihrer jeweilig praferierten Theorie
beeindruckt waren. Das Studium dieser Theorien schien zu einer intellektuellen Offenbarung zu f
uhren, es wurden Wahrheiten enth
ullt, die dem nicht Initiierten verschlossen
waren. Hatte man die Wahrheit aber erschaut, so sprangen den Anhangern die bestatigenden Instanzen - Beispiele etc - formlich in die Augen. Die Welt war voller Verifikationen
der jeweiligen Theorie. Popper fand, dass welches Ereignis auch immer passierte, es f
ur
die Anhanger einer Theorie eben die entsprechende Theorie verifizierte. Damit schien
die Wahrheit der Theorie manifest zu werden. F
ur die Anhanger dieser Theorien wollten
Menschen, die diese manifeste Wahrheit nicht sehen konnten, diese nicht sehen. Handelte
es sich um eine politische Theorie, wurde den Skeptikern unterstellt, die Theorie verstiesse
wohl gegen ihre klassengegebenen Interessen. Menschen, die psychoanalytischen Theorien
skeptisch gegen
uberstehen, tun dies, weil sie Opfer gesellschaftlicher Repressionen seien,
weil die Wirkungen dieser Repressionen noch nicht analysiert seien und deshalb nach
therapeutischer Behandlung verlangen. Die Freudschen Analytiker betonten20 , dass ihre
Theorie standig durch ihre klinischen Beobachtungen verifiziert w
urden. Interessant ist,
dass Popper mit Alfred Adler in bezug auf sozialpadagogische Manahmen in bestimmten
Vierteln von Wien zusammenarbeitete. Im Jahr 1919 berichtete er Adler von einem Jugendlichen, der nicht gut in das Adlersche individualpsychologische Schema passte. Adler
hatte jedoch keine Schwierigkeiten, das Verhalten dieses Jugendlichen im Rahmen seiner
Theorie der Inferioritatsgef
uhle zu interpretieren, obwohl er den Jugendlichen nie gesehen
hatte. Popper berichtet, dass er Adler gefragte hatte, warum er, Adler, sich so sicher sein
konne. Adlers Antwort: Wegen meiner tausendfachen Erfahrung. Poppers Antwort darauf sei die Bemerkung gewesen, dieser Jugendliche sei dann wohl seine tausendundeins19 Logik

der Forschung, p. 18
viele ihrer heutigen Kollegen aus Medizin und Psychologie. Auch viele Lehrer sind sich wegen
ihrer langj
ahrigen Erfahrung der Korrektheit ihrer Urteile absolut gewi.
20 Wie

34

fache Erfahrung. Adlers Reaktion darauf wird leider nicht berichtet; vielleicht war ihm
das Problem der Induktion nicht klar. Popper schreibt, was er mit seiner Bemerkung im
Sinn hatte: die vorangegangenen Beobachtungen waren vermutlich nicht begr
undeter als
die 1001-te, jede von ihnen wurde im Licht der vorangegangenen Erfahrung gemacht,
und gleichzeitig wurde sie als zus
atzliche Konfirmation der Theorie gewertet. Die Frage
war also, was bestatigt wurde. Poppers Vermutung: es wurde bestatigt, dass die jeweilige empirische Beobachtung im Lichte der entsprechenden Theorie interpetiert werden
konnte. Ein Fall konnte sowohl im Rahmen der Adlerschen Theorie, aber ebensogut
im Rahmen der Freudschen Theorie anscheinend sinnvoll interpretiert werden. In den
Augen der Anhanger einer gegebenen Theorie war die Moglichkeit, einen gegebenen empirischen Fall im Rahmen der Theorie zu deuten, ein starkes Argument f
ur eben diese
Theorie. Popper fand, dass genau diese angebliche Starke einer Theorie in Wirklichkeit
ihre Schwache ausdr
uckte; eine solche Theorie sei, so Popper, pseudowissenschaftlich.
Es sei angemerkt, dass Poppers Kritik nicht nur auf die Psychoanalyse zielt. Sehr haufig urteilen Experten, seien sie nun psychologische, medizinische oder sonstige Experten,
aufgrund von Grundsatzen, die sie f
ur den Extrakt ihrer Erfahrungen halten. Tatsachlich
aber gehen dabei Misserfolge, d.h. Fehlurteile, nicht hinreichend in diese Erfahrungen ein,
sie werden entweder einfach vergessen oder so uminterpretiert, dass sie mit den Grundsatzen (Theorien, Hypothesen) kompatibel werden. Dawes (1996) referriert eine F
ulle
von empirischen Befunden, vornehmlich aus den Bereichen Psychologie und Medizin, zu
diesem Sachverhalt.
Popper argumentiert, dass Einsteins Relativitatstheorie ein Gegenbeispiel zu den genannten Theorien ist. Einstein sagte aufgrund seiner Theorie voraus, dass Licht durch
von der Sonne erzeugte Gravitationseffekte abgelenkt werden m
usse. Eddington unternahm eine Expedition nach Principe (Golf von Guinea, Westafrika), um eine Eklipse21
zu beobachten und fand bei dieser Gelegenheit, dass die Abweichung der Sternenposition der von Einsteins Theorie vorausgesagten entsprach. Popper betont, dass dieser Test
der Einsteinschen Theorie ein betrachtliches Risiko f
ur die Theorie darstellt. Wird die
vorhergesagte Ablenkung nicht beobachtet, so mu die Einsteinsche Theorie verworfen
werden, weil sie inkompatibel mit bestimmten m
oglichen Resultaten von Beobachtungen
ist22 . Dieses Ergebnis f
uhrte Popper im Winter 1919 - 1920 zu den folgenden Schlufolgerungen
1. Es ist leicht, Konfirmationen bzw. Verifikationen f
ur nahezu alle Theorien zu erhalten, wenn man nach solchen Konfirmationen sucht.
2. Konfirmationen sollten nur dann zahlen, wenn sie das Resultat von risikobehafteten
Beobachtungen sind, wenn man also eigentlich ein Ereignis erwartet, das mit der
Theorie inkompatibel ist. (Das kompatible Ereignis bzw. die kompatible Beobachtung falsifiziert dann die Erwartung.)
3. Jede gute Theorie ist Prohibition: sie verbietet das Eintreten bestimmter Beobachtungen. Je mehr eine Theorie verbietet, desto besser f
ur die Theorie.
4. Eine Theorie, die nicht widerlegbar ist, ist unwissenschaftlich. Nichtwiderlegbarkeit
ist keine Tugend, sondern ein Laster.
21 Sonnennsternis
22 In der Sprache der Inferenzstatistik bedeutet das Resultat, dass die Nullhypothese: die Daten weichen nicht von der Vorhersage anhand der Theorie ab akzeptiert wird. Bekanntlich bedeutet diese
Entscheidung noch keine Verikation der (Einsteinschen) Theorie. Die Beobachtungen entsprechen auch
keinem experimentum crucis, also einem Entscheidungsexperiment, vergl. Abschnitt 3.2.

35

5. Jeder echte Test einer Theorie ist ein Versuch, sie zu widerlegen. Testbarkeit ist Falsifizierbarkeit; aber es gibt Grade der Testbarkeit. Einige Theorien sind testbarer,
der Falsifikation mehr ausgesetzt, als andere. Sie haben ein groeres Risiko.
6. Verifizierende bzw konfirmierende Evidenz hat keine Bedeutung, es sei denn, sie ist
das Resultat eines echten Tests der Theorie. Diese Evidenz ist das Resultat eines
seriosen, aber nicht erfolgreichen Versuchs, sie zu falsifizieren.
7. Einige echt testbare, aber falsifizierte Theorien werden von ihren Anhangern oft
beibehalten, obwohl sie falsifiziert wurden; um die jeweilige Theorie zu retten, werden ad hoc - Annhahmen eingef
uhrt, die die Theorie als mit den Daten kompatibel
erscheinen lassen, oder die Theorie wird in einer ad hoc - Weise uminterpretiert, um
sie mit den Daten kompatibel erscheinen zu lassen. Ein solches Verfahren23 ist stets
moglich, - aber es zerstort, so Popper, den wissenschaftlichen Status der Theorie.
Der Begriff der Falsifikation, wie er von Popper hier vorgestellt wird, ist sehr radikal.
Es kann gute Gr
unde geben, eine Theorie, die durch bestimmte Daten widerlegt zu sein
scheint, zunachst einmal beizubehalten; in den folgenden Abschnitten wird darauf noch
eingegangen.
Poppers Anmerkungen zu den psychoanalytischen Theorien sind nicht abwertend, weil
er sie f
ur Unfug hielte. Er vermutet, dass sie durchaus interessante und wichtige Ansatze
enthalten konnen. Seine Kritik richtet sich dementsprechend auch nicht gegen die dort
vertretenen Ideen, sondern gegen die Art ihrer Formulierung und insbesondere gegen den
Umgang mit ihnen, der darauf gerichtet ist, die Ideen gegen Kritik zu immunisieren:

Das Freudsche Epos von Es, Ich und Uber-Ich


hat keinen hoheren wissenschaftlichen Status wie Homers Gesammelte Erzahlungen vom Olymp. Die
Theorien beschreiben einige Tatsachen, aber in der Weise, wie ein Mythos sie
beschreibt. Sie enthalten h
ochst interessante psychologische Vermutungen,
aber nicht in testbarer Form.
Popper f
uhrt weiter aus, dass viele wissenschaftliche Theorien aus Mythen entstanden seien, und ein Mythos kann in der Tat wichtige Antizipationen zuk
unftiger testbarer Theorien enthalten. Popper zieht in diesem Zusammenhang eine interessante Querverbindung
zwischen Parmenides und Einstein. Dessen Relativitatstheorie ist eine rein deterministische Theorie, der Zufall als ein genuines Phanomen24 kommt in dieser Theorie nicht vor.
Bezieht man die Zeit als vierte Dimension in die Beschreibung der Welt mit ein, wie sie
von der Relativitatstheorie gefordert wird, so ergibt sich ein Bild, das in gewisser Hinsicht
dem von Parmenides gedachten gleicht: Nach Parmenides ist das Universum ein sich nicht
wandelnder Block. In Einsteins vierdimensionalem Raumzeitkontinuum sei, so Popper,
die Bahn jeden physikalischen Korpers eindeutig durch die Koordinaten (x1 , x2 , x3 , t)
vollstandig determiniert, in Bezug auf den 4-dimensionalen Raum (3 Raum-, eine Zeitkoordinate) sei alles Geschehen ein f
ur alle Male festgelegt. Die Frage allerdings ist, ob man
bei einer solchen Betrachtung nicht implizit eine zweite Zeitvariable t neben t einf
uhrt,
wenn man den Begriff unwandelbar bzw. ein f
ur alle Male einf
uhrt. Jedenfalls verweist
dieser Sachverhalt auf den Begriff des Zufalls als eines moglicherweise konstituierenden
Merkmals der Welt, der in der Einsteinschen Formulierung so nicht vorkommt; auf die
Rolle des Zufalls wird an anderer Stelle noch einmal Bezug genommen.
23 von

Popper als konventionalistisches Strategem bezeichnet.


als genuines Ph
anomen meint, dass bestimmte Ereignisse auftreten k
onnen, ohne dass eine
Ursache f
ur ihr Auftreten existiert. Die M
oglichkeit solcher Ereignisse wird gelegentlich mit Hinweis
auf den Aristotelischen Satz vom Zureichenden Grund bezweifelt; allerdings ist dieser Satz eine metaphysische Aussage und und insofern nicht denknotwendig, vergl. Abschnitt 7, als er nicht als Extrakt
unentrinnbarer Empirie falls es soetwas u
berhaupt gibt gelten kann.
24 Zufall

36

Wie Popper in Conjectures and Refutations anmerkt wird die Gegentheorie zu seiner Theorie durch Wittgensteins Tractatus geliefert (vergl. oben), in dem philosophische
oder metaphysischeAussagen als bedeutungs- bzw. sinnlos bezeichnet werden. Wahrend
Popper die Verifikation als Demarkationsprinzip zugunsten des Falsifikationsprinzips ablehnt, besteht das Demarkationsprinzip nach Wittgenstein in der validen Induktion. Aber
die Induktion ist schon aus logischen Gr
unden kein mogliches Verfahren. Popper zitiert
Max Born:
Kein Experiment kann mehr als endlich viele Versuchswiederholungen liefern.
Also transzendiert das Aufstellen eines Gesetzes (Wenn A, dann B) stets die
Erfahrung; trotzdem werden solche Aussagen stets und u
berall gemacht, und
manchmal auf der Basis schlechten (scanty) Materials.
Die Einsicht, dass Naturgesetze die tatsachliche Erfahrung transzendieren, hatte schon
David Hume. Die Frage ist dann, wie man von den Beobachtungen zu einer guten Theorie
kommt. Nach Popper geschieht dies, indem man zu irgendeiner Theorie springt und sie
dann testet. Auf diese Weise werden schlielich viele schlechte Theorien widerlegt; ob man
damit jemals zur Wahrheit kommt, ist eine andere Frage. Der Erfolg der Wissenschaft
hangt, so Popper, nicht von Regeln zur Induktion ab, sondern von Gl
uck, Scharfsinn, und
von den deduktiven Regeln des kritischen Arguments. Wie oft auch immer bestimmte
wahre die Beobachtungen gemacht werden, eine Generalisierung kann aus ihnen nicht
abgeleitet werden. Man denke an die Newtonsche Physik: einzelne Aspekte sind millionenhaft bestatigt worden, - aber 1905 hat Einstein gezeigt, dass sie nicht in einem
absoluten Sinne wahr ist.

2
2.1

Statistische Aspekte der Falsifikation


Das Problem

Ein Mensch, der gerne aus einem Flugzeug springt, um an einem Fallschirm zu Boden
zu sinken, fragt, wieviele Meter er nach t Sekunden gesunken sein wird, und bekommt
als Antwort den Hinweis, dass man seit Galilei um die Beziehung s(t) = gt2 /2 wisse,
wobei s(t) die nach t Sekunden durchfallene Hohe und g eine Konstante sei, f
ur die
g = 9.81m s2 gelte. Der Fallschirmsportler folgert sofort, dass dann f
ur seine Fallgeschwindigkeit die Aussage v(t) = ds(t)/dt = gt gelte; v(t) w
urde also proportional zur
verstrichenen Zeit t wachsen, was aber seiner Erfahrung widerspreche, also sei die Galileische Behauptung falsch, sie sei bestenfalls eine zu testende Hypothese. Er testet die
Hypothese, indem er aus verschiedenen Hohen si , i = 1, . . . , n, aus dem Flugzeug springt
und die Zeit misst, die er benotigt, bis er am Boden ist. Der Sportler ist sich bewut, dass
sowohl die Sprunghohe als auch die Schwebezeit nie ganz exakt gemessen werden konnen
2
und deshalb zufallige Mefehler entstehen. Aus der
pGalileischen Hypothese s(t) = gt /2
folgt durch Umformung
ur die Fallhohe
pnach t die Beziehung t = 2s(t)/g. Man erhalt f
si die Vorhersage ti = 2si /g; die vorhergsagten Werte werden hier mit ti und nicht mit
ti bezeichnet, weil diese Schreibweise dem in der Regressionsanalyse25 u
blichen Brauch
25 Man hat Messwertpaare (y , x ), i = 1, . . . , n, und m
ochte die yi durch die xi vorhersagen, etwa
i
i
gem
a der linearen Beziehung yi = bxi +y +ei , wobei ei einen Fehler repr
asentiert, der sowohl Messfehler wie den Eekt anderer, aber hier nicht ber
ucksichtigter, auf di yi wirkenden Variablen repr
asentiert.
a und b sind die Regressionsparameter. Man schreibt yi = bxi + a f
ur die durch das angenommene
Modell hier das lineare Modell vorhergesagten Werte; es ist dann yi = yi + ei . Gelegentlich wird auch
yi =
bxi + a
geschrieben, wobei a
und
b die aus den Daten gessch
atzten Werte der Parameter a und b
sind.

37

Abbildung 13: Galileis Theorie und gemessene Fallzeiten (Sekunden); 60 Sekunden Fallzeit am Fallschirm entsprechen ca p
4000 m Absprunghohe. Durchgezogene Linie: bestpassende (nichtlineare) Funktion t = 2sa /g, a = 1.287.
gemessene Zeiten

60
50
40
30
20
10

10

12

14

16

18

20

Theoretische Zeiten (Galilei)

entspricht. Man kann nun die ti gegen die gemessenen Werte ti auftragen; ist die Hypothese korrekt, so sollten die Punkte (ti , ti ) auf einer Geraden liegen, die (i) die Steigung 1
und die Additive Konstante Null hat, oder doch nur wenig und dann zufallig von dieser
Geraden abweichen. Diesem Ansatz entspricht das Modell
ti = ti + ei ,

i = 1, 2, . . . , n

(5)

wobei ei den Mefehler bei der i-ten Messung reprasentiert (dies ist das lineare Modell
mit den Parametern b = 1 und a = 0). Da, wenn die Galileische Theorie richtig ist, im
Wesentlichen ti ti gelten soll, wird implizit mit (5) postuliert, dass die Fehler ei im
Durchschnitt gleich Null sein sollen. Die Frage ist, welche Implikationen diese Annahme
hat, wenn sie nicht gilt. Gilt sie nicht, so ist der durchschnittliche Fehler gleich e0 , und
nat
urlich e0 6= 0. F
ur einen gegebenen Fehler ei sein dann die Abweichung von e0 durch
i = ei e0 , d.h. aber, dass man die Gleichung (5) dann in der Form
ti = ti + e0 + i

(6)

schreiben kann. ti und ti unterscheiden sich dann systematisch um die Konstante e0 .


Tatsachlich betrachtet man nun ein Modell, in dem die Fehler hier nun i genannt
den Durchschnitt Null haben, denn ob e0 nun einfach ein von Null verschiedener durchschnittlicher Fehler ist oder eine systematische Komponente abbildet, ist zunachst nicht
zu entscheiden. Einen systematischen Fehler w
urde e0 reprasentieren, wenn etwa die
Stoppuhr nicht die tatsachliche Zeit ti , sondern stets ti e0 anzeigen w
urde (f
ur e0 < 0
hiee dies, dass zwischen dem Stoppsignal und dem tatsachlichen Stillstand der Uhr eine
konstante Zeit e0 verstreicht). Lat sich ein solcher, konstanter Fehler in der Messung
finden, kann man die Theorie beibehalten, sonst nicht. Der Sportler findet, dass die
Punkte (ti , ti ) nicht durch eine solche Gerade erklart werden konnen und folgert, dass
die Hypothese des Galilei verworfen werden mu.
So konnte der Versuch einer experimentellen Pr
ufung und eventuellen Falsifikation
der Galileischen These aussehen. Nur ergeben sich sofort Bedenken:
1. Der Wert von g konnte falsch sein und der forschende Fallschirmspringer kann versuchen, u
ber den Ansatz (5) einen besseren Wert von g aus den Daten zu schatzen.
Einen Hinweis auf einen falschen g-Wert bekame er, wenn die Beziehung zwischen
38

den ti und den ti zwar linear, die Steigung aber nicht


urde. Eine
p gleich 1 sein w
leichte Rechnung zeigt, dass in diesem Fall ti = ti g/g0 + ei gelten mu, wobei
g = 9.81 der falsche vorgegebene Wert ist und g0 der wahre Wert ist. Die von
Galilei behauptete Beziehung s(t) = gt2 /2 ware korrekt, nur der Wert des Parameters g ware inkorrekt.
Tatsachlich ist g keine Konstante im strengen Sinn: sie nimmt mit 1/h2 , h die
Hohe u
ber der Erdoberflache, ab und variiert zudem mit der Position auf dem
Erdoberflache, da die Erde keine perfekte
Kugel ist26 . Statt der in der Legende von
p
a
Abb.p2.1 genannten Funktion t = 2s /g konnte man also eine Funktion der Form
t = 2sa /g(h, x, y) betrachten, wobei x und y die Koordinaten des Absprungsortes
sind.
2. Die Befunde des Sportlers entsprechen nicht denen anderer, nicht fallschirmspringender Forscher, deren Daten mit dem Galileischen Fallgesetz u
bereinstimmen. Der
Sportler mu sich fragen lassen, ob er nicht vielleicht einen Fehler in seiner Untersuchung begangen, d.h. die Rolle des Luftwiderstandes vernachlassigt hat, der hier
in bezug auf Galileis Fallgesetz den Effekt einer konfundierenden Variable hat. Nat
urlich konnen dar
uber hinaus seine Megerate fehlerhaft sein.
Die beiden Punkte verweisen auf grundsatzliche Probleme bei der Falsifikation von Hypothesen. Eine Fehlschatzung eines freien Parameters kann zu systematischen Abweichungen der vorhergesagten von den tatsachlichen Werten f
uhren und die Ablehnung einer
korrekten Hypothese nach sich ziehen. Umgekehrt kann man bei kleineren Abweichungen
argumentieren, dass systematische Abweichungen von Vorhersagen eben nur zu Lasten
eines Schatzfehlers gehen, die Hypothese deswegen auch beibehalten werden konne. Eine
solche Argumentation liegt insbesondere dann nahe, wenn die Hypothese vorher schon

gute Ubereinstimmung
mit anderen Daten gezeigt hat, wenn sie plausibel und einfach ist,
etc. Systematisch wirkende, also konfundierende Variable konnen zu ungerechtfertigten
Ablehnungen oder Akzeptanzen von Hypothesen f
uhren, insbesondere wenn sie nicht so
offenkundig wie der vom Sportler nicht ber
ucksichtigte Luftwiderstand in die Messungen
eingehen.
Eine weitaus schwierigere Situation entsteht, wenn die Mefehler in der abhangigen
Variablen hier die ti -Werte gro sind. Damit wird die Varianz der ti -Werte gro und
systematische Abweichungen von den vorhergesagten Werten werden unter Umstanden
nicht mehr als solche sichtbar; man sieht nur, dass die Punkte (ti , ti ) sich mehr oder weniger unregelmaig im Koordinatensystem verteilen. Diese Situation tritt in vielen psychologischen, biologischen, medizinischen etc Untersuchungen auf. Das Standardverfahren
besteht dann darin, einen Signifikanztest durchzuf
uhren. Darin wird eine Nullhypothese
H0 gegen eine Alternativhypothese H1 getestet. Der Nullhypothese entspricht in Bezug
auf die Galileische Hypothese, dass die gemessenen Zeiten ti mit den vorhergesagten Zeiten ti kompatibel sind (also ti ti , wobei die Abweichungen der ti von den ti nur klein
und unregelmaig sein sollen), der Alternativhypothese H1 entspricht z. B. die Aussage,
dass sie es nicht sind. Selbst wenn H0 korrekt ist, kann der Zufall es wollen, dass die Daten ti derart sind, dass H0 verworfen wird. Dies geschieht mit einer Wahrscheinlichkeit
p = . Umgekehrt kann H1 korrekt sein, und die Daten fallen so aus, dass H0 beibehalten wird. Dies geschieht mit einer Wahrscheinlichkeit . Der Wert von bestimmt
implizit den von und umgekehrt. F
ur eine gegebene Anzahl n von Messungen gelingt
es i.A. nicht, die Werte von und simultan auf Null zu bringen, je kleiner man den
Wert von wahlt, desto groer wird der von und umgekehrt. Dieser Sachverhalt ergibt
sich einerseits daraus, dass man die Messfehler nicht immer gleichmaig auf Null bringen
26 vergl.

http://www.geo.tu-freiberg.de/tektono/interactivescripts/GravitationundIsostasie.htm

39

kann, und bzw. oder weil die gemessenen Groen zufallig fluktuieren. Ein Beispiel hierf
ur waren Messungen der Zeiten zwischen zwei aufeinander folgenden Aktionspotentialen
bei einem Neuron. Die Messung der Zeiten kann nahezu beliebig genau sein, aber die
biochemischen Prozesse, die am Aufbau des Membranpotentials beteiligt sind und der
Effekt der Aktivitat von Neuronen, die mit dem gemessenen Neuron in Verbindung stehen, implizieren, dass die zu untersuchenden Zwischenzeiten zufallig variieren. Das hier
vorgestellte Testverfahren ist der NullHypothesenSignifikanzTest (LHST), der zwar einer der am haufigsten verwendeten Tests ist, aber deswegen keineswegs problemlos ist,
wie in Abschnitt 2.3 noch ausgef
uhrt werden wird.
Es folgt jedenfalls, dass eine Entscheidung gegen H0 und die damit verbundene Akzeptanz von H1 mittels eines statistischen Tests keine Falsifikation im Sinne Poppers
darstellt; seine Theorie der Falsifikation gilt nur f
ur deterministische Hypothesen. Im Zusammenhang mit einer generellen Kritik der Wahrscheinlichkeitslogik argumentiert er,
dass insbesondere Hypothesen eine Wahrscheinlichkeit, mit der sie wahr seien, gar nicht
zugeordnet werden konne (Popper (1934/2002)27, Kap. 10: Bewahrung); Wahrscheinlichkeitshypothesen konnten schon ihrer logischen Form nach, also ohne Ber
ucksichtigung
unserer methodologischen Falsifizierbarkeitsforderung, weder verifizierbar noch falsifizierbar sein (p. 207). Dies sei so, weil Wahrscheinlichkeitsaussagen allgemeine Aussagen und
deswegen nicht verifizierbar seien, und falsifizierbar seien sie nicht, da sie nie in logischem
Widerspruch zu irgendwelchen Basis- bzw. Protokollsatzen (in denen also Beobachtungen mitgeteilt werden) st
unden. Popper greift hier Reichenbach (1930) an28 , der versuche, Wahrscheinlichkeitsaussagen Geltungswerte zuzuordnen. Sei, nach Reichenbach, die
Wahrscheinlichkeit einer Aussage nahe bei 1, so sei die Aussage gewissermaen nahe daran, wahr zu sein, und sei umgekehrt die Wahrscheinlichkeit einer Aussage nahe bei Null,
so sei die Aussage nahe daran, falsch zu sein. In der Tat vertritt Reichenbach eine zu
Poppers Standpunkt diametral entgegengesetzte Sichtweise. Popper ist der Ansicht, dass
Wahrscheinlichkeitsaussagen metaphysisch seien, da sie eben weder verifizierbar noch
falsifizierbar seien. Wahrscheinlichkeitsaussagen konnten sich
... u
ahren; denn da sie nichts verbieten, also mit jeberhaupt nicht empirisch bew
dem Basissatz vereinbar sind, so k
onne ja jeder beliebige (und beliebig komplexe)
einschl
agige Basissatz als Bew
ahrung angesprochen werden. (Popper, 1934/2002,
p. 208; Kursivsetzung von Popper.)

Die Hypothesenwahrscheinlichkeit (also eine Aussage, derzufolge eine Hypothese mit einer bestimmten Wahrscheinlichkeit wahr sei) lasse sich nicht auf eine Ereigniswahrscheinlichkeit zur
uckf
uhren. Dazu nimmt er zunachst an, dass ein Begriff der Hypothesenwahrscheinlichkeit bereits gegeben sei und fragt, was aus der Existenz eines solchen Begriffes
f
ur das Induktionsproblem folge. Als Beispiel betrachtet er die Schrodingersche Theorie
(d.h. die Schrodingergleichung). Diese Theorie (Hypothese) sei als wahrscheinlich wahr
charakterisiert worden. Moglicherweise konne die Wahrscheinlichkeit, mit der sie wahr
sei, sogar durch einen numerischen Wert p charakterisiert werden. Die Charakterisierung
einer Theorie oder Hypothese als wahrscheinlich ist nun ein synthetischer Satz (im
Sinne Kants), da er ein Satz u
ber die Wirklichkeit ist. Aber die Wahrscheinlichkeit der
Theorie konne niemals endg
ultig aus Basissatzen abgeleitet werden, denn eine Induktion ist ja, so Popper, nicht moglich. Damit ergibt sich die Frage, wie diese Beurteilung
der Theorie u
uft werden kann. F
ur die Beurteilung gilt wiederum, dass sie entwe berpr
der wahr oder wahrscheinlich oder unwahrscheinlich ist. Nehme man die Beurteilung als
27 Popper,

K. R.: Logik der Forschung, T


ubingen 2002 (Jubil
aumsausgabe)
H. (1930) Kausalit
at und Wahrscheinlichkeit. Erkenntnis, 1, 158188. In dieser Arbeit

auf Seite 185 wird bereits der Ubergang


von der Phlogiston- zur Sauerstotheorie der Verbrennung

als Beispiel f
ur einen induktiven Prozess in der Wissenschaft diskutiert. Dieser Ubergang
wird von Kuhn
als ein Beispiel f
ur einen paradigmatischen Wechsel betrachtet, vergl. Abschnitt 3.1.
28 Reichenbach,

40

wahr an, so gabe es wahre synthetische S


atze, die nicht empirisch verifiziert wurden und
die damit synthetische Satze a priori (im Sinne Kants) seien. Ordnete man diesen Satze
Wahrscheinlichkeiten, mit denen sie wahr seien, zu, so m
usse eine Beurteilung dieser Beurteilung erfolgen, und damit komme man zu einem infiniten Regress. Also konne der
Begriff der Hypothesenwahrscheinlichkeit das Problem der Induktionslogik nicht losen.
Popper versucht dann, die Bew
ahrung einer Theorie zu definieren: eine Theorie heit
dann bewahrt, solange sie die empirischen Pr
ufungen besteht (Logik der Forschung,
p. 212), wobei die Strenge der Pr
ufung eine wichtige Rolle bei der Beurteilung der
Bewahrtheit zukommt. Popper elaboriert seine Ansichten u
ber einige Seiten, worauf hier
nicht im Detail eingegangen werden kann.
Die Frage ist nun, welche Empfehlung Popper auf der Basis seiner Wissenschaftstheorie der praktizierten Wissenschaft geben kann, wenn diese an statistische Verfahren zur
Analyse der empirischen Daten gebunden ist. Klassische Testtheorie???
Es gibt zwei Moglichkeiten, zu vorlaufigen Aussagen u
ber Hypothesen zu gelangen:
(i) die bedingte Wahrscheinlichkeit der Daten, gegeben eine bestimmte Hypothese zu betrachten, oder (ii) die Wahrscheinlichkeit einer Hypothese, gegeben die empirischen Daten
zu bestimmen. Diese Bestimmung beruht auf einer Anwendung des Satzes von Bayes und
erfordert die Annahme von a priori-Wahrscheinlichkeiten f
ur die verschiedenen Hypothesen. Es zeigt sich, dass den beiden Ansatzen verschiedene Wahrscheinlichkeitsbegriffe
zugrunde liegen, auf die im Folgenden kurz eingegangen werden soll.

2.2
2.2.1

Wahrscheinlichkeiten
Der formale Wahrscheinlichkeitsbegriff

Im vorangegangenen Abschnitt ist bereits Gebrauch vom Wahrscheinlichkeitsbegriff gemacht, wobei zumindest indirekt an die umgangssprachliche Bedeutung appelliert wurde. Die erweist sich allerdings als bemerkenswert unscharf. Man betrachte Aussagen wie
Das Wetter wird morgen wahrscheinlich gut sein, Der Vortrag u
ber Wahrscheinlichkeitstheorie wird wahrscheinlich interessant sein, etc. Sicherlich dr
ucken Aussagen dieser
Art einen epistemischen Zustand aus: die Person, die diese Aussagen macht, hat offenbar nicht gen
ugend Information, um genau sagen zu konnen, wie das Wetter morgen
oder wie interessant der Vortrag u
ber Wahrscheinlichkeitstheorie sein wird. Dieser Mangel an Information kann wiederum zweierlei Gr
unde haben: entweder sind die Prozesse,
die das Wetter morgen bestimmen, in sich indeterminiert und es ist unmoglich, jemals
gen
ugend Information u
ber das Wetter morgen zu haben, oder die Person kennt einfach nicht alle Variablen und deren Interaktion bei der Wetterbildung, um eine genaue

Vorhersage machen zu konnen. Ahnlich


kann man urteilen, wenn es um den Vortrag
u
ugende Information
ber Wahrscheinlichkeitstheorie geht: entweder hat man nur ungen
u
ber die vortragende Person, oder diese Person ist nicht vorhersagbar in ihrem Vortragsverhalten. Nat
urlich sind noch Mischungen von Mangel an Information und objektive
Indeterminiert des zu beurteilenden Ereignisses moglich.
Definiert man Wahrscheinlichkeiten als Ma subjektiver Ungewiheit u
ber die Ereignisse, u
ber
deren
Eintreten
Aussagen
gemacht
werden,
wird
von
einer
subjektiven,

epistemischen oder personalen Wahrscheinlichkeitsdefinition gesprochen. Betrachtet man


Wahrscheinlichkeitsaussagen dagegen als Charakterisierungen objektiver Indeterminiertheit, so ist die Rede von objektiven Wahrscheinlichkeiten.
Die Unterscheidung zwischen subjektiven oder besser epistemischen und objektiven

41

Wahrscheinlichkeiten hat eine langere Geschichte. Bereits Laplace29 (1820) unterschied


zwischen der der epistemischen Wahrscheinlichkeit entsprechenden probabilite und der
der objektiven Wahrscheinlichkeit entsprechenden possibilite. Poisson sprach ebenfalls
von der probabilite, wenn er die epistemische Wahrscheinlichkeit meinte, und der chance, wenn er sich auf die objektive Wahrscheinlichkeit bezog (Howson, 1995). Poincare
(1905/1952) verweist (Kap. 11) auf den Beweis der Unmoglichkeit der Quadratur des
Kreises nur mit Zirkel und Lineal, der 1882/1885 durch von Lindemann erbracht wurde. Die Mehrheit der Mathematiker war sich allerdings bereits vor der Veroffentlichung
dieses Beweises sehr sicher, dass die Kreisquadratur unmoglich ist: die Academie des
Sciences wies ohne weitere Pr
ufung jede Arbeit, in der der Nachweis der Moglichkeit
der Kreisquadratur erbracht werden sollte, zur
uck, weil sie mit an Sicherheit grenzender
epistemischer Wahrscheinlichkeit fehlerhaft sein w
urde. Poincare betrachtet dann die ersten 10 000 Werte in einer Logarithmentabelle. Wahlt man zufallig eine dieser Zahlen
aus, so kann man nach der Wahrscheinlichkeit fragen, dass die dritte Dezimalstelle dieser
Zahl gerade ist; von dieser Wahrscheinlichkeit spricht Poincare als einer objektiven. Carnap (1945) f
uhrte die Unterscheidung von subjektiver und objektiver Wahrscheinlichkeit
explizit ein. Die epistemische Wahrscheinlichkeit reflektiert das Wissen, dass wir u
ber
die Welt haben (der Ausdruck subjektive Wahrscheinlichkeit wird von vielen Autoren
als wenig passend zur
uckgewiesen). Die objektive Wahrscheinlichkeit soll Ungewiheit
in der Natur reflektieren. Die epistemische oder subjektive Wahrscheinlichkeit ist auf
verschiedene Weise expliziert worden: als logische Wahrscheinlichkeit, als durch Wetten
definierte Wahrscheinlichkeit, oder als Grad (degree) rationalen Glaubens; zusammenfassend wird auch von Bayesianischer Wahrscheinlichkeit gesprochen, wenngleich sich auch
hinter diesem Begriff weitere, verschiedene Explikationen verbergen. Mit dem Begriff der
objektiven Wahrscheinlichkeit werden ebenfalls verschiedene Interpretationen abgedeckt,
insbesondere die frequentistische Konzeption, wie sie z.B. von Mises (1934) als Grenzwert
relativer Haufigkeiten einf
uhrte; dieser Ausdruck ist auch f
ur die Schatzung von Wahrscheinlichkeiten, die durch die Kolmogoroffschen Axiome definiert wurden, u
blich. Weiter
wird die von Popper (1957) eingef
uhrte propensity, also als Tendenz oder Neigung f
ur
zufallige Ereignisse, in einem Versuch einzutreten, diskutiert, sowie der prequentialistische
Wahrscheinlichkeitsbegriff (Dawid, 1984).
Ungeachtet der Interpretation von Wahrscheinlichkeiten als subjektiven oder objektiven Groen existiert eine formale Charakterisierung von Wahrscheinlichkeiten, auf die
von Anhangern der verschiedenen Auffassungen gleichermaen Bezug genommen wird.
Diese Charakterisierung wird im nachsten Abschnitt den weiteren Spezifikationen des
Wahrscheinlichkeitsbegriffes gewissermaenals Ankerpunkt vorangestellt.
Zunachst lat sich der Wahrscheinlichkeitsbegriff durch die von Kolmogoroff (1936)
eingef
uhrten Axiome festlegen; die mathematische Theorie der Wahrscheinlichkeit bezieht
sich auf diese Axiome. Sie dienen als eine Art Bezugsrahmen auch f
ur Versuche, den
Wahrscheinlichkeitsbegriff philosophisch zu explizieren.
Dazu wird eine Menge von zufalligen Ereignissen A, B, . . . spezifiert: mit A und B
aus soll auch A B in sein, f
ur irgend ein A in soll auch A in gelten30 , und
die Ereignisse , das sichere Ereignis, und , das unmogliche Ereignis, sollen in sein,
offenbar ist A A = und A A = .
heit dann eine Ereignis- oder Sigma-Algebra. F
ur die Wahrscheinlichkeiten P soll
dann gelten31 :
29 Pierre

Simon Laplace (1749 1827), Mathematiker, Astronom


dem Zeichen soll die Negation ausgedr
uckt werden; A heit dann nicht-A, d.h. das Ereignis
A ist nicht eingetreten.
31 Mit wird das einschlieende Oder, also die Disjunktion, und mit das Und, also die Konjunktion
bezeichnet.
30 Mit

42

(i) P () = 1
(ii) P (A) 0, f
ur A ,
(iii) P (A B) = P (A) + P (B), f
ur A, B und A B = .
Gelegentlich wird das Axiom (iii) durch das Axiom
!
[
X
(iii) P
Ai =
P (Ai ), A1 , A2 , . . . ,
i

f
ur Ai Aj = , i 6= j, (-Additivitat) ersetzt; es erlaubt u. A. den Beweis des Starken
Gesetzes der Groen Zahlen (s. unten).
Die Axiome werden erganzt durch die Definition der bedingten Warscheinlichkeit; f
ur
A, B soll gelten
P (A B)
P (A|B) =
, A, B .
(7)
P (B)
Dann mu aus Symmetriegr
unden auch P (B|A) = P (A B)/P (B) gelten, woraus
P (A B) = P (A|B)P (B) = P (B|A)P (A)

(8)

folgt. Damit erhalt man die Beziehungen


P (A|B) =

P (B|A)P (A)
,
P (B)

P (B|A) =

P (A|B)P (B)
.
P (A)

(9)

Gelegentlich wird P (B|A) die zu P (A|B) inverse bedingte Wahrscheinlichkeit genannt.


Aus den Axiomen lassen sich sofort einige Grundbeziehungen herleiten. So gilt mit
B = A: P (A A) = P (A) + P (A) = 1, denn es mu ja A A = gelten eines
der beiden Ereignisse A oder A mu ja eintreten, mithin ist A A ist das sichere
Ereignis, und damit erhalt man P (A) = 1 P (A). Weiter mu P (A A) = 0 gelten,
denn A A = , da ja nicht A und A zugleich eintreten konnen. Aus (7) ergibt sich
eine Definition der stochastischen Unabh
angigkeit. Denn es gelte speziell
P (A|B) = P (A).

(10)

Dies bedeutet offenbar, dass B keinen Einflu auf das Eintreten des Ereignisses A hat,
denn die bedingte Wahrscheinlichkeit P (A|B) ist gleich der unbedingten Wahrscheinlichkeit P (A). Substituiert man (10) in (7), so erhalt man
P (A B) = P (A)P (B),

(11)

die sogenannte Produktregel f


ur stochastisch unabhangige Ereignisse; auf die Unterscheidung von paarweiser und vollstandiger Unabhangigkeit mu an dieser Stelle nicht eingegangen werden. Man kann also zusammenfassend f
ur die Wahrscheinlichkeit f
ur P (AB)
schreiben:

P (A|B)P (B) = P (B|A)P (A), der allgemeine Fall


P (A B) =

P (A)P (B),
A und B stochastisch unabhangig
(12)
Es gelte insbesondere A B = C 6= . Mit A B sei die Teilmenge der Elemente aus
A, die nicht in B sind, gemeint; B A ist dann die Teilmenge der Elemente von B, die
nicht in A sind. AB ist dann das zufallige Ereignis, dass A, aber nicht B eingetreten ist,
43

und B A ist das Ereignis, dass B, aber nicht A eingetreten ist. Dann ist A = (AB)C
und B = (B A) C und (iii) liefert
P (A B) = P (A) + P (B) P (A B)

(13)

gelten mu. Gilt nun A B = , so gilt nach (iii) P (A B) = P (A) + P (B), und der
Vergleich mit (13) impliziert dann P (A B) = 0 6= P (A)P (B), d.h. die Ereignisse A und
B sind nicht unabhangig, wenn sie nicht zugleich auftreten konnen.
Die Gleichung (13) (oder Axiom (iii) bzw. (iii)) impliziert, dass C = A B mit
A, B ebenfalls ein zufalliges Ereignis ist. Demnach konnen zufallige Ereignisse aus
zufalligen Ereignissen zusammengesetzt sein. Man betrachte nun eine spezielle Klasse
von Ereignissen A1 , A2 , . . ., die moglicherweise endlich ist, und bei der die Ai nicht weiter in andere Ereignisse zerlegt werden konnen. Solche Ereignisse sollen im Folgenden
Elementarereignisse heien. Ein beliebiges Ereignis aus ist dann entweder ein Elementarereignis oder ist aus Elementarereignissen zusammengesetzt.
Die Kolmogoroffschen Axiome definieren die formale Struktur des Wahrscheinlichkeitsbegriffs. Aus den Axiomen geht noch nicht hervor, auf welche Weise sich den Wahrscheinlichkeiten P (A), P (B) etc. konkret numerische Werte zuordnen lassen. Beim W
urfel
sind die sechs moglichen Seiten A1 , . . . , A6 Elementarereignisse, und man kann, wenn man
mochte, ihnen die Wahrscheinlichkeit p(Ai ) = 1/6 zuordnen. Betrachtet man andererseits
Reaktions- oder Wartezeiten, so kann man das Intervall = [0, T ) , T < , als Menge
betrachten und bestimmte Systeme von Teilmengen von als -Algebra. Dieser Ansatz
ist aber nicht verallgemeinerbar: nicht in jedem Fall macht es Sinn, den Elementarereignissen gleiche Wahrscheinlichkeiten zuzuordnen, wie im folgenden Abschnitt verdeutlicht
werden wird.
2.2.2

Die klassische Definition von Wahrscheinlichkeiten

Die klassische Definition von Wahrscheinlichkeiten hat ihre Wurzeln im Versuch, beim
Karten- und W
urfelspielen seine Gewinnchancen besser abschatzen zu konnen. (Tartaglia, Cardano, etc). Die Grundidee ist, dass die Elementarereignisse jeweils gleiche Wahrscheinlichkeit haben, daher die Rede von der Wahrscheinlichkeit als dem Verhaltnis von
g
unstigen zu moglichen Fallen. Bei einem W
urfel hat man sechs mogliche Ausgange
eines Versuchs, als eines Wurfes, und es wird postuliert, dass jeder dieser Ausgange die
gleiche Wahrscheinlichkeit hat. Es wird vermutet, dass der erste, der u
ber Wahrscheinlichkeiten nachdachte, jemand war, der einen W
urfel zu falschen versucht hat, aber das
ist Spekulation. Dass nach einem Wurf eine gerade Zahl oben liegt, hat nach Axiom (iii)
dann die Wahrscheinlichkeit 1/2, etc.
Das Postulat, dass den Elementarereignissen jeweils die gleiche Wahrscheinlichkeit
zugeordnet werden konne oder gar m
usse, geht auf Laplace zur
uck. Er postuliert (1814
(1951), p. 6), dass alle Ereignisse auf Ereignisse (also Elementarereignisse) so reduziert
werden m
uten, dass ihnen gleiche Wahrscheinlichkeit zugeordnet werden konne. Es f
uhrt
sofort auf Probleme. So mu man fragen, ob die geforderte Reduktion auf gleichwahrscheinliche Ereignisse u
unze nimmt man u
berhaupt stets moglich ist. Bei einer M
blicherweise an, dass die moglichen Ereignisse Kopf oderZahl sind, aber es gibt keinen
Grund, a priori auszuschlieen, dass sie einmal auf dem Rand stehen bleibt. Die Elementarereignisse waren dann Kopf, Zahl und Rand, aber man wird ihnen nicht
gleiche Wahrscheinlichkeit zuordnen wollen. Dass man sich u
blicherweise auf Kopf und
Zahl beschrankt hangt wohl damit zusammen, dass man die Wahrscheinlichkeit, dass
die M
unze auf dem Rand stehen bleibt, f
ur vernachlassigbar halt. Das mag plausibel
sein, zeigt aber das Problem f
ur den allgemeinen Fall auf. Denn einerseits zielt Laplace
44

mit seiner Definition auf eine objektive Eigenschaft, etwa von M


unzen, die gerade darin
besteht, dass beide Seiten die gleiche Wahrscheinlichkeit haben, andererseits ist diese
Zuordnung von W-Werten durchaus subjektiv. Schwerwiegender ist die Tatsache, dass
die Definition zirkular ist, denn der Wert einer Wahrscheinlichkeit, etwa beim W
urfeln
eine gerade Zahl zu w
urfeln, wird u
ber die Werte der Wahrscheinlichkeiten der Elementarereignisse definiert. Dar
uber hinaus gilt die Laplacesche Definition zunachst nur f
ur
Mengen mit endlich vielen Elementen.
Grundsatzlich ergibt sich die Frage, die die Annahme gleichwahrscheinlicher Elementarereignisse u
berhaupt gerechtfertigt werden soll. Das Standardargument ist, dass gleiche Wahrscheinlichkeiten dann postuliert werden konnen, wenn es keinen Grund gibt,
ungleiche Wahrscheinlichkeiten anzunehmen; die Rede ist auch vom Prinzip vom unzureichenden Grund (Rosenthal (2004), p. 84). Das Argument hat f
ur die Interpretation
von Wahrscheinlichkeit als einer epistemischen Groe eine gewisse Plausibilitat, f
uhrt
aber leicht in Schwierigkeiten. Man betrachte den Fall einer Menge von n Gegenstan
den, die zusammen ein bestimmtes Gewicht G haben. Uber
die Gewichte der einzelnen
Gegenstande sei nichts bekannt. Also m
ute man nach dem Prinzip des unzureichenden
Grundes davon ausgehen, dass sie alle das gleiche Gewicht G/n haben. Die Frage ist
aber, warum diese Hypothese genau so vern
unftig sein soll wie die Alternativhypothese, derzufolge die Gegenstande ein ungleiches Gewicht haben. Da man nichts u
ber die
Einzelgewichte wei, kann man wiederum beiden Hypothesen die gleiche Wahrscheinlichkeit zuordnen. Anders formuliert: jede Verteilung der Gewichte, deren Summe gleich G
ist, hat die gleiche a priori Wahrscheinlichkeit. Sind g1 , . . . , gn die Gewichte, so konnen
die gj irgendwelche
P positiven reellen Zahlen zugeordnet werden mit der einzigen Einschrankung, dass j gj = G gelten mu. Damit gibt es u
berabzahlbar viele Verteilungen
(g1 , . . . , gn ), die alle die gleiche Wahrscheinlichkeit haben, woraus folgt, dass eine spezielle Verteilung die Wahrscheinlichkeit Null hat. Insbesondere hat die Gewichtsverteilung,
f
ur die g1 = = gn gilt, die
P Wahrscheinlichkeit Null. Man konnte daran denken, die
Menge MG = {(g1 , . . . , gn )| j gj = G} in eine endliche Menge von Teilmengen aufzuteilen und dann diesen Teilmengen gleiche Wahrscheinlichkeiten zuzuordnen, aber dann
ergibt sich die Frage, wie MG denn nun konstruiert werden soll. Bei der Betrachtung von
Wartezeiten mit [0, T ], T tritt das gleiche Problem auf: man konnte jedem
Element [0, T ] die Wahrscheinlichkeit 0 zuordnen und nur Ereignissen, die durch
bestimmte Teilmengen von definiert sind, Wahrscheinlichkeiten ungleich Null zuschreiben. Hier ergeben sich aber unter Umstanden gewisse Paradoxa, wie sie von Bertrand
aufgezeigt wurden (Szekely (1990)). Hajek (2007) berichtet ein auf van Fraassen (1989)
zur
uckgehendes Paradoxon: eine Fabrik fertigt W
urfel mit Seitenlangen, die zwischen 0
und 1 Fu32 lang sind. Die Frage ist, wie gro die Wahrscheinlichkeit ist, dass ein zufallig
gew
ahlter Kubus eine Seitenlange zwischen 0 und 1/2 Fu hat. Nimmt man an, dass bei
der Produktion alle Seitenlangen gleichmaig vorkommen, wird man p = 1/2 postulieren.
Man kann die Frage aber anders und gleichwohl aquivalenten Weise stellen: Die Fabrik
stellt Kuben her mit einer Oberflache zwischen 0 und 1 Quadratfu her. Wie gro ist
nun die Wahrscheinlichkeit, einen Kubus zu wahlen, dessen Oberflache zwischen 0 und
1/4 Quadratfu ist? Hier konnte man in analoger Weise auf p = 1/4 kommen. Aber die
Wahl eines solchen W
urfels ist aquivalent der Wahl eines W
urfels mit einer Seitenlange zwischen 0 und einem Fu, und das Problem ist, dass man nun zwei verschiedene
Wahrscheinlichkeiten aufgrund des Laplaceschen Kriteriums gewahlt hat. Das Spiel lat
sich fortsetzen, wenn man sagt, dass die Fabrik Kuben mit einem Volumen zwischen 0
und 1 Kubikfu produziert und nach der Wahrscheinlichkeit fragt, zufallig einen Kubus
mit einem Volumen zwischen 0 und 1/8 Kubikfu zu wahlen. Die Aufgabe ist der ersten
und zweiten aquivalent, man kommt aber nach dem Laplaceschen Kriterium auf eine
32 ca

33 cm

45

Wahrscheinlichkeit von 1/8.


Die Problematik u
bertragt sich auf den Versuch, Wahrscheinlichkeiten u
ber Anteile
an den moglichen Anfangsbedingungen f
ur zufallige Ereignisse zu definieren. Poincare
(1902), Kapitel 11, versucht, Wahrscheinlichkeiten u
urlichen
ber die Methode der willk
Funktionen zu definieren. Die Diskussion dieses Ansatzes w
urde hier zu weit f
uhren;
es gen
ugt, anzumerken, dass der Ansatz nicht zu einer Charakterisierung ontischer, also
objektiver Wahrscheinlichkeiten f
uhrt (Rosenthal (2004), Kapitel 3).
2.2.3

Logische Wahrscheinlichkeiten

Wie beim Klassischen Ansatz werden beim Logischen Ansatz den Ereignissen Wahr
scheinlichkeiten aufgrund von a priori Uberlegungen
zugeordnet. Die Grundannahme ist,
dass Wahrscheinlichkeiten durch Analyse der Menge der Moglichkeiten bestimmt werden
konnen, wobei den Moglichkeiten unterschiedliche Gewichte gegeben werden konnen. Versuche, den Wert von Wahrscheinlichkeiten auf logische Betrachtungen zur
uckzuf
uhren,
gehen auf Johnson (1921), Keynes (1921), Jeffreys (1939), und insbesondere auf Carnap(1950) zur
uck.
J. M. Keynes Ansatz: John Maynhard Keynes33 konzipierte seine Theorie der Wahrscheinlichkeit als Zweig der Logik. Demnach ist eine Wahrscheinlichkeit eine logische
Beziehung zwischen zwei Aussagen, e1 und e2 . Mit e1 und e2 sind auch e1 e2 und e1 e2
Aussagen34 Die Aussage e1 e2 ist wahr, wenn mindestens eine der Aussagen e1 oder
e2 wahr sind. Demnach gilt sicherlich e1 (e1 e2 ), denn wenn e1 wahr ist, mu auch
e1 e2 wahr sein. e1 e2 ist wahr dann und nur dann, wenn sowohl e1 als auch e2 wahr
sind, aber aus der Wahrheit von e1 folgt nicht auch die Wahrheit von e2 , und somit gilt
e1 e1 e2 nicht. Man kann nun argumentieren, dass e1 zumindest partiell impliziert,
da ja e1 eine Komponente von e1 e2 ist. Man konnte dan von einer partiellen Implikation sprechen, die durch ein Ma, also durch eine Zahl p mit 0 p 1 reprasentiert
werden kann. Nach Keynes ist dann p die Wahrscheinlichkeit von e1 e2 , gegeben e1 .
Wahrscheinlichkeiten werden demnach von Anfang an als bedingte Wahrscheinlichkeiten
definiert.
Diese Konzeption des Wahrscheinlichkeitsbegriffs erlaubt es, Hypothesen Wahrscheinlichkeiten zuzuordnen, denn eine Hypothese ist eine Aussage, die zumindest partiell von
anderen Aussagen impliziert wird. Gleichzeitig ist die Wahrscheinlichkeit einer Hypothese prinzipiell eine bedingte Wahrscheinlichkeit, denn Aussagen f
ur sich alleine kann
nach Keynes keine Wahrscheinlichkeit zukommen, sie sind weder wahrscheinlich noch
unwahrscheinlich. Die (bedingte) Wahrscheinlichkeit einer Hypothese variiert also mit
der Evidenz, die es f
ur sie gibt, d.h. mit der Menge der Aussagen, von denen sie partiell
impliziert wird. Diese Menge stellt einen Bezugsrahmen dar.
Der Begriff der partiellen Implikation entspricht dem des rationalen Glaubens zum
Grad p.
Die Frage ist nun, welche Axiome f
ur die Wahrscheinlichkeiten gelten sollen. Dazu
bezieht Keynes sich auf die Russellsche Theorie des Wissens, derzufolge es Wissen durch
Bekanntschaft (knowledge by acquaintance) und Wissen durch Beschreibung (knowledge
by description) gibt. Die erste Art des Wissens wird u.a. durch Sinneswahrnehmungen
transportiert. Keynes formuliert (zitiert nach Gillies (1973), p. 9)
33 Keynes, J. M.: A Treatise on Probability. London, 1921; die Darstellung folgt Gillies, D.A. An
objective theory of probability, London 1973.
34 Das Zeichen steht f
ur das lateinische vel = oder; das Zeichen f
ur und.

46

We pass from a knowledge of the proposition a to a knowledge about the proposition


b by perceiving a logical relation between them. With this logial relation we have
direct acquaintance.

Das Ziel, das durch die Formulierung eines Axiomensystems erreicht werden soll, ist,
eine Anzahl von Grundaussagen zu finden, aus denen alle Aussagen u
ber Wahrscheinlichkeitsrelationen logisch folgen. Die u
bliche Logik soll sich dabei als Spezialfall ergeben. Nach Keynes kann es dann sein, dass bestimmten Wahrscheinlichkeitsaussagen kein
numerischer Wert zugeordnet werden kann und damit auch nicht alle Wahrscheinlichkeitsaussagen hinsichtlich des Wahrscheinlichkeitswertes miteinander verglichen werden
konnen. F
ur den Fall aber, dass Aussagen numerische Werte zugewiesen werden konnen,
m
ussen Aussagen gefunden werden, die gleichwahrscheinliche Alternativen reprasentieren. Dies ist das von Keynes postulierte Indifferenzprinzip. Gillies (1973) weist darauf
hin, dass dieses Prinzip schon von Jakob Bernoulli als Prinzip des nicht hinreichenden
Grundes aufgestellt worden ist. Das Prinzip ist von Wichtigkeit f
ur eine Bayesianisch
orientierte Statistik, in der die (a-posteriori-) Wahrscheinlichkeit von Hypothesen von apriori-Wahrscheinlichkeiten abhangt; wei man nichts u
ber die zur Diskussion stehenden
Hypothesen, wird man dem Indifferenzprinzip folgend eine Gleichverteilung annehmen.
Das Indifferenzprinzip f
uhrt allerdings in Widerspr
uche:
A: Das Farben-Paradoxon: Gegeben sei ein Buch mit unbekannter Farbe.
Angenommen, es gibt keinen Grund, anzunehmen, dass es rot ist. Dann gibt es
auch keinen Grund, anzunehmen, dass es nicht rot ist. Diesen beiden Aussagen
mu nun nach dem Indifferenzprinzip die gleiche Wahrscheinlichkeit p = 1/2
zugeordnet werden, d.h. eben p(rot) = 1/2. Das Gleiche gilt aber auch f
ur
alle anderen Farben, so dass man p(rot) = p(gelb) = p(blau) = erhalt,
ein offenbar absurdes Ergebnis.
B: Das Wein-Wasser-Paradoxon:
Vorbemerkung zur Gleichverteilung Ist etwa X gleichverteilt auf dem
Intervall [a, b], so gilt f
ur die Dichte fX (x) = 1/(b a) und die Verteilungsfunktion ist durch
Z x
dx
xa
P (X x) =
=
(14)
b

a
ba
a

gegeben. Es folgt sofort

P (X > x) = 1

xa
bx
=
ba
ba

(15)

Nun sei Y = 1/X; f


ur die Verteilungsfunktion von Y erhalt man
P (Y y) = P (1/X y) = P (1/y X),
und wegen (15) hat man
P (Y y) = P (X 1/y) =

b 1/y
.
ba

(16)

Das Wein-Wasser-Paradoxon: Dieses Paradoxon geht auf R. von Mises


zur
uck (v. Mises (1981), p. 77). Es entsteht, wenn das Indifferenzprinzip auf
Verhaltnisse angewendet wird. So sei ein Krug mit einer Mischung von Wasser
47

und Wein gegeben. Das genaue Verhaltnis von Wein und Wasser ist nicht bekannt, aber man wei, dass der Anteil einer der beiden Substanzen hochstens
dreimal so gro wie der der anderen Substanz ist. Ist also X das Verhaltnis
von Wein zu Wasser, so mu X 1/3 sein, andernfalls ware der Anteil von
Wasser mehr als dreimal so gro wie der des Weins. Ebenso mu X 3 gelten, sonst ware der Anteil des Weins mehr als dreimal so gro wie der des
Wassers. also mu gelten
1
X 3,
3

1
Y 3.
3

(17)

mit Y = 1/X, und der rechte Ausdruck ergibt sich durch eine analoge Argumentation. Wei man nichts u
ber das tatsachliche Verhaltnis von Wein
und Wasser, auer den Bedingungen (17), so f
uhrt das Prinzip der Indifferenz auf eine Gleichverteilung f
ur X auf [1/3, 3]. Aber dann ist Y nach (16)
nicht gleichverteilt. Andererseits kann man ebenso gut annehmen, Y sei auf
[1/3, 3] gleichverteilt. Aber dann kann X nicht mehr gleichverteilt sein. In
der u
blichen Formulierung des Paradoxes wird gezeigt, dass die Annahme der
Gleichverteilung sowohl f
ur X als auch f
ur Y auf widerspr
uchliche Ergebnisse

f
uhrt, was nach den vorangegangenen Uberlegungen
nicht verwunderlich ist:
so werde etwa nach der Wahrscheinlichkeit P (X 2) gefragt. Es ist
P (X 2) = P (1/Y 2) = P (1/2 Y ).

(18)

Nimmt man nun sowohl f


ur X als auch f
ur Y eine Gleichverteilung an, so
erhalt man einerseits
P (X 2) =

5
2 1/3
= ,
3 1/3
8

und andererseits, wegen (15), wenn man X durch Y ersetzt,


P (Y 1/2) =

3 1/2
15
=
,
3 1/3
16

also P (X 2) 6= P (Y 1/2), in Widerspruch zu (18).

Kommentar: Der Widerspruch zwischen P (X 2) = P (Y 1/2) einerseits und P (X 2) 6= P (Y 1/2) andererseits wird im Allgemeinen dem
Indifferenzprinzip angelastet. Keynes (1921) versuchte, den Widerspruch zu
u
urfe nur endlich viele, nicht weiter teilbare
berwinden, indem er forderte, es d
Alternativen geben; es lat sich aber zeigen, dass dieses Postulat nicht aufrechtzuerhalten ist. Van Fraassen (1989) halt das Wein-Wasser-Paradox f
ur
the ultimate defeat des Indifferenzprinzips, Gillies (2000) spricht von einem
todlichen Argument gegen dieses Prinzip, und Oakes (1986) folgert aus dem
Paradoxon, dass dieses die klassische Konzeption der Wahrscheinlichkeit u
berhaupt ins Wanken bringe. Hacking (1965) bezeichnet des Indifferenzprinzip
abwechselnd als notorious und noxious (p. 147), und schlielich als tedious
(p. 201). In der Tat f
uhrt das Prinzip nicht nur zu einer Reihe von Paradoxien (Bertrand, Farben, etc), sondern auch zu einer Reihe von ernsthaften
Schwierigkeiten, etwa im Zusammenhang mit Signifikanztests bez
uglich von
Schatzungen von Parametern (Jeffreys (1961/2003), Jaynes (2003)), auf die
hier nicht eingegangen werden kann. An dieser Stelle soll nur auf die Frage
eingegangen werden, ob das Wein/Wasser-Paradoxon in der Tat todlich f
ur
das Indifferenzprinzip ist.
48

Es konnte aber so sein, dass das Indifferenzprinzips nur auf bestimmte Groen,
aber nicht auf alle anwendbar ist. Ist X ein Quotient, u
ber dessen Wert man
nichts wei, so wei man nat
urlich nichts u
ber die moglichen Werte von Y =
1/X. Aber die Annahme der Gleichverteilung f
ur X impliziert, dass Y nicht
gleichverteilt sein kann, und vice versa. Daraus folgt noch nicht, dass das
Indifferenzprinzip f
ur das Mischungsverhaltnis grundsatzlich nicht gilt. Denn
die Mischung mu nicht als Verhaltnis dargestellt werden; man kann sie auch
als Summe darstellen. Die Gesamtmenge der Fl
ussigkeit wird ja als konstant
angenommen. Der folgende Ansatz ist im Prinzip mit dem von Mikkelson
(2004)identisch; Burock (2005) zeigt, dass der hier prasentierte Ansatz ein
Spezialfall einer Klasse von Auflosungen des Wein/Wasser-Paradoxes ist.
Dann kann man sagen, dass die Gesamtmenge durch n Teilchen (Molek
ule)
gebildet wird, etwa n1 zum Wein gehorende Molek
ule35 und n2 Wassermolek
ule bzw. zum Wasser gehorende Molek
ule. Also hat man n = n1 + n2
Teilchen insgesamt. Um die Beziehung zum Quotienten X = n1 /n2 herzustellen, ist es n
utzlich, zu Anteilen u
berzugehen, womit auch die Frage nach

der Summation von Apfeln


und Birnen umgangen wird. Also hat man
b=

n1
,
n

1b=

n2
,
n

X=

n1
.
n2

(19)

Indifferenz bez
uglich der Mischung ist nun Indifferenz bez
uglich b; nimmt man
eine Gleichverteilung von b an, so ist auch 1 b gleichverteilt (Symmetrie).
Um die Auflosung des Wein/Wasser-Paradoxons zu diskutieren, m
ussen die
Intervallgrenzen f
ur b sowie die Beziehung zwischen b und dem Quotienten X
hergestellt werden. Aus (19) folgt
b
n1
X
bn
b
X
=
= , d.h.
=X=
und b =
.
n2
n2 n
n
n2
1b
1+X

(20)

F
ur X = 1/3 folgt dann b = 1/4, und f
ur X = 3 erhalt man b = 3/4, also
1
3
b .
4
4

(21)

Auf b angewendet bedeutet das Indifferenzprinzip, dass b auf [1/4, 3/4] gleichverteilt ist. Es werden, wie im Wein/Wasser-Paradoxon, die Falle X 2 und
Y = 1/X 1/2 betrachtet. Aus (20) erhalt man
X 2

b
2
2b ,
1b
3

und

1
1
1b
1
2

=
b ,
2
X
b
2
3
d.h. in Bezug auf b haben X 2 und Y 1/2 die gleichen Konsequenzen,
d.h. die Fragestellung nach der Mischung ist nun symmetrisch. Man erhalt,
wenn man von einer Gleichverteilung f
ur b ausgeht,
Y

P (X 2) = P (Y 1/2) = P (b 2/3) =

2/3 1/4
5
= .
3/4 1/4
6

(22)

Der Wesentliche Unterschied zur Betrachtung des Verhaltnisses X = n1 /n2


ist, dass die Frage nach der Indifferenz bez
uglich b symmetrisch zu der nach
35 Man

mu ja alles Substanzen, die im Wein sind, z


ahlen.

49

der Indifferenz bez


uglich 1 b ist. Das das Volumen in insgesamt n Teile
aufgeteilt gedacht wurde, macht in Bezug auf Fl
ussigkeiten sicherlich Sinn,
stellt aber dar
uber hinaus keine Einschrankung f
ur einen allgemeineren Fall
dar, d.h. b darf auch irrationale Werte annehmen.
Degree-of-Belief-Funktionen: Ein weiterer Ansatz zu logischen Wahrscheinlichkeit
geht auf Ramsey (1926) zur
uck. Nach Ramsey lat sich die Wahrscheinlichkeit u
ber den
Begriff des degree of belief subject to certain weak rationality constraints zur
uckf
uhren, wobei der degree of belief durch Wettquotienten gemessen werden soll. Der Wert
der Degree-of-Belief-Funktion f
ur eine Aussage A entspricht der Wahrscheinlichkeit, mit
der man die Aussage f
ur wahr h
alt. Die rationality constraints beziehen sich auf die
Koh
arenz (coherency) der Wahrscheinlichkeitszuordnungen der zur Diskussion stehenden
Aussagen A1 , A2 , . . .. Die Frage ist, wie diese Koharenz charakterisiert werden kann. Eine
Moglichkeit ist, die Koharenz u
ber ein Dutch Book-Argument zu charakterisieren; Ramsey spricht von Koh
arenzbedingungen. Das Dutch-Book-Argument soll kurz dargestellt
werden, da es in den Diskussionen u
ber die Grundlegung der Wahrscheinlichkeitstheorie,
insbesondere wenn es sich um subjektive Wahrscheinlichkeiten handelt, immer wieder
genannt wird.
Es ist sinnvoll, vorab eine geeignete Notation einzuf
uhren:
Notation: Mit |= A ist gemeint, dass die Aussage A gilt, dass sie valide ist d.h. dass
sie wahr in jeder moglichen Welt36 ist. Mit A |= B ist gemeint, dass die Aussage A die
Aussage B semantisch impliziert, d.h. die Aussage B ist wahr in jeder moglichen Welt,
in der auch die Aussage A wahr ist. & steht f
ur die Konjunktion von Aussagen: sind A
und B Aussagen, so ist A&B die Aussage A und B. steht f
ur oder: A B bedeutet
A oder B, und signalisiert die Negation: A steht f
ur nicht-A.
Die folgende Darstellung ist an Earman (1992) bzw Shimony (1955) orientiert.
Aussagen konnen wahr oder falsch sein, aber man wei oft nicht, ob sie wahr oder
falsch sind. Man kann mehr oder weniger an ihre Wahrheit glauben. Die Starke dieses
Glaubens lat sich durch eine Zahl reprasentieren (degree of belief). Diese Zahl lat sich
als Wahrscheinlichkeit interpretieren: die Wahrscheinlichkeit, mit der man sie f
ur wahr
halt. Es sei nun A eine Menge solcher Aussagen, von der angenommen werde, dass unter wahrheitsfunktionalen Kombinationen abgeschlossen sind, d.h. jede aussagenlogische
Kombination von Aussagen aus A sei ebenfalls ein Element von A. Sind also, im einfachsten Fall, A1 und A2 Aussagen aus A, so sind auch A1 &A2 , A1 A2 , A1 A2 etc in
A.
Es wird nun eine Degree-of-Belief- bzw. Wahrscheinlichkeitsfunktion f
ur Aussagen
definiert:
Definition 2.1 Mit P werde eine Wahrscheinlichkeitsfunktion bezeichnet: P ist eine Abbildung von A in die Menge R der reellen Zahlen, die den Bedingungen
(A1) P(A) 0 f
ur jede Aussage A A,
36 In jeder m
oglichen Welt (in all possible worlds) ist kein launischer Sprachschlenker, sondern ein
feststehender Begri, der im Zusammenhang mit modalen Aussagen gebraucht wird, d.h. in Aussagen
u
oglichkeit oder Notwendigkeit von Sachverhalten gemacht werden. Man sagt, f
ur jede m
ogliche
ber die M
Art, in der die Welt h
atte sein k
onnen, existiert eine m
ogliche Welt, im Unterschied zu der Welt, in der
wir tats
achlich leben. Wahre Aussagen sind dann solche, die wahr sind in der tats
achlichen Welt. Eine
m
ogliche Aussage ist eine Aussage, die in einer m
oglichen Welt wahr ist. Eine kontingente Aussage
ist wahr in einigen m
oglichen Welten, und falsch in anderen m
oglichen Welten. Notwendige Aussagen
oder notwendig wahre Aussagen sind solche, die wahr in allen m
oglichen Welten sind, etwa wahre
arithmetische Aussagen. Mit |= A ist demnach eine notwendige bzw. notwendig wahre Aussage gemeint.

50

(A2) P(A) = 1, wenn |= A,


(A3) P(A B) = P(A) + P(B), wenn |= (A&B)
gen
ugt.
Dem Degree of Belief f
ur eine Aussage A soll demnach eine Wahrscheinlichkeit P(A)
entsprechen. P(A) ist die Wahrscheinlichkeit, mit der A wahr ist. A1 und A2 legen die
Normierung von P fest: wenn A bereits als wahr gilt, soll P(A) = 1 sein, so dass wegen
A1 dann 0 P(A) 1 gilt. Es lassen sich nun die folgenden Aussagen ableiten:
(P1) P(A) = 1 P(A),
(P2) P(A) = P(B), wenn |= A B
(P3) P(a B) = P(A) + P(B) P(A&B)
(P4) P(A) P(B), wenn A |= B.
P1 ist die u
bliche Aussage u
ber die Wahrscheinlichkeit von Komplementarereignissen. P2
besagt, dass, wenn sowohl A B wie auch B A gelten, auch die Degrees of Belief f
ur
A und B gleich gro sein sollten. P3 ist gewissermaen die verallgemeinerte Form von
A3: wenn mit A und B auch die Konjunktion A&B nicht falsch ist, so ist P(A&B) 0.
Da in der Summe P(A) + P(B) das Ma f
ur A&B doppelt eingeht, mu es einmal wieder
subtrahiert werden. P4 veranschaulicht man sich leicht u
ber die Relation von Mengen: es
seien A und B die Mengen von Objekten, f
ur die die Aussage A bzw. B gilt. A |= B
besagt ja, dass f
ur jedes Objekt, f
ur das A gilt, auch die Aussage B gilt. A |= B impliziert
also A B , und ein Ma auf A ist dann hochstens so gro wie das korrespondierende
Ma auf B . Betrachtet man P als Ma auf den -Mengen, folgt sofort P4.
Bedingte Wahrscheinlichkeiten konnen als Definition eingef
uhrt werden:
Definition: Es sei P(B) 6= 0. Dann gelte
P(A|B) =

P(A&B)
,
P(B)

wobei P(A|B) die Wahrscheinlichkeit von A, gegeben B bedeutet.

(23)


Bayessches Theorem: Aus dieser Definition kann das Bayes Theorem abgeleitet werden: es sei H eine Hypothese, W reprasentiere das Hintergrundwissen, und E sei die neue
Evidenz (gemeint ist das englische evidence, also empirische Information). Dann gilt
P(H|K, E) =

P(E|H&K)P(H|K)
.
P(E|K)

(24)

Die H1 , H2 , . . . seien sich gegenseitig ausschlieende, insgesamt exhaustive Hypothesen.


Der bekannte Satz der totalen Wahrscheinlichkeit liefert dann die zu (24) alternative
Form
P(E|Hj &K)P(Hj |K)
.
(25)
P(Hj |K, E) = P
i P(E|Hi &K)P(Hi |K)
Weiter gelte das

Kontinuit
atsaxiom C: Die Ai A, i = 1, 2, . . . mogen der Bedingung An+1 |= An
f
ur jedes n gen
ugen, und die Menge {A1 , A2 , . . .} sei inkonsistent, d.h. nicht jede der
Aussagen Ai sei wahr in einem Modell oder einer moglichen Welt. Dann gilt
lim P(An ) = 0.

51

(26)

Das Dutch-Book-Argument: Der Begriff des Dutch Book bezieht sich auf eine Wette37 . Die Idee hinter dem Argument ist, dass eine Verletzung der Axiome A1 A3 dazu f
uhrt, dass falsche Schlufolgerungen gezogen werden. Da es sich bei A1 A3 um
subjektive Wahrscheinlichkeiten handelt, bezieht sich das Argument auf die kognitive
Konsistenz der Argumentation mit Wahrscheinlichkeiten. F
uhrt man Wahrscheinlichkeiten u
ussen sie so definiert werden, dass sie den Axiomen A1 A3
ber Wetten ein, so m
gen
ugen, andernfalls werden Inkonsistenzen bzw. Inkoharenzen impliziert.
Es sei A eine Menge von zufalligen Ereignissen. Es soll gewettet werden, ob das
Ereignis A A eintritt oder nicht. Dabei steht Wette f
ur jede Entscheidung, die aufgrund des Glaubens an die Wahrheit oder Falschheit einer Aussage gemacht wird: man
entscheidet sich, eine Strasse zu u
berqueren, wenn man annimmt, dass die Wahrscheinlichkeit, in einen Unfall verwickelt zu werden, hinreichend klein ist, diesem Verhalten
entspricht eine Wette, dass kein Unfall geschieht (Shimony (1955), p. 7). Formal betrachtet gibt es einen Wetter also eine Person, die eine Wette abschliet W und
einen Buchmacher B. W und B vereinbaren, dass W von B a Euro bekommt, wenn A
eintritt, W dagegen b Euro an B zahlt, wenn A nicht eintritt (oder wenn A wahr bzw.
falsch ist). Die Summe a + b ist der Einsatz (stakes), und b/a sind Bs Wettchance (odds).
P sei die Belief-Funktion von B. Der erwartete Wert der Wette ist f
ur B dann durch
EB = aP(A) bP(a) = aP(A) b(1 P(A)) gegeben. Die Wette ist fair f
ur B, wenn
EB = 0, sie ist g
unstig, wenn EB > 0, und ung
unstig f
ur B, wenn EB < 0. F
ur eine faire
Wette folgt dann aus EB = 0 die Beziehung
P(A) =

b
.
a+b

(27)

f
ur P; P wird also durch die Auszahlungen a und b definiert. Der Quotient b/(a + b) heit
auch fairer Wettquotient. (27) definiert den degree of belief und damit die Wahrscheinlichkeit f
ur A durch den fairen Wettquotienten.
Das Dutch-Book-Argument besteht nun darin, dass gezeigt wird, dass f
ur B ein Verlust entsteht, wenn f
ur B die Axiome A1 A3 nicht gelten. Die folgende Argumentation
wurde von Shimony (1955) entwickelt, die Beschreibung erfolgt in der einfacheren Notation von Earman (1992). Um das Argument einzusehen, sei P(A) = r, und S = a+ b, wobei
S < 0 oder S > 0 sein darf. Man kann nun die Bedingungen spezifizieren, unter denen
man bereit ist, eine Wette zu akzeptieren. Aus (27) folgt P(A)(a + b) = P(A)S = rS = b;
rS entspricht also der Wettvereinbarung, derzufolge A den Betrag b an B zahlt. Ist A
falsch, so erhalt B nichts (0), sein Nettogewinn ist rS. Ist A dagegen wahr, zahlt B den
Betrag rS und erhalt den Einsatz S, und der Nettogewinn ist rS S = (1 r)S. Die
Tabelle 1 fasst das Geschehen zusammen: Diese Wette ist sinnvoll, wenn P den AxioTabelle 1: Wettbedingungen I
A ist falsch
A ist wahr

zahle
rS
rS

erhalte
0
S

netto
rS
(1 r)S

men A1 bis A3 gen


ugt. Man kann nun diskutieren, was geschieht, wenn mindestens eines
dieser Axiome nicht erf
ullt ist. Dazu werde die Notwendigkeit von A1 0 P(A) 1
37 Die Herkunft des Ausdrucks Dutch Book scheint nicht ganz klar zu sein, es wird vermutet, dass
niederl
andische Versicherungen Versicherungsabschl
usse f
ur Schie konstruierten, bei denn sie Gewinn
machten unabh
angig davon, was tats
achlich passierte; Versicherungen sind ja Wetten. Es gibt andere
Vermutungen, vergl. http://people.few.eur.nl/wakker/miscella/dutchbk.htm

52

betrachtet: es sei P(A) = r < 0, und weiter sei S < 0. Wenn A falsch ist, mu ein
positiver Betrag rS gezahlt werden, der Nettobetrag ist nat
urlich negativ, rS. Ist A
wahr, so mu ebenfalls ein positiver Betrag rS gezahlt werden, es wird aber ein negativer
Betrag S ausgezahlt, und der Nettobetrag ist ebenfalls negativ, weil ja nun (1 r)S < 0.
Nun sei P(A) = r > 1 und S > 0. In jedem Fall A wahr oder falsch mu der positive
Betrag rS gezahlt werden, der Nettobetrag ist aber, wegen rS < 0 und 1 r < 0
ebenfalls in jedem Fall negativ. Ist also A1 nicht erf
ullt, sind die Nettoauszahlungen stets
negativ.
Nun wird A2 betrachtet. Angenommen, A2 gilt nicht, d.h. es gelte P(A) = r 6= 1,
0 r 1, obwohl |= A gilt. Es sei S < 0. Nach Voraussetzung ist A wahr (|= A). Die
Nettoauszahlung rS ist negativ, d.h. die Wette f
uhrt zu einem Verlust.
Schlielich wird A3 betrachtet. Angenommen, dieses Axiom gilt nicht, d.h. P(AB) 6=
P(A) + P(B), wenn |= (A&B). Man betrachte eine Folge von drei Wetten: (i) auf A,
mit P(A) = r1 und Einsatz S1 , (ii) eine auf B mit P(B) = r2 und Einsatz S2 , und
schlielich eine auf C mit P(C) = r3 und Einsatz S3 . Die Tabelle 2 zeigt die Wetten:
Die Nettowerte reprasentieren ein lineares Gleichungssystem; dieses System impliziert,
Tabelle 2: Wettbedingungen II
Aussagen
A wahr, B falsch
A falsch, B wahr
A falsch, B falsch

netto
(1 r1 )S1 + r2 S2 + (1 r3 )S3
r1 S1 + (1 r2 )S2 + (1 r3 S3
r1 S! r2 S2 r3 S3

dass stets Einsatze S so gewahlt werden konnen, dass die Nettobetrage negativ sind,
es sei denn, die Bedingung r3 = r1 + r2 gilt, die wiederum die G
ultigkeit des Axioms A3
bedeutet.
Fasst man diese Betrachtungen zusammen, so folgt, dass eine Verletzung mindestens
eines der Axiome A1, A2 und A3 bedeutet, dass die Nettoauszahlungen stets negativ
sind. Die Verletzung mindestes eines der Axiome bedeutet eine Verletzung der Forderung nach Konsistenz, und die Wette mit dem damit verbundenen negative Nettobetrag
reprasentiert ein Dutch Book. Das konverse Dutch-Book-Argument besagt, dass die Geltung der Axiome A1 A3 impliziert, dass kein Dutch Book auftreten kann; der Nachweis
wurde von Kemeny (1955) gef
uhrt.
Bedingte Wahrscheinlichkeiten konnen ebenfalls u
uhrt werden,
ber eine Wette eingef
etwa als eine Wette auf die G
ultigkeit von B unter der Bedingung, dass A gilt. Gilt A
nicht, wird die Wette ausgesetzt. Der bedingten Wahrscheinlichkeit P(B|A) entspricht
dann eine Wettchance, und B bekommt drei Angebote: eine Standardwette auf A, eine
Standardwette auf A&B,und eine Standardwette auf B, bedingt auf A. Es kann wieder ein Dutch Book konstruiert werden, indem Einsatze definiert werden, die auf einen
garantierten Verlust hinauslaufen, wenn nicht P(B|A)P(A) = P(A&B) gilt.
Das Dutch-Book-Argument ist vielfach diskutiert worden: es gibt viele pro- und ebensoviele contra-Argumente. Hajek (2005) liefert eine Liste illustrer Proponenten wie ebenso
illustrer Opponenten. F
ur Earman (1992) ergibt sich eines der zentralen Gegenargumente aus der Frage nach der abzahlbaren Additivitat, die hinter dem Axiom A3 steht:
die N
utzlichkeit (utility) der Alternativen wachst nicht linear mit deren Anzahl. Diesem
Argument liegt die okonomische Interpretation der N
utzlichkeit zugrunde, d.h. der umstrittene Begriff des economic man. Eine weitere Kritik ergibt sich aus der Forderung,
dass S sowohl positiv wie negativ sein kann; wirkliche Spieler und Wetter w
urden sich
53

auf negative S-Werte wohl nicht einlassen. Dar


uber hinaus w
urde sich ein Bayesianismus, der sich auf das Dutch-Book-Argument, d.h. auf die Koharenz der Aussagen Ai ,
st
utzt und gleichzeitig die Konditionalisierung postuliert, in einen Widerspruch begeben.
Strikte Konditionalisierung impliziert P(A) = 1 auch f
ur den Fall, dass |= A nicht gilt.
Eine weitere Kritik richtet sich auf die Tatsache, dass sich der Wettquotient stets
auf eine entscheidbare Aussage richtet: in einem Pferderennen gewinnt ein Pferd, oder
es gewinnt nicht. Bei wissenschaftlichen Aussagen gelten aber derart einfache Entscheidungen im Allgemeinen nicht. Earman (1992) betrachtet zum Beispiel relativ einfache
Aussagen der allgemeinen Struktur (x)(y)Rxy, d.h. es existiert ein x derart, dass f
ur
alle y die Relation Rxy gilt, also x in der Relation R zu y steht. Wegen des All-Operators
f
ur alle liee sich eine derartige Aussage nicht auf endliche Weise verifizieren oder
falsifizieren. Man konne also nie wirklich entscheiden, ob die Aussage nun gilt oder nicht,
also konne man auch die Wette auf die G
ultigkeit nicht entscheiden.
Auf die Kritiken kann an dieser Stelle nicht ausf
uhrlich eingegangen werden; Armandt
(1993) und Hajek (2005) liefern weitere Literatur und Argumente.
Carnaps Ansatz: Carnaps (1950) Ansatz ist insofern von besonderer Bedeutung, als er
eine explizite Beziehung zur Induktion herstellt. Sein Ansatz wird etwas expliziter dargestellt, um die Schwierigkeiten zu illustrieren, die der Explikation einer logischen Wahrscheinlichkeit verbunden sind; diese Schwierigkeiten zeigen die Problematik, die mit einer
strengeren Fassung des einerseits eines umgangssprachlich gebrauchten Wahrscheinlichkeitsbegriffs verbunden sind, und mit denen zu kampfen hat, wenn man aufgrund experimenteller Daten eine Hypothese als wenig wahrscheinlich oder wahrscheinlich etc
charakterisiert.
Carnap beginnt seine Arbeit, indem er zunachst eine formale Sprache definiert, in der
eine endliche Anzahl monadischer Pr
adikate spezifiert wird. Diese Pradikate bezeichnen
voneinander unabhangige Eigenschaften, die einer endlichen Anzahl von Individuen oder
Variablen zukommen konnen. Diese werden durch Bechreibungen charakterisiert, die als
Konjunktionen der Pradikate eingef
uhrt werden, wobei angegeben wird, ob ein gegebenes
Pradikat bei dem Individuum vorkommt oder nicht, also negiert oder nicht negiert in
die Beschreibung eingeht. Einer Aussage oder Hypothese h kann auf diese Weise eine
bestimmte Evidenz e, d.h. Information oder Wissen, zugeordnet werden, und f
ur die

Kombination h & e wird ein Wahrscheinlichkeitsma m(h & e) eingef


uhrt. Uber
das Ma
m wird dann eine Bestatigungsfunktion (confirmation function)
c(h, e) =

m(h & e)
m(e)

(28)

eingef
uhrt; c(h, e) entspricht offenbar der Definition einer bedingten Wahrscheinlichkeit.
Nat
urlich mu nun das Ma m spezifiziert werden. Carnap geht davon aus, dass Individuen durch qualitative Unterschiede unterschieden werden. So seien etwa drei Individuen
a, b und c gegeben, und ein Pradikat F . Ein gegebenes Individuum hat nun dieses Pradikat (F ), oder es hat es nicht (F ). F a bedeute im Folgenden, dass das Individuum a
das Pradikat F hat, F a bedeute, dass a das Pradikat nicht hat; die Ausdr
ucke f
ur die
u
brigen Individuen sind analog. Dann gibt es insgesamt 23 = 8 Zustandsbeschreibungen
f
ur die drei Individuen:
1.

F a &F b & F c

2.
3.

F a &F b & F c
F a & F b & F c

4.

F a &F b &F c
54

5.

F a & F b & F c

6.
7.

F & F b & F c
F a & F b & F c

8.

F a & F b & F c

und dementsprechend vier Strukturbeschreibungen


(1)
(2, 3, 4)
(5, 6, 7)
(8)

Alles ist F
Zwei F s, eine F
Ein F , zwei F s
Alles ist F

Jede dieser Strukturbeschreibungen bekommt nun das gleiche Gewicht 1/4 zugeordnet, und dann bekommt jede Zustandsbeschreibung, die in einre Strukturbeschreibung
auftaucht, wiederum einen gleichen Teil des Gewichts, das der Strukturbeschreibung zugeordnet wurde. Es sei etwa h = F c eine Aussage. Diese Aussage ist wahr in den Zustandbeschreibungen 1, 2, 3 und 5, also insgesamt in vier Zustandsbeschreibungen (in
ihnen kommt die Aussage F c vor, in den u
brigen F c). h = F c kommt also gerade in
der Halfte der Zustandsbeschreibungen vor, und bekommt deshalb das Wahrscheinlichkeitsma m(h) = 1/2 zugewiesen. Es werde nun das Individuum a betrachtet, und man
finde, dass es das Merkmal (das Pradikat) F hat, dies ist die Evidenz e. e ist induktive
Evidenz f
ur h. Man hat nun
1
1
m(h & e) = , m(e) = ,
3
2
also folgt
m(h & e)
2
c(h, e) =
= .
m(e)
3
Die a priori-Wahrscheinlichkeit f
ur h war m(h) = 1/2, die Bestatigungsfunktion auf der
Basis der Evidenz e ist nun c(h, e) = 2/3, und in diesem Sinne hat man eine induktive
Bestatigung f
ur h gewonnen. Man rechnet leicht nach, dass nun den Zustandbeschreibungen 1 und 8 jeweils die Wahrscheinlichkeit m = 1/4 zugeschrieen werden, und den
u
brigen jeweils die Wahrscheinlichkeit m = 1/12.
Man kann sich leicht alternative Bestatigungsfunktionen vorstellen, allerdings war
Carnap der Ansicht, dass die hier vorgestellte Funktion die einfachste und nat
urlichste
sei. In Carnap (1963) schlagt er eine Verallgemeinerung seiner Bestatigungsfunktion vor,
wobei er zunachst nur einstellige Pradikate (also einfache Eigenschaften, keine Relationen
zwischen Individuen) betrachtet, und f
uhrt die Bestatigungsfunktion c ein. e sei definiert durch: sj der ersten s Individuen mogen das Pradikat Pj haben, und das s + 1-te
Individuum moge ebenfalls das Pradikat Pj zeigen. F
ur eine Menge von n = 1, . . . , k > 2
Individuen soll dann gelten
sj + /k
.
c (e) =
s+
Dies soll implizieren (Hajek), dass c um so kleiner wird, je groer , d.h. die induktive
Wirkung neuer Evidenz wird um so geringer, je groer der Wert von ist (dc / < 0).
Das Problem mit Carnaps Ansatz ist, dass (i) der Wert von letztlich willk
urlich
ist, und dass (ii) die vielen Annahmen (Axiome), die Carnap einf
uhren mu, um effektiv
Wahrscheinlichkeiten berechnen zu konnen, keine selbstevidenten Wahrheiten sind. Die
relativ explizite Darstellung des Carnapschen Ansatzes hier zeigt aber die grundsatzlichen
Probleme auf, die mit dem Begriff der logischen Wahrscheinlichkeit verbunden sind:
die Fragen, wie die speziellen Annahmen u
ber das Ma m und die Bestatigungsfunktion
c bzw. c zu rechtfertigen sind, wie die Gesamtevidenz e zu bestimmen ist, etc.
55

2.2.4

Subjektive Wahrscheinlichkeiten

Der Begriff der epistemischen Wahrscheinlichkeit fat wiederum eine Reihe verschiedener
Interpretationen zusammen. de Finetti (1937) unternahm den Versuch, Wahrscheinlichkeiten durch Wettquotienten zu bestimmen. Dieser ist definiert durch eine Wette auf das
Eintreffen eines zufalligen Ereignisses A oder einer Aussage A gegen R Werteinheiten im Austausch f
ur Q Werteinheiten, wenn A sich als wahr herausstellt bzw. falls A
eintritt. Die Werteinheiten sind Mae f
ur den Nutzen (utility), der mit den Alternativen
verbunden ist. Der Quotient R/Q definiert dann die odds auf A, und der Wettquotient
auf A sind die normalisierten odds
p=

R
.
R+Q

(29)

Die Summe S = R + Q ist dann der Einsatz. Der degree of belief die Wahrscheinlichkeit von A in A wird mit p identifiziert. Es kann nun gezeigt werden, dass kein Dutch
Book38 existiert, wenn das System der Wettquotienten den u
blichen, endlich-additiven
Wahrscheinlichkeitsaxiomen gen
ugt; die Axiome kontrollieren gewissermaen die Rationalitat der Wetten. Wird gegen sie verstoen, tritt der sogenannte Dutch-Book-Fall ein.
Ein Dutch Book ist eine Wette, bei der man systematisch verliert. Eine weitere Diskussion
dieser Ansatze findet man in Gillies (1973) und Howson (1995).
Man kann sagen, dass man sich bei einer Wette nach dem Nutzen (utility) oder der
W
unschbarkeit der angebotenen Alternativen entscheidet. Die Beziehung zwischen durch
Nutzen erklarten Praferenzen und Wahrscheinlichkeit wird auch von Ramsey (1926) konstatiert. F
ur gewisse G
uter X, Y, . . . lat sich nach Ramsey eine Nutzenfunktion u()
definieren, die durch Einf
uhrung einer ethisch neutralen Aussage A0 kalibriert, also
geeicht, werden kann. Eine solche Aussage wird zum Grad 1/2 geglaubt, wenn man gegen
uber den Alternativen:
man bekommt X, wenn A0 wahr ist, und Y sonst, und
man bekommt Y , wenn A0 wahr ist, und X sonst
nicht entscheiden kann. Es seien nun X und Y zwei G
uter derart, dass f
ur eine der
beiden eine Praferenz existiert. Praferiert man X vor Y , so soll dies durch X  Y
ausgedr
uckt werden. A0 sei eine ethisch neutrale Aussage. Jetzt sei die Option A : Man
erh
alt X, wenn A0 wahr ist, sonst erh
alt man Y gegeben. Ramsey zeigt, dass dann eine
Option Z existiert, die genauso w
unschenswert ist wie A. Z wird dann die reelle Zahl
u(Z) = (u(X) + u(Y ))/2 zugewiesen. Weitere Optionen, die mitten zwischen u(X) und
u(Z) und u(Z) und u(Y ) liegen, k
onnen dann auf die gleiche Weise gefunden werden, etc.
Ramsey definiert dann Wahrscheinlichkeiten als Quotienten von Differenzen zwischen uWerten: angenommen, man sei indifferent zwischen X und der Option Man erh
alt Y ,
wenn A gilt, und Z, wenn nicht. Dann ist der Grad des Glaubens (degree of belief) in A,
d.h. die Wahrscheinlichkeit von A, durch
p(A) =

u(X) u(Z)
u(Y ) u(Z)

(30)

gegeben. Es kann dann gezeigt werden, dass die so definierten p-Werte den Wahrscheinlichkeitsaxiomen gen
ugen (mit (iii) statt (iii)). Savages (1954) auf Nutzenfunktionen
basierende Wahrscheinlichkeitsdefinition differiert von der in (30) gegebenen. Er f
uhrt
Axiome ein, die die Transitivitat von Nutzenwerten postulieren, sowie das sure thing
38 Dutch

Book: Eine Wette, bei der . . .

56

principle: Praferiert man die Option f vor der Option g, wenn die Ausage B wahr ist,
und wenn man auch sonst nicht g der Option f vorzieht, dann sollte man f in jedem
Fall g vorziehen. Merkw
urdigerweise ergeben sich dann Phanomene wie die sogenannte
Geldpumpe (money-pump) (Howson, p. 6): angenommen, man praferiert X vor Y . Dies
kann so ausgedr
uckt werden, dass der Wert von X sich aus dem Wert von Y plus einer
Konstanten p ergibt. Weiter praferiere man Y vor Z, aber gleichzeitig Z vor X. Dann
gilt also X = Y + p, Y = Z + q, und Z = X + r, so geht das immer weiter. Der
scheinbare Widerspruch in dieser Pumpe lat sich allerdings erklaren, wenn die Nutzenfunktionen nicht 1-dimensional, sondern in einem mehrdimensionalen Raum definiert

sind; darauf kann hier nicht weiter eingegangen werden. Eine formal strenge Ubersicht
u
ber die Axiome der subjektiven Wahrscheinlichkeit findet man in Fishburn (1986)39.
Die Literatur zur subjektiven Wahrscheinlichkeit ist extensiv; eine F
ulle von Angaben findet man etwa in Hajek (2007) und Howson (1995). Wesentlich f
ur den Ansatz ist
wohl die Annahme einer Kopplung von in irgendeiner Weise als w
unschenswert geltenden
Zustanden, und gewissen Glaubenszustanden. Diese Kopplung soll sich in den Praferenzen und den dazu korrespondierenden Wahrscheinlichkeiten manifestieren; Eriksson und
Hajek (2007)40 liefern eine kritische Diskussion dieser Annahme.
de Finettis Ansatz ist stark durch den (Neo-)Positivismus gepragt; Wahrscheinlichkeiten werden dementsprechend operational definiert:
In order to give an effective meaning to a notion and not merely an appearance
of such in a metaphysical-verbalistic sense an operational definition is required. By
this we mean a definition based on a criterion which allows us to measure it. (de
Finetti 1990, p. 76)

Sein Wettenkriterium:
The probability P (E) that You attribute to an event E is therefore the certain gain
p which You judge equivalent to a unit gain conditional on the occurrence of E:
in order to express it in a dimensionally correct way, it is preferable to take pS
equivalent to S conditional on E, where S is any amount whatsoever, one Lira or
one million, 20 US-Dollars or 75 Pounds. (de Finetti 1990, p. 75)

2.2.5

Objektive Wahrscheinlichkeiten

Man kann Objektivitat als eines der Ziele wissenschaftlichen Bem


uhens ansehen. Die
Wahrscheinlichkeit p(A), mit der ein Ereignis eintritt, kann ein objektive Eigenschaften
des Prozesses sein, der das Ereignis A zeitigt oder nicht. Die Begr
undung dieser Annahme
ist allerdings nicht einfach, denn sie erfordert Aussagen u
ber die Struktur der (Teil-)Welt,
in der das Ereignis A eintreten kann, etwa die Annahme, dass die Prozesse, die zum
Eintreten von A f
uhren konnen, nicht vollstandig determiniert sind. Diese Behauptung
f
uhrt zu der Frage, was denn mit der Determiniertheit oder Indeterminiertheit eines
Prozesses gemeint ist. Diese Frage soll vorerst nicht diskutiert werden.
Es sei nun A ein zufalliges Ereignis, d.h. es sei bereits bekannt, dass A unter gegebenen
Bedingungen gelegentlich und in nicht deterministisch voraussagbarer Weise eintritt. Ein
einzelner Versuch wird dann keine hinreichende Information u
ber die Wahrscheinlichkeit
p(A) liefern. Es liegt dann nahe, den Versuch unter moglichst identischen Bedingungen
n-mal zu wiederholen, um zu einer Schatzung p(A) = n(A)/n von p(A) zu gelangen;
p(A) ist eine relative Haufigkeit. Ein erster Versuch, Wahrscheinlichkeiten durch relative
39 Fishburn,
40 Eriksson,

P. C. (1986) The Axioms of Probability.Statistical Science, 1, 335-345


L., H
ajek, A. (2007) What are Degrees of Belief?. Studia Logica, 86, 183-213

57

Haufigkeiten zu definieren, geht wohl auf John Venn41 (1888) zur


uck; in einer Arbeit, in
der das Verhaltnis von Jungen- zu Madchengeburten diskutiert wurde, stellt er fest, dass
probability is nothing but that proportion. Venns Ansatz bezog sich allerdings auf endliche Populationen, womit die Frage vorprogrammiert ist, ob die Wahrscheinlichkeit von
Kopf gleich 8/10 ist, wenn beim M
unzwurf bei 10 W
urfen 8-mal die Kopf-Seite oben
gelegen hat (was eine zwar kleine, aber von Null verschiedene Wahrscheinlichkeit hat). Da
Wiederholungen unter moglichst identischen Bedingungen einer Versuchsreiche mit
n Versuchsdurchgangen zu unterschiedlichen Schatzungen p(A) f
uhren, die Unterschiede
zwischen den Schatzungen aber um so kleiner zu werden scheinen, je groer n ist, liegt
die auf von Mises (1928) zur
uckgehende Definition nahe:
Die Limesdefinition der Wahrscheinlichkeit:
p(A) = lim

n(A)
,
n

(31)

d.h. die Wahrscheinlichkeit eines zufalligen Ereignisses A ist gleich dem Grenzwert der
relativen Haufigkeit n(A)/n f
ur n gegen Unendlich; (31) charakterisiert die Limestheorie
der statistischen Wahrscheinlichkeit. Man spricht auch von der Definition der Wahrscheinlichkeit als statistische Wahrscheinlichkeit. Da die Wahrscheinlichkeit hier u
ber
Haufigkeiten erklart wird, ist auch von der frequentistischen Interpretation der Wahrscheinlichkeit die Rede.
Auf den ersten Blick scheint diese Definition groe Akzeptanz zu genieen, bei Meinungsumfragen, in der Marktforschung, bei Untersuchungen zur Wirksamkeit von Therapien, der Entdeckbarkeit schwacher Stimuli, der Aktivierung von Neuronen, der Vererbbarkeit von Merkmalen etc. ist es Standard, Wahrscheinlichkeiten durch relative Haufigkeiten abzuschatzen. Aber bei der Limesdefinition geht es um die Definition von Wahrscheinlichkeiten als Grenzwerten, nicht um die Schatzung von Wahrscheinlichkeiten. Diese
Definition hat eine Reihe offenkundiger Mangel.
Hajek (2007) argumentiert, dass f
ur eine M
unze, die nie geworfen wird, u
berhaupt
keine Wahrscheinlichkeit definiert sei. Werde eine M
unze gerade einmal geworfen, so gabe
es f
ur sie nur die Wahrscheinlichkeiten 1 (f
ur die oben liegende Seite) und 0 (f
ur die unten
liegende Seite). Dies ist das Problem des einzelnen Falles: viele Ereignisse sind gar nicht
wiederholbar. So kann man sich fragen, wie wahrscheinlich es ist, dass Deutschland bei
der nachsten Fuballweltmeisterschaft auf den ersten Platz kommt, bekommt darauf aber
keine Antwort, will man diese Wahrscheinlichkeit als relative Haufigkeit definieren. Die
in der Astrophysik diskutierte Frage, ob das Universum offen oder geschlossen sei,
wobei es von Quantenfluktuationen abhange, welche dieser beiden Alternativen eintrifft,
kann nicht durch Hinweis auf relative Haufigkeiten beantwortet werden.
Weiter ergibt sich das Problem der Referenzklasse. Von Mises Definition ist mit der
Gleichung (31) nicht erschopft: sie gilt nur in Bezug ein bestimmtes Kollektiv. Die Frage,
wie wahrscheinlich es ist, dass ein bestimmter Student sein Studium abbricht, wird durch
den Hinweis, dass 25% aller Studierenden ihr Studium abbrechen, nicht adaquat behandelt, da das Kollektiv, dem er angehort, unterspezifiziert ist: seine Wahrscheinlichkeit
hangt davon ab, ob er wohlhabende und wohlwollende Eltern hat, und ob sein IQ u
ber
oder unter dem f
ur sein Fach typischen Durchschnitt liegt, wie ausgepragt seine Motivation ist und wie sein Gesundheitszustand ist, die Liste lat sich fortsetzen, so dass die
Wahrscheinlichkeit f
ur den betrachteten Studierenden u
ber oder unter p(A) = .25 liegen
kann.
41 : Venn, J.: The Logic of Chance, by John Venn (1888). Dover Publications, 2006; die wesentlichen
Ideen scheint Venn aber schon 1876 publiziert zu haben, vergl. H
ajek, 2007

58

Stegm
uller (1973) hat eine Reihe von problematischen Punkten der Limeskonzeption
der Wahrscheinlichkeit aufgef
uhrt, von denen einige vielleicht geheilt werden konnen,
andere aber todlich seien. Einige sollen hier angegeben werden:
1. Die Annahme einer unendlichen Folge von Experimenten, die der Definition (31)
unterliegt, sei eine unzulassige Fiktion, da die Objekte, mit denen die Experimente durchgef
uhrt werden (W
urfel, physikalische Megerate, etc.) nur eine endliche
Lebenszeit haben.
2. Der Fall sich mit der Zeit andernder Wahrscheinlichkeiten konne nicht abgebildet
werden.
3. Die Frage nach der Wahrscheinlichkeit von Einzelereignissen bleibe offen; von Mises
hat es grundsatzlich abgelehnt, von Wahrscheinlichkeiten in Zusammenhang mit
Einzelereignissen zu reden.
4. Es stehen stets nur endlich viele Beobachtungen zur Verf
ugung. Es lat sich aber
zeigen, dass jede endliche Folge aber mit der Annahme eines beliebigen Grenzwerts
vertraglich ist. Daraus folgt, dass sich der Grenzwert einer Folge, die eine statistische Wahrscheinlichkeit definieren soll, schon nach endlich vielen Beobachtungen
gewissermaen abzeichnen mu. Man kann mit Stegm
uller sagen, dass dies eine
irrationale Zusatzannahme ist, die in der Definition (31) noch gar nicht enthalten
ist.
5. Die Limesdefinition fordert nicht explizit, dass die Ereignisfolge in einer bestimmten
Weise geordnet ist. Implizit ist aber eine solche Forderung vorhanden. Ein Beispiel
(Stegm
uller (1973), p. 39) ist die Folge 1, 0, 1, 0, 1, 0,. . .. Der Grenzwert der relativen
Haufigkeiten von Einsen ist hier 1/2. Die Folge lat sich aber umordnen in 1, 1,
0, 1, 1, 0, . . . (man mu hier ber
ucksichtigen, dass es sich um unendliche Folgen
handelt). Bei der letzten Folge ist der Grenzwert aber 2/3. Ein anderes Beispiel
ist ein Mechanismus, der die nat
urlichen Zahlen erzeugt. Dabei gibt es gerade und
ungerade Zahlen. Ist A das zufallige Ereignis, dass eine gerade Zahl erzeugt wird, so
sollte p(A) = 1/2 resultieren, denn es gibt ebensoviele gerade wie ungerade Zahlen.
Es ist aber denkbar, dass eine Folge G, G, G, U, G, G, G, U; . . . erzeugt wird,
wobei G f
ur eine gerade Zahl, U f
ur eine ungerade Zahl steht. Bei dieser Folge
wahre P (A) > 1/2.
6. Der Begriff des Grenzwerts impliziert, dass ein mathematisches (Bildungs-)Gestz
existiert, dass f
ur ein gegebenes Glied einer Folge das jeweils nachfolgende Glied
eindeutig festgelegt wird. Genau dies widerspricht aber der Annahme einer Zufallsfolge, die der Definition (31) unterliegt.
7. Die Definition (31) der Wahrscheinlichkeit eines zufalligen Ereignisses impliziert
einen logischen Zirkel. Denn eine Voraussetzung f
ur (31) ist, dass einzelnen Beobachtungen voneinander unabhangig sein m
ussen. Gemeint ist aber stochastische
Unabhangigkeit, deren Definition bereits einen Wahrscheinlichkeitsbegriff voraussetzt.
8. Aus der mathematischen Statistik sind das schwache und das starke Gesetz der
Groen Zahlen bekannt. Gegeben sei eine Folge zufalliger Veranderlicher X1 , X2 , . . .
mit identischem Erwartungswert42 , und es sei x
n = (X1 + + Xn )/n. Das
P
Erwartungswert einer zuf
alligen Ver
anderlichen X ist durch E(X) =
i pi Xi gegeben, wenn
X diskret ist, wobeiR pi = P (X = Xi ) ist und die Summation u
oglichen i = 1, 2, . . . geht,
ber alle m

oder durch E(X) =


xf (x)dx, wenn X stetig ist. Der Erwartungswert entspricht dem arithmetischen
Mittel u
oglichen Werte von X.
ber alle m
42 Der

59

Schwache Gesetz der Groen Zahlen besagt, dass


lim P (|
xn | < ) = 1,

f
ur alle > 0.

(32)

Man sagt, dass x


stochastisch gegen konvergiert.
Das Starke Gesetz der Groen Zahlen besagt
P ( lim x
n = ) = 1,
n

(33)

d.h. der Stichprobenmittelwert x


n konvergiert fast sicher gegen . Es lat sich
zeigen, dass das Starke das Schwache Gesetz impliziert. Gilt nun

0, wenn A
Xi =
1, wenn A
A ein zufalliges Ereignis, mit
p(A) = p f
ur alle i
und x
n = pn = n(A)/n, wobei pn die relative Haufigkeit von A in der Folge
X1 , . . . Xn ist, und = p die Wahrscheinlichkeit von A. Die Ausssage (32) nimmt
dann die Form




n(A)


lim P
p(A) < = 1
(34)
n
n

an. Im Vergleich dazu behauptet (31) aber


lim

n(A)
n(A)
= p(A), d.h. lim
p(A) = 0.
n
n
n

Diese Aussage unterscheidet sich sehr von (34), wo ja ausgesagt wird, dass die
Wahrscheinlichkeit P , dass n(A)/n von p(A) nur beliebig wenig abweicht, gleich
1 ist. Dies bedeutet, dass der Wahrscheinlichkeitsbegriff f
ur die Charakterisierung
von P bereits vorhanden sein mu, und dass dar
uber hinaus die relative Haufigkeit
n(A)/n von p(A) auch f
ur n abweichen kann, denn die Aussage (34) bedeutet,
dass |n(A)/n p(A)| < eben nur fast sicher. Die von Misessche Definition des
Wahrscheinlichkeitsbegriffs erlaubt solche Abweichungen nicht. Der Versuch, auch
P wieder u
uhrt nat
urlich
ber den Limes einer relativen Haufigkeit zu definieren, f
sofort in einen infiniten Regress. Stegm
uller (1973) nennt die Zirkelhaftigkeit bzw.
den implizierten infiniten Regress der Limesdefinition als todlich f
ur die von Misessche Definition, denn praktische Sicherheit (wird) mit logischer Notwendigkeit
verwechselt (p. 37). Der Wahrscheinlichkeitsbegriff kann nicht durch die Limesdefinition spezifiziert werden.
Poppers Propensit
atsmodell43 Will man Wahrscheinlichkeiten nicht als epistemische
Groen sehen, so mu man die Prozesse oder Bedingungen, die ein Ereignis nicht mit
Bestimmtheit eintreten oder nicht eintreten lassen, sondern mit einer Wahrscheinlichkeit
p, 0 p 1, eintreten lassen, in die Natur verlegen. 0 < p(A) < 1 etwa bedeutet, dass A
unter gegebenen Randbedingungen, die implizit den Wert von p festlegen, nicht vollstandig determinieren, denn sonst ware A ja determiniert, so dass entweder p(A) = 0 oder
p(A) = 1. Popper (1957, 1959, 2001) hat, um insbesondere Wahrscheinlichkeitsaussagen
f
ur Einzelereignisse zu ermoglichen, nun postuliert, dass es eben gewisse Propensit
aten,
43 propensity

- Neigung, Tendenz, . . .

60

also gewisse Tendenzen oder Neigungen gewissermaen im Versuchsaufbau gabe, die dazu
f
uhrten, dass ein zufalliges Ereignis bei einem Versuchsdurchgang entweder eintritt oder
nicht. Die Art oder Ausgepragtheit der Propensitat bestimme den Wert von p = p(A).
Propensitaten sind, nach Popper, objektive, relationale Merkmale, die in der Wirklichkeit
existieren. Dar
uber hinaus soll der Propensitatsbegriff den logischen Wahrscheinlichkeitsbegriff mit umfassen. Er mu deshalb eine neue Wahrscheinlichkeitsaxiomatik einf
uhren,
da die Kolmogoroff-Axiome (i) bis (iii) bzw. (iii)sich zunachst nur auf absolute Wahrscheinlichkeiten beziehen; die damit kompatible Definition der bedingten Wahrscheinlichkeit, P (A|B) = P (A B)/P (B), macht aber nur Sinn, wenn P (B) 6= 0. Der Bezug
auf logische Wahrscheinlichkeiten soll es ermoglichen, auch Hypothesen Wahrscheinlichkeiten zuzuordnen, und da Popper der Ansicht ist, dass die logische Wahrscheinlichkeit
von Hypothesen gleich Null sei, ergeben sich mit dem Bayesschen Begriff der bedingten
Wahrscheinlichkeit Probleme (vergl. Logik der Forschung, Anhang VII).
Die Propensitatstheorie Poppers ist ausf
uhrlich und intensiv diskutiert worden. Diese
Diskussion kann hier nur aspektweise wiedergegeben werden. Keuth (1976) hat insbesondere Poppers Versuch, Propensitat und logische Wahrscheinlichkeit zusammenzubringen,
analysiert und verworfen. Eine zentrale Frage bei Popper ist, ob die Zufalligkeit eines Ereignisses unter gegebenen Bedingen eine genuine Indeterminiertheit impliziert oder nur
eine scheinbare, die sich aus der Komplexitat der nicht im Detail beobachtbaren Prozesse
ergibt. Die Frage nach der allgemeinen G
ultigkeit des Determinismus ist dazu komplementar. Der Determinismus ist, sehr intuitiv und fast schon salopp gesagt, die Lehre, dass
kein Ereignis ohne Ursache geschieht, dass Ursache-Wirkungsgef
uge durch Naturgesetze
beschrieben werden konnen und dass die Zukunft vorhersagbar ware, kennte man denn
alle Naturgesetze.
Laplace (1814) hat eine Definition des Determinismus gegeben, die gleichzeitig dessen
Problematik aufzeigt. Ausgehend von der Annahme, dass jedes Ereignis kausal auf ein
anderes zur
uckgef
uhrt werden m
usse, fand er, dass es notwendig sei, eine Intelligenz
(den Laplaceschen Damon) einzuf
uhren, die zu jedem Zeitpunkt alle Elemente des Universums kennt und die u
ugt. Dieser Damon
ber eine unbegrenzte Rechenkapazitat verf
hat stets nicht nur die gesamte Vergangenheit, sondern auch die gesamte Zukunft des
Universums vor Augen. Offenbar verf
ugen Menschen nicht u
ber diese damonische Eigenschaft. Im Sinne der Laplaceschen Determiniertheit konnen demnach Ereignisse nur
deswegen als zufallig erscheinen, weil man nicht alle Bedingungen f
ur ihr Eintreten
Ereignisses kennt. Wahrscheinlichkeiten waren demnach grundsatzlich als epistemische
Wahrscheinlichkeiten zu interpretieren.
Earman (1986) liefert eine F
ulle von Einsichten zum Thema Determinismus, die den
schnellen Schlu von Interpretationen der Wahrscheinlichkeit als Ausdruck einer Propensitat auf den Indeterminismus als sehr gewagt erscheinen lassen (vergl. insbesondere
Kapitel VIII: Randomness in Earman (1986)); ein determinierter Prozess ist ja nicht
notwendig auch vorhersagbar. Suppes (1993) elaboriert weiter den wichtigen Unterschied
zwischen Determiniertheit und Vorhersagbarkeit, der in vielen philosophischen Arbeiten
verwischt werde. Nicht nur sind deterministische Systeme nicht notwendig auch voraussagbar in ihrem Verhalten, sondern umgekehrt lassen sich auch f
ur stochastische44 , also
zuallige Prozesse gewisse deterministische Aspekte, wie sie in Grenzwerttheoremen ausgedr
uckt werden, finden. So haben Cox und Smith (1953) den Effekt der deterministischen

Uberlagerung
deterministischer Prozesse betrachtet und gefunden, dass die Wartezeiten
zwischen bestimmten Ereignissen asymptotisch exponentialverteilt sind. Diese Verteilung
ergibt sich aber auch, wenn die Ereignisse vollig zufallig eintreten. Die relativen Haufigkeiten, mit denen dann die jeweiligen Wartezeiten auftreten, reflektieren dann nicht den
44 griech.:

den Zufall betreend

61

Zufall an sich, sondern Zufall als supervenierendes Phanomen (vergl. Wissenschaftstheorie IV, Abschnitt 3.4). Suppes (1993) verweist auf die Resultate von Poincare, der zeigte,
dass die Approximationen (Reihenentwicklungen) der Losungen f
ur Gleichungen f
ur ein
zun
achst einfach erscheinendes mechanisches Problem, dem Drei-Korper-Problem (man
denke an drei Billiardkugeln), divergieren statt konvergieren, wobei man bedenken mu,
dass dieses Problem kein nicht weiter interessierender Spezialfall in der Mechanik ist.
Die Gleichungen sind zwar deterministisch, d.h. enthalten keine Terme, die Zufalligkeit
reprasentieren, konnen aber f
ur die meisten Falle nicht so gelost werden, dass sich eine
vollstandige Vorhersagbarkeit der jeweiligen Prozesse ergabe. Chaos in deterministischen
Systemen impliziert ebenfalls eine de facto-Unvorhersagbarkeit des Verhaltens. Generell
kann man Indeterminiertheit in dynamischen Systemen betrachten. Suppes (1993) zitiert ein Resultat von Ornstein, diskutiert in Ornstein und Weiss (1991)), das hier in der
Suppesschen Fassung wiedergegeben werden soll (Suppes (1993), p. 254 Theorem 4):
Ornstein: There are processes which can equally well be analyzed as deterministic systems in classical mechanics or as indeterministic semi-Markov processes, no
matter how many observations are made.45

Die Charakterisierung eines stochastischen Prozesses, hier also die eines Semi-MarkovProzesses, bedeutet stets die Spezifikation von Wahrscheinlichkeitsmaen, die, dem Ornsteinschen Satz zufolge, nicht ontologisch auf Indeterminiertheit zur
uckgef
uhrt werden
m
ussen, gleichwohl aber objektive Merkmale des Prozesses abbilden.
Der Laplacesche Determinismus wird in philosophischen Diskussionen auch als ontologischer Determinismus bezeichnet. van Kampen (1991) verweist darauf, dass der ontologische Determinismus auf der Basis von Beobachtungen weder bewiesen noch widerlegt
werden kann. So kann man zunachst, auf einem mikroskopischen Niveau, die Bewegung
der Molek
ule eines Gases durch deterministische Differentialgleichungen beschreiben (Laplacesche Welt). Das gesamte System kann auf einem makroskopischen Niveau wiederum
durch deterministische Differentialgleichungen charakterisiert werden, die allerdings nur
approximativ gelten, da die makroskopischen Variablen kleine, irregulare Schwankungen,
Fluktuationen, aufweisen. Um diese vollstandig beschreiben zu konnen, m
ussen alle Gleichungen f
ur das mikroskopische Niveau gelost werden, was unmoglich ist. Moglich ist
allerdings eine Charakterisierung der durchschnittlichen Fluktuationen. Das so beschriebene System erscheint dann als nicht deterministisch, auch wenn die deterministischen
Approximationen eine groe Genauigkeit haben. Befinden sich Systeme jedoch in ei
nem instabilen Gleichgewichtszustand, konnen auch kleine Fluktuationen Uberg
ange in

qualitativ verschiedene Zustande des Systems bewirken. Diese Uberg


ange erscheinen als
zufallig und konnen grundsatzlich auch nur statistisch beschrieben werden. Wie schon
in Ornsteins Theorem haben die Wahrscheinlichkeiten einen objektiven, physikalischen
Hintergrund. Nat
urlich konnte man hier von einem Laplaceschen Determinismus reden,
der uns nur deshalb ein stochastisches Bild der Welt oder von Teilen der Welt liefert, weil
wir keine Laplaceschen Damonen sind. Die Wahrscheinlichkeiten hatten dann stets auch
eine epistemische, subjektive Komponente. Allerdings hat Chaitin (1986) darauf hingewiesen, dass bestimmte Gleichungen nur Losungen f
ur bestimmte Parameterwerte haben,
diese Parameterwerte aber nicht in einer systematischen, d.h. algorithmischen Weise gefunden werden konnen. Der Zufall kann also seinen Ursprung bereits in der Mathematik
haben und vererbt sich so in das physikalische Geschehen, ohne dass ein Laplacescher
45 Markov-Prozesse sind stochastische Prozesse, bei denen der Ubergang

zum n
achsten Zustand nur vom
gegenw
artigen Zustand abh
angt (Unabh
angigkeit von der Vergangenheit). Ist die Menge der Zust
ande
dskret, so hat man eine Markov-Kette. Ist die Verweildauer in einem Zustand wiederum zuf
allig verteilt,
so kann die Markov-Eigenschaft verloren gehen. H
angt die Verteilung der Verweildauer nur vom zuletzt
eingenommenen Zustand ab, so erh
alt man einen Semi-Markov-Prozess.

62

Damon dieses berechnen konnte. Anders ausgedr


uckt: falls es eine allgemeine Isomorphie
zwischen physikalischen Prozessen und den ihnen entsprechenden mathematischen Systemen gibt, reflektiert der Zufall, der sich in der nicht vorhersagbaren Losbarkeit bestimmer
Gleichungen auert, den Zufall im physikalischen System, wobei noch nicht einmal die
von vielen Physikern postulierte Akausalitat in quantenmechanischen Systemen gemeint
sein mu. Wahrscheinlichkeiten sind dann objektiv im strengen Sinne des Wortes.
Aber solche Betrachtungen scheinen nur Plausibilitatscharakter zu haben, die f
ur Philosophen nicht hinreichend sind. So stellt Rosenthal (2006) zunachst einmal fest, dass die
Propensitatstheorie den Indeterminismus impliziere (p. 255). Wenn bei einem einzelnen
Vorgang das Ergebnis durch bestehende Faktoren zu einer bestimmten Kausalkette
f
uhrt, diese aber vom Beobachter nicht gekannt werde, so sei das Resultat eben nicht
objektiv (ontologisch), sondern allenfalls subjektiv f
ur uns (epistemisch) offen, und eine
Wahrscheinlichkeitszuordnung sei dann auch keine objektive, sondern eben epistemische
Zuordnung. Ontologisch offen sei im deterministischen Fall nur ein Ausgang des Experiments, d.h. p(A) = 0 oder p(A) = 1. Eine Einzelfallwahrscheinlichkeit p(A), 0 < p(A) < 1
sei nur im genuin indeterministischen Fall moglich, und das bedeute dann, dass sich bei
einer Reihe von Versuchen das Ereignis A manchmal einstelle und manchmal nicht. Die
offene Frage sei nun, warum sich gerade bestimmte relative Haufigkeiten einstellen (also
eine bestimmte Verteilung solcher Haufigkeiten). Diese werden nun, nach Popper, durch
die bestimmten Tendenzen seine Propensitaten erzeugt, die durch die Versuchsbedingungen mit festgelegt werden. Diese Tendenzen m
ussen aber so sein, dass sie mit den
Axiomen der Wahrscheinlichkeit kompatibel sind, aus denen wiederum das Gesetz der
Groen Zahlen46 folgt. Hier nun taucht aber wieder die Wahrscheinlichkeit P auf, mit
der die relative Haufigkeit n(A)/n in der Nachbarschaft von p(A) liegt, und es gilt nun,
so Rosenthal, dieses P wiederum propensitatstheoretisch zu erklaren. Man laufe hier also
wie bei der Limestheorie in einen Zirkel. Die Propensitaten sollen die Wahrscheinlichkeiten p(A) erklaren, und dies gelingt nur u
ber die Annahme, dass sich die Propensitaten
mit einer bestimmten Wahrscheinlichkeit P manifestieren:
Dispositionelle Wahrscheinlichkeiten wollen wir, und probabilistische Dispositionen haben wir bekommen. (Rosenthal (2006), p. 257)
Popper hat versucht, die Propensitaten als eine Verallgemeinerung des Kraftbegriffs aufzufassen, bzw. als eine Verallgemeinerung des Kausalitatsbegriffs; Propensitaten seien
indeterministische kausale Verkn
upfungen. Das Problem bei solchen Begriffsbeildungen
ist aber nach Rosenthal, dass man am Ende bei einem probabilistischen Kraft- oder
Kausalitatsbegriff ende, bei dem also der Begriff der Wahrscheinlichkeit schon vorausgesetzt sei und nicht erklart werde. Ein indeterministischer Kausalitatsbegriff impliziert ja,
dass bestimmte Ursache-Wirkungs-Verkn
upfungen eben nur mit einer bestimmten Wahrscheinlichkeit zustande kommen. Rosenthal argumentiert, dass der Propensitatsbegriff
nur eine bildhafte Untermalung, die sachlich nichts leistet (p. 257) sei. Man konne nun
auf die Idee kommen, objektive Wahrscheinlichkeiten als nicht weiter reduzierbare Groen
aufzufassen. Dann mu man aber die Wahrscheinlichkeitsaxiome postulieren und kann
sie, entgegen dem Ziel der Propensitatstheorie, nicht ableiten, d.h. diese Axiome werden
dann nicht erkl
art. Das Kernproblem der Popperschen Propensitatstheorie der objektiven
Wahrscheinlichkeit scheint dann darin zu liegen, die Wahrscheinlichkeit P in (34) erklaren zu m
ussen. Dieses P m
usse im Zusammenhang mit der Propensitatstheorie aber als
epistemische Wahrscheinlichkeit aufgefasst werden, also als eine subjektive Wahrscheinlichkeit, die den objektiven Wahrscheinlichkeiten p(A) aufgesattelt wird (Rosenthal
46 Eigentlich die Gesetze der groen Zahlen, denn es gibt das schache und das starke Gesetz der groen
Zahlen. Die Unterscheidung bezieht sich allerdings nur auf den jeweils zugrunde gelegten Konvergenzbegri, die Kernaussage ist bei beiden Gesetzen dieselbe.

63


(2006), p. 263). Rosenthal auert die Uberzeugung,
dass bisher kein wirklich u
berzeugender Begriff der objektiven Wahrscheinlichkeit vorliegt, dass man aber gleichwohl nicht
auf einen solchen Begriff verzichten konne, da er durch Phanomene wie den radioaktiven
Zerfall impliziert werde. Die Frage der Deutung des radioaktiven Zerfalls wird allerdings
in Wissenschaftstheorie IV wieder aufgenommen; es wird dort argumentiert, dass es auch
beim radioaktiven Zerfall nicht zwingend ist, eine genuine Indeterminiertheit zu postulieren. Befunde wie Ornsteins Theorem und Chaitins Ergebnisse legen nahe, dass man
nicht auf Interpretationen der Quantenmechanik, die einen Indeterminismus postulieren,
zur
uckgreifen mu, um objektive Wahrscheinlichkeiten zu definieren.
Die Frage ist nun , wie ein objektiver Begriff der Wahrscheinlichkeit einzuf
uhren ist.
Stegm
uller argumentiert, dass die Schwierigkeit einer solchen Einf
uhrung erst aus dem
reduktionistischen Postulat resultiert, dass Wahrscheinlichkeit auf schon zur Verf
ugung

stehende mathematische oder empirische Begriffe zur


uckgef
uhrt werden m
usse. Die Uberwindung dieser Schwierigkeit konnte einfach derin bestehen, dieses Postulat fallen zu
lassen. Wahrscheinlichkeit bezeichnete dann einfach ein Attribut nat
urlicher Vorgange
per se, das nicht weiter begr
undet oder analysiert werden kann und auch nicht, wie der
subjektive oder epistemische Wahrscheinlichkeitsbegriff, auf logische Relationen, Wetten
oder Nutzenbetrachtungen zur
uckgef
uhrt werden mu. Szabo (2007) scheint eine ahnliche
Interpretation des Wahrscheinlichkeitsbegriffes vorzuschlagen.
Rosenthal (2004) diskutiert eine Reihe weiterer Ansatze, den Begriff der ontischen
oder objektiven Wahrscheinlichkeit zu definieren. Zu diesen Ansatzen gehort auch das
von Lewis (1980) aufgestellte Principal Principle, bei dem epistemische und objektive
Wahrscheinlichkeit miteinander verbunden werden sollen. Es sei P eine rationale Degreeof-Belief-Funktion, A sei eine Aussage, derzufolge ein bestimmtes Ereignis zu einer spezifizierten Zeit t eintritt, und Ap ist die Aussage, dass mit der objektiven Wahrscheinlichkeit
p die Aussage A zutrifft. Weiter sei E irgendeine Aussage, die mit Azur Zeit t kompatibel
ist. Dann soll gelten
P(A|Ap &E) = p.
(35)
Beim Principal Principle werden also eine subjektive Wahrscheinlichkeit P und eine objektive Wahrscheinlichkeit p miteinander verkn
upft: die subjektive Wahrscheinlichkeit P,
dass A gilt, unter der Bedingung, dass das in A spezifizierte Ereignis mit der objektiven
Wahrscheinlichkeit p eintritt. Earman (1992) verweist darauf, dass ein ahnlicher Ansatz
schon bei Thomas Bayes (1764) auftaucht. Das Prinzip ist ein Br
uckenprinzip, mit dem

die objektiven Wahrscheinlichkeiten p(A) mit den vern


unftigen Uberzeugungsgraden,
wie sie in P impliziert manifestiert werden, verbindet. Die Lewisschen Arbeiten gehen von
der Humeschen Supervenienz aus: nach Hume ist die Welt eine Ansammlung bzw. Mosaik
lokaler Fakten, Naturgesetze spiegeln nur irgendwelche Regelmaigkeiten in diesem Mosaik wieder, sie supervenieren u
ber diesem Mosaik, d.h. sie bestimmen das Bild, das wir
extrahieren und gewissermaen hinzugef
ug werden. Kausalrelationen ergeben sich dabei
als Interpretation von konstanten Konjunktionen zwischen Objekten, wie sie vom Subjekt wahrgenommen werden. Rosenthal (2004) argumentiert, dass auch hier kein u
berzeugendes Konzept f
ur objektive Wahrscheinlichkeiten geliefert wird, es sei denn, man
akzeptiere, dass genuine, nicht weiter reduzierbare Indeterminiertheit existiert. Ob dieses
Argument zwingend ist, sei in Hinblick auf Ornsteins Theorem dahingestellt (Rosenthal
diskutiert das Theorem nicht). Auf die Frage nach genuiner Indeterminiertheit wird im
Skript Wissenschaftstheorie IV zur
uckgekommen.
Earman (1992) sieht andere Probleme, die mit dem Principal Principle verbunden
sind. Zunachst habe es den Vorteil, zu erklaren, wie wir die Parameter objektiver (Zufalls)Parameter, etwa den einer Binomialverteilung, kennen lernen. Dazu betrachte man ein
Bernoulli-Experiment: es werde eine Folge von i.i.d. (independent and identically distributed) zufalligen Veranderlichen Xj = {0, 1} beobachtet: Xj = 0, wenn im j-ten
64

Versuch ein spezifiziertes Ereignis A nicht eintritt, und Xj = 1, wenn es eintritt, und
P (Xj = 1) = p f
ur alle j. Dann lat sich ein Ma P auf Teilmengen der Menge aller
moglichen Resultate einer unendlichen Wiederholung von Bernoulli-Experimenten konstruieren derart, bei denen die relative Haufigkeit von A mit P = gegen p strebt. Dies
ist das Starke Gesetz der Groen Zahlen. Es werde nun eine a-priori-Wahrscheinlichkeit
ungleich Null f
ur die Hypothese, dass die objektive Wahrscheinlichkeit f
ur A gleich p ist,
gew
ahlt; dann strebt die a-posteriori-Wahrscheinlichkeit P f
ur diese Hypothese f
ur fast
jede unendliche Wiederholung des Experiments gegen p, und dies ist die Aussage des
Principal Principles. Nach Earman gilt nun: The mathematics are impeccable, but the
metaphysics remains murky: es bleibt unklar, warum bei unendlich vielen Wiederholungen des Bernoulli-Experiments das Ma P gegen die objektive Wahrscheinlichkeit p
streben soll.

2.3

Bayesianische und frequentistische Statistik

Man kann sagen, dass der Versuch, Wahrscheinlichkeiten als objektive Groen zu definieren, in irgendeiner Form auf Propensitaten basiert, auch wenn damit nicht notwendig
der Poppersche Propensity-Vorschlag gemeint ist. Rosenthal (2006) stellt die grundsatzliche Moglichkeit objektiver Wahrscheinlichkeit zwar nicht in Frage, ist aber der Ansicht,
dass zumindest die Poppersche Version einer Propensitatstheorie auf eine Charakterisierung von Wahrscheinlichkeiten hinauslauft, die sie als subjektive Groen ausweist. Die im
letzten Abschnitt angef
uhrten Ergebnisse legen aber nahe, dass man sich dieser Ansicht
nicht anschlieen mu. Stegm
uller (1973) hat eine Reihe kritischer Anmerkungen u
ber
subjektive Wahrscheinlichkeiten gemacht, auf die kurz eingegangen werden soll.
Zunachst lat sich feststellen, dass de Finettis Definition von Wahrscheinlichkeiten
u
ber Wettquotienten eine rein operationalistische Definition ist. Der Vorteil ist zunachst,
dass nichts u
un ber die i.A. nicht direkt beobachtbaren und insofern metaphysischen Gr
de zufalligen Geschehens gesagt zu werden braucht. Ein Vorteil dieses Ansatzes ist, dass
man nicht an einem generellen Ursache-Wirkungsprinzip zweifeln mu und auch die Idee
eines vollstandigen Determinismus (Einstein: Gott w
urfelt nicht) nicht aufgeben mu.
Ein Ereignis erscheint als zufallig, weil man keine vollstandige Kenntnis u
ber die zu ihm
f
uhrende Kausalkette hat. Sollte es einen echten Zufall im Sinne mangelnder oder unvollstandiger Kausalitat f
ur das jeweilige Ereignis geben, so ist auch dieser Fall durch
die Definition der Wahrscheinlichkeit u
ber den Wettquotienten abgedeckt. Woher die
Person die Nutzenwerte hat, die ihren Wetten entsprechen, wird offengelassen. Nach de
Finetti ist jedenfalls der Glaube an eine mit physikalischen Systemen verkn
upfte objektive Wahrscheinlichkeit [ein] Spezialfall eines metaphysischen Irrglaubens, der auf einer

unberechtigten Ontologisierung und Hypostasierung subjektiver Uberzeugungsgrade


beruht. (Stegm
uller, p. 221) Ein Vorteil der de Finettischen Definition sei sicherlich die
Entscheidbarkeit von Wahrscheinlichlichkeitsaussagen, die bei objektiven Wahrscheinlichkeitsaussagen nicht notwendig gegeben ist. Ihr Nachteil ist ein radikaler Verifikationspositivismus, in der Tat ergibt sich hier die Problematik der Protokollsatze, wie sie
schon im allgemeinen Programm des (Neo-)Positivismus auftauchte.
Ein Fehler in der von Miseschen Haufigkeitsdefinition der Wahrscheinlichkeiten ist das
Postulat, dass die relativen Haufigkeiten n(A)/n gegen die wahre Wahrscheinlichkeit
p(A) streben. Dem (schwachen) Gesetz der Groen Zahlen zufolge gilt aber nur, dass die
Wahrscheinlichkeit, dass |n(a)/n p(A)| < f
ur alle > 0 gilt, gleich 1 ist. Diese Wahrscheinlichkeit kann nicht frequentistisch definiert werden, ohne dass ein infiniter Regress
resultiert. Bei der subjektiven Wahrscheinlichkeitsinterpretation konvergieren die relativen Haufigkeiten gegen einen Wert g E (f ), die nach Stegm
uller das fiktive subjektivistische
Analogon zum Begriff der objektivistischen Wahrscheinlichkeit darstellt. Sie sei fiktiv, weil
65

g E (f ) dazu dienen soll, in der Sprache der subjektivistischen Theorie Aussagen u


ber objektive Wahrscheinlichkeiten zu rekonstruieren, obwohl g E (f ) keine Wahrscheinlichkeit
sei.
Die Subjektivisten sind sich nicht einig, wor
uber man sinnvollerweise Wetten abschlieen kann. Nach de Finetti kann man nur dann Wetten abschlieen, wenn sich danach
Gewinne und Verluste ohne Diskussion verteilen lassen. Wetten konnen nur auf verifizierbare Hypothesen geschlossen werden. Savage dagegen nimmt an, dass Hypothesen
Wahrscheinlichkeiten zugeordnet werden konnen. Da er an der Wettidee festhalt, folgt,
dass er mit der Natur Wetten abschlieen m
ute und es dabei einen allwissenden Schiedsrichter geben m
ute, der den Gewinn aushandigte.
Die richtige Grundannahmen werden diskutiert. Der Objektivist kann darauf hinweisen, dass den Subjektivisten keine Rekonstruktion probabilistischer Aussagen zu den
Einzelwissenschaften gegl
uckt sei. Zum Beispiel wenn es um quantenmechanische Vorgange ginge: sind die Vorgange probabilistischer Natur, und kann man diese durch Wetten
charakterisieren? Die Subjektivisten verweisen darauf, dass es um die Vermeidung metaphysischer Annahmen ginge. Aber: man mu bedenken, dass metaphysische Thesen bei
Erfahrungswissenschaftlern nicht auf Ablehnung, sondern auf gelangweiltes Desinteresse stoen, der Hinweis auf Metaphysik begr
undet nicht eine einzigmogliche Wahl eines
Wahrscheinlichkeitsmodells.
Stegm
uller argumentiert, dass hinter der Unterscheidung zwischen subjektiver und
objektiver Wahrscheinlichkeit nicht zuletzt die Forderung nach strikter Definierbarkeit
des Wahrscheinlichkeitsbegriffes steht. Aber die Forderung nach strenger Definierbarkeit
ist im Wissenschaftsbetrieb sicherlich gar nicht immer erf
ullbar: es wird zum Beispiel u
ber
(psychische) Depressionen geforscht, ohne dass eine eindeutige Definition dieser Erkrankung vorliegen mu. Im Gegenteil, Forschungen f
uhren oft erst zu einer Definition. Die
Definition von Wahrscheinlichkeit durch Angabe eines Wettquotienten ist zum Beispiel
eher hinderlich, wenn man die Aktivierung von Neuronen im Rahmen der Theorie der
Diffusionsprozesse modelliert. In solchen Modellen wird man die Wahrscheinlichkeit, dass
ein Aktionspotential in einem Zeitabschnitt [t, t + t) erzeugt wird, kaum jemals explizit
u
ber eine Wette erklaren wollen, sondern u
ber die Menge der vom Neuron empfangenen
Spikes und Prozesse an der Zellmembran. Der Wahrscheinlichkeitsbegriff taucht hier auf
als eine vielleicht verk
urzte, sicherlich aber effiziente Beschreibung dieser Prozesse auf, die
im Rahmen des Modells nicht weiter reduziert werden mu. Die Forderung nach vollstandiger Definierbarkeit w
urde zu einer Lahmung des Wissenschaftsbetriebes f
uhren. Stellt
man die Problematik der Fokussierung auf einen Wahrscheinlichkeitsbegriff in Rechung,
so liegt es nahe, eine eher neutrale Position einzunehmen und zu einer no-theory-theory
der Wahrscheinlichkeit zu tendieren (Sober (2004)).
Geht man nun von der subjektiven oder epistemologischen Interpretation der Wahrscheinlichkeit aus, liegt es nahe, Hypothesen u
ber einen Bayesianischen Ansatz zu testen,
zumal man Hypothesen nach ihrer Plausibilitat vor dem Hintergrund bereits vorhandenen Wissens und vorhandener Daten beurteilt und nicht nach der relativen Haufigkeit,
nach der man sie bestatigt gefunden hat. Es ist aber durchaus nicht geklart, welches
Modell man dann wahlen soll. Zunachst kann man ja die bedingte Wahrscheinlichkeit
einer Hypothese H bei Vorliegen der Daten D durch
P (H|D) =

P (D|H)P (H)
P (D)

(36)

ausdr
ucken. P (H) ist hier die a priori-Wahrscheinlichkeit der Hypothese, und P (D) ist
die Wahrscheinlichkeit der Daten, deren genaue Kenntnis von einigen Bayesianern als
u
ussig angenommen wird, da sie nicht von den im Moment betrachteten Hypothesen
berfl
66

abh
angt; es gen
uge also,
P (H|D) P (D|H)P (H)

(37)

zu betrachten; P (H|D) ist demnach proportional () (i) zur Likelihood P (D|H) der Daten, gegeben die Hypothese, und (ii) der a priori- Wahrscheinlichkeit f
ur H. F
ur P (H)
kann man nun P (H|Dalt ) einsetzen, d.h. die bedingte Wahrscheinlichkeit f
ur H, gegeben
die bisher bekannten Daten, und in (36) bzw. (37) D durch Dneu ersetzen; P (H|Dneu ) ist
dann die Wahrscheinlichkeit, gegeben die neue Evidenz. Auf diese Weise lat sich das
Lernen u
ber die Hypothesen anhand neuer Daten erklaren. Wichtig dabei ist aber, dass
die Likelihood P (D|H) niemals gleich Null sein darf. Hier ergibt sich das Problem der
unerwarteten Hypothese (Stegm
uller (1983), p. 238). Es sind ja immer wieder empirische
Befunde, die zu vollig neuen Hypothesen Hneu Anla geben. Stegm
uller betrachtet zur
Illustration ein W
urfelexperiment, bei dem nach einem Tripel 555 (also eine Folge von
3 W
urfen, die jedesmal eine 5 ergeben) stets sofort eine weitere 5 auftaucht. Eine solche Hypothese wird kaum ein Element der Menge der vor dem Experiment betrachteten
Menge von Hypothesen gewesen sein. Aber auch andere, vielleicht realistischere neue Hypothesen konnen auftreten, etwa die, dass die Daten nicht, wie erwartet, normalverteilt
sind, sondern einem bestimmten anderen Verteilungstyp folgen. F
ur alle diese Hypothesen
darf die Likelihood P (D|Hneu ) nicht gleich Null sein, damit das Bayesianische Verfahren
funktioniert. Die subjektive Statistik behauptet hier, dass es solche unerwarteten Hypothesen nicht gebe, ihnen komme eben nur eine beliebig kleine a priori-Wahrscheinlichkeit
> 0 zu. Stegm
uller verweist auf die Frage, ob die Menge solcher Hypothesen u
berhaupt
mengentheoretisch sinnvoll ist: die Menge sei einerseits nicht definierbar und andererseits
nicht handhabbar. Stegm
uller geht so weit, zu sagen, dass die subjektive Statistik am
Problem der unerwarteten Hypothese scheitert:
. . . Der so geradlinige Weg des rationalen Wettverhaltens verliert sich im statistischen Fall in einem d
ammrigen Licht von falschen Behauptungen, zweifelhaften
Analogien und wirklichkeitsfremden Idealisierungen (p. 244).

Stegm
uller sieht dar
uber hinaus die Gefahr einer radikalen Subjektivierung der Naturwissenschaft, w
urde sich die subjektive Statistik durchsetzen. Ob diese Gefahr tatsachlich
besteht, ware allerdings zu diskutieren, den Anhangern der Bayesianischen Statistik zufolge setzen sich am Ende immer die Daten gegen
uber falschen Hypothesen durch, wie
Diaconis und Freedman (1986) gezeigt haben (s. unten), gilt diese Behauptung allerdings
nicht in allen Fallen. Das von Stegm
uller aufgezeigte Problem der auch f
ur unerwartete
Hypothesen von Null verschiedenen Likelihoods bleibt daher offen und wird durch derartige Hinweise f
ur eine philosophische (d.h. grundsatzliche) Begr
undung der Wahl der
Art des Hypothesentests nicht vernachlassigbar.
Ein Problem des Bayesianischen Ansatzes ist die Wahl der a priori-Wahrscheinlichkeit
P (H) und die unklare Bedeutung des Begriffs degree of belief bzw. des Nutzens, der im
Konzept des Wettquotienten steckt. Was f
ur eine Person sinnvoll ist, mu es nicht f
ur
eine andere sein. Von Bayesianern wird argumentiert, dass letzlich die Daten den Effekt jeder a priori-Wahrscheinlichkeit dominieren w
urden. Unangenehmerweise haben
aber Diaconis und Freedman (1986) gezeigt, dass insbesondere in komplexen Modellen
die a priori-Wahrscheinlichkeiten die Daten dominieren konnen. Freedman (1995) argumentierte, dass Statistiker, aber auch Personen, die Entscheidungen fallen m
ussen, in
Wirklichkeit gar nicht explizit u
ugten: ein groer
ber a priori-Wahrscheinlichkeiten verf
Teil der Bayesianischen Statistik best
unde darin, zu diskutieren, was man tate, hatte

man denn a priori-Verteilungen f


ur die Hypothesen. Im Ubrigen
w
urden Bayesianer mathematisch bequeme a priori-Verteilungen wahlen, an die sie sich dann gewohnten, um
sie deshalb schlielich als nat
urlich zu empfinden. Ein weiterer Punkt, so Freedman,
sei das Postulat, die Anwendung des Bayesianischen Ansatzes sei rational, was durch
67

Hinweis auf Axiomensysteme u


ber Praferenzordnungen, Konsequenzen von Entscheidungen etc begr
undet w
urde. Akzeptiere man diese, sei man eben ein Bayesianer. Es ist
aber tatsachlich so, dass Personen nicht notwendig stabile a priori-Wahrscheinlichkeiten,
Nutzenvorstellungen und Wettquotienten haben, sie gen
ugen diesen Axiomensystemen
im Allgemeinen gar nicht. Diese Systeme beschreiben also nicht tatsachliches Verhalten,
sondern sind normativ, Rationalitat ist nicht notwendig durch sie definiert, sondern kann
anderen Regeln folgen. Decision theory seems to have about the same connection to
real decisions as war games played on a table to real wars (Freedman (1995), p. 25).
Stegm
uller (1973, p. 4) merkt an, dass P. Suppes urspr
unglich u
berzeugter Bayesianer
gewesen sei, der sich aber nach eigenem Bekunden nur u
ber standig nagende Zweifel
vom betorenden Sirenengesang der groen personalistischen Wahrscheinlichkeitstheoretiker loszulosen vermochte.
Der zum Standardtest von Hypothesen avancierte Signifikanztest ist allerdings ebensowenig frei von Fragw
urdigkeiten.
Wagenmakers: Null-hypothesis significance testing (NHST) nach Fisher (1935)
1. Subjektive Elemente gehen auch hier in die Entscheidung ein
2. NHST: betrachtet wird die Wahrscheinlichkeit der Daten, gegeben die Nullhypothese ist korrekt; der p-Wert soll die strength of evidence gegen die Nullhypothese
messen, je kleiner p, desto mehr Evidenz gegen H0 sei gegeben.
3. Das Konditionalit
atsprinzip: Es soll ein Experiment durchgef
uhrt werden, mit
dem eine Hypothese hinsichtlich eines Parameters getestet werden soll. Das Experiment wird aus einer Menge moglicher Experimente ausgesucht, unabhangig
vom Wert des Parameters . Dann ist jedes Experiment, das nicht gewahlt wurde,
irrelevant f
ur die Schlufolgerung u
uhrten
ber anhand des tatsachlich durchgef
Experiments.
Wagenmakers betrachtet zwei Experimentatoren, die sich nicht einigen konnen, ob
ein Experiment mit n oder besser mit 2n Versuchsdurchgangen durchgef
uhrt werden soll. Sie entscheiden schlielich nach dem Zufall, also durch M
unzwurf, und die
Entscheidung fallt f
ur das 2n-Experiment aus. Beim NHST hangt aber die Stichprobenverteilung von der Anzahl der Durchgange ab, und man kann argumentieren,
dass der M
unzwurf, der zwischen den beiden Experimenten entscheidet, mit in den
Hypothesentest eingehen soll. Der NHST kann hier verschieden ausfallen, je nachdem, wie man sich entscheidet.
4. Unbekannte Intentionen Das folgende Beispiel geht auf L. Savage zur
uck, der es
1962 auf dem Purdue Symposium zur Diskussion stellte. Es werden 12 BernoulliVersuche durchgef
uhrt, mit k = 9 Erfolgen. Die Frage ist, ob dieses Resultat mit
H0 : p = 1/2 vertraglich ist, wobei p die Wahrscheinlichkeit eines Erfolges bei einem
einzelnen Bernoulii-Versuch ist.
Die Entscheidung hangt davon ab, ob der Wert von n = 12 vor Beginn der Versuchsreihe festgelegt worden ist, oder erst wahrend der Reihe. Denn man hatte
zu diesem Resultat auch kommen konnen, wenn man vorher entschieden hatte,
die Versuchsreihe zu stoppen, nachdem der dritte Mierfolg aufgetreten ist. Im ersten Fall entscheidet man anhand der Binomialverteilung; die Wahrscheinlichkeit,
X k = 9 Erfolge zu erzielen, ist unter H0 P (X 9|H0 ) = .073. Im zweiten
Fall ergibt sich f
ur die gleiche Wahrscheinlichkeit der Wert .0327. Wird, wie u
blich, = .05 gesetzt, so wird im ersten Fall H0 beibehalten, im zweiten Fall aber
verworfen.
68

5. Hypothetische Aktionen Es werden unter zwei verschiedenen Bedingungen Reaktionszeiten gemessen, wobei die Stichprobe 20 Vpn enthalt. Unter H0 : die mittlere
Reaktionszeit ist f
ur beide Bedingungen gleich ergibt sich p = .045. Wurde vorher
= .05 gesetzt, kann die Hypothese verworfen werden. Man kann nun fragen,
was der Experimentator getan hatte, ware die Mittelwertsdifferenz nicht (knapp)
signifikant geworden. Wagenmakers stellt eine Reihe typischer Antworten vor:
(a) Ich wei es nicht.
(b) Ich wei es nicht mehr, aber wir haben die Frage letzte Woche diskutiert.
(c) Ich hatte keine weiteren Vpn mehr dazu genommen.
(d) Ich hatte 20 weitere Vpn getestet, dann aber das Experiment mit Sicherheit
gestoppt.
(e) Das hangt vom tatsachlichen p-Wert ab. Ware p = .25 herausgekommen,
ware die Entscheidung f
ur H0 klar gewesen. F
ur p < .25 hatte ich noch 10
Vpn dazu genommen, dann aber aufgehort.
(f) Das hangt davon ab, ob mein Artikel u
ber das Thema T (Irgendein anderes
Thema) in der Zeitschrift Z angenommen wird. Nur wenn der Artikel akzeptiert wird, habe ich die Zeit f
ur 20 weitere Vpn.
Diese Antworten sind allesamt typisch. Tatsachlich hangt der am Ende resultierende p-Wert vom Erhebungsplan der Experimentatoren ab. Nur im Fall (c) bleibt
der gefundene p-Wert fest; im Fall (f) hangt er von Ereignissen ab, die mit dem
Experiment gar nichts zu tun haben. Offenbar ist es nur sinnvoll, p-Werte zu interpretieren, wenn der Erhebungsplan vorher festgelegt worden ist. Wagenmakers
weist zu Recht auf ein gelegentlich zu beobachtendes, merkw
urdiges Verhalten von
Gutachtern von Manuskripten hin: manche Gutachter kommen auf die Idee, Die
Daten von weiteren Vpn zu erheben, um die Ergebnisse in der einen oder anderen
Hinsicht besser zu sichern.
6. Optionales Stoppen Es ist bekannt, dass eine Nullhypothese in jedem Fall verworfen werden kann, wenn nur die Anzahl n der Beobachtungen oder Messungen
hinreichend gro ist, und zwar f
ur jedes Signifikanzniveau. Das gilt auch, wenn die
Nullhypothese tatsachlich korrekt ist. Man mu nur nach jedem Versuchsdurchgang
den p-Wert berechnen und die Versuchsreihen dann abbrechen, wenn p wird.47
Dieser Sachverhalt impliziert, dass Signifkanzmeldungen nur dann sinnvoll interpretiert werden konnen, wenn der Erhebungsplan der Experimentatoren bekannt ist.
Wagenmakers weist darauf hin, dass in Untersuchungen mit groem n die gefundenen Effekte oft klein sind. Es ist also moglich, dass hinter signifikanten Resultaten
oft der Ansatz steckt, so lange Daten zu erheben, bis der gesuchte Befund klar
herauskommt.
Dies verweist auf ein anderes Problem. Man kann vor Beginn des Experiments einen
Wert f
ur n, d.h. f
ur die Anzahl der Vpn oder der Versuchsdurchgange, festlegen,
stellt aber schon nach einer deutlich kleineren Anzahl von Vpn oder experimentellen
Durchgangen eine klare, f
ur die Alternativhypothese sprechende Datenlage fest, so
dass man die Versuchsreihe eigentlich abbrechen konnte. Die weitere Druchf
uhrung
kann Geld und Zeit f
ur alle Beteiligten kosten. Gleichwohl kann man sich den
Vorwurf des optional stopping einhandeln.
47 Feller, W. (1940) Statistical Aspects of ESP. Journal of Parapsychology, 4, 271-298. Feller hat hier
diese Technik diskutiert, die man anwenden mu, um die Existenz der auersinnlichen Wahrnehmung
(ESP = Extrasensory Perception) nachzuweisen.

69

7. Statistische Evidenz Nach Fisher (1958) reflektiert der p-Wert die Starke der
statistischen Evidenz gegen die Nullhypothese. Der p-Wert sprache um so mehr
gegen die H0 , je kleiner er ist.
Dazu stelle man sich ein Experiment vor, in dem die Wirkungen zweier verschiedenen Bedingungen auf eine abhangige Variable untersucht werden soll: H0 besage
wie u
uben.
blich, dass die beiden Bedingungen keinen unterschiedlichen Einflu aus
Weiter stelle man sich vor, dass das Experiment in zwei Versionen durchgef
uhrt worden sei: in der Version S habe man 11 Versuchspersonen gehabt und einen Wert
p = .032 gefunden, und in der Version L habe man 98 Versuchspersonen gehabt,
und ebenfalls p = .032 gefunden. Die Frage ist, welches der beiden Experimente
groeres Gewicht f
ur die Beurteilung von H0 hat.
Es gibt nun insgesamt drei Interpretationen: (i) das Experiment L hat groeres
Gewicht, da das Ergebnis auf einem groeren Stichprobenumfang beruht, (ii) das
Experiment S hat das groere Gewicht, da ein so kleiner p-Wert bei einem kleinen
wert von n wenig wahrscheinlich ist, wenn H0 gilt, und (iii) die Experimente sind
gleichwertig, p-Wert ist p-Wert.
Tatsachlich wird der p-Wert nicht nur vom Stichprobenumfang n, sondern auch von
der Effektgroe beeinflut. Nun ist oben schon angemerkt worden, dass H0 auch
dann, wenn sie korrekt ist, stets verworfen werden kann, wenn der Wert von n hinreichend gro ist. Da der p-Wert der gleiche wie im S-Experiment ist, folgt, dass die
Effektgroe beim L-Experiment kleiner als beim S-Experiment sein mu. Deshalb
lat sich sagen, dass das S-Experiment mehr Information u
ber die Korrektheit von
H0 liefert als das L-Experiment. Akzeptiert man diese Schlufolgerung, so kann
das Postulat Fishers, dass namlich der p-Wert die statistische Evidenz gegen H0
ausdr
uckt, nicht stimmen.
Es wird deutlich, dass der frequentistische, klassische Hypothesentest mindestens
ebenso problematisch erscheint wie der Bayesianische Ansatz. Wagenmakers argumentiert
mit guten Gr
unden f
ur den Bayesianischen Ansatz. Er sei kurz am Beispiel der Hypothese
H0 : = 1/2 f
ur ein Bernoulli-Experiment illustriert. Die Alternativhypothese H1 sei
einfach, dass H0 nicht gilt. Man kann nun (36) f
ur die beiden Hypothesen H0 und H1
anschreiben und dann den Quotienten
P (H0 |D)
P (D|H0 ) P (H0 )
=
P (H1 |D)
P (D|H1 ) P (H1 )

(38)

bilden. Der Likelihood-Quotient


L=

P (D|H0 )
P (D|H1 )

ist hierin auch als Bayes-Faktor bekannt. F


ur P (D|H0 ) gilt nun
   k  nk    n
n
1
1
n
1
1
P (D|H0 ) =
=
, =
k
2
2
k
2
2

(39)

wenn D bedeutet, dass es k Erfolge bei n Versuchen gegeben hat. F


ur P (D|H1 ) ergibt
sich ein anderer Ausdruck, denn es werden ja alle Werte 6= 1/2 zugelassen. Nimmt man
an, dass alle diese Werte gleichwahrscheinlich sind man hat also keine Information u
ber
mogliche Alternativwerte f
ur so folgt, dass die a priori-Verteilung von auf dem
Intervall (0, 1) die Gleichverteilung ist. Dem entspricht die Beta-Verteilung B(p, q) =
B(1, 1), und man erhalt
Z 1
P (D|H1 ) =
P (D|)P ()d.
(40)
0

70

F
ur den oben betrachteten Fall n = 12 und k = 3 erhalt man dann den Bayes-Faktor
P (D|H0 )
= .70,
P (D|H1 )
d.h. auf jeden Fall, dass die Daten unter H1 wahrscheinlichker sind als unter H0 . Wegen
P (H1 |D)/P (H0 |D) = 1/.7 = 1.4 lat sich sagen, dass unter H1 die Daten 1.4-mal so
wahrscheinlich sind wie unter H0 . Macht man die Annahme P (H0 ) = P (H1 ), d.h. werden
die beiden Hypothesen a priori als gleichwahrscheinlich angenommen, so ist
P (H0 |D)
P (D|H0 )
=
,
P (H1 |D)
P (D|H1 )
und wegen P (H1 |D) = 1 P (H0 |D) erhalt man
P (H0 |D)
= .7, d.h. P (H0 |D) = .41.
1 P (H0 |D)
Wahrend der Signifikanztest eine dichotome Entscheidung suggeriert (man verwirft H0
oder behalt sie bei), liefert der Bayes-Ansatz nur eine Wahrscheinlichkeit. Man mu aber
bedenken, das das Resultat eines Signifikanztests ja auch nur vorlaufig ist; wird H0 z.B.
beibehalten, so ist die Hypothese ja nicht bewiesen, sie wird vorerst nur beibehalten.
Fat man die Ergebnisse zusammen, so erscheint es sinnvoll zu sein, den Wahrscheinlichkeitsbegriff nicht als entweder epistemisch, personalistisch, subjektiv oder als objektiv
zu konzipieren, auch wenn man sich Bambers (2003) Klage anschlieen mochte, dass diese
dichotome Begrifflichkeit unbefriedigend sei. So legen etwa die von Ornstein und Weiss
(1991) zusammengestellten Resultate sie Sinnhaftigkeit eines objektiven Wahrscheinlichkeitsbegriffes nahe. Betrachtet man dagegen Hypothesen, scheint es mit einem objektiven
Wahrscheinlichkeitsbegriff schwierig zu werden. Auch wenn einem der operationalistisch
definierte Wahrscheinlichkeitsbegriff de Finettis oder Savages als inhaltlich zu leer erscheint, erscheint doch die Bayesianische Analyse von Daten, wie das Beispiel der Hypothese u
ber den Parameter einer Binomialverteilung nahelegt, sinnvoll zu sein, nicht
zuletzt wegen der Probleme, die dem NHST anhaften. Eine ausf
uhrlichere Diskussion
des Bayesianischen Ansatzes geht u
ber den Rahmen dieses Abschnitts weit hinaus.
Betrachtet man den Fortschritt der Wissenschaft von einem etwas distanzierteren
Blickwinkel, scheinen Entscheidungen u
ber einzelne empirische Befunde auch gar nicht
die zentrale Rolle zu spielen, die die Diskussion der Frage, worin denn nun die statistische
Evidenz besteht und was genau Wahrschenlichkeit nun sei suggeriert. Die Frage nach
der Ablosung von Theorien anhand von Daten wird in den folgenden Abschnitten neu
gestellt werden.

Entstehung und Uberwindung


von Theorien

Betrachtet man die Geschichte einzelner Wissenschaften, etwa der Physik, der Biologie
und der Chemie, so wird man sagen, dass es wissenschaftlichen Fortschritt gibt. Auch f
ur
die Psychologie wird man die Existenz von Fortschritten konstatieren, auch wenn diese
von einigen Psychologen negiert bzw. f
ur irrelevant weil absolut trivial gehalten werden:
. . . In der Psychotherapieforschung haben 50 Jahre empirisch-analytisches Vorgehen
ein deprimierendes Nullergebnis gebracht - vergl. Abschnitt 5. Ob sich die empirisch
arbeitenden Psychologen dieser Einschatzung anschlieen, ist eine andere Frage; hier soll
diskutiert werden, wie der Fortschritt einer Wissenschaft charakterisiert werden kann.
Denn wenn es nicht moglich ist, sich durch fortgesetzte Verifikation der Wahrheit zu
71

nahern, kann man nicht notwendig erwarten, dass die Akkumulation von empirischen
Befunden zu einem wahren System von Aussagen u
uhrt. Wenn man nur
ber die Welt f
falsifizieren kann, beschreibt die Wissenschaft vielleicht nur eine Art random walk, also
einen Weg, der jeden Moment seine Richtung in zufalliger Weise andert. Andererseits
kann man sagen, dass auch die Falsifikation ja eine Art von Verifikation ist: man stellt
positiv die Geltung einer Aussage fest, die eben nur der vorher aufgestellten Hypothese
widerspricht. Moglicherweise ist dann die Kritik an der Verifikation auf die Falsifikation
u
bertragbar, zumindest bei der Diskussion komplexerer Aussagen. Aber dem Standpunkt,
es gabe vielleicht gar keinen wissenschatlichen Fortschritt, wird man kaum folgen wollen.
Es sollen also einige Modelle des wissenschaftlichen Fortschritts vorgestellt werden.

3.1

T. S. Kuhn: Paradigmen und Revolutionen

Poppers Kritik am Positivismus bzw. Neopositivismus fokussierte insbesondere auf die

Uberzeugung
dieser Denkrichtungen, dass man u
ber eine wie auch immer geartete Verifikationslogik - eine induktive Logik - zur Wahrheit vordringen konne; die Polemik gegen
die Metaphysik lehnte er ab, ohne dass er der Metaphysik eine besondere Rolle zuteilen wollte. Eine zentrale Aufgabe der Wissenschaft sei, Theorien so zu formulieren, dass
sie auch testbar, also im Prinzip falsifizierbar sind. Die Frage ist nun, ob Wissenschaftler tatsachlich in dieser Weise vorgehen, und ob es generell u
berhaupt moglich ist, so
vorzugehen. Ein Blick in die Geschichte der Wissenschaft zeigt, dass sie dies zunachst
nicht tun. Die falsifizierende Evidenz mu anscheinend eine kritische Masse erreicht
haben, bevor die Theorie wirklich verworfen sind. Bekanntlich haben Cavendish und
Priestley nie die Phlogiston-Theorie verworfen und die Lavoisiersche Sauerstoff-Theorie
akzeptiert, obwohl sie mit ihren eigenen Untersuchungen wesentlich zur Falsifikation der
Phlogiston-Theorie beigetragen haben. In einem kleinen, aber insbesondere in den SozialAbbildung 14: Thomas S. Kuhn

wissenschaften sehr wirksamen Buch beschrieb Thomas S. Kuhn (1962) sein Konzept der
Struktur wissenschaftlicher Revolutionen. Darin werden die Modifikation wissenschaftlicher Theorien und wissenschaftliche Revolutionen anhand wissenschaftshistorischer
Beispiele diskutiert. Kuhn destilliert aus diesen Beispielen ein Bild der wissenschaftlichen Entwicklung: zunachst betreibt die wissenschaftliche Gemeinschaft ihr Handwerk
auf der Basis eines bestimmten Glaubenssystems. Deshalb wird der angehende Wissenschaftler einer Art Initiation unterzogen, die ihn vorbereitet und schlielich mit einer Art
Lizenz versieht, die es ihm erlaubt, sich im Rahmen der Gemeinschaft wissenschaftlich
betatigen zu konnen. Was zunachst betrieben wird, ist die Normalwissenschaft (normal
science). Die wissenschaftliche Gemeinschaft glaubt, zumindest im Prinzip zu wissen, wie
72

die Welt beschaffen ist. Stot man im Forschungsprozess auf fundamentale Neuigkeiten
die meistens entweder von Jungforschern oder von Forschern, die sich gerade erst in
das betreffende Gebiet eingearbeitet haben, gefunden werden so versuchen die u
brigen
Mitglieder der Gemeinschaft, diese Neuigkeiten zu unterdr
ucken, d.h. sie verteidigen ihren Glauben. Neuigkeiten haben einen subversiven Aspekt. Forschung ist a strenuous
and devoted attempt to force nature into the conceptual boxes supplied by professional
education.
Die Frage ist nun, wann denn tatsachlich eine Veranderung der Auffassungen der
Mitglieder der wissenschaftlichen Gemeinde erfolgt: wann wird das kopernikanische
Weltbild tatsachlich akzeptiert, wann wird die Sauerstofftheorie oder die Atomtheorie
akzeptiert? Nach Kuhn geht der Akzeptierung einer neuen Theorie ein mehr oder weniger langer Prozess der Unterminierung der klassischen Theorie voraus. Es treten Anomalien auf, die mit der Theorie nicht erklart werden konnen. Die Veranderung der
Auffassung ist der shift, ist die wissenschaftliche Revolution. Der Punkt hierbei ist,
dass im strengen Sinne eine Falsifikation gen
ugt, um eine Theorie abzulehnen. Die Frage
ist aber, worin eine Falsifikation besteht. Aufgrund eines einzelnen experimentellen Resultats wird man eine Theorie noch nicht ablehnen. Im Zweifel sucht man nach Fehlern
im Experiment, die f
ur das mit der Theorie inkompatible Resultat verantwortlich ist. Findet man keinen solchen Fehler und ergeben sich falsifizierende Resultate aus einer Reihe
verschiedener Untersuchungen, so beginnt langsam der Prozess der Neu- oder Umformulierung der in Frage stehenden Theorie. A scientists world is qualitatively transformed
[and] quantitatively enriched by fundamental novelties of either fact or theory.
Ein wichtiger Begriff in der Kuhnschen Theorie ist der der Normalwissenschaft:
Normal science . . . means research firmly based upon one or more past scientific achievements, achievements that some particular scientific community
acknowledges for a time as supplying the foundation for its further practice.
Dabei sind achievementsBefunde, die bisher nicht bekannt waren und die (i) deshalb die
Aufmerksamkeit der Wissenschaftler auf sich ziehen, und die (ii) hinreichend viele offene
Fragen implizieren, um Forscher und ihre Studenten zu beschaftigen. Befunde dieser Art
heien Paradigma. Innerhalb eines Paradigmas verlauft die wissenschaftliche Arbeit wie
folgt. Studierende (im allgemeinen Sinne des Wortes) arbeiten sich in ein Paradigma ein,
um Mitglied der entsprechenden scientific community zu werden. Dabei werden sie von
Forschern, die bereits die Grundpositionen des Paradigmas introjiziert haben, angeleitet.

Uber
die fundamentalen Annahmen gibt es dabei keinen Dissens. Man konzentriert sich
auf Fragen, die im Rahmen des Paradigmas gut erforscht werden konnen und f
ur die
Daten gut durch den verfolgten theoretischen Ansatz erklart werden konnen. Existiert
noch kein Paradigma, so sind alle Tatsachen, die moglicherweise die Entwicklung einer
Wissenschaft beitragen konnen, gleich relevant. Paradigmen sind wesentlich f
ur die wissenschaftliche Forschung, denn: no natural history can be interpreted in the absence
of at least some implicit body of intertwined theoretical and methodological belief that
permits selection, evaluation, and criticism48. Bevor sich ein Paradigma herausbildet,
werden Fakten gesammelt (oft auf der Basis einer vagen, impliziten Theorie bzw. eines
Glaubens). Damit eine Theorie als Paradigma akzeptiert wird, mu sie als besser als
die konkurrierenen Theorien erscheinen, aber sie muss nicht - und tut es im allgemeinen auch nicht - alle Tatsachen bzw. experimentellen Befunde erklaren, mit denen sie
konfrontiert wird. Dies ermoglicht dann die Forschung der normal science. Je mehr
Belege es f
ur ein Paradigma gibt, desto mehr verschwinden alternative Paradigma oder
Vorstellungen. Die Arbeiten von Forschern, die im Rahmen alter Paradigmen gearbeitet
48 Kuhn,

Structure of . . ., p. 16

73

haben, werden ignoriert. Die Forschung im Rahmen eines Paradigmas gleicht dem Losen
von Ratseln (puzzle-solving); dazu m
ussen die Ratsel nach bestimmten Regeln gelost
werden, und es kann davon ausgegangen werden, dass die Ratsel auch Losungen haben
(One of the things a scientific community acquires with a paradigm is a criterion for
choosing problems that, while the paradigm is taken for granted, can be assumed to have
solutions). Die Regeln entsprechen bestimmten Untersuchungs- und/oder Experimentalmethoden. Die Art, wie man zu Resultaten kommt, dh die Frage, wie man ein Ratsel
lost, ist die Herausforderung an die/den Forscher(in). Damit ein Ratsel eine echte Forschungsfrage ist, mu es mehrere Losungsmoglichkeiten geben. Die Einschrankungen, die
es bei der zu losenden Forschungsfrage zu beachten gibt, folgen aus der Theorie, die mit
dem Paradigma verbunden ist bzw. die es definiert. Ein einfaches Beispiel hierf
ur ist die
Intelligenzforschung, sofern sie sich an bestimmtes Konzepten wie Intelligenzquotient,
Intelligenzprofil, Intelligenzfaktoren etc und etwa an die Klassische Testtheorie gebunden f
uhlt. Andere testtheoretische Annahmen konnen andere Datenerhebungsmethoden
implizieren und zu anderen Ergebnissen f
uhren. Ein anderes Beispiel ist die Wahrnehmungsforschung. Geht man davon aus, dass die primare sensorische Verarbeitung ein
reiner bottom-up-Prozess ist, werden schon die Experimente zur Charakterisierung der
sensorischen Prozesse anders geplant und durchgef
uhrt als wenn angenommen wird, dass
die sensorischen Prozesse als Interaktion von bottom-up und top-down-Prozessen aufgefasst werden m
ussen. Dar
uber hinaus kann man die neuronalen Prozesses als Aktivitaten
eines dynamischen Systems auffassen; die experimentellen Fragestellungen werden dann
durch diese Auffassung beeinflut. Man kann insbesondere annehmen, dass das System
f
ur kleine Intensitaten linear ist, d.h. dass verschiedene Effekte sich additiv u
berlagern,
oder dass das System essentiell nichtlinear ist, so dass sich Effekte auch f
ur kleine Intensitaten nicht-additiv u
berlagern. Im allgemeinen wird man eine Reihe von Resultaten
finden, die mit den Grundannahmen (zB Linearitat bei kleinen Intensitaten) kompatibel sind. Das Paradigma wird dann beibehalten. Es werden immer mehr Experimente
im Rahmen dieses Paradigmas durchgef
uhrt, und dabei kann es zu unerwarteten Resultaten kommen, dh die Arbeit im Rahmen des Paradigmas ist an dessen Grenzen
angekommen. Verschiedene Wissenschaftler konnen sich dabei hinsichtlich der Interpretation der abweichenden Resultate unterscheiden, wobei die Unterschiede zwischen ihnen
oft auf Unterschiede hinsichtlich nicht explizit gemachter, aber gleichwohl grundlegender Annahmen zur
uckgehen. In der Psychologie werden solche Unterschiede haufig durch
verschiedene Annahmen hinsichtlich der Rolle zufalliger Effekte erzeugt; wahrend einige
Forscher der Ansicht sind, dass alle Phanomene grundsatzlich eine kausale Basis haben,
die nur nicht hinreichend bekannt ist, gehen andere von der Annahme aus, dass echt
zufallige Effekte - also bestimmte Ereignisse - ohne hinreichende Ursache eintreten konnen. Verschiedene Annahmen dieser Art konnen substantiell verschiedene Modelle bzw.
Theorien f
uhren, die trotzdem eine groe Menge von Daten gleich gut erklaren konnen.
Das Entdecken von Anomalien entspricht dem Auffinden falsifizierender Befunde.
Nach Popper sollte es das Ziel jede(r)n Wissenschaftlers(in) sein, die empirischen Untersuchungen von vornherein so anzulegen, dass die in Frage stehende Theorie falsifiziert
werden kann. Kuhn findet aber, dass in die Normalwissenschaft zunachst nicht darauf
ausgerichtet ist, Anomalien zu entdecken. Gleichwohl sei die Normalwissenschaft sehr
effektiv darin, Anomalien zu finden. Dieser Sachverhalt ergibt sich nach Kuhn aus der
zunehmenden Professionalisierung der Forscher und der sich vergroernden Prazision der
Untersuchungen. Ein bekanntes Beispiel ist die Messung der Lichtgeschwindigkeit. Das
Licht breitet sich so ungeheuer schnell aus, dass lange angenommen wurde, die Ausbreitung sei instantan49 . Es brauchte betrachtliche Einsicht in physikalische Phanomene, um
u
berhaupt auf die Frage zu kommen, wie gro eine als endlich konzipierte Lichtgeschwin49 dh

ohne dass Zeit vergeht, - die Lichtgeschwindigkeit ist unendlich gro.

74

digkeit denn ist und wie man sie experimentell bestimmen konnte. Bereits Galilei hat sich
diese Frage gestellt. In seinem Hauptwerk (Zwei neue Wissenschaften) lat er Sagredo
(dh sich selbst) sagen, wie es gehen konnte. Ein Forscher und sein Assistent stellen sich
im Dunkeln in einem hinreichend groen Abstand auf, jeder mit einer Lampe bewaffnet, die sie beliebig an- und ausschalten konnen. Sagredo/Galileo beginnt, indem er seine
Lampe leuchten lat. Sobald sein Assistent das Licht sieht, lat er seine Lampe leuchten.
Aus der Entfernung der beiden Manner und dem zeitlichen Unterschied zwischen dem
ersten Leuchten von Sagredos Lampe und der Wahrnehmung des Assistentenlichts durch
Sagredo lat sich dann die Lichtgeschwindigkeit messen. Betragt der Abstand der beiden
eine Meile, so benotigt das Licht bei diesem Experiment 11 106 Sekunden. Das ist
viel weniger als die menschliche Reaktionszeit, Galileis Experiment mute fehlschlagen.
Man benotigt sehr viel groere Distanzen, f
ur die das Licht dann mehr Zeit benotigt,
um die Lichtgeschwindigkeit zu messen. 1675 schatzte der danische Astronom Ole Roemer auf der Basis von Beobachtungen der Jupitermonde f
ur die Lichtgeschwindigkeit den
Wert 2 103 , und 50 Jahre spater berechnete James Bradley, ein englischer Astronom,
den Wert 3 108 , ebenfalls anhand astronomischer Daten. 1849 errechnete Hippolyte
Louis Fizeau, franzosischer Physiker, den Wert 3.13 108 , anhand einer mechanischen
Vorrichtung und einer Anordnung von halbdurchlassigen Spiegeln und Linsen, - eine
Beschreibung der Methode findet man u.a. in Westphal (1959). Es folgten eine Reihe
von Messungen mit verschiedenen Methoden; der gegenwartig beste Wert ist 299792.458
km/s. Der Punkt bei diesen Messungen ist, dass sie nicht mehr direkt durch Sinnesdaten
gegeben sind, sondern aufgrund von viel physikalischem Wissen, dh Interpretationen von
anderen Messungen, berechnet werden, - ist die Aussage u
ber die Lichtgeschwindigkeit
damit noch eine elementare Aussage, also ein Protokollsatz?
Ein anderes Beispiel sind Lernexperimente mit Ratten. Die Ergebnisse werden im
Rahmen der Grundannahme, dass das Lernen in der Ausbildung einfacher Reflexe besteht, interpretiert, - so lange, bis die Vermutung, dass auch Ratten u
ber die Moglichkeit schlufolgernden Denkens verf
ugen, in theoretische Konzeptionen des Lernprozesses
eingehen. Dieser Sachverhalt f
uhrt dann zu neuen Konzeptionen der Experimentalanordnungen, etc.
Ein weiteres Beispiel ist die Annahme, den menschlichen Handlungen unterliege der
Sexualtrieb als der alles bestimmende Antrieb. Es kann lange dauern, bis es zu einer
Modifikation dieser Annahme kommt. So hat man50 zB verheiratete Studierende, die nicht
unter sexuellen Frustrationen leiden, in eine Umgebung gebracht, in der es ihnen nur an
Essen, sonst aber an nichts fehlte. Sie entwickeln dann eine Symptomatik, die derjenigen
gleicht, die Freud im Wien der Wende vom 19-ten zum 20-ten Jahrhundert vorfand, deren
Kern aber nicht frustrierte Sexualitat, sondern mangelnde Nahrungsaufnahme ist.
Kuhn fand weiter, dass Wissenschaftler die Begriffe, Methoden und Theorien oft nicht
in einer abstrakten Weise erlernen, sondern durch praktische Forschungsarbeit im Rahmen eines Paradigmas. Insbesondere erlernen sie die Aus
ubung wissenschaftlicher Forschung nicht, indem sie ein Lehrbuch u
ber Wissenschaftstheorie studieren. Ein solches
Studium scheint nicht unbedingt notwendig zu sein, um gute Wissenschaft treben zu
konnen, f
uhrt aber gelegentlich zu merkw
urdigen Einstellungen, wie zB die, dass nur
signifikante Ergebnisse gute Ergebnisse sind51 . Unterscheiden sich Wissenschaftler nun
fundamental hinsichtlich bestimmter Ansichten oder Dateninterpretationen, so folgt i.a.
eine Suche nach stillschweigend gemachten Annahmen, die so lange nicht stattfindet, so
50 Aus

Hofst
atter, P.R.: Dierentielle Psychologie; eine genaue Literaturangabe wird nachgeliefert.
Herausgeber des Journal of Experimental Psychology war dieser Meinung; waren Ergebnisse
nicht mindestens auf dem 5%-Niveau signikant, so wurde die Untersuchung als schlecht klassiziert.
Dass die Best
atigung der Null-Hypothese ebenfalls ein wissenschaftlich relevanter Befund sein kann,
war dem Mann nicht klar.
51 Ein

75

lange diese Differenzen eben nicht auftreten.


Die Frage ist nun, wann Anomalien als solche akzeptiert werden und zu Veranderungen theoretischer Interpretationen f
uhren. Nach Kuhn geht das wiederholte Auffinden
von Resultaten, die den Grundannahmen des Paradigmas widersprechen, einer solchen
Ver
anderung voran. Allmahlich stellt sich dann die Einsicht ein, es konne sich bei diesen
Resultaten nicht nur um experimentelle Fehler, sondern um den Ausdruck einer echten
Anomalie handeln. Die Resultate f
uhren dann zu einer partiellen Revision der Grundannahmen mit der Implikation, dass die Forscher die Natur in einer neuen Weise sehen (see
nature in a different way), - dh es kommt zu einer Rekonzeptualisierung des gesamten
Ansatzes.
Generell werden empirische Befunde nur als Anomalien vor dem Hintergrund eines
bestimmten Paradigmas interpretiert, - ohne ein Paradigma ist ein Befund eben nur ein
Befund. Dabei bedeutet die Existenz eines Paradigmas, dass ein Paradigmawechsel nicht
bei jeder experimentellen Abweichung von den Vorhersagen des Paradigmas vorgenommen wird, das schon existierende Paradigma setzt seiner Ersetzung einen gewissen Widerstand entgegen, dh falsifizierende Befunde werden nicht sofort als solche akzeptiert.
F
uhren solche Befunde aber zu einer echten Anomalie, so implizieren sie gelegentlich
eine Neukonzeptualisierung der Kernannahmen des Paradigmas. So f
uhrten zB die Experimente von Michelson und Morley, denen zufolge die Lichtgeschwindigkeit konstant
ist (und die immer wieder experimentell best
atigt wurden), zu einer grundlegend neuen
Konzeption der Begriffe von Raum und Zeit durch Einstein. Die newtonsche Annahme
eines absoluten Raumes und der Unabhangigkeit von Raum und Zeit wurde aufgegeben.
Insbesondere dieses Resultat hat dazu gef
uhrt, dass es auch zu einer Rekonzeptualisierung auch philosophischer Begriffe kam. So gibt es nach Kant die synthetischen Urteile
a priori, also Aussagen u
ber die Welt, die nicht empirisch, aber notwendig wahr sind.
Nach Kant liefert demnach die Euklidische Geometrie eine wahre Beschreibung bzw einen
notwendig wahren Rahmen f
ur die korrekte Beschreibung der physikalischen Wirklichkeit, ebenso die Annahmen eines absoluten Raumes, einer absoluten Zeit, und u
ber die
Kausalitat. Die Entwicklung nichteuklidischer Geometrien begann 20 Jahre nach Kants
Tod und fand ihre Anwendung in der Allgemeinen Relativitatstheorie; die euklidische
Geometrie war nun nicht mehr ein eindeutiges Gesetz der Vernunft, d.h. die Aussagen
dieser Geometrie waren nicht mehr synthetisch a priori, sondern erschienen als empirische und daher u
ufbare S
atze. Die angebliche Evidenz des Postulats, dass die
berpr
euklidische Geometrie die wahre Beschreibung raum-zeitlicher Strukturen liefert, besteht
einfach nur in einer extensiven Gewohnheit. Der Begriff des synthetischen Urteils a priori
verliert seine Sinnhaftigkeit (vergl. Reichenbach, 1953, und Einstein, 1953).
Doch zur
uck zu den wissenschaftlichen Krisen. Nehmen also die falsifizierenden
Resultate u
berhand, dh bilden sich Anomalien aus, so konnen die Puzzles der Normalwissenschaft nicht mehr mit den gewohnten Mitteln gelost werden; dies ist der Kern der
Krise. Dies f
uhrt dazu, dass neue Theorien konzipiert werden, ohne dass allerdings die
alten Theorien sofort aufgegeben werden. Verschiedene Theorien konnen oft die gleichen
Daten erklaren, und als Forscher gibt man ungern sein gewohntes Handwerkszeug auf.
Es gibt hier einen Trend zur Beharrung, der sich in der Leugnung der Existenz einer
Krise auern kann (in der Psychologie kann man dies zB bei Anhangern bestimmter
psychoanalytischer Theorien, oder bei einigen Anhangern der Verhaltenstherapie, aber
nicht nur bei diesen finden). Man sucht eher nach Fehlern beim empirischen Handwerk,
- oder verschiebt die Suche nach einem neuen theoretischen Ansatz auf spater. Gleichwohl, ein neues Paradigma bildet sich langsam heran, oft ohne dass sich die Anhanger
des alten der Neubildung sofort oder u
berhaupt jemals anschlieen. Es beginnt ein Krieg
der Paradigmen. Wie oben schon angemerkt, sind ForscherInnen, die ein neues Para76

digma begr
unden oder akzeptieren, entweder noch jung oder haben das Arbeitsgebiet

gewechselt. Der Ubergang


zu einem neuen Paradigma ist jedenfalls das, was nach Kuhn

eine wissenschaftliche Revolution ausmacht; die Revolution bedeutet einen Ubergang


von
normal science zu extraordinary research. Die wissenschaftliche Revolution kann als
eine nicht-kumulative Entwicklungsperiode der Wissenschaft betrachtet werden, wahrend
die Entwicklung in der Normalwissenschaft kumulativ ist. Bei den Diskussionen zwischen
den Anhangern verschiedener Paradigmen werden die Argumente oft aus dem jeweils eigenen Paradigmen geholt, so dass es zu einer Zirkularitat der Argumente kommen kann, die
die Unfahigkeit, das gleiche begriffliche Arsenal f
ur den Diskurs zu ben
utzen ausdr
uckt.
Die Diskussion ist dann nicht mehr kritisch (im Sinne Poppers), sondern persuasiv: der
jeweilige Gegner soll dazu u
berredet werden, seine Position aufzugeben. Kuhn kritisiert in
diesem Zusammenhang die logischen Positivisten (Neopositivisten), da sie sich ihrerseits
gegen jede Gegenevidenz gegen ihre Theorie immunisieren w
urden.
Der Kuhnsche Begriff des Paradigmas hat eine Reihe von Diskussionen dar
uber, was
denn nun genau ein Paradigma sei, ausgelost. In der Tat findet sich bei Kuhn keine exakte Definition dieses Begriffs, der Begriff bleibt unscharf. Die Frage ist, ob es u
berhaupt
notwendig ist, ihn scharfer zu definieren. Diese Frage f
uhrte zu einer weiteren Neukonzeptualisierung der Theorie des Wandels wissenschaftlicher Vorstellungen, auf die kurz
eingegangen werden soll.

3.2

I. Lakatos: sophistizierter Falsifikationismus

Imre Lakatos wurde 1922 in Ungarn geboren. 1944 schlo er sein Studium der Mathematik, der Physik und der Philosophie ab. Er schaffte es, das Naziregime in Ungarn zu
u
berleben, wurde u
berzeugter Kommunist und floh gleichwohl nach dem Aufstand 1956
nach Wien, um nicht verhaftet zu werden. Von dort ging er nach England, um in Cambridge den Doktor in Philosophie zu machen. Er war stark von Popper einerseits und
Polya andererseits beeinflut; er hatte schon in Ungarn Polyas Buch How to solve it ins
Ungarische u
bersetzt. Seine Dissertation Essays in the Logic of Mathematical Discovery
reichte er 1961 ein; bereits 1960 bekam er eine Anstellung an der London School of Economics (LSE), wo er bis zu seinem Tod 1974 Philosophie lehrte. In den Jahren 1963 - 64
Abbildung 15: Imre Lakatos (1922 - 1974)

publizierte er seine Arbeit Proofs and Refutations in vier Teilen im British Journal for
Philosophy of Science. Die Arbeit basierte auf seiner Dissertation und ist in Form einer
Diskussion zwischen einem Lehrer und einer Gruppe von Studenten geschrieben. Die Arbeit hatte groen Einflu auf die wissenschaftstheoretischen Diskussionen und . . . was
circulated in offprint form in enormous numbers (Worrall, 1974). Die Arbeit erschien
77

dann posthum unter dem Titel Proofs and Refutations : The Logic of Mathematical Discovery in einem von J. Worrall and E. G. Zahar (eds.) herausgegebenen Buch. Nach der
in der Arbeit vertretenen These besteht der Fortschritt der Mathematik nicht, wie die
gangige Philosophie der Mathematik behauptet, als steady accumulation of eternal truths. Die mathematische Entwicklung best
unde vielmehr aus einem Prozess, in dem man
versucht, eine Vermutung (conjecture) irgendwie zu beweisen, d.h. sie auf andere Vermutungen zur
uckzuf
uhren, worauf Versuche folgten, die erste Vermutung sowie einzelne
Beweisschritte durch Gegenbeispiele zu widerlegen.
Der Wissenschaftstheorie (philosophy of science) wandte sich Lakatos erst zu, nachdem er eine Reihe von Arbeiten zur Geschichte der Mathematik geschrieben hatte. Als
Anh
anger Poppers war sein Ziel zunachst, Poppers Falsifikationismus zu verteidigen. Er
entwickelte dann den sophistizierten Falsifikationismus, der als eine Art Verallgemeinerung des Popperschen naiven Falsifikationismus angesehen werden kann.
Lakatos Schlufolgerungen werden in einer seiner bekanntesten Arbeiten, Falsification
and the Methodology of Scientific Research Programmes, vorgestellt, die 1970 in dem
von Lakatos und Alan Musgrave edierten Buch Criticism and the Growth of Knowledge
erschien. Das Buch enthalt eine Reihe von Aufsatzen verschiedener Autoren (z.B. S.E.
Toulmin, K. Popper, P. Feyerabend und eben I. Lakatos), die sich mit der Kuhnschen
Theorie der Entwicklung der Wissenschaften auseinander setzen; Kuhn selbst fasst in
diesem Buch seine Ansichten in einer Arbeit Logic of Discovery or Psychology of Research
zusammen.
Die erste Frage, die Lakatos stellt, ist, ob die Wissenschaft nun Vernunft (reason) oder
Religion ist. Er stellt zunachst fest, dass die u
ber Jahrhunderte tradierte Auffassung, dass
Wissen entweder durch die Kraft des Intellekts oder durch die Evidenz von Sinnesdaten
erzeugt wird, zunachst durch die Newtonsche Physik und spater durch die Einsteinsche Physik in Frage gestellt wird. Es sei den Wissenschaftstheoretikern nun klar, dass
Wissen nicht bewiesenes Wissen sein konne. Denn der newtonsche Ansatz wirkte nicht
nur extrem u
uber hinaus in Praxis und Theorie.
berzeugend, sondern bewahrte sich dar
Trotzdem konnte Einstein zeigen, dass zum Beispiel Raum und Zeit nicht voneinander
unabhangige Groen sind. Poppers Verdienst liege in der Tatsache, dass er die Implikationen des Zusammenbruchs der newtonschen Physik begriffen habe: - man kann eine
Theorie nicht beweisen, d.h. verifizieren, man kann sie allenfalls falsifizieren. Nach Popper bestehe die wissenschaftliche Tugend nicht darin, Fehler zu vermeiden, sondern in
der R
ucksichtslosigkeit, mit der sie eliminiert werden. Poppers Rezept sei K
uhnheit in
den Vermutungen und Strenge in der Zur
uckweisung (Boldness in conjectures on the one
hand and austerity in refutations on the other). Intellektuelle Ehrlichkeit best
unde nach
Popper nicht darin, die eigene theoretische Position abzusichern oder wahrscheinlich zu
machen (probabilifying the own position), sondern die Bedingungen zu benennen, unter

denen man bereit sei, diese Position aufzugeben. Uberzeugte


Marxisten oder Freudianer
w
urden sich weigern, solche Bedingungen zu spezifizieren, und diese Weigerung definiere
ihre intellektuelle Unehrlichkeit. Zu glauben sei nach Popper eine bedauerliche Schwache,
aber Hingabe (commitment) an eine Theorie sei ein Verbrechen.
Kuhns Ansatz sei anders. Auch Kuhn lehne die Idee ab, derzufolge die Wissenschaft
eine Akkumulation ewiger Wahrheiten sei. Sein Hauptproblem sei die wissenschaftliche
Revolution. Aber wahrend nach Popper Wissenschaft eine Art permanenter Revolution
sei, sei eine Revolution nach Kuhn eher die Ausnahme und eine Art auerwissenschaftlicher Akt; Kritik sei in normalen Zeiten Anathema. Nach Kuhn ist die Auffassung, dass
einzelne, eine Theorie widersprechende Ergebnisse dazu f
uhren sollen, dass die Theorie zur
uckgewiesen wird, ein naiver Falsifikationismus. Kritik einer gerade dominanten
Theorie und der Vorschlag f
ur eine neue Theorie seien nur in Zeiten einer Krise erlaubt.
78

Lakatos ist der Ansicht, dass Kuhn zwar die Problematik der Verifikation und des naiven
Falsifikationismus erkannt habe, aber nun mit seiner Krisentheorie in den Irrationalismus
zur
uckfalle. F
ur Popper sei der wissenschaftliche Wandel rational, oder doch zumindest
rational nachvollziehbar, und gehore zur Logik der Entdeckung (Logic of discovery). F
ur

Kuhn sei so Lakatos der Ubergang


von einem Paradigma zu einem anderen eine mystische Konversion, die nicht durch die Regeln der Vernunft (reason) geleitet sei und nur
im Rahmen der Sozialpsychologie der Entdeckung beschrieben werden konne. Wissenschaftlicher Wandel sei eine Art von religiosem Wandel. Insbesondere f
ur die weicheren
Sozialwissenschaften bedeute dies, dass Wissenschaft an Macht gekoppelt sei (truth lies
in power).
Lakatos will nun zeigen, dass in Poppers Position zwei verschiedene Grundannahmen
miteinander vermischt seien. Kuhn w
urde von diesen beiden nur die eine, den naiven
Falsifikationismus, verstehen, den Lakatos lieber den naiven methodologischen Falsifikationismus nennen w
urde. Lakatos ist der Ansicht, dass die Kuhnsche Kritik an diesem
Falsifikationismus korrekt ist. Aber Poppers Position sei durch eine weitere Komponente
charakterisiert, die impliziere, dass wissenschaftliche Revolutionen doch rationale Prozesse seien. So ergebe sich der sophistizierte Falsifikationismus. F
ur diese Art von F.
sei eine neue Theorie nur dann akzeptabel, wenn sie mehr empirischen Inhalt hat wie die
kritisierte Theorie, d.h. wenn sie (i) die bekannten empirischen Resultate erklaren und
(ii) dar
uber hinaus neue Resultate erklaren konne, die durch die alte Theorie nicht zu
erkl
aren seien. Der sophistizierte Falsifikationist betrachtet eine wissenschaftliche Theorie
T dann und nur dann als falsifiziert, wenn eine andere Theorie T vorgeschlagen wurde,
f
ur die gilt
1. T hat einen empirischen Gehalt, der u
ber den von T hinausgeht. Damit ist gemeint,
dass sie Tatsachen voraussagt, die im Licht der alten Theorie T unwahrscheinlich
oder sogar verboten sind.
2. T erklart den Erfolg von T , d.h. der gesamte Gehalt, der von T erklart wird, wird
auch von T erklart (im Rahmen des stets moglichen Beobachtungsfehlers).
3. Zumindest ein Teil des - relativ zu T - zusatzlichen empirischen Gehalts von T ist
bestatigt.
Es sei T1 , T2 , T3 , . . . eine Folge von Theorien, bei sich die Theorie Tj+1 von Tj dadurch
unterscheide, dass Tj+1 einige semantische Reinterpretationen der Theorie Tj enthalte,
und ebenso viel Gehalt habe wie Tj . Wenn Tj+1 f
ur alle j dar
uber hinaus einige unerwartete Tatsachen vorhersage, so heie die Folge theoretisch progressiv; die Rede ist
auch von einem theoretisch progressiven Problemveranderung52. Hat, f
ur alle j, Tj+1
dar
uber hinaus noch einen nicht von Tj abgedeckten, abgesicherten empirischen Gehalt,
so konstituiert die Folge eine empirisch progressive Problemveranderung. Die Folge
liefert die Entdeckung neuer Tatsachen. Problemveranderungen (problemshifts) heien
wissenschaftlich genau dann, wenn sie theoretisch progressiv sind, andernfalls werden
sie als pseudowissenschaftlich abgelehnt. Eine Theorie in der Folge heit falsifiziert,
wenn eine Theorie existiert, die einen hoheren, abgesicherten Gehalt hat.
Damit hat man auch die Demarkation von wissenschaftlichen und pseudowissenschaftlichen Theorien. Der sophistizierte Falsifikationismus unterscheidet sich vom naiven
Falsifikationismus darin, dass Folgen von Theorien, und nicht einzelne Theorien betrachtet werden. Nicht eine einzelne Theorie ist wissenschaftlich oder nicht-wissenschaftlich,
sondern Folgen von Theorien der eben beschriebenen Art. Das klassische Kriterium f
ur

die Adaquatheit einer Theorie war ihre Ubereinstimmung


mit empirischen Tatsachen. Das
52 theoretically

progessive problem shift.

79

von Lakatos vertretene Kriterium fordert dar


uber hinaus die Potenz einer Theorie, neue
Tatsachen vorherzusagen. Eine gute Lerntheorie sollte also nicht nur bekannte empirische
Daten, wie sie aus Experimenten gewonnen wurden, abdecken, sondern vorhersagen, wie
Lernen unter bisher nicht untersuchten Bedingungen ablauft. Diese Vorhersage ist ja eine
logische Deduktion aus den Satzen der Theorie, und damit eine solche Deduktion korrekt
ist (im Sinne einer richtigen Vorhersage) mu die Theorie den Zusammenhang zwischen
den bisherigen Befunden hinreichend korrekt widerspiegeln.
Im sophistizierten Falsifikationismus wird die Kritik von Theorien schwieriger, aber
gleichzeitig auch konstruktiver. Falsifikation ist nicht mehr einfach eine einfache Relation zwischen einer Theorie und der empirischen Basis, sondern eine komplexe Relation
zwischen konkurrierenden Theorien, der empirischen Basis und dem empirischen Wachstum, das sich aus der Konkurrenz zwischen den Theorien ergibt. In diesem Sinne hat die
Falsifikation nach Lakatos einen historischen Charakter.
In diesem Zusammenhang ist der Begriff der Gegenevidenz (counterevidence) von
Bedeutung. Im naiven Falsifikationismus bedeutet er empirische Evidenz, d.h. empirische Ergebnisse, die einer Theorie widersprechen. Im sophistizierten Falsifikationismus
sind einzelne experimentelle Resultate nicht sofort Gegenevidenz gegen eine Theorie. Sie
bedeuten vielmehr Aussagen der Art: die Daten sind Gegenevidenz f
ur Tj und st
utzen
daher Tj+1 , und Tj+1 ist entweder inkonsistent mit Tj oder unabhangig von Tj , wobei

nat
urlich Tj+1 alle Daten, die Tj erklart, ebenfalls erklart. Mit dieser Uberlegung
wirft
man ein neues Licht auf den Begriff des Entscheidungsexperiments (experimentum crucis). Urspr
unglich sind damit Experimente gemeint, die zwischen zwei konkurrierenden

Theorien entscheiden sollen. Den hier angestellten Uberlegungen


zufolge konnen Entscheidungsexperimente nur im Nachhinein als solche gesehen werden, und zwar unter
Verweise auf eine jeweils den Theorien T1 , . . . , Tj u
berlegene theorie Tj+1 .

3.3

J. Sneed: das strukturalistische Theorienkonzept

Die Frage ist, was denn eine Theorie im Rahmen einer empirischen Wissenschaft sein soll.
In den formalen Wissenschaften ist klar, was unter einer Theorie verstanden wird: sie ist
ein System von Aussagen, die entweder Axiome, Definitionen oder aus ihnen abgeleitete
Aussagen sind und von denen Widerspruchsfreiheit gefordert wird. Die Axiome haben
lediglich den Status eines Startpunktes und werden nicht notwendig als letzte, unmittelbar evidente Wahrheiten verstanden. Theorien u
ber einen empirischen Bereich konnen
aber kaum in diesem Sinne verstanden werden, denn in ihnen soll sich ja die Wirklichkeit
spiegeln, also kommen hier noch hypothetische Satze, die eventuell falsifiziert werden
konnen, hinzu.
Einen Ansatz, der auch die Problematik der Falsifikation53 in Rechnung stellt, wurde
von J. Sneed (1979) vorgestellt. Sneed spricht nicht mehr von einer Theorie, sondern von
einem non-statement view. Dieser Ausdruck ist schwer zu u
bersetzen, weshalb man nach
einem Vorschlag von Bar-Hillel besser von einem Strukturalistischen Theorienkonzept
spricht. Sneed geht davon aus, dass es grundsatzlich zwei Ansatze zur Charakterisierung
von Theorien gibt: die normalsprachlichen Theorien und die formalsprachlichen. In
einer normalsprachlichen Theorie wird eine Theorie nur analysiert, nicht aber verandert.
Im formalsprachlichen Ansatz wird eine Theorie u
ber eine formale Sprache rekonstruiert,
bei der Begriffe, Verbindungen von Begriffen, und Aussagetypen formal definiert werden
53 Es sei p eine empirische Hypothese. Man ndet, dass p gilt, und p sei mit p nicht kompatibel, also
gilt p p, p w
are somit falsiziert. Das heit aber, dass man p als wahr anerkennt, - aber das
bedeutet ja nicht mehr, dass die Aussage p ist wahr Oenbarungscharakter hat (vergl. Abschnitt 7.3).
Aber dann hat man den Begr
undungsversuch nur abgebrochen;auch p hat damit nur hypothetischen
Charakter und widerlegt p deshalb auch nur hypothetisch, nicht absolut.

80

(z.B. der Pradikatenkalk


ul). Die formale Sprache ermoglicht groe Exaktheit der Analyse.
Formale Sprachen sind extrem m
uhsam zu lesen und zu interpretieren, das Verstandnis
wird erschwert man mu die Aussagen gewissermaen in die Umgangssprache zur
ucku
bersetzen. Sneed (und unabhangig von ihm auch P. Suppes) schlugen nun vor, Theorien
nur rational, ohne Bezug auf formale Theorien nachzukonstruieren. Die Nach- bzw. Rekonstruktion von Theorien soll dazu dienen, den inneren logischen Aufbau einer Theorie
offenbar werden zu lassen, die empirische Basis sowie die theoretische Superstrukturen
sowie deren Anwendungsweisen zu klaren. Damit ergibt sich ein neues Paradigma des
Begriffs Theorie. Nach Sneeds Ansatz kann man von der Annahme ausgehen, dass jede
Theorie eine mathematische Grundstruktur hat (- auch eine psychologische Theorie?).
Diese Grundstruktur wird durch den axiomatischen Aufbau der Theorie freigelegt. Die
Axiomatisierung wird umgangssprachlich hinreichend genau durchgef
uhrt; ein Beispiel
f
ur diesen Genauigkeitsbegriff wurde von Wittgenstein in seinen Philosophischen Untersuchungen (seiner Post-Tractatus-Philosophie) geliefert: der Umfang des Begriffs Spiel
kann nicht eindeutig festgelegt werden, sondern nur in Form paradigmatischer Beispiele. Dabei werden typische bzw. paradigmatische Beispiele gegeben. Alle Einheiten, die
diesen Beispielen hinreichend ahnlich sind, werden dann Spiel genannt. Diese Charakterisierung ist keine exakte Definition, die ja nach Wittgenstein auch gar nicht moglich
ist, und die Vagheit der Charakterisierung wird bewut in Kauf genommen. Sneed zufolge ist Newton in dieser Form vorgegangen, als er die (klassische) Partikelmechanik, dh
die Planeten- und Kometenbewegung, die Pendelbewegung, den freien Fall von Korpern
und die Theorie der Gezeiten formulierte. Die Diskussion dieser Bereiche soll dann auch
f
ur hinreichend ahnliche Bereiche, etwa f
ur Doppelsterne, gelten. Die damit verbundene
Vagheit impliziert, dass der empirische Anwendungsbereich I der Theorie nicht scharf
definiert werden kann; I ist eine prinzipiell offene Menge! I kann im Zuge der Weiterentwicklung der Theorie sukzessive vergroert oder aber auch verkleinert werden, falls die
Theorie in Teilbereichen versagt. Der Kern der Theorie (also der eigentlich mathematische Teil) wird dadurch nicht widerlegt. Im urspr
unglichen Empirismus werden Begriffe
so definiert: alle Begriffe sollen sich entweder direkt auf Beobachtbares beziehen, oder
mithilfe solcher Begriffe definierbar sein. Es gibt aber in den Wissenschaften Begriffe, die
nicht auf diese Weise charakterisiert werden konnen. Sneed nennt hier die Archimedische Statik, nach der etwa die Balkenwaage funktioniert. Um die Archimedische Statik
zu u
ufen, muss man das Gewicht von Korpern kennen. Um dieses zu bestimmen,
berpr
muss man eine Balkenwaage verwenden (vorausgesetzt, man hat keine andere), und damit
die Archimedische Statik voraussetzen. Ein anderes Beispiel sei die Definition der Kraft,
K = m b, m die Masse eines Korpers, b seine Beschleunigung. Die Beziehung K = m b
ist aber nicht nur eine Definition, sondern auch ein Gesetz. Will man nun K oder m
messen, so setzt man dieses Gesetz voraus; um also zu u
ufen, ob die Beziehung gilt,
berpr
m
ute man m und K unabhangig voneinander messen und dann nachsehen, ob sie in der
Beziehung K = m b zueinander stehen (vergl. Stegm
uller, Hauptsronungen der Gegenwartsphilosophie, II, p. 485.). Man bemerke andererseits, dass m hier als konstante Groe
auftaucht. Es ist aber bekannt, dass f
ur groe Geschwindigkeiten, also Geschwindigkeiten
nahe der Lichtgeschwindigkeit, m keine Konstante mehr ist, so dass f
ur hinreichend hohe
Werte von v diese Beziehung nicht mehr gelten kann (b = dv/dt); vergl. Fliebach (1996).
Sneed argumentiert nun, dass die inhaltliche Bedeutung dieser Beobachtungen (Statik,
K = mb, etc) darin besteht, dass diese Beziehungen den Kern der Theorie bilden, der
nicht widerlegbar ist, sofern die auftretenden Begriffe nur im Rahmen dieser Theorie zu
bestimmen sind! Theorien bestehen demnach aus zwei Komponenten:
1. einem Strukturkern; dies ist die logische Komponente der Theorie, und
2. einer empirischen Komponente; dies ist die Menge I der intendierten Anwendungen
des Strukturkerns.
81

Durch R
uckgriff auf diese beiden Komponenten gelingt es, die Kuhnschen Begriffe des Paradigmas und der Normalwissenschaft zu rekonstruieren. Der Strukturkern definiert die
Rahmentheorie, dh das Paradigma, das die Grundlage der Arbeit einer Wissenschaftlergemeinde ist. Zusatzlich wird eine paradigmatische Beispielmenge von intendierten Anwendungen definiert (Pendel, Planetenbewegung, Waagen, Kreisel, etc). Die Wissenschaftler
arbeiten nun an Prazisierungen, Verallgemeinerungen, Spezifizierungen, Ausweitungen,
etc. Ausarbeitungen, Erweiterungen etc der Rahmentheorie bedeuten die versuchsweise
Einf
ugung von Spezialgesetzen, die dann empirisch u
uft werden. Es entsteht ein
berpr
Theoriennetz. Die Spezialgesetze stellen Verscharfungen der Rahmentheorie dar, die nur
in bestimmten Anwendungsbereichen gelten sollen. Sofern Spezialgesetze den empirischen
Test u
berleben, stellen sie Kernerweiterungen dar.
Kuhn hatte argumentiert, dass Paradigmen bzw. paradigmatische Theorien immun
gegen Falsifizierung seien; man spricht hier von einem Irrationalismusverdacht. Im Rahmen des Sneedschen Ansatzes lat sich nun sagen, dass das Versagen einer Theorie am
Versagen ihrer Spezialgesetze liegt, womit diese falsifiziert sind. Die Theorie als Ganzes,
dh die Rahmentheorie bzw. der Strukturkern der Theorie. Man kann sagen, dass nur
eine Kernerweiterung falsifiziert wurde. Beispiele hierf
ur sind die newtonsche Partikelmechanik und die Freudsche Psychoanalyse. Die Anwendung der Partikelmechanik auf
Lichtphanomene scheiterte, - aber nicht die Partikelmechanik wurde aufgegeben, sondern
das Licht wurde durch Wellen erklart. Licht wurde aus der Menge der intendierten Anwendungen herausgenommen. Der Sexualtrieb wurde als fundamental im Rahmen der
Psychoanalyse betrachtet. Dieser Trieb kann aber durch den Trieb, Essen zu finden,
ersetzt werden, wenn man nur die richtigen Voraussetzungen daf
ur schafft. Die Kernannahme, dass es fundamentale Triebe gibt, muss also nicht allgemein aufgegeben werden.
Wissenschaftliche Revolutionen bestehen nun in der Ersetzung eines nicht empirisch
falsifizierten Strukturkerns durch einen anderen. Die Ersetzung erfolgt nach einem Leistungsvergleich zweier miteinander konkurrierenden Rahmentheorien:
Eine Theorie leistet mehr als eine andere, wenn man mit ihr alle Erklarungen,
Voraussagen und sonstige Systematisierungen, welche die letztere gestattet,
ebenfalls vornehmen kann, dar
uber hinaus auch weitere. Man spricht von
einer strukturellen Reduktion (Stegm
uller).
Die neue Theorie mu demnach alle Probleme losen, die die alte losen konnte, und dar
uber
hinaus die neuen Probleme, die die alte nicht losen konnte. Man hat dann also eine Theorieverdr
angung mit Erkenntnisfortschritt, im Unterschied zu dem von Kuhn behaupteten
richtungslosen Paradigmenwechsel. Der Erkenntnisfortschritt ergibt sich, wenn die alte
Theorie auf die neue strukturell reduziert werden kann. Ist keine derartige strukturelle
Reduktion moglich, so hat man einen Theoriewechsel ohne Erkenntnisfortschritt.

3.4

P. Feyerabend: Wissenschaftstheorie und unerforschter Irrsinn

Nach Popper besteht der Fortschritt der Wissenschaft darin, dass falsche Theorien falsifiziert werden. Da kaum eine Theorie wahr ist, ist es eine Frage der Zeit, bis eine
Theorie falsifiziert wird. Kuhn hat die Wissenschaftsgeschichte auf Theorienwechsel hin
durchforstet und kommt zu dem Schlu, dass wohldefinierte Theorien, die sich klar nach
denRegeln der Logik falsifizieren lassen, eher die Ausnahme sind, und schlagt vor, den
Begriff der Theorie durch den Begriff des Paradigmas zu ersetzen, das nur unter bestimmten Bedingungen durch ein anderes ersetzt wird. Lakatos hat die Komplexitat des
82

Falsifikationsprozesses weiter expliziert und f


uhrte den sophistizierten Falsifikationismus
ein. Sneed zeigte, dass viele Theorien nichtfalsifizierbare Kerne haben.
Die Wissenschaft hat sich oft gegen die herrschende Philosophie dar
uber, wie gesicherte Erkenntnis zu erreichen sei, entwickelt. Das gilt nicht nur f
ur Kepler, Galilei, Newton
und andere wissenschaftliche Giganten. Betrachtet man die gegenwartige Naturwissenschaft, zu der auch zumindest teilweise die Psychologie gehort, so kann man sagen, dass
viele Wissenschaftler den gegenwartigen Stand der Wissenschaftstheorie gar nicht oder
hochstens kursorisch kennen und trotzdem gute Wissenschaft machen. In der Psychologie
fallt dabei auf, dass nur selten Theorien tatsachlich falsifiziert werden. Dies gilt nicht nur
f
ur die weicheren Gebiete der Psychologie, wie Sozial- oder Personlichkeitstheorie, sondern auch f
ur die Psychophysik, die heute starker als in den ersten Jahrzehnten des letzten
Jahrhunders mit der Hirnforschung verkn
upft ist. Die Psychophysik ist auerordentlich
interdisziplinar, gen
ugt allen naturwissenschaftlichen Kriterien, enthalt auerdem ausgepragte mathematische Komponenten, was auf eine gewisse Strenge der Begriffsbildungen
einerseits und Durchf
uhrung der Experimente andererseits verweist. Trotzdem sind explizite Falsifikationen von Theorien oder Modellen selten. Ein Grund daf
ur d
urfte sein,
dass der Gegenstand der Psychophysik, die Verarbeitung sensorischer Informationen und
die dazu korrespondierenden neuronalen Strukturen, auerordentlich komplex ist. Ein
u
ber viele Jahre zugrundegelegtes Paradigma der Forschung war - und ist -, dass die
neuronalen Strukturen f
ur kleine Stimulusintensitaten linear sind, dh die Antwort einer
solchen Struktur auf eine Summe von Stimuli ist gleich der Summe der Antworten auf
die einzelnen Stimuli. Dieses Paradigma ist eigentlich eine vereinfachende Annahme, die
allerdings nur gilt, wenn eine Reihe von stillschweigend gemachten Zusatzannahmen gilt.
Auf der Basis dieser Annahme ist eine Vielzahl von Experimenten gemacht worden, die

jeweils zur Uberpr


ufung von Hypothesen u
ber spezielle Mechanismen oder zur nahezu
hypthesenfreien Exploration solcher Mechanismen geplant wurden. Es sind haufig nicht
experimentelle Daten, die zu einer Modifikation der Modellvorstelungen f
uhren, sondern

allgemeine Uberlegungen.
So gilt f
ur lineare Systeme, dass die Antwort auf einen sinusformigen Stimulus mit der Frequenz wiederum sinusformig mit der gleichen Frequenz
ist, wobei aber die Amplitude mit einem systemspezifischen, frequenzabhangigen Faktor
A() verandert wird. Dieser Befund ist mathematisch herleitbar und gilt f
ur den sogenannten eingeschwungenen Zustand, wenn also etwaige Einschalteffekte abgeklungen
sind, bzw wenn im Ortsbereich - der Stimulus ist dann ein Streifenmuster, wobei die
Streifen sinusformig modulierte Grauwerte sind - der Stimulus von bis geht. In
Wirklichkeit kann man einen solchen Reiz nicht zeigen, also gelten die korrespondierenden experimentellen Befunde nur approximativ. Nun kommt es zu Formulierung einer
Theorie, derzufolge das visuelle System u
ugt, und die si ber Frequenzdetektoren verf
multane Aktivierung solcher Detektoren f
uhre dann zu einer Reprasentation der visuellen
Szene. Diese Detektoren seien durch Neurone mit sinusformig variierenden ON- und OFFBereichen definiert. Nat
urlich konnen diese nicht den Bereich von bis abdecken,
die rezeptiven Felder m
ussen endlich sein. Also nimmt man sogenannte Gabor-Funktionen
f
ur diese rezeptiven Felder an, das sind Funktionen vom Typ s(x) = sin(x) exp(x2 / 2 ).
F
ur x geht s(x) gegen Null. Die Annahme solcher rezeptiven Felder in Kombination mit bestimmten Verkn
upfungsarten erlaubt, eine Vielzahl visueller Mechanismen
zu erklaren. Gleichzeitig wei man, dass diese Erklarungen letztlich nur Approximationen, also nur Annaherungen sind. Man benutzt diese Modellvorstellungen, um zu sehen,
wie weit man kommt, man rechnet diese Modelle durch, um zu sehen, ob es prinzipiell
moglich ist, bestimmte Aspekte der Wahrnehmung mit ihnen zu erklaren. Die GaborModelle sind mit den Daten aus vielen Experimenten kompatibel und sind nie im strengen Sinne falsifiziert worden. Gleichwohl spielen sie nach einer gewissen Zeit nur noch
eine untergeordnete Rolle im Forschungsbetrieb, - einfach weil sich die Fragestellungen
83

geandert haben. Spezielle Hypothesen konnen sich im Experiment tatsachlich als falsch
erweisen, der jeweilige theoretische Rahmen wird deswegen noch lange nicht verworfen.
Es ist eher so, dass nach einiger Zeit derartige theoretische Rahmen bzw. Modelle ihren
kognitiven Reiz verlieren, ohne dass sie falsifiziert werden. Ihre Funktion scheint zu sein,
eine Reihe von experimentellen Untersuchungen zu stimulieren, die wiederum zu neuen
Fragestellungen f
uhrten, die einen anderen theoretischen Rahmen erfordern. Viele verschiedene theoretische Ansatze existieren parallel zueinander, ohne dass es zu Versuchen
kommt, ein experimentum crucis durchzuf
uhren, dessen Resultate eine Entscheidung f
ur
oder gegen eine Theorie implizieren w
urden. Den Wissenschaftlern ist nur zu bewut,
dass derartige Experimente kaum moglich sind. Aus der Geschichte der Lernpsychologie
lassen sich analoge Beispiele finden. In den 60-er Jahren waren Markov-Modelle beliebt,
dh Modelle, die Lernvorgange als Markov-Prozesse beschreiben. Dies sind stochastische
Prozesse, bei denen die Wahrscheinlichkeit, dass in einem Zeitintervall [t, t + dt) ein bestimmter Zustand eingenommen wird, vom Zustand zum Zeitpunkt t abhangt, und die
Abh
angigkeit von Zustanden zu Zeitpunkten < t vernachlassigt werden kann. Viele
dieser Modelle sind nie durch experimentelle Daten widerlegt worden; im Gegenteil, der
Fit ist oft beeindruckend. Trotzdem sind diese Modelle nicht zu einer Standardtheorie
des Lernens zusammengewachsen, die vergleichbar ware etwa mit der Klassischen Mechanik in der Physik. Wissenschaftliche Untersuchungen zum Lernen sind offenbar Elemente
eines Prozesses, der zum Teil schon Strukturen der von Lakatos oder Sneed beschriebenen Art aufweist, in dem aber Falsifikationen im strengen Sinn selten auftreten. Dies mag
u.a. ein Resultat der Publikationsregeln sein: kaum eine wissenschaftliche Zeitschrift wird
eine Arbeit publizieren, in der ein bestimmtes Modell vorgeschlagen und von dem dann
gezeigt wird, dass die experimentellen Daten dem Modell nicht entsprechen; als interessant erscheinen nur theoretische Ansatze, die mit den Daten auch kompatibel sind. Ein
Modell, das nicht zu Voraussagen f
uhrt, die mit den Daten vereinbar sind, erklart ja
nichts. Betrachtungen dieser Art konnen leicht auf andere Forschungsgebiete, zB auf die
Personlichkeitspsychologie oder die Differentielle Psychologie u
bertragen werden, man
betrachte etwa die Faktorentheorien der Personlichkeit. Andererseits verschwinden gerade auch auf diesem Gebiet bestimmte theoretische Vorstellungen, etwa die der Polaritat
der Geschlechter und mit dieser Vorstellungen verbundene Vorurteile54 . Die empirischen
Daten wirken hier wie stetig wirkende Tropfen, die den Stein aushohlen.
Die Forschung ist also ein komplexer Vorgang, bei dem Verifikationen und Falsifikationen eine untergeordnete Rolle zu spielen scheinen. Dass Wissenschaftstheorie und
Wissenschaft zweierlei sind, hat Paul Feyerabend immer wieder betont. Seine antiwissenschaftstheoretischen Ansichten hat er einem groeren Publikum in seinem Buch Against
Method, auf deutsch Wider den Methodenzwang anhand der Forschungen Galilei Galileos
dargelegt. Feyerabend versucht zu zeigen, dass Galileos Forschungsstrategien weder den
Regeln der Neopositivisten noch denen der sophistizierten Falsifikationisten folgen. In
seiner Arbeit Wissenschaftstheorie - eine bisher unerforschte Form des Irrsinns ? fasst
er seine skeptischen Ansichten zusammen. Feyerabend vertritt hier drei Thesen:
1. Die Theorien u
ber wissenschaftliche Erkenntnis und die tatsachliche wissenschaftliche Wirklichkeit haben so gut wie nichts miteinander zu tun,
2. Der einzige Philosoph, der diesen Sachverhalt erkannt und gewissermaen zu reparieren versucht hat, sei Imre Lakatos, - und der sei nicht erfolgreich gewesen,
3. Es gibt keine methodischen Regeln, mit denen die Wissenschaft nicht fr
uher oder
spater in Konflikt geraten w
urde. Es gibt nur Regeln f
ur spezielle Falle, aber es
gibt keine Superregel, nach der diese Regeln ausgewahlt werden konnten.
54 vergl.

etwa Wellek, A.: Die Polarit


at im Aufbau des Charakters, 1950

84

Feyerabends Argumente konnen hier nicht im Detail nachvollzogen werden, zumal seine
illustrierenden Beispiele zum Teil aus der Quantenphysik kommen, die wiederum nicht
allgemein vorausgesetzt werden kann. Die Kernargunmente konnen allerdings skizziert
werden.
Feyerabend zielt zunachst auf das sogenannte Zweisprachenmodell der Wissenschaftstheorie. Demnach lat sich eine Wissenschaft stets in zwei, zu Sprachen korrespondierenden Schichten zerlegen. Die erste Sprache ist eine Beobachtungssprache, die zweite eine
theoretische Sprache. Die beiden Sprachen seien durch ein interpretatives System miteinander verbunden. Der empirische Gehalt und der Sinn der Theorien konnten durch die
Analyse der beiden Sprachen und des interpretativen Systems analysiert und bewertet
werden. Feyerabend f
uhrt aus, dass die Wissenschaft selbst ihre Begriffe aber in ganz anderer Weise einf
uhrt und interpretiert. Physiker beziehen sich dabei selten auf eine bereits
fertig vorliegende Theorie. Unter Umstanden werden Bruchst
ucke sich widersprechender
Theorien herangezogen, um bestimmte Vorhersagen zu machen. Fertig vorliegende Theorien werden nie vollstandig formalisiert, - die Forderung, Theorien zu formalisieren, ist
von Wissenschaftstheoretikern aufgestellt worden, damit die theoretischen Strukturen
zB auf Widerspruchsfreiheit gepr
uft werden konnen. Wie Feyerabend ausf
uhrt, gehen zB
Physiker mehr oder weniger intuitiv vor, wenden bestimmte mathematische Prinzipien
an und st
utzen sich dabei auf eine vage Kenntnis von Tatsachen. Die Beobachtungsspra
che, die bei der Uberpr
ufung einer Theorie verwendet wird, ist ebenfalls nicht eindeutig.
Bereits Hempel (1972) hat ausgef
uhrt, dass eine explizite Interpretation von Theorien
nicht notwendig ist, da man Theorien verstehen lernt, wie man neue Sprachen lernt, ohne auf explizite Definitionen zu rekurrieren; man versteht sie aus dem jeweiligen Kontext
heraus.
Nach Lakatos werden nicht einzelne Theorien widerlegt, sondern es werden Forschungsprogramme betrachtet, innerhalb deren einzelne spezielle Theorien durch andere
ausgetauscht werden konnen, ohne dass der grundsatzliche Ansatz geandert wird. Nach
Lakatos beginnen solche Programme zu degenerieren, wenn eben keine Bestatigungen
mehr eintreten, wenn Daten post hoc mit Hilfe von zum Teil willk
urlich ausgewahlten
Zusatzannahmen erklart werden m
ussen. Man kann die oben besprochenen Gabor- und
Markov-Modelle in diesem Sinne als stagnierende und daher uninteressant gewordene
Programme ansehen. Feyerabend f
uhrt aus, dass Lakatos keine Regeln definieren kann,
nach denen Forschungsprogramme aufgegeben werden m
ussten; die Aufgabe und auch
die erneute Wiederbelebung von solchen Programmen folgt vielmehr freien Entschl
ussen
in konkreten historischen Situationen55 .
Die Frage ist dann, welche Rolle die Vernunft bei diesen Entscheidungen spielt, oder
zumindest spielen sollte. Lakatos schlagt hier die rationale Rekonstruktion der Methodologie einer Wissenschaft vor, bei der zwischen internen und externen Vorgangen der
Bewertung unterschieden wird (Lakatos, 1971). Die internen Vorgange beziehen sich auf
die verwendetete Methodologie, die externen fallen nicht in den Anwendungsbereich der
jeweiligen Wissenschaft bzw. des entsprechenden Theoriensystems und konnen sogar den
internen widersprechen. Extern ist zB ein Gruppendruck: Wer heute noch die Faktorenanalyse benutzt, um Personlichkeitsdimensionen zu finden, passt nicht mehr in diese
Zeit, oder umgekehrt Wer die Faktorenanalyse als methodisches Hilfsmittel der Personlichkeitstheorie grundsatzlich ablehnt, hat sie nicht verstanden. Lakatos erwahnt hier die
Mob-Psychologie. Solche Vorw
urfe sind nicht methodologisch relevant, und nach Lakatos
mu sich die Kritik auf die internen Aspekte der Methodologie richten, etwa durch Fragen
der Art, ob die Faktorenanalyse erlaubt, die Dynamik von Personlichkeitsmerkmalen zu
erfassen. Nach Lakatos m
ussen dazu Basiswerturteile gebildet werden. Dies sind Wertur55 Feyerabend,

WT - eine bisher unerforschte Form des Irrsinns?, p. 313

85

teile, die sich auf besondere Errungenschaften einer Theorie beziehen und etwa aussagen,
dass eine Theorie zu einem bestimmten Zeitpunkt (i) wissenschaftlich einwandfrei, und
(ii) anderen Theorien u
berlegen ist. Feyerabend argumentiert, dass derartige Basiswerturteile einerseits nicht die verlangte Allgemeing
ultigkeit haben, und andererseits oft auf
unvern
unftige Art begr
undet werden. Man kann sich diesen Sachverhalt wieder anhand
des faktorenanalytischen Ansatzes in der Personlichkeitsforschung klar machen. Gegeben
ist die mathematische Tatsache, dass man die Spalten- oder Zeilenvektoren einer Datenmatrix stets als Linearkombination linear unabhangiger, insbesondere orthogonaler Basisvektoren darstellen kann. F
ur den einen liefert diese Tatsache die rationale Basis f
ur die
Darstellung von Personlichkeitsmerkmalen als Kombination von Grundmerkmalen, die
mit diesen Basisvektoren identifiziert werden. F
ur den anderen Personlichkeitsforscher,
der vielleicht von der dynamischen Interaktion verschiedener Personlichkeitsaspekte u
berzeugt ist, ist der genannte mathematische Sachverhalt zwar ebenso richtig, liefert aber
in seiner Anwendung in der Faktorenanalyse nur eine triviale Paraphrasierung der Daten, die die gesuchte Dynamik nicht abzubilden vermag. Die Basiswerturteile sind hier
nicht allgemeinverbindlich. Die von Lakatos vertretene Methodologie wird zwar als rational charakterisiert, kann aber die Entscheidungen der Wissenschaftler f
ur oder gegen ein
Programm grundsatzlich nicht als irrational kategorisieren, - was in bestimmten Fallen
moglich sein m
ute, gabe es allgemeinverbindliche Basiswerturteile. Feyerabend argumentiert, dass diejenigen Irrationalismusverdikte, die von Lakatos gefallt worden sind,
nicht aus seiner Wissenschaftsphilosophie folgen, sondern ein Ausdruck seiner - Lakatos
- wissenschaftstheoretisch konservativen Neigungen seien; seine Entscheidungen basieren
nicht auf internen, sondern auf externen Kriterien. Die von Lakatos geforderte rationale
Rekonstruktion st
utzt sich tatsachlich nur auf die Ansatze, die die Wisenschaftler bzw.
die Philosophen f
ur rational halten. So sei der Ansatz Galileis f
ur einen Aristoteliker
degeneriert und unempirisch56 . Feyerabend fragt nach den Mastaben, denen zufolge
die aristotelische Philosophie denn verworfen werden kann und findet, dass die Lakatossche Philosophie hierf
ur keinen Ansatz bietet, - die Entscheidung f
ur oder gegen ein
Forschungsprogramm sei letztlich nie ohne Willk
ur zu erreichen.
Dieses Resultat ist nicht verwunderlich. In Abschnitt 7 wird noch einmal auf die Frage der Letzbegr
undung von wissenschaftlichen bzw. philosophischen Aussagen zur
uckgekommen. Es wird argumentiert werden, dass es Letztbegr
undungen aus grundsatzlichen
Gr
unden nicht geben kann.

Geistes- versus Naturwissenschaft

Die Frage, was denn Wissenschaft sei, wurde bis jetzt ohne bezug auf bestimmte Wis
senschaften gestellt; illustriert wurden die Uberlegungen
jedoch in erster Linie anhand
naturwissenschaftlicher Beispiele. Experimente konnen hier oft unter zumindest annahernd gleichen Bedingungen wiederholt werden, oder Bedingungen konnen systematisch
variiert werden. Trotzdem zeigt sich, dass nicht nur die Verifikation, sondern auch die
Falsifikation von Hypothesen und ganzen Theorien ein komplexes Problem darstellt. Das
Problem stellt sich in Wissenschaften wie der Psychologie oft in verscharfter Form; in den
folgenden Abschnitten soll kurz auf die These eingegangen werden, dass (i) die Psychologie eine Geisteswissenschaft sei, und dass (ii) f
ur diese Wissenschaften sowieso ganz andere
Regeln und Erkenntnisarten gelten als in den Naturwissenschaften. Es wird argumentiert,
dass diese Unterschiede weniger prinzipiell sind, als von Theoretikern insbesondere der
Geisteswissenschaft behauptet wird.
56 vergl

die ausgedehnte Diskussion dieser Auassung in Wider den Methodenzwang.

86

4.1

Die verschiedenen Positionen

Im angelsachsischen Bereich zahlen die Geschichtswissenschaft, die Literaturwissenschaft,


etc nicht zu den Wissenschaften im engeren Sinne, sondern zu den arts, wahrend Physik,
Biologie etc eben die sciences, die Wissenschaften sind. Nun wird man einem Historiker nicht die Wissenschaftlichkeit absprechen konnen, nur weil er Historiker und nicht
Biologe oder Chemiker oder Physiker ist. Man bezieht sich bei einer solchen Aussage
implizit auf bestimmte Kriterien f
ur das, was Wissenschaft ausmacht. Diese Kriterien
trennen Wissenschaft von Nichtwissenschaft, nicht Geistes- von Naturwissenschaft. Diese beiden Wissenschaftsarten unterscheiden sich sowohl hinsichtlich ihres Gegenstandes
wie auch ihrer Methoden. Die Unterscheidung wird oft durch bestimmte Schlagworter
charakterisiert. So seien die Naturwissenchaften nomothetisch, dh man versuche dort,
Gesetzmaigkeiten f
ur Vorgange oder Zustande zu finden, die unter gleichen Randbedingungen in gleicher Weise ablaufen oder eingenommen werden. Die Geisteswissenschaften dagegen seien idiographisch, man versuche, zB Literatur oder Geschichte verstehend
nachzuvollziehen. Der Gegenstand der Geisteswissenschaften sei nicht durch Gesetze der
Art, wie sie in den Naturwissenschaften gesucht w
urden, beschreibbar, er unterscheide
sich vielmehr grundsatzlich von dem der Naturwissenschaften. Wie schon der Ausdruck
Psychologie belege sei sie Geistes- und Seelenkunde. Das Geistige und Seelische lasse
sich aber nicht in Gesetze fassen, es lasse sich nur verstehend nachvollziehen, - schlielich
ist nach Descartes die res cogitans unabhangig von der res extenso. Ein weiteres Argument
f
ur den geisteswissenschaftlichen Charakter der Psychologie beruht auf dem Begriff der
Intentionalitat, wie er von dem Philosophen Franz Brentano eingef
uhrt wurde und der
im folgenden Abschnitt 4.2 vorgestellt wird: aus der Intentionalitat bestimmter psychischer Akte folge, dass letztere eben nicht wie Naturprozesse beschreibbar seien. Brentano
diskutierte ausserdem den Begriff der Wahrheit in Zusammenhang mit dem der Evidenz.
Ist die Einsicht in das Wesen der Intentionalitat evident - und damit, Brentano folgend,
auch wahr - so ware der Versuch, Gesetzmaigkeiten f
ur psychische Prozesse nach Art
der Naturgesetze zu finden, grundsatzlich zum Scheitern verurteilt.

In Abschnitt 4.3 werden die Windelbandschen Uberlegungen


referriert, in deren Kontext die Unterscheidung von nomothetischen und idiographischen Wissenschaften einge
f
uhrt wurde. In Abschnitt 4.4 wird ein Abriss der Diltheyschen Uberlegungen
gegeben, die
zu den wichtigsten Begr
undungen f
ur die Klassifikation der Psychologie als Geisteswissenschaften wurde. Die Argumentationen Windelbands und Diltheys sind u
beraus plausibel,
aber die kritische Analyse der Distinktion von Verstehen und Erklaren f
uhrt auf logische
Unscharfen in diesen Begriffsbildungen, und Evidenzerlebnisse liefern nicht notwendig
wahre Einsichten, vergl. Abschnitt 5. Es folgt eine kurze Erorterung der Hermeneutik,
die gewohnlich als Methodik der Geisteswissenschaften charakterisiert wird, die sich aber
auch als ein allgemeineres, den quantifizierenden Methodenkanon der Naturwissenschaften umfassendenes Modell wissenschaftlicher Forschung ansehen lat. Abschlieend wird
die Problematik subjektiver Erfahrung und den sie begleitenden Scheinevidenzen behandelt.

4.2

F. Brentano: Intentionalit
at und Evidenz

F
ur die Diskussion der Frage, ob die Psychologie nun eine Natur- oder eher eine Gei
steswissenschaft sei, sind Uberlegungen
wichtig geworden, die auf den Theologen und
Philosophen Franz Brentano (1838 - 1917)57 zur
uckgehen. Brentano studierte zunachst
57 F. Brentano war ein Nee des romantischen Dichters Clemens von Brentano und Bruder von Lujo
Brentano, einem damals bedeutenden Wirtschaftstheoretiker, den die damaligen (Manchester-) Liberalen zu den Kathedersozialisten z
ahlten; diese waren zwar keine Sozialisten, sondern vertraten nur die

87

katholische Theologie und wurde Priester. Er studierte dann Philosophie, wurde Professor in W
urzburg, spater in Wien, wo er groen Einflu auf die philosophische Szene
hatte.
In seinen philosophischen Studien fokussierte er auf die vorkantische Philosophie: er
beschaftigte sich insbesondere mit Aristoteles, der Philosophie der Scholastik und den
Lehren von Rene Descartes und John Locke. Korrespondierend zur romantischen StroAbbildung 16: Franz Brentano (1838 - 1917)

mung im 19-ten Jahrhundert scheint sein theologischer Hintergrund, d.h. sein Glaube
an Gott, an die Weltschopfung und an die Unsterblichkeit der Seele dazu beigetragen
zu haben, die Philosophie Kants ebenso wie den Positivismus abzulehnen. Er lehrt, dass
sich die Philosophie am Vorbild der Naturwissenschaft orientieren soll. Philosophie hat,
so Brentano, mit Vorstellungen, Urteilen und Schl
ussen zu tun, - also mu die Psychologie Grundlage der Philosophie sein (Hauptwerk: Psychologie vom empirischen Standpunkt, 1874). Die Psychologie wiederum soll deskriptiv vorgehen: insbesondere sollen
Bewutseinsphanomene beschrieben und klassifiziert werden. Der zentrale Gedanke seines Ansatzes ist, dass psychische Akte durch ihren intentionalen Charakter bestimmt seien. Der Begriff der Intentionalitat soll dabei die Beziehung eines psychischen Aktes auf
bewutseinsimmanente Gegenstande charakterisieren. Demnach konnen wir uns nichts
vorstellen, konnen wir nicht wahrnehmen oder urteilen, ohne uns etwas vorzustellen, etwas wahrzunehmen, oder etwas zu beurteilen. Intentionalitat im hier gemeinten Sinn darf
also nicht verwechselt werden mit dem Begriff der Intention, also der Absicht. Der Begriff
Intentionalitat (im philosophischen Sinn) wurde schon in der mittelalterlichen Scholastik
gepragt und reflektiert die Bedeutung des lateinischen Verbs intendere = auf etwas zeigen
oder zielen. Intentionale Phanomene sind solche, die auf etwas anderes verweisen. So sind
Hoffnungen oder Bef
urchtungen Beispiele f
ur intentionale Phanomene, da man auf etwas
hofft, oder sich vor etwas f
urchtet. So kommt Brentano dazu, den Begriff des Intentionalen Akts einzuf
uhren: stellt man sich z.B. Pegasus vor, dann gibt es nicht den Pegasus im
Bewutsein, sondern den Akt des Sich-den-Pegasus-Vorstellens. Nach Brentano, der den
mittelalterlichen Intentionalitatsbegriff gewissermaen re-aktivierte, definiert Intentionalitat insbesondere die Unterscheidung zwischen geistigen und physischen Phanomenen.
Denn seiner Ansicht nach konnen nur geistige Phanome intentional sein; Intentionalitat
sei daher ein irreduzibles Merkmal geistiger Phanomene. Da physische Phanome keine
Intentionalitat haben konnen, folgt - so Brentano - das geistige Phanomene nicht auf
Ansicht, dass u
usse. Franz Brenber soziale Reformen mehr soziale Gerechtigkeit geschaen werden m
tano geriet in Konikt mit den Vorschriften der katholischen Kirche, denn er konnte das Dogma der
Unfehlbarkeit des Papstes wegen mangelnder Evidenz f
ur den Wahrheitscharakter des Dogmas nicht
akzeptieren und trat aus der Kirche aus, u.a. um heiraten zu k
onnen. Dies bedeutete den Verlust seines
Lehrstuhls, woraufhin er nach Italien u
bersiedelte, wo er bis zum ersten Weltkrieg blieb. Abgestossen
vom italienischen Nationalismus verlie er Italien und lie sich in Z
urich nieder, wo er 1917 starb.

88

physische zur
uckgef
uhrt werden konnen; diese Argumentation ist als Brentanos Irreduziblit
atsthese bekannt und wird gelegentlich herangezogen, wenn die Behauptung gest
utzt
werden soll, dass der Geist nicht mit dem Gehirn bzw. der Aktivitat des Gehirns gleichgesetzt werden kann. Diese Folgerung wird allerdings nicht allgemein akzeptiert. Viele
Philosophen stimmen darin, dass der Begriff der Intentionalitat ein Merkmal geistiger
Akte sei, gleichwohl herrscht keine Einigkeit dar
uber, ob Intentionalitat tatsachlich auf
eine immaterielle Basis des Geistigen verweist; man sieht leicht, dass man hier auf die
u
uhrt wird.
beraus schwierige Frage, wie denn das Geistige zu definieren sei, gef
Der Begriff der Intentionalitat spielt eine zentrale Rolle in der Philosophie Edmund
Husserls (1859-1938), Mathematiker, Philosoph, einer der Begr
under der modernen Phanomenologie (Logische Untersuchungen, Cartesianische Meditationen). Husserl, der die
idealistischen Philosophien ablehnte, hatte wiederum groen Einflu auf Martin Heidegger und Jean Paul Sartre.
Abbildung 17: Edmund Husserl (1859-1938)

Ein weiterer Fokus der Brentanoschen Philosophie ist das Problem der Wahrheit von
Urteilen, allgemein die Alethiologie58 . Der herkommlichen Auffassung zufolge sind Urteile wahr, wenn sie mit dem, was beurteilt wird, u
bereinstimmen (vergl. Abschnitt 1.8,
Seite 21). Brentano setzt dagegen, dass Urteile dann wahr sind, wenn sie evident sind,
oder wenn sie aus evidenten Urteilen abgeleitet worden sind. Evidenz wird dabei als eine einfache Erlebnisqualitat eingef
uhrt, die sich nicht weiter definieren lasse. So ist es
z.B. evident, dass 1 + 1 = 2 wahr ist. Beziehen sich die Urteile auf Tatsachen, spricht
Brentano von assertorischer Evidenz. Evident sind auch Urteile u
ber die Beziehung zwischen Begriffen, denn Begriffe konnen nur in bestimmter Weise verbunden werden. So
lassen sich bestimmte Begriffe gar nicht verbinden. Zum Beispiel lassen sich die Begriffe
Dreieck und Winkelsumme ist ungleich 180 Grad nicht verbinden, - die Unmoglichkeit
der Verbindung sei evident, zumindest wenn man die Euklidische Geometrie voraussetzt.
Urteile u
ber Begriffe basierten nicht, wie ja gerade in der scholastischen Philosophie oft
58 Alethiologie:

die Lehre von der Wahrheit.

89

angenommen, auf Spekulationen u


ber das Wesen des Begriffs, also etwa des Dreiecks,
sondern ergaben sich aus den Verbindungen bzw. den Vergleichen zwischen den Begriffen.
F
ur die Erkenntnis- und Wissenschaftstheorie birgt dieser Ansatz Probleme, denn
Urteile konnen einem Urteilenden als evident und damit wahr erscheinen, sind aber oft
offenbar falsch. Die Evidenz der Unvereinbarkeit wird vom urteilenden Subjekt dann
nicht erlebt, etwa wegen irgendwelcher Zufalligkeiten, die sich storend dem Urteilsproze
u
berlagern. Auch bei wissenschaftlichen Urteilen, die ja im allgemeinen nicht den Zufalligkeiten des Tagesgeschehens unterliegen, zumindest nicht unterliegen sollten, finden
sich ja falsche Urteile; wie insbesondere Popper herausgestellt hat ist die Geschichte der
Wissenschaften eine Geschichte falscher Urteile. Allgemein wird das Problem der Evidenz in Abschnitt 7.2 diskutiert. Soll die Unterscheidung zwischen echter Evidenz und
Scheinevidenz zuverlassig sein, so mu die Unterscheidung selbst als evident erscheinen, und wann ist das Evidenzerlebnis f
ur diese Unterscheidung nur das einer Scheinevidenz?
Brentano und einigen anderen Philosophen zufolge werfen das Phanomen der Intentionalitat und das Problem der Wahrheit Fragen auf, die in den Naturwissenschaften
scheinbar59 nicht gestellt werden, die aber f
ur jede Wissenschaft, die sich mit dem Geist
und dem Seelischen beschaftigt, von zentraler Bedeutung seien; die Naturwissenschaften
konnten diese gar nicht adaquat behandeln. Ob diese Behauptung zutrifft, wird noch zu
diskutieren sein.

4.3

W. Windelband: nomothetische und idiographische Wissenschaften

Die Charakterisierung der Geisteswissenschaften insbesondere durch Windelband, auf


den die wichtige Unterscheidung zwischen nomothetischen und idiographischen Wissenschaften zur
uckgeht, soll hier kurz vorgestellt werden.
Abbildung 18: Wilhelm Windelband (1848 - 1915)

Wilhelm Windelband wurde 1848 in Potsdam geboren und starb 1915 in Heidelberg.
Er gilt als das Haupt der s
udwestdeutschen Schule des Neukantianismus und war einer der bedeutendsten deutschen Philosophiehistoriker. 1894 wird er Rektor der damals
Kaiser-Wilhelms-Universitat genannten Universitat Straburg und halt am 1. Mai seine
59 Es

ist tats
achlich scheinbar und nicht anscheinend gemeint!

90

Antrittsrede mit dem Titel Geschichte und Naturwissenschaft. Windelband befasst sich
hier mit der Rolle der Logik und generell der Philosophie f
ur das System der Wissenschaften, d.h. f
ur die Klassifikation der Wissenschaften. Generell sieht er die Philosophie
und Mathematik auf der einen Seite und die Erfahrungswissenschaften auf der anderen
Seite. Von den Erfahrungswissenschaften sagt Windelband: ihre Aufgabe ist, eine irgendwie gegebene und der Wahrnehmung zugangliche Wirklichkeit zu erkennen . . . sie
bed
urfen neben der Richtigkeit des normalen Denkens . . . durchweg einer Feststellung
von Tatsachen durch Wahrnehmung. Die Unterscheidung zwischen Geistes- und Naturwissenschaften ist zur Zeit Windelbands bereits getroffen worden, und obwohl Vertreter
der Geisteswissenschaften sich haufig auf ihn - insbesondere auf seine Straburger Rede
- berufen, scheint er diese Unterscheidung gar nicht so sinnvoll zu halten: bei den . . .
auf die Erkenntnis des Wirklichen gerichteten Disziplinen ist gegenwartig die Scheidung
von Naturwissenschaften und Geisteswissenschaften gelaufig: ich halte sie in dieser Form
nicht f
ur gl
ucklich. So sei z.B. die Psychologie weder in der Geistes- noch in der Naturwissenschaft unterzubringen, denn keine dieser beiden Kategorien trafen voll auf die Psychologie zu. Denn ihr gesamtes methodisches Gebahren sei das einer Naturwissenschaft;
sie hat [sich] gefallen lassen m
ussen, gelegentlich als die Naturwissenschaft des inneren
Sinnes oder gar als geistige Naturwissenschaft bezeichnet zu werden. Windelband fragt
dann weiter, worin denn die methodische Verwandtschaft zwischen der Psychologie und
den Naturwissenschaften best
unde, und stellt fest, dass jene wie diese ihre Tatsachen
feststellt, sammelt und verarbeitet nur unter dem Gesichtspunkte und zu dem Zwecke,
daraus die allgemeine Gesetzmassigkeit zu verstehen, welcher diese Tatsachen unterworfen sind. Es sei aber die Besonderheit des Gegenstandes der Psychologie, die die Art der
Feststellung der Tatsachen und ihre induktive Verwertung zwecks Aufstellung allgemeiner Gesetzmaigkeiten, die sie von den u
brigen Naturwissenschaften separiere. Aber es
seien stets die Gesetze des Geschehens, die in den Naturwissenschaften gesucht w
urden, und darin eben gliche die Psychologie der Physik ebenso wie der Chemie oder der
Biologie. F
ur die Geisteswissenschaften allerdings gelte:
Demgegen
uber ist die Mehrzahl derjenigen empirischen Disciplinen, die man
wohl sonst als Geisteswissenschaften bezeichnet entschieden darauf gerichtet,
ein einzelnes, mehr oder minder ausgedehntes Geschehen von einmaliger, in
der Zeit begrenzter Wirklichkeit zu voller und erschopfender Darstellung zu
bringen. Da handelt es sich etwa um ein einzelnes Ereigniss oder um eine zusammenhangende Reihe von Taten und Geschicken, um das Wesen und Leben
eines einzelnen Mannes oder eines ganzen Volkes, um die Eigenart und die
Entwickelung einer Sprache, einer Religion, einer Rechtsordnung, eines Erzeugnisses der Litteratur, der Kunst oder der Wissenschaft: und jeder dieser
Gegenstande verlangt eine seiner Besonderheit entsprechende Behandlung.
Immer aber ist der Erkenntnisszweck der, dass ein Gebilde des Menschenlebens, welches in einmaliger Wirklichkeit sich dargestellt hat, in dieser seiner
Tatsachlichkeit reproducirt und verstanden werde.
Das Einteilungsprinzip der Wissenschaften sei nun durch den formalen Charakter der
Erkenntnisziele definiert:
Die einen suchen allgemeine Gesetze, die anderen besondere geschichtliche
Tatsachen: in der Sprache der formalen Logik ausgedr
uckt, ist das Ziel der
einen das generelle, apodiktische60 Urteil, das der anderen der singulare, assertorische Satz.
60 apodiktisch: (griech = beweiskr
aftig), unwiderleglich, notwendig, jeden Widerspruch von vornherein
ausschieend.

91

Und:
Die moderne Naturwissenschaft hat uns gelehrt, das Seiende zu definiren
durch die dauernden Notwendigkeiten des an ihm stattfindenden Geschehens:
sie hat das Naturgesetz an die Stelle der platonischen Idee gesetzt.
Das Unterscheidungprinzip sei also letztlich durch die Art und Weise, wie das Verhaltnis
vom Allgemeinen zum Besonderen betrachtet wird, gegeben. Die Naturwissenschaften seien Gesetzeswissenschaften, die Geisteswissenschaften dagegen seien Ereigniswissenschaften. Diese Auffassung brachte Windelband dazu, zwei neue Begriffe in die Diskussion zu
bringen:
Das wissenschaftliche Denken ist - wenn man neue Kunstausdr
ucke bilden
darf - in dem einen Falle nomothetisch, in dem andern idiographisch.
Windelband stellt dann noch einmal explizit fest, dass die Psychologie eindeutig zu den
Naturwissenschaften zahle. Denn es handele sich nur um einen methodischen Gegensatz,
der sich nicht auf die Inhalte (im Falle der Psychologie also das Geistige) beziehe.
Dieselben Gegenstande konnen sowohl zum Gegenstand einer nomothetischen wie auch
einer idiographischen Untersuchung gemacht werden, denn das Immergleiche und das
Einmalige seien eben relative und nicht absolute Begriffe. So seien bestimmte Forschungsgegenstande f
ur lange Zeit relativ konstant in ihrer Struktur, konnen aber doch
Einmaligkeitscharakter haben; dies gilt z. B. f
ur Sprachen. Man kann ihre grammatische
Struktur etc als f
ur einen u
berschaubaren Zeitraum konstant ansehen und deshalb nomothetische Gesetzmaigkeiten feststellen. Aber Sprachen konnen auch untergehen und
tauchen in ihrer Einmaligkieit nie wieder auf. Analoge Aussagen lieen sich u
ber physiologische, geologische, astronomische Zusammenhange machen. Das historische Prinzip
w
urde so auf das Gebiet der Naturwissenschaft hin
ubergetrieben. Der Unterschied zwischen den Naturwissenschaften beginne erst da, wo es sich um die erkenntnismaige
Verwertung der Tatsachen handele: die eine sucht Gesetze, die andere Gestalten. Bei
den Naturwissenschaften treibe das Denken vom Besonderen zum Allgemeinen, bei den
Geisteswissenschaften wird an der liebevollen Auspragung des Besonderen festgehalten.
Der Naturwissenschaftler reflektiere nur diejenigen Aspekte des Geschehens, die f
ur die
Formulierung allgemeiner Gesetzmaigkeiten von Belang sind, wahrend f
ur den Geisteswissenschaftler ein Gebilde der Vergangenheit in seiner ganzen individuellen Auspragung
zu ideeller Gegenwartigkeit neu zu beleben. F
ur die Naturwissenschaft gelte
Aus der farbigen Welt der Sinne praparirt sie ein System von Konstruktionsbegriffen heraus, in denen sie das wahre, hinter den Erscheinungen liegende
Wesen der Dinge erfassen will, eine Welt von Atomen, farblos und klanglos,
ohne allen Erdgeruch der Sinnesqualitaten, - der Triumph des Denkens u
ber
die Wahrnehmung.
Gleichg
ultig gegen das Vergangliche, wirft sie ihre Anker in das ewig sich
selbst gleich Bleibende; nicht das Veranderliche als solches sucht sie, sondern
die unveranderliche Form der Veranderung.
Es frage sich nun, welches Wissen wertvoller sei, das um Gesetze oder das um Ereignisse.
Diese Frage konne nur durch Besinnung der letzten Ziele der wissenschaftlichen Arbeit
entschieden werden. Denn die idiographischen Wissenschaften bed
urften auf Tritt und
Schritt der allgemeinen nomothetischen Gesetze. Andererseits gelte: jemand, der keine
Ahnung davon hatte, wie Menschen u
uhlen und wollen, der w
urde
berhaupt denken, f
nicht erst bei der Zusammenfassung der einzelnen Ereignisse zur Erkenntniss von Begebenheiten - er w
urde schon bei der kritischen Feststellung der Tatsachen scheitern.
92

Psychologie sei also im Prinzip eine Naturwissenschaft, - ohne nomothetische Gesetzmaigkeiten komme auch eine idiographisch forschende Wissenschaft nicht aus. Windelband macht nun noch interessante Feststellungen u
ber die Art von Psychologie, die von
Historikern f
ur ihre Arbeit benotigt wird: sie haben durch nat
urliche Menschenkenntniss, durch Takt und geniale Intuition gerade genug gewusst, um ihre Helden und deren
Handlungen zu verstehen. Interessant ist seine Folgerung aus diesem Befund:
Das61 gibt sehr zu denken und lasst es recht zweifelhaft erscheinen, ob die
von den Neuesten geplante mathematisch-naturgesetzliche Fassung der elementaren psychischen Vorgange einen nennenswerthen Ertrag f
ur unser Verstandniss des wirklichen Menschenlebens liefern wird.
Windelbands Unterscheidung von nomothetischen und idiographischen Wissenschaften
ist zweifelsohne wichtig f
ur das allgemeine Verstandnis des Wissenschaftsbegriffs. Viele
Fragestellungen, denen sich Psychologen gegen
uberstehen, gleichen strukturell denen der
Historiker: so mu z.B. die psychische Befindlichkeit eines Patienten aus seiner Historie
rekonstruiert werden, sie kann nicht durch Experimente etwa der Art, wie sie ein Physiker etwa zur Bestimmung der Lichtgeschwindigkeit durchf
uhrt, exploriert werden. Von
der zu bestimmenden Groe, der Lichtgeschwindigkeit, kann sinnvollerweise angenommen werden, dass sie durch die Experimente nicht verandert wird. Explorationen etwa
des emotionalen Reaktionsmusters eines Menschen konnten durchaus Einflu auf eben
dieses Muster haben, - diese Moglichkeit kann jedenfalls nicht von vornherein ausgeschlossen werden. Aber Windelband bezieht sich auf die elementaren psychischen Vorgange,
z.B. bestimmte Wahrnehmungs- oder Lernprozesse, und bei diesen wiederum ist nicht
a priori klar, warum eine mathematische Behandlung nicht sinnvoll sein soll (allein die
Entwicklungen auf diesen Gebieten wahrend der letzten zwei bis drei Jahrzehnte zeigen,
dass mathematische Modelle eine wichtige Rolle bei der Erforschung dieser Prozesse spielen konnen). Windelband geht es aber um das wirkliche Menschenleben. Zweifelsohne
hat jeder Psychologe das Recht, sich den Fragen zuzuwenden, die er f
ur relevant halt.
Aber personliche Praferenzen sind kein Teil der Wissenschaftstheorie. Die Frage, ob wissenschaftliche Ansatze sinnvoll sind oder nicht, kann nicht als wissenschaftstheoretisch
camouflierte Frage des Geschmacks in die Diskussion gebracht werden. Generell kann

man zu den Windelbandschen Auerungen


sagen, dass sie eben im Rahmen einer Rede gemacht wurden und deswegen zunachst (umgangs-)sprachlich glatt und suggestiv,
bei naherem Hinsehen aber eher assoziativ wirken und nicht als Resultat einer scharfen
begrifflichen Analyse erscheinen. Gleichwohl ist Windelbands Bemerkung u
ber das, was
eine wissenschaftlich sinnvlle Psychologie ausmacht, von groer Bedeutung: von spateren,
geisteswissenschaftlich orientierten Psychologen ist sie zu einer Art Theorie - vielleicht
sollte man besser oder polemischer von einer Ideologie sprechen - elaboriert werden.

4.4

W. Dilthey: Naturerkl
aren und Seelenverstehen

Dilthey (1833 - 1911) verfasste 1904 einen Aufsatz mit dem Titel Ideen u
ber eine beschreibende und zergliedernde Psychologie , in der f
ur eine geisteswissenschaftliche Psychologie argumentiert wird (Dilthey, 1961). Einige Satze aus dieser Arbeit sind zu gefl
ugelten Worten geworden; es soll also kurz darauf eingegangen werden. Ein zentraler
Absatz aus dieser Arbeit sei wortlich wiedergegeben:
. . . Nun unterscheiden sich zunachst die Naturwissenschaften von den Geisteswissenschaften dadurch, dass jene zu ihrem Gegenstand Tatsachen ha61 Gemeint

ist der intuitive Gebrauch der Psychologie durch die Historiker.

93

ben, welche im Bewutsein als von auen, als Phanomene und einzeln gegeben auftreten, wogegen diesen von innen, als Realitat und als ein lebendiger
Zusammenhang originaliter auftreten. Hieraus ergibt sich f
ur die Naturwissenschaften, dass in ihnen nur durch erganzende Schl
usse, vermittels einer
Verbindung von Hypothesen, ein Zusammenhang der Natur gegeben ist. F
ur
die Geisteswissenschaften folgt dagegen, dass in ihnen der Zusammenhang
des Seelenlebens als ein urspr
unglich gegebener u
berall zugrunde liegt. Die
Natur erklaren wir, das Seelenleben verstehen wir.

Abbildung 19: Wilhelm Dilthey (1833 - 1911)

Das oben angedeutete gefl


ugelte Wort ist der letzte Satz dieses Absatzes: Die Natur erklaren wir, das Seelenleben verstehen wir. Die Kerngedanken, die der Unterscheidung von Geistes- und Naturwissenschaften unterliegen, sind bereits von Windelband in
seiner Straburger Rede formuliert worden. Hier werden als weitere Vervollstandigung
des begrifflichen Arsenals die Begriffe Erklaren und Verstehen eingebracht. Lange vor
Windelband und Dilthey hatte allerdings der italienische Historiker Giambattista B. Vico
(1668 - 1744) das Verstehen als Methode geschichtlicher Prozesse vorgeschlagen. Erklaren
und Verstehen gelten als grundsatzlich verschiedene Modi, sich gedanklich der Struktur
irgendwelcher Sachverhalte zu nahern. Seifert (1929) schreibt
Das Wesen der naturalistischen Aufassung besteht darin, dass die Seele als
dinghaftes Sein, als Sache, als Objekt unter Objekten betrachtet wird. ... F
ur
die Zuteilung dieses Gegenstandes [Gemeint ist das Seelische] aber erscheint der objektivierenden Grundtendenz zufolge - das Schema62 magebend, dass
aus einer vollig unabhangig vom erkennenden Subjekt gedachten Gesamtwelt von Objektivem ein entsprechendes Teilgebiet herausgehoben wird. Aber
schon in diesem Schematismus als solchem ist die tiefgehende Verfalschung
enthalten, die der Eigenart des Seelischen widerfahrt: gerade das im eminenten Sinne Nicht-gegenstandliche (Aktmaige) der seelischen Erlebnisse und
Verhaltensweisen hat hier die Rolle eines Gegenstands zu u
bernehmen.
In Abschnitt 5.1 werden Argumente vorgetragen, denen zufolge die Behauptung, dass
das Verstehen tatsachlich fundamental verschieden vom naturwissenschaftlichen Erkla62 Gemeint

ist die Physik.

94

ren sei, nicht aufrechterhalten werden kann. Die Debatte dauert allerdings an, und die
Vertreter der geisteswissenschaftlichen Richtung einerseits und die der naturwissenschaftlichen Richtung andererseits verweisen auf ihre jeweiligen Evidenzerlebnisse. Deshalb sei
an dieser Stelle bereits auf den Abschnitt 7 verwiesen.

4.5

Hermeneutik: Die Methodologie der Deutung

Die Hermeneutik (von griechisch hermene


uein = aussagen, auslegen, u
bersetzen) bedeutet zunachst die Kunst der Auslegung und Deutung, die Technik des Verstehens und
Verstehen-Konnens. In der Scholastik bezog sich diese Kunst auf die Interpretation alter philosophischer und theologischer, insbesondere biblischer Texte. Als systematische
Methode wurde die Hermeneutik von Daniel Ernst Schleiermacher (1768-1834), Philosoph und Theologe, im Zusammenhang mit der Frage, wie alte Schriften zu deuten seien entwickelt. Hermeneutik wird verallgemeinernd auch als die (Kunst der) Auslegung
Abbildung 20: Daniel Ernst Schleiermacher (1768-1834)

oder Interpretation der Lebenswirklichkeit in der Zeit definiert. Der Ausdruck Lebenswirklichkeit wird hierbei nicht scharf definiert, sondern eher als Begriff exploriert; nach
Dilthey wird die Erfassung der Lebenswirklichkeit u
ber das Erleben, den Ausdruck und
das Verstehen vermittelt. Ein wichtiger Begriff ist in diesem Zusammenhang der des hermeneutischen Zirkels: um z.B. den Sinn eines Textes zu verstehen, mu man den Sinn
seiner Teile verstehen - und umgekehrt, dh das Verstandnis des Teils ergibt sich aus dem
Verstandnis des Ganzen. Ganzheit und Teil stehen damit zueinander in einem Zirkelverhaltnis: sie bedingen sich gegenseitig. Schon in der Zeit der klassischen Hermeneutik von
ca. 1500-1800 entspricht der Hermeneutische Zirkel dem Verhaltnis zwischen der Bedeutungsganzheit und einem Bedeutungsteil eines Textes. Bei Dilthey, aber auch schon bei
Schleiermacher ist die Hermeneutik demnach der Versuch der Klarung des Verhaltnisses
zwischen einem Teil des Bewutseins und der Handlungen einer Person und der Gesamtheit ihres Lebens, des sozialen Milieus oder der historischen Epoche. Der Philosoph Hans
Georg Gadamer charakterisiert in seinem Werk Wahrheit und Methode (1960, S.250ff.,
275ff.) den hermeneutischen Zirkel als das
Verhaltnis zwischen der konkreten Teilauslegung von etwas und der Verstehensganzheit (dem Sinnhorizont), in dem sich die Auslegung immer schon
befindet. Um ein bestimmtes Etwas zu verstehen, mu ich schon ein Vorver95

Abbildung 21: Hans Georg Gadamer (1900-2002)

standnis des Zusammenhangs, in dem sich dieses Etwas befindet, mitbringen.


Um von dem Zusammenhang ein Vorverstandnis zu haben, mu ich einzelne
seiner Teile (Momente) schon verstanden haben.
Die Hermeneutik gilt als eine spezifische Methode der Geisteswissenschaft. Charakteristisch f
ur die Hermeneutik als geisteswissenschaftliche Methode ist
die Betonung der Geschichtlichkeit des Menschen in seiner Lebenswelt,

die Analyse der Bedingungen von (Lebens-) Auerungen


des Menschen (etwa in
der Kunst) im Ganzen seines (Welt-) Horizontes (in diesem Zusammenhang wird
auch der Begriff der Weltanschauung verwendet),
das Verstehen meint dabei die Erkenntnisform, die auf die Erfassung von Sinn,
von Bedeutung (im Gegensatz zur Erklarung, bei der es um Gr
unde, Ursachen,
Kausalitat allgemein) hinzielt.
Ein Beispiel f
ur Sinnhaftigkeit wird durch den Begriff Spiel gegeben: - spielen
kann zweckfrei, aber sinnvoll sein, und ist daher hermeneutisch betrachtbar.
Die Hermeneutik soll nun zur allgemeinen Methode des Verstehens entwickelt werden.
Verstehen sei das Nacherleben eines Erlebniszusammenhangs, der den jeweils zu verste
henden Auerungen
zugrunde liegt. Es wird deutlich, dass diesem Ansatz die Evidenzproblematik innewohnt: scheint eine durch inneres Nacherleben gegebene Interpretation als
evident, so mu diese Interpretation auch wahr sein, - der Moglichkeit von Fehlschl
ussen ist durchaus gegeben, und auch Erfahrung sch
utzt nicht nicht davor, wie spater
noch ausgef
uhrt werden wird. Nat
urlich sehen dies auch die Theoretiker des hermeneutischen Verstehens. Dilthey verweist deshalb auf Hegel63 . Der hat den Begriff des objektiven
Geists in die Welt gesetzt: der objektive Geist ist das objektiv gewordene Ergebnis geistiger Akte, z.B. das Recht, das dem Einzelnen als objektive Wirklichkeit gegen
ubertritt. Will man ein Gerichtsurteil verstehen, so mu nicht nur das Erleben des Richters
nachvollzogen werden, sondern es mu das gesamte Rechtssystem ber
ucksichtigt werden.
Nach Hegel ist der objektive Geist allerdings ein Ausdruck des Absoluten . . . Schematisch
kann der Unterschied zwischen Verstehen und Erklaren wie folgt illustriert werden: ein
Text wird in den Computer getippt. Die Erklarung dieses Sachverhalts besteht in der
Aussage, dass der Text durch mechanisch-elektrische Prozesse in den Rechner kommt.
Dazu laufen entsprechende physiologische Prozesse in der schreibenden Person ab. Das
63 Gottfried

Friedrich Wilhelm Hegel, 1770 - 1831

96

Verstehen hingegen bezieht sich auf die Bewutseinsvorgange der schreibenden Person.
Diese m
ussen nachvollzogen bzw. nacherlebt werden, d.h. das Erleben der schreibenden
Person muss nacherlebt werden. Das Verstehen basiert nicht auf der Kenntnis (naturwissenschaftlicher) Gesetze, sondern auf der Fahigkeit, individuelle Erlebnisse nachzuvollziehen. Die Theorie des Verstehens gehort in die Psychologie, und die Psychologie ist
nicht naturwissenschaftlich, sondern - nach Dilthey - beschreibend, d.h. sie ist nicht auf
der Suche nach verallgemeinernden Gesetzen. Naturwissenschaftliche Psychologie erklart,
wieder nach Dilthey, Bewusstseinsvorgange durch R
uckf
uhrung auf einfache Elemente,
z.B. Sinnesdaten, die assoziationspsychologisch zu hoheren Komplexen zusammengefasst
werden. Dilthey argumentiert, dass eine solche Psychologie dem Verstehen nicht gerecht
werden kann, weil sie den ganzheitlichen Charakter der Erlebnisse vernachlassige. F
ur
die Hermeneutik muss also eine Psychologie gefordert werden, die den Vorrang des Erlebniszusammenhangs vor den Einzelerlebnissen anerkennt (Rod (2000), p. 387); diese
Forderung lag u.a. dem Ansatz der Gestalttheoretiker (C. v. Ehrenfels (1859 - 1932),
W. Kohler (1887 - 1967), etc) zugrunde. In der erklarenden Psychologie geht es nach
Dilthey nur um angenommene oder erschlossene Zusammenhange, in der beschreibenden Psychologie dagegen geht es um den unmittelbar erlebten Zusammenhang, welcher
urspr
unglich und immer als das Leben selbst gegeben ist. In der beschreibenden Psychologie nach Dilthey ist das Verstehen nacherlebendes Deuten, und dies soll Einbeziehung
des zu deutenden Inhalts in einen ganzheitlichen Erlebniszusammenhang sein. Dieser Erlebniszusammenhang bestehe bereits im Bewutsein der deutenden Person und stimme
zumindest partiell mit dem nachzuerlebenden Zusammenhang u
berein. Wer nicht u
ber
Erfahrungen verf
ugt, die von ahnlicher Art wie der zu verstehende Zusammenhang sind,
ist demnach zu nachvollziehendem Verstehen nicht imstande, wie man sich am Beispiel
der Angst, die von einer anderen Person erlebt wird, klar machen kann. Das Verstehen
ist demnach auf ein Vorverstandnis angewiesen, das seinerseits auf Akten des Verstehens
einzelner Erscheinungen beruht:
Wir m
ussen aus den Teilen das Ganze aufbauen, und in dem Ganzen muss
doch das Moment liegen, durch welches Bedeutung zugeteilt wird und das
sonach dem Teil seine Stellung zuweist (Dilthey, 1904).
Dies ist gerade der hermeneutische Zirkel, - er sei, so Dilthey, kein logischer Zirkel, da
der Zusammenhang nicht aus den Einzelheiten gefolgert wird. So konnen etwa Satze aus
historischen Texten wie z.B. Eher geht ein Kamel durch ein Nadelohr als ein Reicher
in das Himmelreich durch Einbeziehung in einen groeren Zusammenhang interpretiert
werden: im griechischen Urtext stand moglicherweise nicht kamelos (= Kamel), sondern kamilos = Strick, - man erhalt also eine sinnvollere Interpretation, wenn man die
Moglichkeit einer Buchstabenverwechslung durch fr
uhere Kopisten in Rechnung stellt.
Es m
ussen nicht nur subjektive Erlebniszusammenhange ber
ucksichtigt werden, sondern
auch objektive, die sich, wie bereits erwahnt, durch Bezug auf den objektiven oder auch
absoluten Geist Hegels ergeben. Nach Dilthey ist der absolute Geist das Leben in seiner
Totalitat.
So wird langsam deutlich, dass nach Ansicht der Vertreter der verstehenden Richtung die Hermeneutik zu einer zentralen Methode der Welterklarung wird. Da sie zur
geisteswissenschaftlichen Methode schlechthin erklart wird, impliziert diese Auffassung
eine Aufwertung der Geisteswissenschaften und eine Abwertung der Naturwissenschaften,
denn letztere konnen die Wirklichkeit nur abstrakt begreifen und anhand hypothetischer
Aussagen erkl
aren, wahrend die Geisteswissenschaften ihrem Anspruch nach das Leben
eben in concreto erfassen konnen. Hier werden nicht Hypothesen gedanklich konstruiert,
sondern es werden Lebenszusammenhange nachvollzogen und von innen erfasst. Diese
so definierte geisteswissenschaftliche Erfahrung wirke nun auf das erfahrende Subjekt
97

zur
uck und f
uhre so zu einer Modifikation des Selbst. Wer eine Dichtung verstanden hat,
erfahrt eine Bereicherung des Erlebens. Wer einen Vorgang durch Unterordnung unter
Gesetzesannahmen erklart, erwirbt Wissen, bleibt aber im innersten Selbst unber
uhrt
(Rod, II, p. 391). In der Naturwissenschaft habe man also die Abstraktion, in der Geisteswissenschaft dagegen erfahrt man umgekehrt durch Zur
uck
ubersetzen des Erfahrenen
die volle ganze Lebendigkeit durch eine Art von Transposition. In der Naturwissenschaft wird die Individuation hypothetischer Erklarungsgr
unde aufgesucht, und in der
Geisteswissenschaft werden die Ursachen derselben in ihrer Lebendigkeit erfahren. Das
naturwissenschaftliche Denken beruht nach Auffassung der Theoretiker der Hermeneutik
auf der Voraussetzung, dass die Regelmaigkeiten des Ereignisablaufs messbar sind und
mathematisch ausgedr
uckt werden konnen. Aber die Welt der quantitativ bestimmten
Dinge sei nun einmal nicht urspr
unglich, sondern werde vom Verstand erzeugt. Das erkenntnistheoretisch eigentlich Neue an diesem Ansatz ist, dass das erkennende Subjekt
nicht mehr als neutral, sondern u
uhlenden, wollenden, handelnden
ber das Verstehen den f
Menschen umfassend aufgefasst wird. Die Intentionalitat (siehe oben) des menschlichen
Handelns entsprache nicht dem mechanischen Ursache-Wirkungsdenken der Naturwissenschaft. Es kann demnach nicht gelingen, die Existenz einer denkunabhangigen Auenwelt nachzuweisen. Die Auenwelt erschliee sich nicht in rationaler Weise, sondern
durch das Erlebnis des Widerstands. Ein weiterer, insbesondere f
ur die deutsche Philosophie wichtiger Begriff taucht nun in der Debatte auf: der der Weltanschauung. Die
verschiedenen metaphysischen Grundkonzeptionen z.B. des Naturalismus, des Idealismus,
etc. seien Ausdruck verschiedener Weltanschauungen. Die verschiedenen Weltanschauungen entsprachen verschiedenen Charaktertypen, die wiederum durch das Verhaltnis der
theoretischen, emotional-wertenden und die willensmaig-praktischen Komponenten der
Personlichkeit bestimmt seien. Diese Komponenten seien in jedem Charakter enthalten,
so dass die jeweiligen Charaktere nacherlebt werden konnen, - auf diese Weise konne
man die verschiedenen metaphysischen Annahmen verstehen. Damit ist die Zielsetzung
der Hermeneutik durch die Forderung charakterisiert, dass nicht ethische und andere
Auffassungen nach ihrer Wahrheit zu beurteilen, sondern sie psychologisch als Ausdruck
bestimmter Charakterstrukturen zu verstehen seien.
Der Anspruch der Hermeneutik ist zunachst leicht nachzuvollziehen, nicht zuletzt weil
er an die nat
urliche und damit tagliche Erfahrung ankn
upft. Andererseits ist klar, dass
der so definierte hermeneutische Ansatz nicht nur mit dem Ansatz der logischen Empiristen (Wiener Kreis) als auch mit dem dazu gewissermaen orthogonalen Standpunkt
Poppers und der u
brigen Kritischen Rationalisten schwer zu vereinbaren ist. Will man
eine Wissenschaft betreiben, die wie die Psychologie nicht den klassischen Naturwissenschaften zu entsprechen scheint, aber eben doch wissenschaftlichen Standards gen
ugen
soll, so sieht man sich bei einer Fokussierung auf die Hermeneutik den folgenden Fragen
gegen
uber:
1. Wie wird der Begriff der Wahrheit definiert, d.h. wie sind Entscheidungen zwischen
verschiedenen, hermeneutisch gleichwertig erscheinenden Hypothesen zu fallen? Hypothetische Aussagen treten ja dann auf, wenn aus den bekannten Zusammenhangen noch keine Entscheidung gefolgert werden kann, und die verstehende Suche
nach Lebenszusammenhangen kann praktisch nicht beliebig weit getrieben werden.
2. die Hermeneutik ist keine Methode, sondern eine historisch-psychologische Betrachtungsweise, - irgendeine Interpretation lat sich stets finden. Dies f
uhrt zu der eben
erwahnten Problematik der Hypothesen.
3. der Begriff des Verstehens ist auerst unscharf definiert: was heit Erlebniszusammenhang, was bedeutet es, wenn Bezug auf den absoluten Geist als das Leben in
seiner Totalitat genommen wird, wenn ein Zusammenhang durch das Leben selbst
98

gegeben ist? Bedeutet Verstehen das Erkennen eines zwingenden Zusammenhangs


im Sinne einer Kausalkette? Wie werden stochastische Phanomene verstanden?
4. Wie lat sich das Problem der Subjektivitat verstehender Urteile, insbesondere
wenn sie im Rahmen einer diagnostischen Aufgabenstellung gefallt werden m
ussen,
losen?
Den Versuch, Antworten auf diese Fragen zu finden, kann man nun wiederum hermeneutisch unternehmen. Denn z.B. den Begriff des Erlebniszusammenhangs konne man
nun einmal nicht wie den Begriff der Kraft in der Klassischen Physik durch eine knappe
Gleichung definieren, er m
usse sich vielmehr durch das Wechselspiel von Erfahrung und
Deutung erschliessen. Das mag sein, - aber es bleibt das Problem der Subjektivitat im

diagnostischen Prozess. Die Ubereinstimmung


zwischen verschiedenen Urteilenden garantiert noch nicht die Angemessenheit ihrer Urteile, denn sie konnen alle durch den
Rahmen der von allen geteilten selbstverstandlichen Annahmen gefallt werden64 .
Abbildung 22: (a) Max Weber (1864 - 1920), (b) Martin Heidegger (1889 - 1976)

(a)

(b)

Die angedeutete Problematik wird in einem spateren Abschnitt wieder aufgenommen


werden; hier sollen noch einige wichtige Vertreter des hermeneutischen Ansatzes genannt
werden.
Der hermeneutische Ansatz ist f
ur bestimmte Wissenschaften von zentraler Bedeutung, etwa in der Literaturwissenschaft, oder in der Theologie, sofern sie als Exegese
betrieben wird. In der Soziologie wurde der Verstehende Ansatz insbesondere von Max
Weber (1864 - 1920) verfolgt. In der Philosophie spielt die Hermeneutik ebenfalls eine
groe Rolle, man denke etwa an Martin Heidegger (1889 - 1976): Doch das Sein, was ist
das Sein. Es ist Es selbst. Dies zu erfahren und zu sagen muss das k
unftige Denken lernen. In Gadamers Wahrheit und Methode wird aber dar
uber hinaus nahegelegt, dass
die Hermeneutik im Kern viel allgemeiner als eine spezifische Methode der Geisteswissenschaften ist. Die Argumentation ist, wie schon bei Windelband und insbesondere bei
Dilthey, suggestiv65 , aber deswegen noch nicht wirklich u
uller (1974)
berzeugend. Stegm
f
uhrt aus, dass die Ausdr
ucke hermeneutisch, verstehen und Zirkel des Verstehens
64 So wird zB Homosexualit
at von vielen auch heute noch als Perversion betrachtet, Alkoholmissbrauch
sei Ausdruck charakterlicher Schw
ache, etc. Ethnozentrische Vorurteile fallen ebenfalls in diese Kategorie
65 Schwanitz (2002) spricht in Bezug auf Adornos Dialektik der Aufkl
arung von der narkotischen
Sprache Adornos: man glaubt, Einsichten zu bekommen, wird aber tats
achlich nur bet
aubt. Mir scheint
die Chrakterisierung der Texte insbesondere Diltheys, aber auch anderer Hermeneutiker als ebenso narkotisch nicht abwegig zu sein.

99

allenfalls dazu dienen konnen, ein erst aufzukl


arendes Ph
anomen zu bezeichnen (Stegm
uller (1974), p. 64). Der bestimmte Artikel in Der Zirkel des Verstehens sei unangebracht,
weil es sich bei diesem Zirkel nicht um ein bestimmtes, scharf umrissenes Phanomen handele, der Ausdruck Verstehen sei falsch, weil der Zirkel des Verstehens nicht spezifisch
f
ur irgend eine Form des Verstehens sei, und das Wort Zirkel sei falsch gewahlt, weil
Zirkel des Verstehens nichts mit einem Zirkel zu tun habe. Man mag Stegm
ullers Kritik haarspalterisch finden, denn es sei doch irgendwie klar, was gemeint sei. Aber eben
hier liegt der narkotische Aspekt der Argumentation f
ur die Hermeneutik. Stegm
uller
kritisiert insbesondere
(i) die bildhaft-metaphorische Sprache,
(ii) die Verwischung von Objekt- und Metaebene, und
(iii) die Unklarheit des Status der hermeneutischen Schl
usselbegriffe.
Es sei zwar nichts gegen die Ben
utzung von Bildern einzuwenden, so lange klar sei,
dass eben nur in Bildern gesprochen w
urde. Allerdings w
urde hier in Bildern gesprochen
werden in der irrt
umlichen Auffassung, tatsachlich in prazisen Begriffen zu reden. Den
Vorwurf der Verwischung von Objekt- und Metaebene illustriert Stegm
uller anhand einer
Interpretation des Morike-Gedichtes Die Lampe des Germanisten E. Staiger in seinem
Aufsatz Die Kunst der Interpretation. Die Interpretation f
uhrte zu einer Diskussion
zwischen Heidegger und Staiger, in der Staiger Heidegger vorwarf, er w
urde das Schwebende, Gleitende, Scheue, Vorsichtige, Schillernde der dichterischen Sprache u
bersehen.
Stegm
uller argumentiert nun (zu recht, wie mir scheint), dass Herrn Staiger hier ein logischer Fehler unterlaufen ist: er sei wohl der Ansicht, dass u
ber ein Gedicht, dass in
schwebender, gleitender etc Sprache geschrieben sei, in der gleichen Art von Sprache geschrieben werden m
usse, wobei Staiger allerdings seinem eigenen Prinzip, demzufolge eine
Interpretation etwas anderes als eine Nachdichtung in Prosa sein m
usse, widersprache.
Die erwahnten hermeneutischen Schl
usselbegriffe sind die Begriffe Verstehen, Vorurteil
und Vorverst
andnis. Sofern diese Begriffe der Umgangssprache entnommen worden sind,
werden sie nicht mit der in der Umgangssprache u
utzt. Ande blichen Bedeutung ben
rerseits fehle eine explizite Definition bzw. eine Einbindung in eine explizite Theorie66 .
Insbesondere der Begriff des Verstehens bleibt weithin unklar. Mit dem R
uckgriff auf Diltheys Unterscheidung zwischen Verstehen und Erklaren solle einerseits ein Unterschied
zwischen Natur- und Geisteswissenschaften sowohl charakterisiert wie auch zementiert
werden. Stegm
uller f
uhrt aus, dass Aussagen etwa u
ber das Verstehen historischer Personlichkeiten oder von Norm- und Wertvorstellungen von Kulturen analogen Aussagen
u
uhungen von Mathematikern und Physikern entsprechen, die Grundbegriffe
ber die Bem
der Mathematik und Physik und die Struktur von Beweisen und physikalischen Theorien
zu verstehen. Die Argumentation soll nicht darauf hinauslaufen, dass Mathematik und
Physik ebenfalls hermeneutisch interpretiert werden, sondern sie soll aufzeigen, dass das
Wort Verstehen wegen seiner vielen Bedeutungsschattierungen f
ur sich genommen noch
gar nichts leistet. Analoge Betrachtungen gelten f
ur den Ausdruck Erkl
aren. Die Unterscheidung zwischen Verstehen und Erklaren wird in Abschnitt 5.4 noch einmal explizit
diskutiert. Stegm
uller f
uhrt aus, dass das Bild der hermeneutischen Spirale zunachst
gar nicht so sehr die Geisteswissenschaften charakterisiere, denn es bilde die Prozesse
ab, bei denen Erkenntnisse nicht ohne M
uhe zu gewinnen seien. Von Bedeutung f
ur die
Diskussion des hermeneutischen Zirkel sei aber insbesondere das Dilemma in der Unterscheidung von Hintergrundwissen und Fakten. Stegm
uller erlautert dieses Dilemma
anhand eines Vergleichs von Interpretationen eines Gedichtes von Walther von der Vogelweide durch die Germanisten Wapnewski einerseits und Hahn andererseits mit der
66 Termini

sine theoria nil valent!

100

Interpretation astrophysischer Daten. Hahn und Wapnewski kommen zum Teil zu unterschiedlichen Interpretationen des Gedichts, wobei jedes Argument, das zugunsten der
Interpretation Wapnewskis spricht, durch ein Argument gekontert werden kann, das zugunsten der Interpretation Hahns spricht. Stegm
uller spricht in diesem Zusammenhang
von einem Best
atigungsdilemma und fragt, ob nicht dieses Dilemma gerade die Bedeutung des hermeneutischen Zirkels sei; f
ur die Entscheidung zugunsten der einen oder der
anderen Deutung anstelle von objektiven Kriterien gebe in letzter Instanz das subjektive Gef
uhl des Interpreten den Ausschlag. Im Vergleich hierzu diskutiert Stegm
uller die
Entdeckung der Quasare (Quasistellare Radioquellen). Das Beispiel wird von Stegm
uller mit Bedacht aus der Astronomie und nicht aus einer experimentellen Wissenschaft
gew
ahlt; ebensowenig wie man die Bedeutung lyrischer Gedichte nicht experimentell bestimmen kann, lassen sich Sterne nach Magabe eines Versuchsplans verschieben. Die
Entdeckung von Quasaren beruhte auf einer Reihe von moglichen Interpretationen beobachteter Phanomene, wobei aber gesichertes Hintergrundwissen diese Interpretationen
leitete. Der Unterschied in der Interpretation von Gedichten einerseits und physikalischen
Phanomenen, die zur Identifizierung der Quasare f
uhrten, liege nun darin, dass im naturwissenschaftlichen Kontext scharf zwischen Hintergrundwissen und Fakten unterschieden
werden konne, im literaturhistorischen Kontext aber nicht. Der Unterschied liege nicht in
dem zwischen Geist und Natur, sondern darin, dass in der Naturwissenschaft nichttriviale Gesetze zur Interpretation herangezogen werden konnen, wahrend solche Gesetze in
literaturhistorischen Interpretationen gar nicht vorkamen. Der Literaturhistoriker kann wie der Verstehende Psychologe - hypothetische Komponenten seiner Interpretation nicht
von Tatsachenwissen trennen, er holt sein in die Deutung gestecktes Hintergrundwissen
wieder aus der Beschreibung der Fakten heraus (Stegm
uller (1974), p. 85), deswegen
sei es psychologisch verstandlich, wenn verstehende Interpretationsverfahren eben wie
ein Zirkel erscheinen. F
ur die Astrophysiker ist der Sachverhalt anders. Sie m
ussen nicht
erst u
ber das, was sie im Spektralapparat sehen, eine Einigung erzielen, wenn sie sich
u
ber die zu akzeptierenden Naturgesetze (zB die Wellentheorie des Lichts, die allgemeine
Relativitatstheorie) geeinigt haben. Stegm
uller legt Wert auf die Feststellung, dass zB in
den historischen Wissenschaften der hermeneutische Zirkel nur als Zirkel erscheint; ware
er wirklich ein Zirkel, hatte man es mit einem vitiosen Zirkel zu tun. Der Begriff des hermeneutischen Zirkels sei unklar und irref
uhrend, die Anziehungskraft dieses Begriffs sei,
so Stegm
uller, die einer Mythologie, weil sie der Reflektion des Historikers und Philosophen u
ber den Zirkel eine Art tragisches Muster gabe; da der verstehende Philosoph und
Historiker (und der verstehene Psychologe) nicht klar zwischen Fakten und Interpretationen unterscheiden konne, sei sein geistiges Leben so etwas wie eine Tragodie, die, nach
Heidegger, in der Sorgestruktur des menschlichen Daseins ontologisch verankert sei.
Man solle aber, so Stegm
uller, nicht in derlei Mythologien Zuflucht suchen, sondern sich
Klarheit u
ber die Schwierigkeiten verschaffen, die mit dem Begriff des hermeneutischen
Zirkels verbunden seien.

Verstehen ist Erkl


aren ist Verstehen

Legewie (1991)67 hat darauf hingewiesen, dass seit Anfang der 70-er Jahre eine Expansion der psychologischen Dienstleistungen besonders im Gesundheits- und Bildungswesen
auf das ca. 10-fache stattgefunden habe, wobei ca 80 % aller Psychologen in Berufsfeldern mit lebenspraktischer Orientierung tatig seien. Legewie stellt fest: Die im Studium vermittelten wissenschaftlichen Methoden und Theorien laufen an diesen Problemen
windschief vorbei. Legewie kritisiert die Empfehlungen der Studienreformkommission
67 Report

Psychologie, April 1991

101

Psychologie (1985), derzufolge im Studium die Methoden- und Forschungsanteile zulasten einer lebenspraktisch orientierten klinischen Psychologie vermehrt werden sollen;
er appelliert an die Psychologischen Institute, noch einmal neu in die Reformdiskussion einzutreten. Legewies Vorschlag ist eine diskursive Psychologie, deren theoretische
Vorformulierung in Wittgensteins in den Philosophischen Untersuchungen vorgestellten
Sprachspieltheorie zu finden sei. Eine primar nomothetische Psychologie sei abzulehnen,
denn unterschiedliche Lebensformen erzeugen unterschiedliche Fragen und wissenschaftliche Sprachspiele. Es kommt darauf an, deren jeweilige Rationalitat im wissenschaftlichen
Diskurs zu begr
unden (p. 14-15). Weiter:
Im Mittelpunkt stehen handelnde Menschen, deren Motive und lebensweltliche Wissensbestande sich dem Wissenschaftler immer nur durch Sinnverstehen u
ber die Teilnahme an Kommunikation erschlieen. Sinnverstehen wird
damit (im Gegensatz zum Messen) zur zentralen methodologischen Kategorie
einer diskursiven Psychologie. (p.15)
In der Klinischen Psychologie dominiert jedoch auch hier immer noch das

naturwissenschaftliche Denken. In der Atiologieforschung


haben quantifiziernde Ansatze der Sozialepidemiologie ihre Verdienste. Sie m
ussen jedoch durch
lebensweltlich-biographische Langzeitstudien mit qualitativen Methoden erganzt werden. In der Psychotherapieforschung haben 50 Jahre empirischanalytisches Vorgehen ein deprimierendes Nullergebnis gebracht. Die vom experimentellen Design (Doppelblindversuch!) abgeleiteten Fragestellungen erscheinen als falsch gestellt und die entsprechenden Methoden als ungeeignet.
Das Sinnverstehen der geisteswissenschaftlichen Psychologie wird also auch hier zum
methodologischen Zentrum der Psychologie erhoben, auch wenn kein Bezug mehr auf die
Seele genommen wird.
J
uttemann geht in der April-Ausgabe des Report Psychologie (1991) in vieler Hinsicht
noch deutlicher gegen die naturwissenschaftlliche Psychologie vor. J
uttemann kritisiert,
dass man gleichsam aus Gr
unden der Komplexitatsreduktion schon recht auf die Idee
gekommen (sei), anstelle eines eigentlich benotigten, unverk
urztenund offenen Seelenmodells stark vereinseitigte und auerdem von Anfang an starr fixierte Menschenbilder
zu entwerfen und auf dieser Basis geschlossene Psychologiesysteme zu entwerfen. Diese
verk
urzten Menschbilder verhinderten, dass die Psychologie entscheidende Forschungsfortschritte erziele und dogmatische Glaubenskampfe zwischen Vertretern verschiedener Auffassungen nicht u
berwunden werden konnen. Die experimentelle Psychologie gehe
davon aus, dass der Mensch vollkommen oder u
berwiegend naturgesetzlich gesteuert und
in seinem Verhalten daher in adaquater Weise auf naturgesetzlicher Basis erklarbar sei.
Diese Annahme lauft somit auf die Kreation eines homo nomologicus hinaus. Das Bedenkliche an diesem Menschenbild besteht nicht allein in seiner
mechanistischen Einseitigkeit, auch wenn diese dem KulturwesenMensch
und damit der Historizitat des Psychischen - im Sinne kultureller R
uckpr
agung
- in keiner Weise gerecht wird. (p. 20)
es lat sich deshalb konstatieren, dass das Unternehmen der experimentellen Psychologie ein prinzipielles Defizit aufweist und deshalb zumindest
in grundlagenwissenschaftlicher Hinsicht keinen strengen Anspr
uchen gen
ugen kann. Vollig anders w
urde sich die Situation jedoch darstellen, wenn der
grundlagenwissenschaftliche Anspruch einer konsequenten Analyse des Vorfindbaren zugunsten einer ausschlielich anwendungswissenschaftlichen,
auf praktische Zwecke ausgerichteten Zielsetzung aufgegeben werden konnte.
(p. 21)
102

J
uttemann argumentiert dann, dass die herrschende Psychologie (gemeint ist die naturwissenschaftlich orientierte Psychologie, wie sie an den meisten Universitaten gelehrt
wird), wie auch andere Richtungen der Pychologie (z.B. die Psychoanalyse) versuche, ihr
System zu stabilisieren:
in dieser Hinsicht besitzt die herrschende Psychologie alle Merkmale einer wissenschaftsfeindlichen Scheinidentit
at. Das hat u.a. dazu gef
uhrt, dass
im Jahre 1989 eine Initiative zur Erneuerung der Psychologie entstanden
ist, dabei sollte es letzten Endes um nichts Geringeres gehen als um das Ziel,
den Machtblock der allein dominierenden nomologischen Psychologie aufzulosen, um im Hinblick auf die Forschung eine offene und von Systemimmanenz
unbelastete Situation herzustellen (p. 23)

Die Uberlegungen
Legewies und J
uttemanns korrespondieren insbesondere f
ur viele praktizierende Psychologen zu ihren taglichen beruflichen Erfahrungen; sie haben gewissermaen Evidenzcharakter. Trotzdem wird akademischerseits an diesen Auffassungen herumgen
orgelt. Der Grund daf
ur ist, dass hier nicht analytisch begr
undet, sondern lediglich an
Evidenzerlebnisse appelliert wird. Denn implizit rekurrieren sie auf die Erfahrung der
Praktiker und auf die Annahme, dass die Praktiker diese Erfahrung schon richtig n
utzen.
Die verf
ugbare Evidenz - im Sinne der angelsachsischen evidence als Bezug auf empirische Daten - st
utzt diese Ansicht allerdings nicht uneingeschrankt. Im Folgenden soll der
Anspruch der geisteswissenschaftlich orientierten Psychologie, die adaquatere und praktisch relevantere Psychologie zu sein, einer kritischen Betrachtung unterzogen werden;
Stegm
uller (1983) hat in seinem monumentalen Werk Erkl
arung, Beg
undung, Kausalit
at
die Diskussion zusammengefat. Es m
ussen die folgenden Fragen diskutiert werden:
1. Wie ist der Begriff der Erkl
arung zu definieren?
2. Gibt es wirklich einen Unterschied zwischen Erklaren und Verstehen?
3. Bedeutet Verstehen, dass man zu wahren Aussagen kommt, und welche Implikationen hat eine verstehensbasierte Psychologie f
ur die Praxis?

5.1

Der praktische Syllogismus

Wie eingangs erwahnt ergibt sich das Verstehen einer Person bzw. des Handelns einer Person, indem man sich in sie hineinversetzt und ihr Handeln geistig nachvollzieht, wobei
der Ausdruck geistig, wie in Texten zur Verstehenden Psychologie u
blich, nicht weiter
erkl
art wird und wohl soviel wie gedanklich und emotional nachvollziehend bedeutet.
Das menschliche Verhalten werde ja, der Annahme der Verstehenden Psychologie entsprechend, durch Motive und Intentionen bestimmt und sei deswegen nicht kausal. Dem Ansatz der geisteswissenschaftlichen Psychologie entsprechend versuchte von Wright (1971),
das Handeln von Menschen durch R
uckgriff nicht auf allgemeine Gesetzmaigkeiten, sondern auf die (vermutete) Struktur von Intentionen zu beschreiben. von Wright zufolge
beruht diese Beschreibung auf der Anwendung des Praktischen Syllogismus. Dieser lat
sich wie folgt chrakterisieren (vergl. Stegm
uller (1987), p. 112):
(i) die Person X versucht, einen bestimmten Zweck p zu erf
ullen,
(ii) sie nimmt an, dass p nur verwirklicht werden kann, wenn die Handlung q ausgef
uhrt
wird,
(iii) also versucht X, q zu vollziehen.
103

Der springende Punkt ist (ii): die Annahme der Person X, dass p u
uhrung
ber die Durchf
der Handlung q erreicht werden kann, soll sich nicht notwendig aus einer Naturgesetzmaigkeit ergeben.
Gegen dieses Postulat lassen sich verschiedene Einwande erheben. Tuomela (1977) argumentiert, dass hier stillschweigend die Rationalitat des Handelnden vorausgesetzt wird
und dass diese Voraussetzung (a) den Charakter eines allgemeinen Gesetzes habe und (b)
eine Idealisierung darstelle. In der Tat sind Situationen denkbar, in denen der Handelnde
nicht im Sinne von (ii) rational handelt, d.h. sich nicht u
ur
berlegt, ob die Handlung q f
das Erreichen von p notwendig ist. Sie handelt dann zufallig oder durch auerhalb von ihr
gelegene Ursachen und ist damit durch ein Kausalitatsgef
uge beschreibbar, wie es auch
zur Charakterisierung von Ablaufen der Natur herangezogen wird (im Falle zufalligen
Handelns durch Mechanismen wie W
urfel, allgemein durch Zufallsgeneratoren). Handelt
sie aber im Sinne von (ii), so unterliegt sie eben dem Rationalitatsgesetz. Eine ausf
uhrliche Diskussion des v. Wrightschen Ansatzes findet man in Stegm
uller (1983) und (1987);
Stegm
uller kommt zu dem Schlu, dass auch die durch v. Wright vorgeschlagene Begr
undung f
ur eine eigenstandige geisteswissenschaftliche, d.h. hermeneutische Wissenschaft
stets einem naturwissenschaftlich erklarenden Ansatz aquivalent sei, so dass der Ausschlielichkeitsanspruch der Hermeneutik nicht gerechtfertigt erscheine. Ein sorgfaltiges
Studium von Gadamers (1960) Wahrheit und Methode regt allerdings dazu an, naturwissenschaftliche Forschung ebenfalls als einen hermeneutischen Ansatz zu verstehen; darauf
wird gesondert eingegangen werden m
ussen. Dar
uber hinaus mu festgehalten werden,
dass der Begriff der Kausalitat in gewissem Sinne in naiver Weise verwendet wird; in
Wissenschaftstheorie IV wird darauf noch explizit eingegangen.
Will man eine Person verstehen, so wird man zum Beispiel nach den Gr
unden oder
nach dem Hintergrund ihrer Intentionen fragen. Man setzt damit voraus, dass Menschen
die Struktur ihrer Intentionen artikulieren konnen. Nehmen wir an, eine bestimmte Person konne es. Man wird dann durch eine solche intentionale Tiefenanalyse (Stegm
uller
(1987), p. 121) ein Bild des intentionalen Mosaiks erhalten, das den Beobachter bzw.
den Befrager in den Zustand des Verstehens versetzt. Es gibt zwei Moglichkeiten: (i) die
so entdeckte Struktur der Motive, Intentionen etc. hat bereits eine logische Konsistenz;
dann aber entspricht sie nomothetischen Gesetzmaigkeiten, denn Logik ist universell,
oder (ii) die Struktur der Intentionen ist nicht logisch konsistent, bzw. es gibt keinen logischen Zusammenhang zwischen den Intentionen und Motiven. Ein Beispiel hierf
ur sind
Handlungen im Affekt: eine Frustration kann, mu aber nicht Aggressionen auslosen.
Das Verstandnis einer aggressiven Handlung wird erst dann durch die Hypothese des Beobachters hergestellt, dass zumindest f
ur diese Person in dieser Situation Frustrationen
aggessionsauslosend seien. Aber damit die Hypothese Verst
andnis im Sinne von (a) erzeugt, mu der Hypothese ein nomothetischer Charakter zugeordnet werden, andernfalls
ist nur ein empirisches Nebeneinander von Aussagen oder Phanomenen gegeben. Aber
dies ist nur Verstehen im Sinne von (b), das das vorwissenschaftliche Alltagsverstandnis
nicht transzendiert.
Diese Betrachtungen sind sehr grundsatzlich und schlieen sich an die philosophischen u
ullers, v. Wrights und Tuomelas an. Die folgende Diskussion
berlegungen Stegm
soll die These, dass f
ur die Psychologie Verstehen und naturwissenschaftliches Erklaren
aquivalent sind, weiter belegen.

5.2

Zur ph
anomenologischen Undurchsichtigkeit

Ein Grund f
ur die Notwendigkeit des R
uckgriffs auf Annahmen oder Hypothesen mit
prinzipiell nomothetischem Charakter liegt darin, dass uns viele psychische Prozesse pha104

nomenologisch gar nicht zuganglich sind. So sind z.B. optische Tauschungen ein allseits
bekanntes Phanomen, aber die Tatsache, dass man sehr gezielt visuelles Material so arrangieren kann, dass eine bestimmte Tauschung auftritt, bedeutet eben noch nicht, dass
man versteht, warum die Tauschung zustande kommt. Es ist nicht die visuelle Szene
selbst, die die Tauschung enthalt, die Tauschung resultiert vielmehr aus Eigenschaften
der neuronalen Struktur des visuellen Systems des Menschen, und zu dieser Struktur
haben wir keinen introspektiven oder phanomenologischen Zugang.
Wahrend es noch leicht nachvollziehbar ist, dass die den optischen Tauschungen unterliegenden Mechanismen nicht phanomenologisch einsehbar sind, erweist sich der Versuch
des Verstehens von Emotionen, allgemein von Kognitionen als problematisch. Die Beschreibung des Ereignisses, dass eine Emotion unter einer bestimmten Bedingung auftritt,
macht dieses Ereignis insofern nicht verstandlich, als Emotionen ihren Ursprung zumindest zum Teil in den Tiefen des limbischen Systems haben, das wiederum vorbewut und
interaktiv mit anderen Zentren arbeitet. Insofern kann der Ursprung einer Emotion letztlich nicht phanomenologisch zuganglich sein. Will man Emotionen verstehen, so kann man
die Dynamik des limbischen Systems und seinen nicht direkt beobachtbaren Interaktionen
mit anderen Prozessen nicht auer Acht lassen; analoge Aussagen gelten f
ur die Bildung
von Gedanken, Vorstellungen, Intentionen etc. Dies f
uhrt letzlich zur Konstruktion von
Modellen, die die Dynamik des jeweiligen Systems abbilden. Das Verstehen emotionaler
Abl
aufe entspricht dann wieder dem naturwissenschaftlichen Erklaren. Will man - oder
mu man - auf solche Modelle verzichten, bleibt einem entweder nur die rein deskriptive
Aussage X hat unter der Bedingung B die Emotion E, die aber, f
ur sich genommen,
noch kein Verstehen des Auftretens der Emotion bedeutet, oder man bezieht sich auf eine
Art korrelativer Aussage: Unter der Bedingung B haben Personen wie X die Emotion
E. Diese Aussage ist einerseits nomothetisch, denn sie soll ja f
ur alle Personen wie X
unter der Bedingung B gelten, andererseits aber ist sie deskriptiv, denn es wird ja nicht
gesagt, warum die Bedingung B die Emotion E erzeugt. Somit kann auch diese Aussage
kein Verstehen des Auftretens der Emotion ermoglichen.

5.3

Zur ph
anomenologischen Instabilit
at

Erklart eine Person, sie sei in aggressiver Stimmung, weil sie vorher frustriert worden sei,
so hat man den Eindruck, diese Aussage zu verstehen, weil man dieses Stimmungsgef
uge
nacherleben kann. Aber das Ereignis, das die Frustration ausgelost hat, bedingt nicht
immer die gleiche aggressive Stimmung, schon weil das Ereignis auch ceteri paribus nicht
stets als frustrierend erlebt wird, und weil dar
uber hinaus, abhangig von der momentanen Disposition, auch andere Reaktionen im Verhaltensrepertoire der meisten Menschen
enthalten sind und auch gezeigt werden. Das Verstehen der aggressiven Stimmung etwa
durch Bezug auf vorangegangene Frustration kann also als Resultat einer konstruierenden
Beschreibung angesehen werden, bei der einfach stillschweigend angenommen wird, dass
die Person zu diesem Zeitpunkt keine andere emotionale Reaktion zur Verf
ugung hatte.
Es ergibt sich der Anschein eines notwendigen Ablaufs, der dem Betrachter suggeriert,
er verst
unde dessen Dynamik, ohne dass wirklich von einem Verstehen der tatsachlich
ablaufenden Dynamik geredet werden konnte. Denn die Menge aller Effekte, die in einer
gegebenen Situation wirksam sind, entzieht sich grundsatzlich der phanomenologischen
Wesensschau und ein Kausalzusammenhang mu notwendig durch Hilfsannahmen des
Betrachters konstruiert werden. Die Plausibilitat, die eine solche Konstruktion f
ur den
Beobachter selbst haben mag, darf ihn nicht dazu verf
uhren, die Konstruktion auch f
ur
wahr anzusehen.
Damit zeigt sich, dass gerade die Instabilitat der psychischen Phanomene, die von
den Vertretern der geisteswissenschaftlichen Psychologie als eine der Begr
undungen f
ur
105

die von ihnen vorgeschlagene phanomenologische Analyse sowie f


ur das Postulat, nomothetische Aussagen seien nicht sinnvoll, herangezogen wird, die Nichtverstehbarkeit der
psychischen Dynamik auf phanomenologischer Basis impliziert, - namlich genau dann,
wenn es keine vermittelnden nomothetischen Gesetzmaigkeiten bzw. Hypothesen gibt.
Charakteristischerweise werden in solchen Gesetzmaigkeiten nicht Aussagen u
ber
das beobachtbare Verhalten selbst gemacht, wie etwa Eine Person, die beleidigt68 wurde,
wird handgreiflich, sondern u
ber strukturelle Aspekte der psychischen Dynamik: Wird
eine Person durch ein Ereignis, etwa eine Krankung, in einen Zustand erhohten Affekts
gebracht, so steht ihr nur noch eine eingeschrankte Menge an Handlungsalternativen
zur Verf
ugung. Gema dieser Hypothese mu die Person X also im Falle der Krankung
nicht tatlich reagieren; sie konnte zum Beispiel nachdenklich werden und sich fragen, ob
es u
uhlen.
berhaupt sinnvoll ist, sich in der gegebenen Situation gekrankt zu f
Demnach kann man vermuten, dass es Verstehen ohne Bezug auf nomothetische Aussagen nicht gibt. Man mag diese Aussage als zu radikal empfinden. Will man andererseits
zulassen, dass Verstehen auch ohne Bezug auf nomothetische Aussagen moglich ist, so
kann dies zu einer Relativierung des Begriffs des Verstehens f
uhren: Verstehen heit dann
gegebenenfalls nur, dass ein Nebeneinander von Beobachtungen sowie aus dem eigenen
Erleben abgeleitete ad hoc Annahmen als ausreichende Erklarung empfunden werden.
Dar
uber hinaus lassen uns unsere Wahrnehmung und unsere jeweils bereits existierenden gedanklichen Konzeptionen bestimmte Momente der psychischen Dynamik besonders
deutlich erscheinen, wahrend andere Momente unterdr
uckt werden, weil sie nicht in unser Schema passen. Der Versuch des nachvollziehenden Verstehens erzeugt damit eine
Beschreibung, die keineswegs frei von Beliebigkeit ist. F
ur das Alltagsleben mag diese
Art von Verstehen gen
ugen, aber hier geht es ja um die grundsatzliche Behauptung, dass
nomothetische Gesetze in der Psychologie keinen Sinn machten. Es stellt sich die Frage, mit welcher Berechtigung ein Psychologe sich auf Evidenzerlebnisse verlassen darf.
Soll der Versuch zu verstehen nicht zu einem Akt der Autosuggestion verkommen und
soll die Psychologie nicht in der trivialen Paraphrasierung von Alltagserfahrungen versanden, so mu man sich um die Erstellung eines abgesicherten Kanons nomothetischer
Gesetzmaigkeiten bem
uhen. Der von J
uttemann (1991) zur Illustration der Unsinnigkeit
eines solchen Bem
uhens vorgebrachte Hinweis, die Suche nach nomothetischen Gesetzen
postuliere den homo nomologicus, ist leere Polemik ohne argumentativen Wert, denn es
wird nicht gezeigt, warum aus diesem Begriff folgen soll, dass es keinen Sinn hat, in der
Psychologie nach nomothetischen Gesetzen zu suchen. Unter anderem wird deutlich, dass
der Proze des Verstehens selbst eine psychologische Untersuchung wert ist: wann stellt
sich bei einem Beobachter oder Befrager der Eindruck ein, die Situation verstanden zu
haben? Es ist klar, dass eine solche Untersuchung auf nomothetische Gesetzmaigkeiten
zielt.
In den meisten Bereichen der Psychologie wird denn auch die Existenz nomothe
tischer Gesetzmaigkeiten und damit die Notwendigkeit der empirischen Uberpr
ufung
von Hypothesen u
ur die einen
ber solche Gesetzmaigkeiten gar nicht mehr bestritten. F
mag dieser Sachverhalt ein Ausdruck der Vernunft sein, f
ur die anderen ein Ausdruck
kollektiver Verblendung. Polemiken in die eine oder andere Richtung sind aber nicht besonders sinnvoll (abgesehen davon, dass es gelegentlich Spass macht, sie zu formulieren).
Man kann sehr wohl argumentieren, dass experimentalpsychologisch gewonnene Aussagen Beliebigkeiten enthalten, die sich aus der Konzeption des Experiments durch den
Untersucher ergeben, und dass Erklarungen letztlich immer nur Beschreibungen sind, da
die Angabe von Kausalitatsgef
ugen irgendwo abgeschnitten werden mu, will man einem
infiniten Regress entgehen. Da allerdings der Ansatz der Verstehenden Psychologie mit
68 Hier

wird unterstellt, dass der Beobachter wei, dass die Person sich aufgrund der Handlung einer
anderen Person auch tats
achlich beleidigt f
uhlt!

106

dem gleichen Problem konfrontiert ist, ist dieses Argument kein Gegenargument gegen
die empirische, insbesondere die experimentelle Psychologie, - es zeigt nur grundsatzliche Beschrankungen der Moglichkeit, Einsicht zu gewinnen, auf, denen man in allen
Wissenschaften begegnet.
Die vorangegangenen Betrachtungen sind theoretisch. Man kann auch nach den Konsequenzen der Anwendung hermeneutischer Methoden fragen, wenn z.B. psychologische
Diagnosen auf der Basis eines als ganzheitlich verstandenen, verstehenden Ansatzes getroffen werden. Es zeigt sich dann, dass insbesondere Voraussagen von Fahigkeiten, aber
auch von bestimmten Verhaltensweisen, die auf der Basis von Interviews formuliert werden, im allgemeinen nicht besser als zufallig getroffene Diagnosen sind. Dieser Befund
ist gegenintuitiv, nicht zuletzt weil Interviewer oder Beurteiler69 (und oft auch die Beurteilten) die Beurteilung als irgendwie adaquat erleben. Aber selbst wenn sie nach
Magabe eines M
unzwurfs urteilen w
urden, hatten sie in 50 % der Falle recht. Diese
Erfolgserlebnisse werden als Bestatigung der Beurteilungsfahigkeit erlebt, und die Mierfolgserlebnisse werden nicht als solche erlebt, da sie immer irgendwie erklart werden
konnen. Eine knappe Darstellung der empirischen Befunde zu diesem Thema findet man
zB in Dawes et al (1989).

5.4

Zum Begriff der wissenschaftlichen Erkl


arung

Der behauptete Unterschied zwischen Verstehen und Erklaren lat sich in seiner urspr
unglichen Scharfe nicht nachweisen. Man mu sich deshalb noch einmal der Frage
zuwenden, worin denn nun eine wissenschaftliche Erklarung besteht. Wissenschaftliche
Aussagen lassen sich immer in irgendeiner Weise als Antworten auf eine Warum-Frage
formulieren. Sie bestehen nicht nur aus einer Beschreibung, sonern m
ussen vielmehr gesetzesmaige Zusammenhange zwischen Einzeltatsachen erkennen lassen. Die Erklarung
hat dann die folgende allgemeine Form:70
1. Das zu Erklarende ist ein Sachverhalt p, der durch einen Satz s beschrieben wird.
2. p heit Explanandum
3. Warum ist es der Fall, dass p ?
Popper71 charakterisiert insbesondere den Begriff der kausalen Erklarung als eine logische
Ableitung. Man betrachte dazu das folgende
Beispiel: Ein Faden zerreit, wenn ein bestimmtes Gewicht daran gehangt
wird. Die unmittelbare Erklarung dieses Ereignisses besteht in den Aussagen
(i) der Faden hatte eine Reifestigkeit von 1 kg, (ii) das daran gehangte
Gewicht war 2 kg schwer.
Die hier gegebene Erklarung enthalt zwei Typen von Komponenten: (i) Gesetzmaigkeiten, und (ii) Anfangsbedingungen. Der Begriff der Gesetzmaigkeit wird wie folgt
illustriert:
69 Im allgemeinsten Sinne des Wortes; es kann sich um Arzte,

Psychologen und andere Personen handeln, die aufgrund l


angerer Beobachtung einer Person zu einem Urteil kommen. Es mu sich auch nicht
um psychische Merkmale handeln. Der hier zitierte Befund bezieht sich auch auch komplexe medizinische

Fragestellungen, zB auf Uberlebenswahrscheinlichkeiten


bei Krebserkrankungen.
70 Stegm
uller, W.: Hauptsr
omungen der Gegenwartsphilosophie, Band II. Stuttgart, 1987, p. 103 - 147
71 In: Logik der Forschung.

107

1. F
ur jeden Faden einer bestimmten Struktur S (Material, Dicke, etc) existiert ein
charakteristisches Gewicht W derart, dass der Faden zerreit, wenn ein Gewicht
groer als W daran gehangt wird.
2. F
ur jeden Faden der speziellen Struktur S1 ist das charakteristische Gewicht W1
gleich 1kg.
Die Anfangsbedingungen ergeben sich dann durch die Satze:
1. Dies ist ein Faden von der Struktur S1
2. Das Gewicht, das an den Faden gehangt wurde, betragt 2 kg.
Aus diesen insgesamt vier Pramissen ist der Satz Dieser Faden zerreit deduzierbar.
Auch die logische Struktur einer erklarenden Aussage lat sich charakterisieren. Sie
ergibt sich aus (i) den sogenannten Antecedensbedingungen, d.h. Randbedingungen, (ii)
den Gesetzmaigkeiten, und schlielich (iii) der daraus abgeleiteten, also deduzierten
Erkl
arung:
1. Antecedensbedingungen A1 , . . . , An ,
2. Gesetzmaigkeiten G1 , . . . , Gm ,
3. Erklarung: ein Satz bzw. eine Aussage E, die logisch aus
{A1 , . . . , An ; G1 , . . . , Gm }
abgeleitet wird.
Die weitere Analyse zeigt aber, dass ein Ereignis nie in seiner Totalitat erklart werden
kann. Erklart werden konnen immer nur Aspekte des Ereignisses. Diese Aspekte konnen
durch Satze beschrieben werden und heien Sachverhalte. Sind diese Satze wahr, so
sind die Sachverhalte Tatsachen. Nat
urlich stellt sich hier die Frage, wie man denn nun
die Wahrheit der Satze feststellt. Diese Frage f
uhrt auf das allgemeine Wahrheitsproblem
und soll wegen seiner Komplexitat nicht an dieser Stelle behandelt werden (vergl. Abschn.
1.8). Jedenfalls heit dann die Warum-Frage nach einem Phanomen genau:
Warum-Frage: Auf Grund welcher Antecedensdaten und gema welcher
Gesetze kommt dieses Phanomen vor?
Diese Explikation des Begriffs der Erklarung beruht auf dem Begriff der logischen Deduktion. Man kann argumentieren, dass sie damit nur f
ur deterministische Zusammenhange
gilt. Dies sind Zusammenhange, in denen der Zufall keinerlei Rolle spielt. Sind die Gesetzmaigkeiten probabilistisch bzw. statistisch, so kann nicht logisch deduziert werden,
dass das Explanandum auf Grund der Antecedensbedingungen eintreten mu. Sind die
Gesetze jedenfalls strikt, d.h. deterministisch, so heien sie nomologisch, und das bisher gegebene Erklarungsschema heit dementsprechend deduktiv-nomologisches Schema
(DN-Schema bzw. DN-Erklarung). Erklarungen, die nicht deduktiv-nomologisch sind,
greifen auf statistische Gesetzmaigkeiten zur
uck; sie heien induktiv-statistische Erklarungen. Statistische (oder probabilistische, oder stochastische) Gesetzmaigkeiten sind
begrifflich sehr viel schwieriger zu fassen, nicht zuletzt weil der Begriff des Zufalls sich als

108

abgr
undig erweist (vergl. Chaitin, 2003) und in Zusammenhang mit dem der Berechenbarkeit72 diskutiert werden mu; es kann und soll deshalb an dieser Stelle nicht darauf
eingegangen werden. Das DN-Schema ist trotzdem von prinzipiellem Interesse, gerade
weil es auf der einen Seite intuitiv zuganglich ist, andererseits aber f
ur die Psychologie
wegen des mangelnden Bezuges zu Fragen der Stochastik und der Berechenbarkeit zu eng
ist.
Der Begriff der DN-Erklarung kann weiter expliziert werden. Denn statt der Gesetze
G1 , . . . , Gm kann auch eine Theorie angegeben werden, d.h. ein Gesetz G , aus dem die
Gesetze G1 , . . . , Gm logisch folgen. Unter Umstanden kann ein Phanomen durch verschiedene, sich logisch widersprechende Theorien erklart werden. Der Hintergrund f
ur diesen
Sachverhalt ist, dass die Implikation G E bekanntlich insofern nicht eindeutig ist, als
aus der G
ultigkeit von E nicht die G
ultigkeit von G folgt; G E impliziert nur, dass
E G gilt, d.h. dass wenn E nicht gilt, dann auch die Ung
ultigkeit von G folgt. Im
Zusammenhang mit der Problematik der Induktion ist dieser Sachverhalt schon erortert
worden.
Nun gilt aber allgemein, dass bei einer Menge sich logisch widersprechender Theorien
hochstens eine wahr sein kann. Aus diesem Sachverhalt lassen sich die Ad
aquatheitsbedingungen f
ur DN-Erkl
arungen ableiten. Diese sind als Hempel-Oppenheim- (HO-) Schema
bekannt. Demnach hat man allgemein ein Explanans, das einen Sachverhalt, das Explanandum, erklaren soll. Das Explanans besteht aus den Satzen A1 , . . . , An ; G1 , . . . , Gn , und
das Explanandum ist eine Beschreibung des erklarenden Phanomens. Nach Hempel und
Oppenheim sind die Bedingungen f
ur eine adaquate bzw. korrekte Erklarung
1. B1 : Das Argument, das vom Explanans zum Explanandum f
uhrt, mu korrekt sein,
2. B2 : Das Explanans mu mindestens ein allgemeines Gesetz enthalten, oder einen
Satz, aus dem ein allgemeines Gesetz logisch folgt,
3. B3 : Das Explanans mu einen empirischen Gehalt haben,
4. B4 : Die Satze, aus denen das Explanans besteht, m
ussen wahr sein.
Bemerkungen: Zu B1 : Im DN-System ist das Argument eine logische Schlufolgerung
(Deduktion). Zu B2 : Die Deduktion ist ohne ein allgemeines Gesetz nicht moglich. Das
Problem hierbei ist, dass es nicht einfach ist, Gesetze von Nichtgesetzen zu unterscheiden. Zu B3 : Die Forderung nach einem empirischen Gehalt bedeutet, dass metaphysische
Erklarungen, in deren Explanans nichtempirische Griffe vorkommen, ausgeschlossen wer
den sollen. Damit soll die grundsatzliche empirische Uberpr
ufbarkeit gesichert werden.
Zu B4 : Der Begriff der Wahrheit ist mit Schwierigkeiten verbunden, kann aber im Prinzip
durch weniger radikale Forderungen ersetzt werden. Wieder wird man auf eine qualende
Frage gef
uhrt: Wann ist ein Satz wahr?

Das HO-Schema soll zunachst f
ur naturwissenschaftliche Erklarungen gelten. Es ergibt sich sofort die Frage, ob das Schema auch auf nicht-naturwissenschaftliche Fragen,
z.B. auf historische Phanomene u
bertragbar ist (Die Franzosische Revolution brach aus,
weil . . .). Man trifft ja auf die bekannten Argumente: in der Naturwissenschaft gehe es
nur um nomothetische Erkenntnis, in der Geschichte aber ginge es um idiographische
72 B. bezieht sich auf die Frage, ob ein bestimmtes Resultat mit endlich vielen Schritten aus gewissen
Anfangsbedingungen hergeleitet werden kann. So kann man fragen, ob eine Aussage aus einem Axiomensystem (bestimmten Annahmen) herleitbar und damit als richtig oder falsch entschieden werden
kann. G
odel und Turing haben bewiesen, dass schon in relativ einfachen Systemen der Logik (Pr
adikatenkalk
ul) diese Herleitbarkeit bzw. Entscheidbarkeit nicht mehr notwendig gegeben ist. Dies bedeutet
u.a., dass bestimmte Ereignisse nicht mehr als zuf
allig oder nicht zuf
allig klassiziert werden k
onnen
(vergl. das zitierte Buch von Chaitin).

109

Erkenntnis; es wird z.B. die These vertreten, dass historische Erklarungen einen teleologischen Charakter haben. Es lat sich nun zeigen:
Die Unterscheidung in nomothetische und idiographische Wissenschaften lasst
sich nicht aufrechterhalten.
Denn Phanomene konnen nie in ihrer Totalitat erklart werden; sowohl im naturwissenschaftlichen wie im historischen Fall m
ussen in den Antecedensbedingungen Artbegriffe
verwendet werden, d.h. es ist nicht von einem Molek
ul, einem Planeten, einer Person
schlechthin die Rede, sondern als einem Molek
ul etc von einer bestimmten Art. Dies
bedeutet, dass es keine vollkommene Erklarung eines Phanomens bzw. eines Ereignisses
geben kann, denn die w
urde die Angabe aller Relationen zu allen u
brigen Ereignissen im
Universum erfordern. Beschreibt also ein Historiker eine Person, zB Napoleon, in seiner
geschichtlichen Einmaligkeit, so bedeutet dies nicht, dass die Person Napoleon in absoluter Vollstandigkeit beschrieben wird, gerade diese Vollstandigkeit wird f
ur unmoglich
gehalten. Aber in den Naturwissenschaften ist sie ebenso wenig moglich:
Planetenbewegungen, der freie Fall von Korpern, die wechselseitigen Abhangigkeiten von Stromstarken, Kapazitaten, Induktivitaten und Spannungen in einem
Stromkreis, die Zerlegung von Licht in einem Prisma etc sind insofern Spezialfalle,
als bei ihnen der Effekt der jeweils betrachteten Variablen gro ist im Vergleich
zu den storenden Effekten. Selbst wenn stochastische Effekte noch keine Rolle
spielen, ergeben sich Schwierigkeiten: wahrend die Dynamik zweier miteinander
interagierender Korper noch explizit dargestellt werden kann, gelingt eine solche
Darstellung f
ur mehr als zwei solcher Korper schon nicht mehr (dies ist das Zweik
orperproblem, vergl. Landau und Lifschitz (1979)). Sobald Rauschen, also zufallige
Effekte, in hinreichender Gr
oenordnung eine Rolle spielt (etwa bei der Erzeugung
eines Aktionspotentials bei einem Neuron, beim Fallen eines Blatts, das sich im
Herbst vom Zweig eines Baumes lost, etc) sind vollst
andige Beschreibungen nicht
moglich. Die Theorie von Laplace, derzufolge alle Prozesse in Ursache-WirkungsFolgen aufgelost werden konnen, kann aus sehr grundsatzlichen Gr
unden nicht aufrechterhalten werden, wie schon langer bekannt ist (Cassirer, 1936). Stangls (1989)
Kritik an der naturwissenschaftlich betriebenen Psychologie, sie orientiere sich an
einer nomothetisch-deterministischen Auffassung der Mechanik entsprechend den
Laplaceschen Vorstellungen ist dann auch von eher polemischem als seriosem Charakter. Denn eine naturwissenschaftliche Konzeption setzt die Laplaceschen Vorstellungen gar nicht voraus.73
Man betrachte andererseits die Annahme, historische Ereignisse hatten einen teleologischen Charakter. Dieser ergebe sich aus den Intentionen der im Ereignis
oder zum Ereignis f
uhrenden handelnden Personen. Das zu erklarende Ereignis sei
demnach durch einen Zweck bestimmt, der zur Zeit des stattfindenden Ereignisses
noch gar nicht erf
ullt gewesen sei. Tatsachlich wird das Ereignis zur Zeit t1 aber
durch den noch nicht realisierten Wunsch einer Person zur Zeit t0 < t1 bestimmt
und damit erkl
art. Die teleologische Erklarung lat sich somit als ein Spezialfall der
kausalen Erklarung sehen, und Motive und Intentionen lassen sich wiederum kausal
erklaren.
Man mu allerdings hinzuf
ugen, dass auch in der Naturwissenschaft der Begriff der
Kausalitat unklar, zumindest schillernd ist, worauf noch einzugehen ist. In jedem
73 Man

u
berzeuge sich: so werden zB im Journal of Mathematical Psychology seit Jahrzehnten Arbeiten
publiziert, in denen dem nicht-deterministischen Charakter psychologischer Prozesse explizit Rechnung
getragen wird.

110

Fall impliziert der Begriff der Kausalitat eine zeitliche Ordnung von Ereignissen, und eine solche kann immer gefunden werden.
Es werde nun noch einmal das Verstehen als Methode, Einsicht in die psychische Dynamik zu erlangen, betrachtet. Dilthey war einerseits beeinflusst von Schopenhauer und
dessen Metaphysik des Willens (Die Welt als Wille und Vorstellung) und andererseits
von Hegels Idee eines objektiven und eines absoluten Geistes. Der Grundgedanke dieser
Metaphysik ist, dass die anorganische Natur ebenso die nichtmenschliche organische Natur nur von auen betrachtet werden kann; Ich ist demnach der einzige Gegenstand,
der von innen zuganglich ist. Diltheys Annahmen sind nun:
1. Die seelischen Prozesse in einer anderen Person sind analog zu den eigenen.
2. Die Einsicht in die Struktur eines anderen ist Resultat eines spontanen Erkenntnisaktes, der auf einem unmittelbaren seelischen Kontakt von Mensch zu Mensch
beruht;
3. diese Einsicht braucht keinen logisch-rationalen Zwischenschritt.
Die letzte Annahme u
ber die nicht notwendige logisch-rationale Deduktion entspricht
einer inneren Verkettung der Erlebnisse, die, so Dilthey, zur Einheit des Lebens gehort und die auf einem Motivationszusammenhang, nicht auf einer kausalen Verkettung
beruhe. Insbesondere konnen historische Zusammenhange verstanden werden, weil man
auf die Motivation der jeweils handelnden Personen zur
uckgehen kann. Der Kern des
Verstehenden Ansatzes besteht also in den Annahmen
1. Die Motive anderer Personen konnen geistig nachvollzogen werden.
2. Verstehen sei die Methode zur Gewinnung adaquater historischer und psychologischer Erklarungen.
3. Verstehen steht dem Erklaren als grundsatzlich andere Methode gegen
uber.
Diese Annahmen sind nicht in dieser kompakten Form von Dilthey als Annahmen formuliert worden. Vielmehr ergeben sie sich aus den Argumentationen in seinen Schriften.

Dass sie hier als Annahmen und nicht, wie bei Dilthey, als Folgerungen aus seinen Uberlegungen aufgelistet werden, resultiert aus der Tatsache, dass die Argumente bei Dilthey
nicht analytisch aus explizit formulierten Grundannahmen gefolgert werden (dann m
ute
oder konnte man diese Grundannahmen explizit benennen), sondern sie werden aus mehr
oder weniger plausiblen Betrachtungen als scheinbar74 evident herausdestilliert.
Es mu nun der Begriff des Erklarens diskutiert werden. Im Unterschied zum Verstehen heit Erklaren, Ursachen und Gr
unde f
ur ein Phanomen anzugeben. Eine bloe
Beschreibung eines Phanomens ist noch keine Erklarung:
Ich lasse das St
uck Kreide los. Die Kreide fallt zu Boden.
Diese beiden Satze beschreiben ein Ereignis, begr
unden es aber nicht, denn aus diesen
Satzen geht nicht hervor, warum die Kreide zu Boden fallt. Nat
urlich wissen wir, warum
sie zu Boden fallt, namlich wegen der allgegenwartigen Wirkung der Gravitation. Aber
dieser Hintergrund ist nicht in den beiden Satzen enthalten, wir vervollstandigen die
Satze nur automatisch zu einer begr
undeten Aussage. Bei anderen Beschreibungen ist
kein Hintergrundwissen vorhanden, auf das automatisch Bezug genommen werden kann:
74 nicht

anscheinend!

111

Der Bewerber f
ur die Position (in einer Firma) erf
ullte die in der Ausschreibung genannten Bedingungen. Er wurde nicht eingestellt.
Warum der Bewerber nicht eingestellt wurde, geht aus diesen Satzen nicht hervor. Damit
nun das Verstehen eine Alternative zum Erklaren ist, darf es nicht nur aus einer Beschreibung bestehen. Deshalb m
ussen beim Verstehen zwingende Zusammenhange der zu verstehenden Phanomene aufscheinen. Nach Dilthey und anderen Theoretikern der Hermeneutik werden diese Zusammenhange durch die Motivationen bzw. Intentionen der jeweils

handelnden Personen reprasentiert. Uber


die Motivationen erfahrt man etwas, wenn man
sich in die andere Person hineinversetzt, d.h. sich alle Motivationen vergegenwartigt, die
die zu verstehenden Handlungen erzeugt haben konnen (= Gedankenexperiment!).
Das Verstehen soll nicht nur ein Prozess sein, der zu einem gewissen Alltagsverstandnis
f
uhrt, sondern es soll auch zu einem Verstandnis f
uhren, das wissenschaftlichen Kriterien
gen
ugt. Es ist nicht klar, warum diese Kriterien f
ur Geistes- und Naturwissenschaften
verschieden sein sollen. Dazu mu man sich aber klarmachen, dass das Verstehen letztlich nur Hypothesen u
ber die Motive handelnder Personen erzeugt; streng genommen
hat man keine Gewahr, dass diese Hypothesen auch korrekt sind. In anderen Worten:
das Verstehen ist, f
ur sich genommen, noch kein Verifikationsverfahren f
ur die gebildeten
Hypothesen. Damit das Verstehen in eine wissenschaftliche Aussage u
bergeht, bedarf es

der unabhangigen, empirischen Uberpr


ufung der Hypothese. Vielfach wird in diesem Zusammenhang auf die Erfahrung z.B. eines Therapeuten hingewiesen. Die Erfahrung f
uhre,
so das Argument, zu einem adaquaten, nicht mehr nur hypothetischen Verstandnis. Dieses Argument bedarf noch kritischer Betrachtung. F
ur den verstehenden Historiker stellt
sich die Frage in analoger Weise: kann er sicher sein, dass die Vorstellungen, die er bereits gebildet hat, bevor er historisches Material deutet, nicht seinen Verstehensprozess
beeinflussen? Man stelle sich einen Historiker vor, der sich in das Handeln einer Person
aus einer anderen Zeit, die in einem anderen kulturellen Zusammenhang lebt, hineinzuversetzen versucht. Der Historiker kann durchaus irren, wenn er Motive annimmt, die
ihm zwar sehr plausibel vorkommen, aber diese Motive m
ussen nicht die der Person sein.
Analoges gilt f
ur das Verstehen von Menschen im taglichen Alltag, in der therapeutischen Sitzung, etc. Tatsachlich mu man feststellen, dass die Annahme, eine Handlung
werde durch bestimmte Motivationen bzw. Intentionen bestimmt, auf der Annahme der
de-facto-G
ultigkeit eines nomothetischen Gesetzes bzw. einer nomothetischen Hypothese
beruht. Die Frage ist, woher man als Verstehender wei, dass dieses Gesetz gilt.
Ein einfaches Beispiel soll diesen Sachverhalt illustrieren. Die Gewalttatigkeit eines
bestimmten Mannes soll verstanden werden. Man findet: (1) der Vater des Mannes war
gewalttatig, (2) die Mutter des Mannes ist gestorben, als er 10 Jahre alt war, (3) der
Mann hat nicht gelernt, Sachverhalte intellektuell zu differenzieren. Der Befund der Gewalttatigkeit kann jetzt als Resultat von (1), (2) und (3) interpretiert werden. Allerdings
ist diese Interpretation nur eine Hypothese, denn Gewalttatigkeit folgt nicht logisch zwingend aus (1), (2) und (3), da es viele Manner gibt, auf die (1), (2) und (3) zutreffen, ohne
dass sie jemals gewalttatig werden. Also mu es zusatzliche Faktoren geben, die bei dem
gegebenen Mann zur Gewalttatigkeit f
uhren, die aber nicht alle bekannt sind. Damit
ist der Mann nur ein Fall, der mit der Hypothese eines statistischen Zusammenhanges
zwischen (1), (2) und (3) und der Gewalttatigkeit kompatibel ist. Ein statistischer Zusammenhang schliet nicht aus, dass die Gewalttatigkeit in kausaler Beziehung zu (1),
(2) und (3) steht, nur ist (1), (2) und (3) eine unvollstandige Liste der Ursachen. Ein
statistischer Zusammenhang schliet aber auch nicht aus, dass die Beziehung zwischen
(1), (2) und (3) genuin probabilistisch ist. Damit nun die Aussagen (1) bis (3) zu einem
Verstehen der Gewalttatigkeit f
uhren, mu die Gewalttatigkeit eine logische Konsequenz
dieser drei Satze sein. Angenommen, die Gewalttatigkeit ware eine logische Konsequenz.
112

Dann folgt aber, dass die Beziehung zwischen den Satzen (1) bis (3) und der Aussage u
ber
die Gewalttatigkeit ein nomothetisches Gesetz ist! Idiographisches Verstehen konnen also
auf dem Rekurs auf nomothetische Gesetze beruhen. Nat
urlich ist die Gewalttatigkeit
keine logische Konsequenz aus den Satzen (1) bis (3), - deswegen f
uhren diese Satze auch
zu keinem Verstehen. Sofern die Satze nur Erklarungen liefern, gelangt das Verstehen
nicht u
ber diese Erklarungen hinaus.
Die Gewalttatigkeit ist keine logische Konsequenz von (1) bis (3). Da man viele Manner finden kann, f
ur die die Aussage (4) - Gewalttatigkeit - nicht gilt, obwohl die Aussagen
(1) bis (3) zutreffen, kann (4) nur logisch gefolgert werden, wenn zusatzliche psychologische Befunde existieren, die zusammen mit (1) bis (3) die Aussage (4) logisch implizieren.
Diese Befunde, zusammen mit (1) bis (3), m
ussen ein konsistentes Netz von Aussagen bilden, damit u
berhaupt von logischer Folgerung gesprochen werden kann. Derartige Netze
existieren im allgemeinen nicht, so dass Aussagen der Art (4) allenfalls nur Hypothesen
sind und keine evidente Wahrheiten.
Der durch einf
uhlendes Nacherleben erzeugte Zusammenhang von Motivationen, Handlungen oder einfach Eigenschaften ist also nicht notwendig auch logisch dicht in dem
Sinne, dass er eindeutig auf das zu verstehende Handeln f
uhrt. Also ist er nicht mehr als
eine Beschreibung, - und damit oft nur eine Vorstufe der Erklarung. Es gibt demnach
keinen grundsatzlichen Unterschied zwischen Verstehen und Erklaren, Verstehen ist oft
nicht mehr als eine unvollstandige Erklarung.
Man wird einwenden, dass das Beispiel die tatsachliche Situation nur sehr verk
urzt
darstellt, da das Verstehen sich nicht aus nur drei Feststellungen ergebe, sondern grundsatzlich ganzheitlich erarbeitet werde. Mit diesem Hinweis wird aber der Kern des verstehenskritischen Arguments nicht getroffen: die Zahl 3 kann sofort auf n > 3 Feststellungen
verallgemeinert werden, ohne dass sich die Struktur des Arguments verandert. Dar
uber
hinaus mu nun erklart werden, was denn unter ganzheitlich verstanden werden soll.
Vermutlich ist damit gemeint, dass eine hinreichend groe Zahl von Merkmalen in ihrer
wechselseitigen Abhangigkeit erfasst wird. Zweifelsohne ist ein ganzheitlicher Ansatz besser als einer, der auf die isolierte Wirkung einzelner Groen fokussiert. Andererseits kann
der Hinweis, Bewertungen, Beurteilungen75 oder Erklarungen seien ganzheitlich, noch
kein Qualitatsmerkmal bezeichnen, denn wann und wodurch ist sichergestellt, ob einem
Urteil die jeweils benotigte Ganzheitlichkeit zugrunde gelegen hat, bzw. ob die Wechselbeziehungen zwischen den die Ganzheitlichkeit konstituierenden Merkmalen auch in
korrekter Gewichtung in das ganzheitliche Urteil eingehen?
Ein anderer Einwand konnte sich durch die Hinweis auf die Intentionalitat mentaler
Prozesse ergeben (vergl. Abschnitt 4.2). Nach Ansicht vieler Philosophen ist ja die Intentionalitat psychischer Akte ein Merkmal eben dieser Akte, das nicht im Rahmen einer
nomothetisch beschreibbaren Dynamik erfassbar sei; das Verstehen einer z.B. gewalttatigen Handlung best
unde aber im Nachvollzug eben der mit der Handlung einhergehenden
Intentionalitat. Damit wird aber ein nomothetischer Zusammenhang postuliert: (1), (2),
(3) plus Intentionalitat liefert (4). Dar
uber hinaus bleibt ungeklart, warum die Intentionalitat bei einem bestimmten Mann in Konjunktion mit den anderen Merkmalen auftritt,
und warum bei anderen nicht. Auerdem erweist sich der Begriff der Intentionalitat als
derart komplex, dass sein Wert zur Erklarung des Verstehens auerst fragw
urdig wird,
worauf in Wissenschaftstheorie IV ausf
uhrlich eingegangen werden wird.
Der Begriff der Ganzheitlichkeit ist sicherlich von zentraler Bedeutung wenn die betrachteten Groen - zB emotionale und/oder kognitive Zustande - in dynamischer Wech75 zB in den bei der Pr
ufung von Lehramtskandidaten so beliebten Kollegialpr
ufungen, bei denen mehrere gleichzeitig anwesende Pr
ufer sich ein ganzheitliches Bild des Kandidaten hinsichtlich der Eignung
f
ur den Lehrerberuf machen sollen.

113

selwirkung zueinander stehen. Zunmindest prinzipiell lassen sich diese Wechselwirkungen


durch Systeme von Differentialgleichungen, dh als dynamische Systeme charakterisieren;
Ganzheitlichkeit entzieht sich nicht notwendig der Erklarbarkeit. Schon bei relativ einfachen dynamischen Systemen zeigt sich, dass man die Wechselwirkungen zwischen den
Groen nicht mehr verstehend (im Diltheyschen Sinne) erfassen kann, - gerade deswegen
ist ja die formale Charakerisierung solcher Systeme entwickelt worden. Die Frage nach der
Kausalitat bei solchen System zeigt dann einmal mehr, dass dieser Begriff auch in streng
naturwissenschaftlichen Systemen sehr evasiv ist. In Wisseschaftstheorie IV, Abschnitt 3
soll ausf
uhrlicher darauf eingegangen werden.
Zusammenfassend lat sich sagen, dass Verstehen und Erklaren sich nicht wirklich
unterscheiden. Stegm
uller (1974; p. 66) hat sich hier direkter geauert: die von Dilthey
eingef
uhrte Dichothomie Verstehen - Erkl
aren sei die mit Abstand unfruchtbarste unter
den erkenntnistheoretischen Dichotomien76.

Die Empirismuskritik der Frankfurter Schule

Die mit den Windelbandschen Begriffen des Ideographischen und des Nomothetischen
sowie mit der Lebensphilosophie Diltheys verbundene, explizit geisteswissenschaftliche
Psychologie hat einen anderern Vorlaufer, dessen philosophische Wirkung sich noch einmal im Positivismusstreit in der deutschen Soziologie zeigte, der wiederum Auswirkungen
auf Diskussionen innerhalb der Psychologie u
ber deren wesensgerechte Ausrichtung hatte. Dieser Vorlaufer ist Georg Wilhelm Friedrich Hegel (1770 - 1831). Hegel hatte groen
Einflu auf Karl Marx, u
ber den hegelsches Denken Einflu auf philosophische Betrachtungen zur Entwicklung der Gesellschaft nahm. Es ist unmoglich, diesen Einflu hier in
all seinen Facetten zu skizzieren, es soll nur versucht werden, die Kritik am Positivismus,
wie sie von den Vertretern der Frankfurter Schule, also insbesondere von Th. W. Adorno und J. Habermas vorgetragen wurde, kurz darzustellen. Grundlegend f
ur den Ansatz
dieser Autoren ist der R
uckgriff auf den Begriff der Totalitat und auf die (hegelsche)
Dialektik.

6.1

Der Weg zur Dialektik: Descartes, Kant, Fichte, Hegel

Es existiert eine Linie von Descartes u


ber Kant und Fichte zu Hegel, also von Descartes
zur Begr
undung des Deutschen Idealismus, wie ein Blick in ein Lehrbuch der Philosophie
zeigt; insbesondere die Denkansatze von Kant, Fichte, Schelling und Hegel werden in einer
Folge behandelt, die diese Linie verdeutlicht, so z.B. in Rod (2000), Band II, Abschnitt
III: Vom Kritizismus zum Idealismus. Speziell herausgearbeitet hat diese Entwicklung
Becker (1972).
Descartes R
uckzug auf das Ich Die Entwicklung des cogito ergo sum-Arguments
wurde bereits in Wissenschaftstheorie II vorgestellt und wird hier zur Erinnerung noch
einmal wiederholt:
In Punkt 3 der zweiten Meditation notiert Descartes den Gedanken, dass selbst der
u
auscher ihn nicht dar
uber hinwegt
auschen kann, dass er u
belste T
berhaupt ist,
denn sonst k
onnte er ja nicht get
auscht werden. Es bleibt die Frage, was er denn sei,
ein Mensch, oder ein vern
unftiges Wesen, nur mu er dann ja erkl
aren, was
ein Mensch oder ein vern
unftiges Wesen denn sei, und u
onne
ber diese Begriffe k
er ja bereits get
auscht worden sein. Descartes beschliet, sein Augenmerk darauf
zu richten, was sich ganz von selbst seinem Bewutsein (cogitatio) darbot, und er
76 Mit

solchen Dichotomien meint er Paare wie a priori - empirisch, deskriptiv - normativ, etc.

114

findet: Das Denken ists, es allein kann nicht von mir getrennt werden: Ich bin, ich
existiere, das ist gewi (Punkt 8, zweite Meditation). In Punkt 9 stellt er fest, dass
er im Zweifel nur so lange existiert, wie er denkt: Ich bin aber genau nur ein denkendes Ding (res cogitans), dh Geist (mens), Seele (animus), Verstand (intellectus),
Vernunft (ratio), - lauter Ausdr
ucke, deren Bedeutung mir f
urher unbekannt war.
Ich bin aber ein wahres und wahrhaft existierendes Ding, aber was f
ur ein Ding?
Nun, ich sagte es bereits - ein denkendes.
Dies ist das Cogito ergo sum-Argument.

Dieses Argument hat Folgen, u.a. f


ur die Definition des Wahrheitsbegriffs. In der scholastischen Philosophie wurde angenommen, dass Wahrheit eine ad
aquatio intellectus et

rei sei, Wahrheit bedeutet also die Ubereinstimmung


des Intellekts und der Dinge. Dies
ist eine wohl auf Thomas von Aquin zur
uckgehende Formulierung des Korrespondenzbegriffs der Wahrheit, die schon Aristoteles vertreten hat. Dieser Wahrheitsbegriff setzt
voraus, dass es eine objektive Wirklichkeit auerhalb des Intellekts gibt. Aber die auere Wirklichkeit mu, wenn man Descartes Gedankengang folgt, nicht existieren, denn
er findet sich ja nur als denkendes Ding vor. Man kann sagen, dass nach Descartes
Erkenntnis im Wissen eines Sachverhalts besteht. Etwas zu wissen bedeutet zwar nicht,
dieses Etwas standig im Bewutsein zu haben, wenn es aber im Bewutsein ist, so nicht
nur als eine bliebige, womoglich vom Bewutsein selbst erzeugte Vorstellung von etwas,
sondern als Vorstellung von etwas, das unabhangig vom Bewutsein sein ist77 . Die Frage
ist nun, wie die Gewiheit des Wissens nachgewiesen werden kann. Ein empirischer Nachweis der Wahrheit gen
ugt hier nicht mehr, da er voraussetzt, dass der in Frage stehende
Sachverhalt auerhalb des Wissens existiert. Wissen kann im Sinne der Descarteschen
Meditationen dann nur wahres Wissen sein, wenn es mit Evidenz verkn
upft ist (vergl.
Abschnitt 3.2 u
ber Brentanos Wahrheitsbegriff). Man kann, mit Becker (1972), sagen,
dass f
ur Descartes Wahrheitsanspruch einerseits und Vergewisserung der Wahrheit andererseits zusammenfallen m
ussen, es kommt zu einer Einheit von Wahrheit und Gewiheit.
Diese Auffassung von Wahrheit ergibt sich aus dem cogito ergo sum-Argument und
f
uhrt auf einen solipsistischen Skeptizismus, der jede Wissenschaft in Frage stellt. Das hat
auch Descartes gesehen, und er mute einen Ausweg finden. Der bestand f
ur Descartes

nun gerade darin, dass ja der Zweifel, der ja der Ausgangspunkt seiner Uberlegungen
war, wiederum die Einheit von Wahrheit und Gewiheit impliziert. In den Meditationen
f
uhrt er aus, wie er gerade u
ber den Zweifel zu dem Satz gelangt Ich bin, ich existiere
und die Sicherheit auert, dass dieser Satz in dem Moment, wo er ihn denkt, notwendig
wahr sein mu, denn der u
uber hinwegtauschen,
belste Tauscher konne ihn ja nicht dar
dass er, Descartes, sich ja selbst als Denkenden erlebe (Zweite Meditation, Punkte 3 und
8).

Becker (1972) weist darauf hin, dass diese Uberlegungen


zu einer Sinnverschiebung der
Begriffe Wirklichkeit und Existenz f
uhren: sie beziehen sich nun auf gedachte, vorgestellte Wirklichkeiten und Existenzen. Nat
urlich hat Descartes nun das Problem, sinnvoll
u
ber objektive Wirklichkeit reden zu konnen. Um dieses Problem losen zu konnen, rekurriert er auf einen schon in der scholastischen Philosophie verwendetes Argument, um
die Existenz Gottes zu beweisen. Unter den Ideen, die er in seinem Bewutsein vorfindet,
ist auch die Idee Gottes als einem perfekten, groten Wesen, und diese Idee sei so gro,
dass sie nicht von ihm selbst stammen konne, da sein Geist ja unvollkommen sei, woraus
77 Diese Charakterisierung von Wissen ist sehr knapp und deshalb undeutlich. Denn ich kann wissen,
dass ich mir Vorstellungen machen kann, die mit der Realit
at nichts zu tun haben. Ich kann mir ein
Einhorn vorstellen und dabei wissen, dass das Einhorn nur eine Vorstellung ist, die aber nicht zur Welt
auerhalb meines Bewutseins geh
ort. Ich kann also nicht wissen, dass es irgendwo auf der Welt ein
Einhorn gibt. Eine gute Einf
uhrung in Explikationen des Wissensbegries ndet man in Russel, B.:
Probleme der Philosophie, Kap. V Kenntnis durch Bekanntschaft und Kenntnis durch Beschreibung.
Wien 1950.

115

folgt, dass Gott existieren m


usse. Da Gott aber, als perfektes Wesen, ihn nicht tauschen
werde, meint er davon ausgehen zu konnen, dass auch eine objektive Realitat existiert.
Diese wird zwar von den Sinnesorganen obskur und konfus reprasentiert, aber Gott hat
uns, so Descartes, den Intellekt gegeben, u
ber dessen klaren und distinkten Aktionen
der Mensch zur Wahrheit gelangen konne (vergl. vierte und sechste Meditation).
Diese Argumentation hat einen betrachtlichen philosophischen Sog entwickelt. Wenn
das Ich im von Descartes entwickelten Sinn die Basis f
ur das Erkennen der Wirklichkeit
ist, liegt es nahe, es als korperlos zu denken, denn der Begriff eines korperhaften Ich
setzt ja die Existenz von Korpern voraus, wahrend das Ich sich nur als denkendes Ich
als Qualitat reinen Denkens (Becker) begreifen kann und daher zunachst die Existenz von Korpern als bezweifelbar annehmen mu; es ware zu pr
ufen, ob man nicht eine
Argumentation finden kann, das Ich dennoch als korperbasiert zu denken, aber dieser
Moglichkeit soll hier nicht nachgegangen werden. Die Descartesche Argumentation f
uhrt
jedenfalls zu einem Ich-Begriff, der bei Kant und anderen als reines Selbstbewutsein
wieder auftaucht. Als reines Bewutsein ist es einerseits eine wissende Instanz, andererseits enthalt es aber eine Komponente, die durch das, was gewut wird, konstituiert wird.
Die Existenz des reinen Selbstbewutseins wurde durch den radikalen Zweifel konstituiert, der alles auer dem reinen Denken in Frage stellt. Demnach kann das Ich, d.h. das
reine Selbstbewutsein, keine ich-fremden Komponenten enthalten, es kann also nur sein
eigenes Denken wissen. Das von Descartes postulierte Ich als reines Selbstbewutsein ist
damit notwendig selbstreferentiell, es ist ein in sich kreisendes Wissen (Becker).
Kants transzendentale Apperzeption Kant beginnt in seiner Kritik der reinen Vernunft nicht mit dem Descarteschen Zweifel, sondern mit gewissermaen axiomatischen

Betrachtungen (Kant, 1956). In der Transzendentalen Asthetik,


1, schreibt er:
Auf welche Art und durch welche Mittel sich auch immer eine Erkenntnis auf Gegenst
ande beziehen mag, es ist doch diejenige, wodurch sie sich auf dieselbe unmittelbar
bezieht, und worauf alles Denken als Mittel abzweckt, die Anschauung. Diese findet
aber nur statt, sofern uns der Gegenstand gegeben wird; dieses aber ist wiederum, uns Menschen wenigstens, nur dadurch m
oglich, da er das Gem
ut auf gewisse
Weise affiziere. Die F
ahigkeit (Receptivit
at), Vorstellungen durch die Art, wie wir
von Gegenst
anden affiziert werden, zu bekommen, heit Sinnlichkeit. Vermittelst
der Sinnlichkeit also werden uns Gegenst
ande gegeben, und sie allein liefert uns Anschauungen; durch den Verstand aber werden sie gedacht, und von ihm entspringen
Begriffe. Alles Denken aber mu sich, es sei geradezu (direkte) oder im Umschweife
(indirekte), vermittelst gewisser Merkmale, zuletzt auf Anschauungen, mithin, bei
uns, auf Sinnlichkeit beziehen, weil uns auf andere Weise kein Gegenstand gegeben
werden kann.
Die Wirkung eines Gegenstandes auf die Vorstellungsf
ahigkeit, sofern wir von derselben affiziert werden, ist Empfindung. Diejenige Anschauung welche sich auf den
Gegenstand durch die Empfindung bezieht, heit empirisch. Der unbestimmte Gegenstand einer empirischen Anschauung heit Erscheinung.

Das, was wir erkennen, sind also Erscheinungen, und nicht die Sache, das Ding an sich.
Der Ort, an dem die Erscheinungen gewissermaen verarbeitet werden, wo Denken und
die Bildung von Begriffen stattfindet, ist wieder das reine Selbstbewutsein, von dem
Kant als transzendentale Apperzeption78 spricht.
78 Apperzeption:

der Ausdruck geht auf das (neu-)lateinische adpercipere = hinzuwahrnehmen zur


uck;
es meint die bewute Wahrnehmung eines Sinneseindrucks, im Unterschied zur Perzeption, mit der die
Wahrnehmung eines Gegenstandes gemeint ist.Der Ausdruck Apperzeption scheint zuerst von Leibniz in
seiner Monadologie gebraucht worden zu sein; er meinte damit die aufmerksamkeitsgesteuerte Wahrnehmung einschlielich der Interpretation in Bezug auf Ged
achtnisinhalte, so dass die Wahrnehmung in einen

116

Bestimmte Vorstellungen sind notwendig, etwa die der Ausdehnung von Korpern, und
er schreibt:
Aller Notwendigkeit liegt jederzeit eine transzendentale Bedingung zum Grunde.
Also mu ein transzendentaler Grund der Einheit des Bewutseins, in der Synthesis
des Mannigfaltigen aller unserer Anschauungen, mithin auch, der Begriffe der Objekte u
ande der Erfahrung, angetroffen werden,
berhaupt, folglich auch aller Gegenst
ohne welchen es unm
oglich w
are, zu unseren Anschauungen irgendeinen Gegenstand
zu denken; denn dieser ist nichts mehr, als das Etwas, davon der Begriff eine solche
Notwendigkeit der Synthesis ausdr
uckt.
Diese urspr
ungliche und transzendentale Bedingung ist nun keine andere, als die
transzendentale Apperzeption. Das Bewutsein seiner selbst, nach den Bestimmungen unseres Zustandes, bei der inneren Wahrnehmung ist blo empirisch, jederzeit
wandelbar, es kann kein stehendes oder bleibendes Selbst in diesem Flusse innerer
Erscheinungen geben, und wird gew
ohnlich der innere Sinn genannt, oder die empirische Apperzeption. Das was notwendig als numerisch identisch dargestellt werden
soll, kann nicht als ein solches durch empirische Data gedacht werden. Es mu eine
Bedingung sein, die vor aller Erfahrung einhergeht, und diese selbst m
oglich macht,
welche eine solche transzendentale Voraussetzung geltend machen soll.
Kant I: Kritik der reinen Vernunft, p. 154a

Das reine Selbstbewutsein, die transzendentale Apperzeption, ist aber f


ur Kant nicht
weiter bestimmbar, wie er im Zweiten Buch der transzendentalen Dialektik im Abschnitt
Von den Paralogismen der reinen Vernunft ausf
uhrt79 . Diese Paralogismen beziehen sich
auf eine transzendentale Seelenlehre,
welche f
alschlich f
ur eine Wissenschaft der reinen Vernunft, von der Natur unseres
denkenden Wesens gehalten wird. Zum Grunde derselben k
onnen wir aber nichts
anderes legen, als die einfache und f
ur sich selbst an Inhalt g
anzlich leere Vorstellung:
Ich; von der man nicht einmal sagen kann, da sie ein Begriff sei, sondern ein
bloes Bewutsein, das alle Begriffe begleitet. Durch dieses Ich, oer Er, oder Es
(das Ding), welches denkt, wird nun nichts weiter, als ein transzendentales Subjekt
der Gedanken vorgestellt = x, welches nur durch die Gedanken, die seine Pr
adikate
sind, erkannt wird, und wovon wir, abgesondert, niemals den mindesten Begriff
haben k
onnen; um welches wir uns daher in einem best
andigen Zirkel herumdrehen,
indem wir uns seiner Vorstellung jederzeit schon bedienen m
ussen, um irgend etwas
von ihm zu urteilen; eine Unbequemlichkeit, die davon nicht zu trennen ist, weil das
Bewutsein an sich nicht so unterscheidet, sondern eine Form derselben u
berhaupt,
sofern sie Erkenntnis genannt werden soll; der von der allein kann ich sagen, da
ich dadurch etwas denke.
Kritik der reinen Vernunft, p. 374

Auf die Paralogismen selbst mu hier nicht weiter eingegangen werden, sie begr
unden
und elaborieren gewissermaen den zitierten Text. Der Punkt, den Kant hier macht, ist,
dass das Ich nur ein Bewutsein ist, das das Denken begleitet, es ist die Bedingung f
ur
die Moglichkeit des Denkens; das ist gemeint, wenn das Ich ein transzendentales Subjekt
genannt wird. Die Gedanken sind seine Pr
adikate, d.h. sie sind im Prinzip eben nur
Eigenschaften dieses transzendentalen Subjekts in dem Sinne, das dieses die Moglichkeit
von Gedanken u
berhaupt bereitstellt. Der erwahnte bestandige Zirkel entsteht durch
Selbstreferenz: will man das Ich denken, so bleibt man eben im Bereich des Pradikats,
das das Denken relativ zum Ich ist, eben dem Denken, hangen.
bewuten Zusammenhang mit anderen Bewutseinsinhalten gebracht wird. Transzendental meint immer
die Bedingung der M
oglichkeit; Kant bezeichnet mit der transzendentalen Apperzeption die Gesamtheit
der Operationen des Bewutseins.
79 Kritik der reinen Vernunft, p. 370

117

Dieser Paralogismus des Ich-Begriffs konnte nun dazu f


uhren, eben diesen Ich-Begriff
und damit den des reinen Selbstbewutseins u
berhaupt zu verwerfen. Kant behalt ihn
aber bei, da andernfalls seine Konzeption der jede Erkenntnis bedingenden transzendentalen Apperzeption fallen gelassen werden m
ute. Um diese Konzeption zu erhalten,
beschrankt er sich darauf, zu sagen, dass es eben das Ich als transzendentales Subjekt
gibt (siehe oben), und bestreitet lediglich, dass gesagt werden kann, worin es besteht bzw.
was es denn sei: wir konnen abgesondert davon niemals einen Begriff davon haben.
Fichtes Versuch Johann Gottlieb Fichte (1762 - 1814) war zunachst beeinflut von
Spinozas Philosophie und nahm in diesem Kontext an, dass alles Geschehen auch das
geistige kausal determiniert sei. Kants Philosophie f
uhrte ihn dann dazu, seine Ansichten zu modifizieren. Nach Kant kann das Kausalitatsprinzip als Kategorie nicht auf
Dinge an sich angewendet werden, sondern nur auf die Erscheinungen. Damit wird, im
Gegensatz zum spinozistischen Ansatz, Freiheit moglich. Fichte wird Kantianer, war aber
mit der Idee des Dinges an sich nicht zufrieden. Die Kantische Idee bzw. These der Abhangigkeit der Erfahrungswelt vom wahrnehmenden Subjekt mit der damit gekoppelten
Idee der transzendentalen Apperzeption f
uhrt aber, wie von Kant selbst gezeigt, zu einem
Paralogismus, also zu einer Antonomie. Fichte argumentiert nun, dass man die These der
Subjektabhangigkeit nur sinnvoll aufrechterhalten konne, wenn man annehmme, dass die
Gegenstande vom Ich abhangen, wenn der Gedanke des Dinges an sich also fallengelassen
w
urde. Wolle man diese Konsequenz nicht ziehen, so bliebe einem als Alternative nur der
vom Materialismus implizierte Determinismus80 . Akzeptiere man diese Alternative nicht,
m
usse man den radikalen Idealismus, also den Kantischen Idealismus ohne das Ding an
sich, akzeptieren. Welche Alternative soll man wahlen? Nach Fichte gilt: Was f
ur eine
Philosophie man wahlt, hangt [. . .] davon ab, was man f
ur ein Mensch ist.81 Derjenige,
der sich seiner Selbststandigkeit und Unabhangigkeit von aueren Dingen bewut sei,
werde die Philosophie des Freiheit, also den Idealismus, wahlen, wer sich nicht zum Bewutsein von Freiheit und Unabhangigkeit erheben vermag, wird eine Philosophie des
Determinsimus wahlen (zitiert nach Rod, II, p. 214).
Die Vorstellung, dass alles vom Ich abhangen mu, bedeutet, dass das reine Selbstbewutsein keinen Inhalt haben kann, der es selbst u
bersteigt. Damit wird das Ich zu
einem absoluten Ich. Kants Paralogismus wird zur Seite geschoben und Fichte postuliert,
dass das Ich ausschlielich sich selbst zum Inhalt hat, das Wissen und das Gewute werden zu einer Identitat. Gleichzeitig wei das Ich um den Unterschied von Wissen
und Gewutem. Wie diese Gleichzeitigkeit von Identitat und bewuter Differenz nun zu
denken ist, ist eine Frage, die auch Fichte nicht beantworten kann. Wieder gibt es die
logische Moglichkeit, zu folgern, dass diese Konstruktion des Ich-Begriffs bzw. des Begriffs des reinen Selbstbewutseins nicht haltbar ist, also verworfen werden mu. Fichte
wahlt diese Moglichkeit aber nicht, denn er will am Idealismus festhalten. Also wird die
Identiat zusammen mit dem Gegensatz von Wissen und Gewutem zum charakterisierenden Attribut des reinen Selbstbewutseins erhoben. Fichte spricht vom Ich und dem
Nicht-Ich, die Identitat dieser beiden Einheiten wird zur absoluten Identit
at.
Man kann diese Konstruktion des absoluten Ich eine Irrationalitat nennen. Fichte ist
sich dieses Problems bewut und formuliert es als Aufgabe seiner Wissenschaftslehre (so
nennt er seine Philosophie), fort[zu]fahren, Mittelglieder zwischen die Entgegengesetzten
einzuschieben (zitiert nach Becker (1972), p. 311). Die zentrale Aufgabe ist, die Frage zu
80 Die Behauptung, der Materialismus impliziere Determinismus, ist eine starke Vereinfachung, wenn
nicht sogar eine begriiche Zirkularit
at: der Materialismus wird so deniert, dass er den Determinismus
impliziert. Es zeigt sich allerdings, dass diese Begriichkeiten wesentlich komplexer und wenig eindeutig
sind (vergl. Earman, J: A primer on determinism. Dordrecht 1986)
81 Fichte, J.G.: Versuch einer neuen Darstellung der Wissenschaftslehre, Einleitung, 5; Werke, Bd.I,
p. 434

118

beantworten, wie das Ich auf das Nicht-Ich, oder das Nicht-Ich auf das Ich unmittelbar
einwirken konne, da sie beide einander vollig entgegengesetzt sein sollten. Fichte findet
keine Antwort, postuliert aber weiter einen Machtspruch der Vernunft, den nicht etwa
ein Philosoph tut, sondern den er nur aufzeigt durch den: es soll, da das Nicht-Ich mit
dem Ich auf keine Art sich vereinigen lat, u
berhaupt kein Nicht-Ich sein, der Knoten
zwar nicht gelost, aber zerschnitten w
urde. (vergl. Becker (1972), p. 311).
Man kann den Ruf nach diesem Machtspruch der Vernunft als Ausdruck einer Neigung zu Affirmierung logisch-sachlicher Unmoglichkeit nennen (Becker). Fichte ist sich
der Irrationalitat der Forderung nach dem absoluten Ich im oben definierten Sinne anscheinend bewut, versucht diese aber zu verdrangen.
Hegels Camouflage Georg Friedrich Wilhelm Hegel (1770 - 1831) findet einen Ausweg,

so scheint es. Uber


Hegels Philosophie wird weiter unten noch mehr gesagt werden; hier
gen
ugt es, zu sagen, dass auch er die idealistische Position bezogen hat und damit vor
Fichtes Problem steht. Sein Ausweg besteht im Postulat der Dialektik. Denn Fichtes absolute Identitat steht im Widerspruch zum Gegensatz von Wissen und Gewutem. Damit
kann das absolute Ich nicht dargestellt (bestimmt, wie Kant sagen w
urde) werden. Der
genannte Gegensatz gehort aber zum absoluten Ich, der Identitat. Da sich der Gegensatz
der Identitat zu entziehen versucht, erscheint er dem Gegensatz selber entgegengesetzt
zu sein, die Identitat ist gleichzeitig (i) sich selbst, und (ii) sich Entgegengesetztes:
das idealistische Absolute ist gerade dadurch ein Gegens
atzliches, da es sich vom
Gegensatz absolut unterscheidet. Die Vorstellung einer nunmehr dialektisch gewordenen Identit
at kann sich nur ergeben, wenn Identit
at und Gegensatz zuvor als
absolut getrennt gedacht werden. Insofern ist Fichtes systematische Not in der Tat
die erforderliche Voraussetzung f
ur die Tugend der dialektischen L
osung.
(Becker, p. 313)

Man wird Becker Recht geben m


ussen, wenn man von einer erneuten Anwendung des
Affirmierungsprinzips, wie es schon Fichte verwendet hat, bei Hegel spricht. Rational
ist die Anwendung dieses Prinzips keinesfalls, sie bedeutet vielmehr eine rein formalistische Setzung, die nicht aus einem bereits anerkannten Prinzip logisch folgt. Rational
ware vielmehr die Verwerfung des Fichteschen Ansatzes zur Fundierung des Idealismus.
Es widerspricht jeder Logik, eine absolute Identitat zu postulieren, die zugleich ihr Gegensatz sein soll. Die genannte formalistische Setzung in Konjunktion mit der Dialektik
erlaubt Hegel aber, den Begriff des absoluten Ich und den damit verkn
upften Identitatsbegriff der nun ein dialektischer ist beizubehalten, und damit Fichtes Problem zu
verstecken. Hegel kann nun den Bezug zur auerbewuten Wirklichkeit herstellen, indem
er postuliert, dass die Gegensatzlichkeit des reinen Selbstbewutseins ununterscheidbar
mit der gegenstandlichen Wirklichkeit, die bewutseinstranszendent ist, zusammenfallt
(vergl. Herrschaft und Knechtschaft in der Ph
anomenologie des Geistes). In diesem Sinne
ist die Wahrheit konkret (Brecht).

6.2

Hegel zur Einstimmung


Das Wahre ist das Ganze. Das Ganze aber ist nur das durch seine Entwicklung sich
vollendende Wesen. Es ist von dem Absoluten zu sagen, das es wesentlich Resultat,
dass es erst am Ende das ist, was es in Wahrheit ist; und hierin eben besteht seine
Natur, Wirklichkeit, Subjekt, oder Sichselbstwerden zu sein. So widersprechend es
schienen mag, dass das Absolute wesentlich als Resultat zu begreifen sei, so stellt

doch eine geringe Uberlegung


diesen Schein von Widerspruch zurecht. . . . Dass
das Wahre ist nur als System wirklich, oder dass die Substanz wesentlich Subjekt

119

ist, ist in der Vorstellung ausgedr


uckt, welche das Absolute als Geist ausspricht,
der erhabendste Begriff, und der neuern Zeit und ihrer Religion angeh
ort. Das
Geistige allein ist das Wirkliche; es ist das Wesen oder Ansichseiende, das sich
Verhaltende und Bestimmte, das Anderssein und das F
ursichsein und das in dieser
Bestimmtheit oder seinem Auersichsein in sich selbst Bleibende; oder es ist an
und f
ur sich.
G. W. F. Hegel, Aus der Vorrede zur Ph
anomenologie des Geistes (1807).

Die Welt und das Geistige sind, so Hegel, eins; diese Auffassung gilt als Hegels Identit
atsphilosophie. Der Begriff des Absoluten und des Geistes sind zentrale Begriffe im
hegelschen Denken. Im Folgenden sollen noch einige Satze aus Hegels Naturphilosophie
zitiert werden, um den Hintergrund zu illuminieren, vor dem im Positivismusstreit von
der Frankfurter Schule argumentiert wird, dass naturwissenschaftliche Methoden nicht
auf die Sozialwissenschaften u
bertragen werden konnen:
Die Natur ist der sich auf sich selbst beziehende absolute Geist. Da die Idee des
absoluten Geistes erkannt worden ist, so wird auch dies Aufsichselbst als eine Bestimmtheit, und der sich so auf sichselbstbeziehende Geist als ein Moment des realen
absoluten Geistes erkannt. Es ist nicht als unbefangenes Sichselbstgleichsein, da die
Natur genommen wird, sondern als ein befangener Geist, dessen Existenz die Unendlichkeit, oder in seiner Reflexion in sich selbst zugleich seine Befreiung , sein

Ubergehen
in den sich in diesem Anders als absoluten Geist findenden Geist ist.
. . .
Dies sind die ersten S
atze in Hegels Naturphilosophie.

Der Text lauft in dieser Form weiter, und die folgenden Zitate sind in gewisser Weise
willk
urlich.
Die Bestimmtheit der Unendlichkeit, in welcher der absolute Geist sich als Natur
ist, ist die Unendlichkeit als die eines Geistes, und hierdurch nicht mehr die logische,
sondern die metaphysische Unendlichkeit. Denn die Entwicklung oder Realisation
des Erkennens ist die Darstellung des Erkennens in seinem Anderswerden und in
seinem Resumieren in sich selbst; und die Natur ist in ihrer Bestimmtheit hiemit
in dieser Bestimmtheit der Unendlichkeit. Ihr Sein, ihre Existenz, die Weise des
Gegensatzes, wie er an ihr ist, ist ihre Bestimmtheit die in sich reflektierte oder
ideellgesetzte logische Unendlichkeit. . . .

Der Begriff der Reflexion, der f


ur Habermas82 bedeutsam ist, spielt in den Betrachtungen
Hegels zum Wesen der Natur eine zentrale Rolle. Hegel unterscheidet die philosophische
Betrachtung der Natur von der gemeinen Betrachtung, die sich nur an die Verhaltnisse
der unreflektierten Unendlichkeit halte und f
ur welche die Natur aus Ganzen und Teilen
in quantitativen Unterschieden besteht und in ursachlicher Beziehung. Denn
die[se] Weise der Realit
at ist in der Natur selbst als ideell gesetzt;oder die Realit
at,
das Erscheinen der Natur ist ein Erscheinen als Geist, die Realit
at als eines Geistes.
Da sie Geist ist, ist nicht ein Inneres, sie ist nicht durch eine
auere Reflexion in
sich selbst reflektiert, sondern an ihr selbst, oder wie sie existiert. Ihr Wesen an ihr
selbst, ihre Realit
at ist, da sie lebendige Natur, in sich reflektierte Unendlichkeit,
Erkennen ist, und ihre Materie oder ihre absolute Sichselbstgleichheit das Leben
ist.
Der metaphysische Proze des Lebens ist zuerst das sich selbsterhaltende Leben,
(die G
ute Gottes), es ist seine eigene Idee, oder vielmehr es ist nur als Begriff des
82 Erkenntnis

und Interesse

120

Lebens, und seine Realit


at ist diese, da es, das die Totalit
at ist, an einem Andern
ist, in dieses sind seine ideellen Momente.
. . . die Philosophie betrachtet die Idee, nicht die Idee von diesem und jenem; sie
ist kein dieses oder jenes f
ur sie, sondern schlechthin nur die Bestimmtheit nach
ihrer Notwendigkeit in Eine Idee, die die Totalit
at des Ganzen, zugleich in der
Realisation sich aufhebt. Das Ganze der Natur ist der als das Andre seiner selbst
sich darstellende Geist. . . . Die Natur als der absolute Geist, der sich Anderes ist, ist
vollkommener lebendiger Geist, nicht in idealen Momenten der Idee sich darstellend,
sondern die Idee, die sich in denMomenten ausdr
uckt. . . . [Der Geist] ist sich Geist,
als sich nicht als absoluter Geist erkennender Geist;absolute Selbstreflexion, welche
sich nicht diese absolute Selbstreflexion ist, welche nicht f
ur sich selbst die Einheit
eines gedoppelten sich selbst findenden Erkennens ist.
Und schlielich: Der Geist der Natur ist ein verborgener Geist, er tritt nicht in
Geistesgestalt hervor; er ist nur Geist f
ur den erkennenden Geist, oder er ist Geist
an ihm selbst, aber nicht f
ur sich selbst.

So geht es weiter; auch in Kapitel I. System der Sonne, heit es zunachst Der absolute
Geist mu sich als absoluten Geist selbst erkennen; er mu, da er als lebendiger Gott sei,
sich als absoluter Geist ein Anderes werden und sich in diesem finden . . .. Etwas weiter
findet man Feststellungen u
ber den absoluten Grund und [das] Wesen aller Dinge, [es] ist

der Ather
oder die absolute Materie, das absolut Elastische, jede Form Verschmahende,
so wie eben darum das absolut Weiche und jede Form sich gebende aus Ausdr
uckende.
Aber es geht nicht nur um das Absolute, sondern immanent macht Hegel Gebrauch von
dem, was als (hegelsche) Dialektik gelten kann. So geht es u.a. um den Raum (p. 208):
Die Dimension im Raum u
anken des Raumes, in dem sie
berhaupt oder das Beschr
nicht f
ur sich selbst oder indem sie schlechthin unendlich ist, ist in der Tat nicht
ein Beschr
anken des Raumes; es ist schlechthin nur gesetzt in Beziehung auf den
Raum selbst, selbst ein Aufgehobensein des Beschr
ankens. Es ist also vielmehr das
Gegenteil seiner selbst, das Aufheben seiner selbst . . . Als Abstraktion des Raumbeschr
ankens ist es zweite Dimension u
berhaupt; aber sie [ist] gesetzt als das, wie
sie geworden ist, als sich auf das unbestimmte Beschr
anken des Raumes beziehende
Beschr
anken ist es nicht Dimension u
an berhaupt, sondern ein Ganzes des Beschr
kens, das Gegenteil eines Gegenteils, und ist oder erscheint in der Tat als das erste
Beschr
anktsein des Raumes, als Fl
ache.

Hegel stellt auch grundsatzliche Betrachtungen zur Mechanik an. Zum Wurf findet er:
Die Verdoppelung des Punkts im Wurfe ist ein Zur
uckgehen desselben in ihn selbst;
es als dieser zur
uckgegangen, nur Ein Punkt, Mittelpunkt der Bewegung. Er wei,
dass Die Pendelbewegung geht durch ihr Wesen in Ruhe u
ber. . . . die Pendelbewegung hat das Allgemeine nur, sondern der Einzelheit; denn die Pendelbewegung
hat das Allgemeine, die Schwere als Masse an ihr, als einzelnes gegen
uber, die
Masse ist selbst Punkt gegen sie. Aber dieses Erscheinen des Aufhebens der Bewe
gung durch ein Aueres
ist absolut an ihr selbst, indem sie schlechthin innerhalb
der Schwere ist oder ihr Allgemeines, die sich selbst aufhebende Bewegung.

Und was ist mit dem Hebel?


Der Hebel ist einzelner K
orper oder K
orper u
berhaupt; er ist Masse, die aufgehobene
Bewegung als sich selbst gleich, oder er ist schwer; denn im Wurfe ist er von der
Masse selbst genommen.

So geht es weiter, u
ussigkeit, es sei aber nun genug an
ber die Erde, das Feuer, die Fl
Illustration hegelscher Gedanken, einem Kulminationspunkt des Deutschen Idealismus.
121

6.3

Hegelsche Dialektik

Die Dialektik hat ihre Wurzeln in der griechischen Antike; Bobzien (2004) liefert einen

Uberblick.
Das Wort Dialektik geht dementsprechend auf das griechische dialegein zur
uck, das mit argumentieren u
bersetzt werden kann (Audi, 1999). Bei Platon steht die
Dialektik f
ur die Entwicklung eines Arguments durch einen Wechsel von Frage und Antwort, wahrend bei Aristoteles die Dialektik eine Argumentation bezeichnet, mit der eine
bestimmte Aussage bestatigt werden sollte. Aristoteles nennt Zenon als Erfinder der Dialektik, vermutlich wegen des Zenonschen Paradoxes, demzufolge Achilles die Schildkrote
nicht u
berholen kann und es keine Vielfalt gibt.
Die zugrundeliegenden Pramissen akzeptiert man, wird dann aber zu einer Schlufolgerung gef
uhrt, die eben diesen Pramissen widersprechen. In der mittelalterlichen Scholastik bezog sich der Ausdruck auf formalisierte Disputationen, und bei Kant (Kritik der
reinen Vernunft) bedeutet die antike Dialektik die Logik der Illusion. Er f
uhrt dann die
Transzendentale Dialektik ein, u
ber die er seine Antinomien diskutiert (vergl. Wissenschaftstheorie II). Diese Antinomien sollen die Grenzen der reinen Vernunft und damit
die Problematik metaphysischer Spekulationen illustrieren.
Nach Hegel ist die Dialektik eine geistige Bewegung, die sich auf das Ganze, das
Absolute zubewegt. Es existiert aber keine scharfe Definition dessen, was das Ganze ist.
Wie dem obigen Zitat zu entnehmen ist, gilt nach Hegel Das Geistige allein ist das
Wirkliche, und an anderer Stelle schreibt er, dass das Wirkliche das Vern
unftige ist
(Hegel, 1821). Es liegt nahe, den Ursprung des hegelschen Denkens in der Mystik zu
suchen; in der Tat ist nach Hirschberger ist die hegelsche Dialektik eine
. . . Erneuerung des Heraklitismus mit seiner Lehre von den Gegens
atzen und dem
Flu der Dinge. Den Seelen ist es Tod, zu Wasser zu werden, dem Wasser aber
Tod, zu Erde zu werden, aus Erde aber Wasser wird, aus Wasser aber Seele. Hegel
hat selbst gemerkt, dass es keinen Satz Heraklits g
abe, den er nicht in seine Logik
aufgenommen h
atte. Und wie bei Heraklit das Werden nicht formlos und in lauter
Einmaligkeit verstr
omt, sondern begleitet wird vom Logos, nach dessen Maen es
sich enz
undet und wieder erlischt, und es gerade die Gegens
atze sind, an denen die
begriffliche Ordnung sichtbar wird, so wird auch die hegelsche Dialektik zu einer
Geschichte der Begriffe, der Idee, des Geistes; denn der Dreischritt ist nicht nur das
voranschreitende Werden, sondern in Thesis, Antithesis und Synthesis scheinen die
Formen auf, in denen der Proze sein Sein besitzt.
Hirschberger, J.: Geschichte der Philosophie, Band II, WBG, Freiburg, 1980, p. 413

Nach Hirschberger hat Hegel mit einzigartiger Meisterschaft die dialektische Methode
auf allen Gebieten des philosophischen Wissens gehandhabt; der Leser dieses Skriptums
kann sich in Abschnitt 6.2, Seite 119 oben, noch einmal dieser Meisterschaft versichern.
Ein Philosoph mit einem distanzierten Verhaltnis zur Mystik wird die so erlauterte Dialektik wohl bestensfalls als nicht notwendig sinnstiftende Metaphorik sehen. Dies lat
eine detailliertere Erlauterung der hegelschen Dialektik als sinnvoll erscheinen.
Das Prinzip der Dialektik bei Hegel wird in seiner Wissenschaft der Logik ausgef
uhrt.
Die hegelsche Logik korrespondiert nicht zu dem, was heute Logik, insbesondere die formale Logik, bedeutet; auf diese wird spater noch eingegangen. Die hegelsche Logik ist im
Kern eine Form von Ontologie, also eine Seinslehre, und damit Metaphysik. Das Allgemeinste, was sich von einem sinnlich wahrnehmbaren Objekt oder Ding aussagen lat,
ist, dass es eben ist, sein Sein. Wegen seiner Allgemeinheit ist dieser Begriff gleichzeitig
leer, und damit ist er ein Begriff von nichts (Rod II, 2000, p. 257)83 . Also gilt einerseits,
83 R
od,

W.:Der Weg der Philosophie, II, M


unchen 2000

122

dass das Sein das Sein ist, und gleichzeitig ist das Sein das Nichts. Dieser offenkundige
Widerspruch mu aufgehoben werden. Die Aufhebung geschieht u
uhrung des
ber die Einf
Begriffs des Werdens: eine Knospe ist nicht die Bl
ute ist nicht die Knospe, aber die Knospe
wird zur Bl
ute. Nun braucht man, um einen solchen Prozess zu beschreiben, aber nicht
die hegelsche Dialektik. Tatsachlich postuliert Hegel mehr: jedes Pradikat, das einem
Objekt zukommt und insofern die Wirklichkeit mitbestimmt, sei in sich widerspr
uchlich.
Bertrand Russell (Russell, 1971, p. 702) illustriert dieses Postulat anhand der Theorie
des Parmenides, demzufolge das Eine (the One), das alleine wirklich ist, kugelformig sei.
Die Kugelformigkeit impliziert aber die Existenz einer Begrenzung, und Begrenzung impliziert, dass auerhalb der Kugel etwas anderes, z.B. leerer Raum ist. Die These, dass
das Universum insgesamt kugelformig ist, reprasentiert also einen Widerspruch in sich.
Die Aufgabe des Denkens ist nun, einen Begriff oder eine Kategorie zu finden, in der dieser Widerspruch aufgehoben wird. Gleichwohl zeige sich dann, dass dieser neue Begriff
ebenfalls in sich widerspruchsvoll ist und damit nach einer weiteren Kategorie verlangt,
in der dieser Widerspruch wiederum aufgehoben wird. Redding (2006) verweist darauf,
dass diese Methode der determinierten Negation sich aus der Art und Weise, in der
Hegel die Aristotelische Logik implementiert, ergibt. In dieser Logik ist die Negation eine
Relation zwischen Termen gleichen Typs: rot ist ein sinnvolles Pradikat nur dann, wenn
es in Kontrast zu anderen Farbtermen wie blau, gelb, etc. gesehen wird. In der neuen (formalen) Logik wie etwa der von Frege84 entwickelten klassischen Pradikatenlogik
bezieht sich die Negation dagegen auf Aussagen (Propositionen). Hegel nimmt also an,
dass sich die Kategorische Infrastruktur des Denkens (Redding) gewissermaen entfalten lat, indem man nur von den Moglichkeiten, die man beim Denken schon vorfindet,
Gebrauch macht. Er mu nur die Inhalte die aufhebenden Kategorien bestimmen und
darauf achten, dass das System insgesamt nicht inkonsistent wird. Die hegelsche Logik
ist damit nicht formal, sondern eher transzendental 85 , weil sie eben auf die Bedingungen
von Moglichkeiten zielt. In der formalen Logik wird nur die Form der logischen Bewegung
betrachtet, unabhangig vom jeweiligen Inhalt der Aussagen. Die transzendentale Logik
dagegen diskutiert das Denken stets in Bezug auf einen Inhalt und reprasentiert insofern
eine Art von Ontologie. Auf diese Weise wird die Welt nicht in Gedanken repr
asentiert,
sondern die Welt wird in den Gedanken manifestiert. Nach Ansicht einiger Hegelianer ist
die transzendentale Logik Hegels der formalen Logik tatsachlich vorgeordnet.
. . . Totalit
at [ist] [k]eine Klasse, die sich umfangslogisch bestimmen liee, durch ein
Zusammennehmen aller unter ihr befaten Elemente. Insofern f
allt der dialektische
Begriff des Ganzen nicht unter die berechtigte Kritik an den logischen Grundlagen
jener Gestalttheorien, die auf ihremGebiete Untersuchungen nach den formalen Regeln analytischer Kunst u
berhaupt perhorreszieren; und u
berschreitet dabei doch
die Grenzen formaler Logik, in deren Schattenreich Dialektik selber nicht anders
erscheinen kann denn als Schim
are.
(Habermas, J.: Analytische Wissenschaftsthorie und Dialektik. In: Adorno, T. W.,
Albert, H., Dahrendorf, R.: Der Positivismusstreit in der deutschen Soziologie. M
unchen 1993)
Nach Adorno l
at sich Dialektik dann auch nicht definieren:
Da die Dialektik keine von ihrem Gegenstand unabh
angige Methode ist, verhindert ihrer Darstellung als ein F
ur sich, wie das deduktive System sie gestattet. Dem
Kriterium der Definition willfahrt sie nicht, sie kritisiert es.
(Adorno, T. W.: Einleitung. In Adorno et al.: Der Positivismusstreit in der deutschen Soziologie. M
unchen 1993)
84 Frege

Begrisschrift, vergl. Wissenschaftstheorie IV


ist ein Denkweise oder Betrachtung, die sich auf die Bedingungen der M
oglichkeit
bezieht, also auf Bedingungen, die notwendigerweise erf
ullt sein m
ussen, damit z.B. ein Erkennen von
Etwas m
oglich ist.
85 transzendental

123

Die formale Logik ist nach Habermas also von vorn herein nur ein Schattenreich; Darstellungen der Dialektik mit den Mitteln der formalen Logik lassen die Dialektik eben
nur als Trugbild erscheinen. Aber die Dialektik sei nat
urlich keine Schimare, vielmehr sei
die formale Logik nachrangig. Dialektik kann demnach bestenfalls expliziert werden; wie
sie bei Hegel angewandt wird, wurde in Abschnitt 6.2 angedeutet. Andere Autoren sind
anderer Meinung als Adorno:
Die Meinung vieler Dialektiker, dialektisches Denken sei eine Methode, die Grenzen, die dem systematischen Denken durch die Logik gesetzt sind, zu u
berwinden,
ist falsch und beruht auf einer veralteten Auffassung der dialektischen Triade. Diese
wird dahingehend ausgelegt, als seien systematische Theorien, da sie, den Regeln der
Logik folgend, widerspruchsfrei sein m
ussen, nicht in der Lage, die Widerspr
uche
der Wirklichkeit zu erfassen. Deshalb sei das systematische Denken immer gespalten in sich befehdende, einandere widersprechende Theorien, die auf der Ebene von
These und Antithese verharren, w
ahrend das dialektische Denken in der Lage sei,
Widerspr
uche zu denken und damit in der Synthese zu vereinen. In solchen Vorstellungen dokumentiert sich nicht nur eine fundamentale Unkenntnis der Bedeutung
der Logik f
ur das Denken, sondern, dadurch ausgel
ost, ein ebenso schwerwiegendes
Miverstehen des rationalen Kerns aller Dialektik.
Simon-Sch
afer, R.: (1977) Analytische Wissenschaftstheorie und Dialektik, Erkenntnis ,11, 365-382, p. 369.

Hegel unterscheidet zwischen dem Wesen eines Dinges und seiner Erscheinung. Das
Wesen ist gewissermaen das der Erscheinung unterliegende Substrat bzw. die Substanz
des Dings; die Erscheinung ist das erscheinende Wesen (Rod, p. 258), die gemeinsam
die Wirklichkeit konstituieren. Die Relation zwischen dem Wesen und der Erscheinung
konstituiert sich in Begriffen, die bei Hegel nicht Begriffe etwa von Gegenstandsbereichen (Mobel, Pflanzenart, geometrische Figur, etc), sondern sie reprasentieren Aspekte
des Logos und bestimmen damit die Form des Denkens. Hegel unterscheidet zwischen
einer objektiven Logik und einer subjektiven Logik, in der die Beziehungen zwischen
konzeptuellen Relationen sich in Urteilen reflektieren. Ein Urteil hat, so Hegel, die Form
eines Syllogismus; die Syllogismen f
ullen sich dann mit Inhalten, die notwendig auch existieren. Redding verweist auf die mittelalterlich-scholastische Auffassung, nach der von
der Existenz eines Begriffs auf die Existenz dessen, was im Begriff reprasentiert wird,
geschlossen werden kann (so etwa im ber
uhmten ontologischen Gottesbeweis, in dem von
der Idee Gottes auf dessen Existenz geschlossen wird); dieser Auffassung hatte Kant in
seiner Kritik der Konzeptualisierung des Begriffs Existenz als Pradikat widersprochen.
F
ur Hegel liegen aber die Dinge anders. Das Geistige allein ist das Wirkliche, schreibt
er (siehe oben), und so entspricht den Begriffen auch immer ein Aspekt der Wirklichkeit.
Die von Hegel postulierte intrinsische Widerspr
uchlichkeit der Begriffe impliziert einen
speziellen Begriff der Negation, der einerseits f
ur die hegelsche Dialektik wesentlich, aber
durchaus nicht einfach zu fassen ist. Hegel zitiert Spinozas determinatio est negatio,
jede Bestimmung sei (ist) auch eine Verneinung. Den vorangegangenen Betrachtungen
zur Logik Hegels hat, f
ur Hegel, die Negation nicht nur eine formal begriffsdefinierende,
sondern dar
uber hinaus insbesondere auch ontologische Aspekte. Die Realitat ist selbstnegierend, was hier und jetzt ist, wird zu einem dort und dann, dies enth
ullt nach
Hegel den fundamental selbst-negierenden Charakter der Wirklichkeit. So kann Wachs
als kalt, wei und solide (fest) erscheinen, aber Wachs kann eben auch fl
ussig sein;
das Wachs ist also wesenhaft weder fest noch fl
ussig. Hier konstituiert sich wieder die
determinierende Negation, u
ber die man zum eigentlichen Substrat, dem Wesen, des
Wachses vordringt: das Denken wird zu diesem Wesen gelenkt. In diesem Zusammenhang
ist auch von der Selbstbewegung der Begriffe die Rede (Rod, p.259). Jedenfalls werden
die antithetischen Begriffe Sein und Nichtsein immer weiter dialektisch aufgehoben,
124

und jede Stufe dieses Prozesses tragt die vorangegangene gewissermaen in sich, und
keine Stufe wird vollstandig aufgehoben, es bleibt stets ein begrifflicher Rest, der den
Prozess weiter vorantreibt und der schlielich zum Ganzen f
uhrt, und dieses Ganze ist
dann die Wahrheit. Russel (1971, p. 704) charakterisiert in diesem Zusammenhang die in
Hegels Denken implizite Auffassung von Wahrheit und Irrtum, die f
ur viele Hegelianer
den Unterschied zwischen der hegelschen und der formalen Logik ausmacht: Wahrheit und
Irrtum sind nicht scharf definierte Gegensatze (sharply defined opposites), denn nichts
ist vollkommen wahr oder vollkommen falsch. Man kann etwas in einer falschen Weise
wissen, namlich dann, wenn man einer los- oder herausgelosten Information absolute
Wahrheit zuordnet (attribute absolute truth to some detached piece of information). Die
Frage Wo wurde Casar geboren? ist zwar leicht beantwortbar, aber wahr nur in einem
gewissen, nicht in einem philosophischen Sinn, denn die Wahrheit ist das Ganze und nicht
das Partielle (in diesem Falle der Geburtsort Casars). Die Logik endet dementsprechend
mit der Absoluten Idee, die sich selbst denkt, sie ist das reine Denken, das u
ber sich selbst
nachdenkt. So kommt es, dass nach Hegel die wahre Philosophie durch das Absolute
bestimmt wird, das im Philosophen wirkt, also denkt. Die (wahre) Philosophie ist somit
Offenbarung des Absoluten, Manifestation der absoluten Idee im endlichen Bewutsein,
in der wahren Philosophie manifestiert sich dann das Denken Gottes (Rod, p. 259).
Wir nahern uns hier dem Sinn der eingangs zitierten Aussage Das Wahre ist das Ganze.
Die separate Existenz einzelner Dinge ist eine Illusion, wirklich ist dann letztlich nur das
Eine, das Absolute, das aber als komplexes System oder als Organismus gedacht werden
m
usse86 .
Wie schon angedeutet, beginnt Hegel seine Betrachtungen u
ber die Dialektik mit einer
Diskussion des Seinsbegriffs, bei dem die Eigenart des hegelschen Begriffs der Negation
deutlich wird. Man gewinnt einen Eindruck, indem man einen Hegelianer selbst sein wohl
als geistiges Ringen zu bezeichnendes Bem
uhen um diese Eigenart illustrieren lat:
Mit der nunmehrigen Zweiheit der Kategorien ,Sein und ,Nichtsein ist eine neue
Konstellation expliziter Bestimmungen entstanden, die weiter die Frage nach der
Beziehung beider Bestimmungen impliziert. Zun
achst ist festzustellen, dass jede die
Negation der jeweils anderen ist. Das heit also, dass die Kategorie ,Sein die Kategorie ,Nichtsein nicht ist. Im Handumdrehen erweist sich die Kategorie ,Sein
damit selbst als ein Fall von ,Nichtsein. Sie bedeutet zwar ,Sein, ist aber genau
dadurch mit ,Nichtsein infiziert, dass sie die Bedeutung ,Nichtsein eben nicht ist.
Sie hat gleichsam die Eigenschaft des Nichtseins an sich und ist insofern ,nichtseinsartig. Freilich: Indem sie nichtseinsartig ist, kommt ihr insofern wiederum die
Eigenschaft des Seins zu; sie ist ,seinsartig. Dies wiederum ist nicht nichtseins86 Die hegelschen Texte scheinen zur Akzeptanz mystischer, wenn nicht gar irrationaler Denkweisen zu
motivieren:

Die Totalit
at ist nicht ein Ganzes durch absolute Harmonie ohne Gegens
atze - sondern gerade durch ihre Widerspr
uche. Diese Gegens
atze im richtigen Licht (der
Eigent
umlichkeit der Sache entsprechend) zu sehen, ist Aufgabe des dialektischen,
vern
unftigen Denkens, das u
ber den lediglich isolierenden, abstrahierenden Verstand
hinausgeht. Deshalb ist Dialektik nicht lediglich eine mehrwertige, mathematische
Logik, sondern geht u
aige Reflexion hinaus. (Aus: Annetber diese verstandesm
tes Philosophenst
ubchen, http://www.thur.de/philo/as141.htm; Kursivsetzung von
mir, U.M.)
Der Forderung, dass Gegens
atze im richtigen Licht gesehen werden m
ussen, wird man nicht widersprechen, nur fragt sich, was das richtige Licht ist. Den Verstand als lediglich isolierend, abstrahierend
zu charakterisieren, ist zun
achst nicht mehr als eine willk
urliche Behauptung, es ist doch m
oglich,
den Verstand als Mittel, Strukturen zwischen Assoziationen zu nden, zu sehen. Die Behauptung, dass
Dialektik u
aige Reektionen hinaus geht, dient lediglich der Mystikation der Dialekber verstandesm
tik, die doch ebenso gut als Strategie des Verstandes, f
ur Thesen Gegenthesen und Synthesen zu nden
beschrieben werden kann.

125

artig, sodass gerade hierdurch wieder die Eigenschaft des Nichtseins gegeben ist,
und so fort. Die Kategorie des Seins zeigt so abwechselnd die Eigenschaft des Seins
und des Nichtseins: Die Eigenschaft ,seinsartig schl
agt um in ,nichtseinsartig, und
,nichtseinsartig schl
agt in ,seinsartig um. In der Beziehung der Kategorie ,Sein zu
der ihr entgegengesetzten Kategorie ,Nichtsein wird damit eine merkw
urdige Ambivalenz hinsichtlich ihrer Eigenschaften sichtbar: Sie oszilliert gleichsam zwischen
,seinsartigund ,nichtseinsartig.
Wandschneider, D.: Letztbegr
undung unter der Bedingung endlichen Wissens. Eine
Hegelsche Prspektive. In: Kellerwessel, W., Cramm, W.-J., Krause, D., Kupfer,
H.-C. (Hrsg.): Diskurs und Reflektion. Wolfgang Kuhlmann zum 65. Geburtstag.
W
urzburg, 2005
(In diesem Artikel kommt er auf seien 93-Artikel zur
uck, ohne die Widerlegung von
Puntel zu zitieren....)

Die hegelsche Dialektik erschliet sich dem philosophisch Bem


uhten nicht auf Anhieb.
Die gangige Beschreibung der Dialektik als einer Denkbewegung, die von einer These zu
einer Gegen- bzw. Antithese u
bergeht und dann aus der These und der Antithese eine
Synthese erzeugt, wurde von Hegel in dieser Form nicht eingef
uhrt, sie geht vielmehr
auf den Philosophen Moritz Chalybaus (1837) (17961862) zur
uck (vergl. Audi (1999),
Eintrag u
ber Hegel). Es ergibt sich die Frage, ob die Dialektik zu tatsachlichen Einsichten oder nur in einen Zustand dunklen Ahnens f
uhrt. Vollig offen ist die Frage nach der
Eindeutigkeit des dialektischen Denkens: die Antithese soll nicht einfach nur die globale
Negation der These sein, aber wie ist denn die Form der Negation spezifiziert, die eine
Antithese als solche qualifiziert? Ist die Synthese eine eindeutige Implikation von These
und Antithese? Einem Dialektiker mogen solche Fragen als irrelevant erscheinen, da sie
offenbar an der gewohnlichen Logik orientiert sind. Wenn man aber nicht u
ber logi
sche Einsicht zum Wesen der Dialektik vordringen kann, so mu die Uberzeugung
von
der Richtigkeit der Dialektik wohl als voluntaristischer Glaubensakt verstanden werden.
Nur, warum soll man diesen Akt vollziehen? Es ist also kein Wunder, wenn Hegel immer
wieder kritisiert wird. Ein besonders scharfer Gegner erwuchs Hegel in Arthur Schopenhauer, der den Begriff der Hegelei pragte: die hegelsche Philosophie sei eigentlich gar
keine, sondern bloe Philosophasterei, Windbeutelei und Scharlatanerie; Hegel w
urde
die Kopfe durch beispiellos hohlen Wortkram von Grund aus und immer desorganisieren; an dem Unsinn, den dieser als Philosophie ausgebe, die deutsche Philosophie noch
immer leide und daher ebenso Unsinn produziere87. Es ist vollig unmoglich, hier einen
Abri der Diskussion um die hegelsche Philosophie zu geben, es sollen nur einige Argumente zur Bedeutung der hegelschen Dialektik vorgestellt werden, da diese Dialektik
in der Kritik der Philosophen der Frankfurter Schule an dem, was sie f
ur Positivismus
hielten bzw. halten, eine grundlegende Rolle spielt.

6.4
6.4.1

Kritik der hegelschen Dialektik


von Wrights und Simon-Sch
afers Kritik

Die hegelsche Dialektik scheint in der Philosophie der Gegenwart, insbesondere in der
Wisenschaftstheorie weniger eine zentrale als eine Sonderrolle zu spielen, was zu dem
Anspruch, mit dem die Dialektik zur Klarung der Welt antritt, kontrastiert. So geht
Stegm
uller88 nur in Zusammenhang mit Arbeiten des finnischen Philosophen von Wright
auf die Dialektik ein. Es soll darauf kurz eingegangen werden, von Wrights Deutung im
87 http://de.wikipedia.org/wiki/Hegelei. Leider wird nicht angegeben, in welcher Schrift Schopenhauer
diese Bemerkungen machte.
88 Stegm
uller, W.: Hauptstr
omungen der Gegenwartsphilosophie, Band II, Stuttgart 1987

126

Kern der von Simon-Schafer (1977) entspricht, und von Wright und Simon-Schafer ihre
Interpretationen offenbar unabhangig voneinander gefunden haben und in ihrer Kritik
an der Dialektik einander ahneln.
von Wright (vergl. Stegm
uller (1987), p. 142) geht von einer Interpretation der Dialektik aus, derzufolge diese das Prinzip der doppelten Negation leugnen und die Negation
der Negation zu etwas Neuem f
uhre, das von dem urspr
unglich Negiertem verschieden
sei. von Wright gibt dieser Vorstellung eine systemtheoretische Deutung: die negative
R
uckkopplung sei ja in einem gewissen Sinn eine Art doppelter Negation, denn in dynamischen Systemen kann ein bestimmter, primarer Effekt r
uckgekoppelt werden und
sich dadurch negativ (also negierend) auf die Erzeugung des primaren Effekts auswirken. Dieser negative Effekt kann eventuell wieder konterkariert werden, indem der
Primareffekt den storenden R
uckkopplungseffekt zu negieren sucht, so dass u. U. ein
Gleichgewichtszustand erreicht wird.
Das ist ein sehr gutwilliger Versuch, der Dialektik zumindest metaphorisch einen Sinn
zu geben. R
uckkopplungsprozesse lassen sich ohne R
uckgriff auf dialektische Formulierungen wesentlich effektiver beschreiben, und zwar mit formalen Mitteln, denen die Dialektik
angeblich vorgeordnet sei; von Wright argumentiert dementsprechend, dass die Dialektik
eine allgemeine Vorwegnahme von Ideen sei, die eben spater mit mathematischen Mitteln wesentlich eleganter ausgedr
uckt werden konnten. Allgemein sei an der Dialektik zu
kritisieren, dass logische Widerspr
uche, die ja nur zwischen Satzen bzw. Propositionen
existieren konnen, mit realen Gegensatzen verwechselt w
urden. Man konne aber Hegel zugutehalten, dass diese Verwechslung nicht unbewut sprich aufgrund ungenauen
Denkens sondern bewut nach einer vorangegangenen Spiritualisierung der Realitat
vorgenommen wurde, denn Welt und Geist werden bei Hegel im Prinzip gleichgesetzt89 .
Stegm
uller fragt weiter, ob es wirklich notig sei, Widerspr
uche im hegelschen Sinn mit
realen Gegensatzen gleichzusetzen. So seien die Mitglieder einer Gesellschaft stets mit
einander widersprechenden Normen konfrontiert, und dar
uber hinaus bestehe ein Widerspruch zwischen der Realitat und idealer Welt. Stegm
uller illustriert diese Aussage
anhand eines Kindes, das in der Schule lernt, dass es die Ethik der Bergpredigt befolgen
soll, und gleichzeitig soll es sich wie ein normaler Mensch verhalten, und damit diese
Ethik eben nicht befolgen soll. W
urde das Kind nun nach der Bergpredigt leben wollen,
w
urde es wohl in der Kinderpsychiatrie landen, wo man pr
ufen w
urde, ob es nur an einer
Neurose oder schon an einer Psychose leide. Stegm
uller merkt an, dass es sich hier um
deontische Widerspr
uche90 handelt. Denn die Widerspr
uche reflektieren entweder Inkompatibilitaten zwischen moglichen Welten, d.h. voneinander abweichenden Normsystemen,
die in sich deontisch perfekt sind, oder um Widerspr
uche zwischen der wirklilchen Welt
und einer deontisch perfekten Welt. Versuche, diese Widerspr
uche aufzuheben, konnen
als Synthese aufgefasst werden, werden aber neue deontische Widerspr
uche implizieren.
Personen in einer Gesellschaft m
ussen immer mit derartigen Widerspr
uchen leben, zumal wirkliche Welten und deontisch perfekte Welten nie zusammenfallen. Hegel hat diese
Art von Widerspr
uchen und ihre Auflosungen nicht betrachtet, und Stegm
uller hat eine
Vermutung, warum Hegel dies nicht tat: Hegel sei Pantheist gewesen. Denn Pantheisten
konnen nicht zugeben, dass deontische Welten existieren konnten, die besser als die reale
Welt sind, das Wirkliche ist ja bereits das Vern
unftige.
Simon-Schafer (1977)91 interpretiert die Dialektik in Kontrast zu der oben zitierten
Auffassung von Habermas; seiner Ansicht nach sind Dialektik und (formale) Logik miteinander kompatibel. Simon-Schafer betrachtet die Entwicklung der Wissenschaften und
geht von der Popperschen Falsifikationstheorie aus. So werde versucht, in Falsifikations89 Patzig.

G.: Hegels Dialektik und Lukasiewiczs dreiwertige Logik.


Deontik ist die Logik der Aussagen vom Sollen.
91 Simon-Sch
afer, R.: Analytische Wissenschaftstheorie und Dialektik. Erkenntnis ,11, 365-382
90 Die

127

versuchen die Grenzen einer Theorie zu bestimmen; diese liefern dann den Ausgangspunkt

f
ur neue Uberlegungen.
Die Newtonsche Physik sei problematisiert worden, als experimentelle Ergebnisse wie die Endlichkeit der Lichtgeschwindigkeit, die in Widerspruch zur
Newtonschen Physik stehen, diese in der Relativitatstheorie aufheben. Der problematische Begriff der Negation in der hegelschen Dialektik erfahrt bei Simon-Schafer eine
einfache Interpretation: die Negation reflektiert das, was eine gegebene Theorie die
These nicht erfasst, und in einer alternativen Theorie, die ja das, was die alte Theorie erklart, ebenfalls erklaren mu, findet das nicht Erklarte eben eine Deutung. Aber
ebenso wie die alte, hat auch die neue Theorie Defizite, und die Theorienbildung geht
weiter. Simon-Schafer elaboriert diese dialektische Interpretation der wissenschaftlichen
Entwicklung und stellt fest, dass es nat
urlich keine Regel gibt, nach der eben dialektisch
f
ur eine gegebene Theorie die Alternativtheorie, also die Antithese und die zugehorige
Synthese gefunden werden konne; diese Regel konne es auch nicht geben, da man das
Wissen von morgen ja noch nicht kenne. Dies ist nat
urlich auch Poppers Ansicht (s. un
ten); im Ubrigen
spielt bei dieser Interpretation die Dialektik wohl nur die Rolle einer
Beschreibung und weniger die eines immanenten Prozesses.
Wenn es allerdings um Widerspr
uche der Wirklichkeit ginge, so Simon-Schafer, die
keine logischen Widerspr
uche seien und die eine dialektische Bewegung der Objekte
ausl
osen, dann sei die Situation eine vollig andere als die bei der Betrachtung der Dynamik der Entwicklung von Theorien. Zwischen den Objekten, f
ur die eine dialektische
Wechselwirkung ausgemacht werden konne, m
ussen interagierenden Faktoren spezifiert
werden. Nach Simon-Schafer lassen sich diese Wechselwirkungen als R
uckkopplungsmechanismen spezifizieren.
Die Struktur von R
uckkopplungsmechanismen wird in der allgemeinen Theorie dynamischer Systeme diskutiert, diese Theorie ist dann also dann die eigentliche Theorie, die von Dialektikern in ihrer Sprache beschrieben wird. Viele Prozesse, deren Beschreibung in der Sprache der Dialektik vollig ad hoc wirkt, erfahren im Rahmen der
Theorie der dynamischen Systeme ihre systematische Aufhellung. Es lassen sich Bedingungen angeben, unter denen ein System stabil oder instabil ist oder unter denen es in
eine sich zyklisch wiederholende Zustandsanderung u
bergeht (Grenzzyklen). Zumindest
im Prinzip sind diese Prozesse mathematisch beschreibbar. Einem genuinen Dialektiker wird diese Interpretation dialektisch anmutender Prozesse aber nicht gefallen, weil
sie die Dialektik eigentlich u
ussig macht und nicht mehr den Kern reflexierender
berfl
Bem
uhungen vor der formalisierten Logik reprasentiert. Andererseits ist es nun f
ur die
Gegner der Dialektik leicht, diese als vollig u
ussig zu betrachten. Tatsachlich hat
berfl
Topitsch (1960) versucht, die wissenschaftliche Wertlosigkeit der Dialektik nachzuweisen:
das Thesis-Antithesis-Synthesis Schema ergebe sich aus mythischen Quellen, in denen
zun
achst ein vollkommener Anfangszustand der Welt postuliert w
urde, der dann aber
durch einen S
undenfall gestort werde. Diese Storung impliziere dann einen mit Schuld
und Leid angereicherten zwietrachtigen Zustand, der aber am Ende durch einen Akt der
Erlosung aufgehoben w
urde. Die Storung ist die immanente Negation, von der Hegel
spricht oder zu sprechen sich bem
uht, und die Synthese, also die Erlosung, ist die Negation der Negation. Damit wird ein Modell geliefert, das die Gesamtheit der Ereignisse
zu interpretieren gestattet, das aber historisch nie widerlegt werden kann. Denn jedes
Ereignis kann letztlich heilsgeschichtlich gedeutet werden.
So scheint es, dass die Frage, ob es eine spezifisch dialektische Methode gibt, mit Nein
beantwortet werden mu. Die Dialektik erscheint einfach als eine Art von Beschreibung
zu sein, deren Terminologie den ontologischen Anspruch der Dialektik suggeriert, ohne
diesen Anspruch einlosen zu konnen. Wenn R
uckkopplungsmechanismen den eigentlichen Hintergrund f
ur die dialektische Phanomenologie darstellen, ist die Dialektik als
eigenstandiger Interpretationsmodus u
ussig. Diese Vermutung wird in vielen Kri berfl
128

tiken substantiiert. Einige der Kritiken Russells, Poppers und Puntels werden im
Folgenden vorgestellt.
6.4.2

Russels Kritik

Russels Kritik (in Russel (1971), p. 714) an Hegel richtet sich, wie er schreibt, gegen
alle holistischen (Das Ganze ist das Wahre) Philosophien92 . Er betrachtet dazu die
Aussage John ist der Vater von James. Holisten einschlielich Hegel w
urden bei dieser
Aussage nun erklaren, dass diese Aussage nur dann verstandlich sei, wenn man wisse, wer
John und James sind. Um John zu kennen, m
usse man aber alle seine Charakteristika
kennen, da er sonst nicht von anderen Personen unterschieden werden konne. Zu diesen
Charakteristika gehoren aber auch Johns Beziehungen z.B. zu seinen Familienmitgliedern,
von denen man wiederum alle Charakteristika kennen m
usse, etc. Schlielich m
usse man
das ganze Universum kennen, um John zu kennen. Die Aussage u
ber John und James
f
ur den die gleichen Betrachtungen gelten ist am Ende eine Aussage u
ber das ganze
Universum, und nicht nur u
ber John und James. Weiter stelle sich die Frage nach dem
Anfang des Wissens: man kenne zwar viele Personen A und B, f
ur die die Aussage A
ist Vater von B gilt, aber das ganze Universum kennt keiner, und ware jede Erkenntnis
auch Erkenntnis vom Universum als Ganzem, so gabe es gar keine Erkenntnis. Nat
urlich
ist dies sinnlos. Russell fasst die These Hegels zum Absoluten so zusammen: um John
zu charakterisieren, m
ussen wir alles auff
uhren, das auf John zutrifft. Damit kommt
das Wort John in dem Satz vor, der John definiert, die Definition von John wird
bzw. ist also zirkular. Demnach kann es kein Wort geben, dessen Bedeutung den Anfang
einer Betrachtung konstituieren w
urde, denn um die Bedeutung dieses Wortes kennen zu
konnen, m
ussen die Bedeutungen aller anderen Worte bereits bekannt sein.
Nun ist evident, dass man nicht alle Merkmale von John kennen mu, um ihn identifizieren und Satze u
ussen Merkmale verschie ber ihn verstehen zu konnen. Tatsachlich m
denen Typs gekennzeichnet werden. Merkmale, die keine anderen Personen oder Dinge
einbeziehen, sollen Qualit
aten heien. Solche Merkmale, die andere Personen oder Dinge
einbeziehen, wie etwa: ist verheiratet, oder ist Schwiegersohn, heien Relationen. Generell gilt nun, dass eine Person oder ein Ding, die oder das eine bestimmte Menge von
Merkmalen aufweist, ist durch diese Menge charakterisiert, sofern keine andere Person
oder kein anderes Dings genau diese Menge ebenfalls aufweist. Diese Menge umfat nicht
die Charakterisierung des gesamten Universums. Aus den speziellen Merkmalen, die als
Qualtitaten definiert sind, lat sich mit den Mitteln der Logik entgegen dem Postulat
Hegels allein nichts u
ber die relationalen Merkmale deduzieren. Die hegelsche Dialektik
wird von Russell also nicht direkt kritisiert. Russell kritisiert die Dialektik implizit, indem
er die zugrundeliegende Idee das Wahre ist das Ganze kritisiert.
Zu Beginn des Kapitels93 u
ber Hegel konstatiert Russell, Hegels philosophy is very
difficult he is, I should say, the hardest to understand of all the great philosophers.
Am Ende des Kapitels nennt er das im vorangegangenen Absatz diskutierte Postulat
Das Ganze ist das Wahre einen Fehler, auf dem das gesamte imposanten Denkgebaude
Hegels beruhe. Immerhin, Russell nennt Hegel einen groen Philosophen und stellt fest,
dass, je schlechter die Logik sei, desto interessanter die Konsequenzen, also die resultierende Philosophie, seien. Hegelianer scheint diese Kritik nicht zu beeindrucken; speziell
auf Adornos Reaktion wird spater noch zur
uckgekommen.
92 Er bezieht sich hier auf den philosophierenden Field-Marshal J.C. Smuts, der den Begri holism
einf
uhrte.
93 In History of Western Philosophy

129

6.4.3

Poppers Kritik

Wahrend der Begriff der Dialektik intuitiv einen Sinn als Metapher ergeben mag, verstort die Behauptung, sie sei der Logik vorgeordnet oder gehe u
ber die verstandesmaige
Reflexion hinaus. Popper (1937/1940) beginnt seine Kritik mit einer Darstellung seiner
Vorstellung u
ber den wissenschaftlichen Prozess. Er stellt ihn dar als Anwendung einer
Trial-and-error-Methode, mit der eine bestehende Theorie getestet wird. Nun werden
aber in der Synthesis die Thesis und die Antithesis aufgehoben. In einer anscheindend
widerlegten Theorie konne man aber, so die Dialektiker, immer ein Element finden, das
beizubehalten sich lohnt, sonst ware ja die Theorie wohl gar nicht erst aufgestellt worden.
Dieses Element wird dann in der Synthese enthalten sein, und insofern wird die These
(oder die Antithese) in der Synthese aufgehoben. Ein Beispiel ist die Korpuskulartheorie
einerseits und die Wellentheorie des Lichts andererseits. Aber was ist hier die Synthese?
Popper macht auf den metaphorischen Gebrauch von Ausdr
ucken zur Erlauterung
der Dialektik aufmerksam, wie sie von Dialektikern verwendet werden. So wird gesagt,
dass eine These die zugehorige Antithese hervorbringe, und beide These und Antithese bringen dann die Synthese hevor. Eine Frage ist, ob es f
ur eine gegebene These
nur eine Antithese gibt, und ob die Synthese eenfalls eindeutig bestimmt ist. Der Begriff
einer konsistenten Theorie steht dann schon in Widerspruch zum dialektischen Ansatz,
denn Widerspr
uche treten diesem Ansatz entsprechend u
berall auf. Dies bedeutet dann
unmittelbar, dass auch die Theorie der Dialektik widerspruchsvoll, also inkonsistent ist.
Damit hebt die Dialektik das Gesetz vom Ausgeschlossenen Widerspruch auf, das der
traditionellen Logik zugrunde liegt. Nach diesem Gesetz konnen eine Aussage p (etwa
p: Es regnet) und p (nicht p, also p: Es regnet nicht) nicht zugleich wahr sein; die
Konjunktion p p ( steht f
ur und) ist also falsch. Die Aufgabe der traditionellen
Gesetze soll nun, nachVorstellung der Dialektiker, zu einer neuen Logik f
uhren. Hegel
selbst auert sich in dieser direkten Form, und so mag ein Dialektiker aus den hegelschen Formulierungen eine andere Interpretation destillieren, es bleibt aber i.a. bei der
Ablehnung der formalen Logik als Modell f
ur die Logik schlechthin. Popper argumentiert
nun, dass das Dulden von Widerspr
uchen sofort zu einem Stillstand der Wissenschaft
f
uhren m
usse, denn es gebe dann ja keine Notwendigkeit, eine Theorie zu andern oder
ganz zu verwerfen, wenn sie in Widerspruch zu Daten steht. Nun wird der Dialektiker
aber sagen, dass er die Widerspr
uche ja nicht eigentlich dulde, er hebe sie in seinen
Thesis-Antithesis-Synthesis-Dreischritten ja auf. Das Problem ist nur, dass die Synthese ja ebenfalls wieder als These fungiert, die ihre Negation und also einen Widerspruch
in sich tragt, der zu weiterer Auflosung bzw. Aufhebung drangt. Tatsachlich zeigt sich
hier ein infiniter Regress an, der von Puntel (1996) zu einem Kritikpunkt der Dialektik
gemacht wird, worauf weiter unten noch explizit eingegangen wird.
Es ist aber gleichzeitig klar, dass die Argumente f
ur die Dialektik selber als logisch
empfunden werden sollen. In der Tat versucht Popper, aus diesem Sachverhalt die Sinnlosigkeit der Dialektik nachzuweisen. Denn das logische Schlieen mit dem ja auch
die Dialektik begr
undet werden soll vollziehe sich gema bestimmter Schluregeln. Die
Anwendung der Schluregeln zur Begr
undung der Dialektik sei aber falsch. Nun ist eine
Schluregel g
ultig, wenn sie niemals von wahren Pramissen zu falschen Schlufolgerungen f
uhrt. Popper betrachtet nun zwei Aussagen, p: Sokrates ist klug und q: Peter ist
Konig. Diese beiden Aussagen konnen als Komponenten zusammengesetzter Aussagen
etwa der Form pq, also Sokrates ist klug und Peter ist Konig, oder pq, d.h. Sokrates
ist klug oder Peter ist Konig, dienen. Die Aussage p q ist wahr, wenn mindestens eine
der beiden Aussagen p oder q wahr ist, nur, wenn beide Aussagen falsch sind, ist die
Aussage p q auch falsch. Dies lat sich aber so formulieren:
(A) Aus einer Aussage p kann der Schluss p q abgeleitet werden.
130

Denn p q ist wahr, wenn p wahr ist, unabhangig davon, ob nun q wahr ist oder nicht.
Geht man also von der Pramise p: Sokrates ist klug aus, so kann man Sokrates ist klug
oder Peter ist Konig folgern. Formal und damit k
urzer kann man dies in der Form
ppq
anschreiben.
Die Negation von p werde wieder mit p (nicht-p) bezeichnet. Die zweite, von Popper
betrachtete Schluregel lautet nun
(B) Aus p und p q folgt q, d.h.
p q q
Dies sofort einleuchtend: damit p q wahr ist, mu mindestens eine der beiden Aussagen
p, q wahr sein. Nun soll p gelten. Damit p q wahr sein soll, mu jetzt q gelten. Nehmen
wir also einerseits an, Sokrates sei nicht klug, und andererseits soll Sokrates ist klug
oder Peter ist Konig gelten, so sind wir gezwungen, die Aussage Peter ist Konig als
wahr zu akzeptieren.

Beim Ubergang
von der Aussage, p ist wahr, zu der Aussage, dass nun p falsch sein
mu, hat man aber das Gesetz vom Widerspruch implizit verwendet, denn p und p
konnen nich tbeide wahr sein. Popper versucht nun, zu zeigen, dass man aus einem Paar
widerspr
uchlicher Aussagen jeden beliebigen Schlu ziehen kann. Wenn dieser Nachweis
korrekt ist, ware ein starkes Argument gegen die Dialektik, denn wenn die Synthese
letzlich eine beliebige Aussage ist, kann sie von keinem theoretischen Wert sein.
Gegeben seien nun also zwei sich widersprechende Pramissen:
(a) Die Sonne scheint jetzt.
(b) Die Sonne scheint jetzt nicht.
Daraus kann, so Popper, die Aussage Casar war ein Verrater abgeleitet werden. Dann
nach der Schluregel (A) folgt zunachst
(c) Die Sonne scheint jetzt Casar war ein Verrater.
Nun kann man (b) und (c) als Pr
amissen einf
uhren:
(b) Die Sonne scheint jetzt nicht.
(d) Casar war ein Verrater.
Die Anwendung der Regel (B) liefert jetzt die Schlufolgerung
(e) Casar war ein Verrater.
Auf die gleiche Weise kann man aber auch die Aussage Casar war kein Verraterableiten.
Man kann auch, so Popper, die Aussage 2 + 2 = 5 oder 2 + 2 6= 5 ableiten; eine
widerspr
uchliche Theorie also eine Theorie, die analog zu den Aussagen (a) und (b)
widerspr
uchliche Aussagen enthalt impliziert beliebige Aussagen und ist deshalb vollig
nutzlos.
Popper f
uhrt noch eine weitere Schluregel ein, die er selbst als ungewohnlich bezeichnet:
131

(C) Es seien p und q beliebige Pramissen; aus pq folgt dann p, also pq p.


Wie Popper selber anf
uhrt, ist diese Regel nicht unumstritten, so soll u.a. G.E. Moore
sie bestritten haben. Sie ist aber durchaus plausibel: da p q dann und nur dann wahr
ist, wenn sowohl p als auch q wahr sind, wird man von der vorausgesetzten G
ultigkeit
von p q auf die G
ultigkeit von p schlieen konnen. Weiter wird die folgende Schluregel
eingef
uhrt:
(D) Ist a b c ein g
ultiger Schlu, so ist auch a c b ein g
ultiger
Schlu.
Die Regel werde zunachst an einem Beispiel erlautert. Gegeben seien die Pramissen (a)
Alle Menschen sind sterblich, (b) Alle Athener sind Menschen. Dann folgt (c) Alle Athener
sind sterblich. Sicher ist also Aus (a) und (b) folgt (c) ein g
ultiger Schlu. c bedeutet
nun Nicht alle Athener sind sterblich. Betrachtet man nun die Pramissen
(a) Alle Menschen sind sterblich,
( c) Nicht alle Athener sind sterblich.
so folgt Nicht Alle Athener sind Menschen, oder Einige Athener sind nicht-Menschen.
Dieser Schlu entspricht der Regel (D). Eine Variation der Schluregel (D) ist die Regel
(E) Ist a b c ein g
ultiger Schlu, so ist a c b ebenfalls ein g
ultiger
Schlu.
(E) lat sich aus (D) durch Anwendung der doppelten Negation b = b herleiten. Denn
substituiert man in (D) b f
ur b, so erhalt man a b c, also a c b, es folgt
also b. Akzeptiert man nun die Schluregel (E) f
ur alle Aussagen a, b und c, so mu sie,
so Popper, auch f
ur den Fall c = a gelten, d.h. man erhalt die Schluregel
(F) Wenn a b a ein g
ultiger Schlu ist, so ist auch a a b ein
g
ultiger Schlu.
Aus der Regel (C) folgt aber, dass a b a ein korrekter Schlu ist. Aus (E) und (C)
folgt also
(G) a a b ist ein g
ultiger Schlu, welche Aussage b auch immer ist.
Aus einem Paar sich widersprechender Pramissen (a und a) kann also jede beliebige
Aussage b hergeleitet werden.
Zusammenfassung: Ziel der Betrachtungen war der Nachweis der G
ultigkeit von (G). Diese Aussage ergibt sich aus g
ultigen Schluregeln. Das heit
aber, dass die Dialektik, die von Thesis und Antithesis zu einer Synthesis fortschreiten will, nicht eindeutig und insofern eben beliebig ist: die Aussage b in
(G), die ja der Synthese entspricht, darf beliebig sein, ohne dass ein logischer
Regelverstoss registriert werden k
onnte.
Bedenkt man, dass die Dialektik ja auch als deduktives System gelten soll (die positivistische Empirie f
uhrt ja nach Ansicht f
uhrender Theoretiker der Frankfurter Schule zu
keinen wesentlichen Einsichten), so ergibt sich sofort die Frage nach einer Kontrolle der
dialektischen Deduktionen.
132

Die stillschweigende Voraussetzung in Poppers Herleitung von (G) liegt in dem Postulat, dass die Negation, die ja nach Hegel in jeder These a liegt, in der Form a
angeschrieben werden kann. Ein u
berzeugter Dialektiker wird argumentieren, dass die

Gleichetzung von a mit der Antithese eine ungerechtfertige Aquivokation


der formallogischen Art sei, so habe Hegel das nicht gemeint. Die Frage ist allerdings, was er denn
mit der Negation gemeint hat.
Ein zweiter Einwand kann darin bestehen, dass offenkundig unsinnige Aussagen wie z.
B. 2 + 2 = 5 von keinem vern
unftigen Menschen je gefolgert werden; Klowski (1973) hat
auf diesen Sachverhalt hingewiesen. Das ist sicherlich richtig, gleichwohl ist (G) kritisch
f
ur die Dialektik, auch wenn man sich nur auf sinnvolle Aussagen b beschrankt. Denn es
ist denkbar, dass der Dialektiker (I) zu einer Synthese b1 gelangt und die Dialektierin
(II) zu der Synthese b2 , und b1 6= b2 , welche der beiden Synthesen ist nun die richtige,
oder ist der Begriff der richtigen Synthese gar nicht definiert? Vermutlich kann man sich
als Dialektiker nun auf die Totalitat, das Absolute, zur
uckziehen, in der bzw. in dem
schlielich alles aufgehoben ist. Denn irgendwie wird es stets gelingen, b1 als These und
b2 als Antithese zu b1 aufzufassen, u
ber die man dann zu einer neuen Synthese gelangen
kann. Aber auch hier wird nicht Eindeutigkeit gelten, und das Spiel wiederholt sich. So
ergibt sich die Frage, worin denn nun eigentlich die Entwicklungsdynamik der Dialektik
besteht; ein System, dass nach dem Trial-and-error-Prinzip von Thesen und Gegenthesen
zu Synthesen gelangt, kann genau so funktionieren, ohne den Anspruch zu erheben, wie
angeblich die Dialektik ontologisch verankert zu sein.
Popper betrachtet allerdings noch den Fall, dass sich ein logisches System konstruieren lat derart, dass (G) nicht deduziert werden kann. Ein solches System konnte dann
die Basis f
ur die Dialektik sein. Popper schreibt, dass er in der Tat ein solches System
konstruiert habe, dieses aber auerordentlich schwach sei, da es nur noch sehr wenige
Schluregeln erlaube, nicht einmal den modus ponens, also die Regel p q, nun aber
p, also q. Klowski (p. 306) weist darauf hin, dass ein Dialektiker gerade umgekehrt argumentieren konne: logische Systeme wie die, die (G) implizieren, seien f
ur die Dialektik
unbrauchbar, da sich in ihnen ja beliebige Aussagen ableiten lieen. Das von Popper verworfene System, das diese Beliebigkeit nicht impliziere, sei also die oder zumindest eine
mogliche logische Basis f
ur die Dialektik.
Wie bereits angedeutet, ist eine der Schwierigkeiten, die sich bei der Betrachtung
der Dialektik ergeben, die unklare Bedeutung der Begriffe, etwa des f
ur die Dialektik
durchaus zentralen Begriffs der Negation. Setzt man den Begriff der Negation mit dem
Begriff der Negation, wie er in der Logik definiert ist, gleich, ergeben sich Schwierigkeiten
wie die, die sich mit der Ableitung der Schluregel (G) zeigen. Popper betrachtet das
Beispiel eines Samenkorns. Der Dialektik zufolge ist (i) das Samenkorn die Thesis, (ii)
die sich daraus entwickelnde Pflanze ist die Antithesis, und (iii) die Getreidekorner, die
sich aus der Pflanze ergeben, sind die Synthesis. Das Keimen des Saatkorns sei hier die
Negation eben der Thesis, denn es hort ja auf zu existieren, und die Interpretation der
Generierung neuer Saatkorner als Negation der Negation, die einen Neustart auf hoherem
Niveau reprasentieren sollen, sei, so Popper, ein reines Wortspiel. Die Beschreibung
dieser Entwicklung als dialektisch ist einfach metaphorisch und kann ganz einfach durch
eine nicht-dialektische ersetzt werden.
Popper zitiert einige Beispiele, die Dialektiker aus dem Bereich der Mathematik geliefert haben (in Popper (2002), p. 432). So soll Engels wie folgt argumentiert haben. Das
Negative einer Zahl a sei eben a, multipliziere man aber a mit sich selbst, so ergebe
sich a2 . Dies illustriere das Beispiel der hoheren Synthesis, das in der Mathematik allgemein verwendet werde (Engels). Die Negation der Negation wird hier also durch die
Multiplikation mit sich selbst abgebildet. Warum ist aber die Negation der Negation nicht
133

einfach (a) = a? Die hohere Synthese liefe dann allerdings auf die Identitat hinaus
und ware damit nicht mehr hoher. Vielleicht verlangt also das postulierte Streben nach
hoherer Synthese, dass nur diejenigen Operationen als Negation der Negation betrachtet
werden, die nicht auf die Identitat f
uhren. Dann kame aber auch a (a) = a + a = 0
in Frage, und dies w
urde f
ur alle a gelten. Die Frage ist dann, warum die 0 hoher ist
als jedes a. Es wird deutlich, dass die Dialektik vollkommen willk
urlich verfahrt, dieser
Sachverhalt ist mit den obigen Bemerkungen bez
uglich der Eindeutigkeit der Synthesebildung bereits angedeutet worden. Man kann nicht sagen, dass die Dialektik eine Methode
sei, die zu weiteren Einsichten f
uhrt, sie ist allenfalls eine post hoc - Beschreibung, die
allerdings durch andere Beschreibungen, in denen die Begrifflichkeit der Dialektik nicht
verwendet wird, ersetzt werden kann.
Popper liefert einen ideengeschichtlichen Hintergrund f
ur die hegelsche Dialektik, den
er aus der Spannung zwischen dem (kontinentalem) Descarteschen Rationalismus und
dem (britischen) Empirismus entwickelt. Nach Descartes lassen sich erklarende Theorien
rein rational, also durch die Vernunft und ohne Rekurs auf die Empirie konstruieren.
Ein vern
unftiger Satz mu wahr sein. Dieser Aussage entspricht Hegels Postulat Was
vern
unftig ist, muss wirklich sein. Diese Aussage charakterisiert die Identit
atsphilosophie.
Nach Ansicht der Empiristen kann allerdings das reine Denken nicht zu wahrem Tatsachenwissen f
uhren. Kant hat dann die Beziehung zwischen Rationalismus und Empirismus in entscheidender Weise diskutiert. In seiner Kritik der reinen Vernunft argumentiert
er, dass unsere Erkenntnis auf den Bereich der moglichen Erfahrung begrenzt ist und die
Konstruktion metaphysischer Systeme u
ber diesen Bereich hinaus nicht gerechtfertigt
werden kann; dies ist die Kritik der reinen Vernunft; die Konstruktion der Antinomien
(vergl. Wisstheorie II) soll die Unmoglichkeit einer rein rationalen Theoriebildung u
ber
die Welt illustrieren. Namentlich im Bereich der deutschen Philosophie wurde dann versucht, diese Kritik zu
uberwinden indem auf geistiger Intuition (Popper) beruhende
metaphysische Systeme entwickelt wurden. Diese philosophische Richtung ist der Idealsmus, der seinen Hohepunkt im hegelschen System gefunden habe. Nach Kant verarbeitet
der Geist die Welt, aber nach Hegel sind Geist und Welt identisch (Das Wirkliche ist das
Vern
unftige), und es ist diese Gleichsetzung, die Hegel auf die Idee brachte, eine Theorie
der Welt aufgrund des reinen Denkens liefern zu konnen. Genau in dieser Ansicht unterscheidet er sich von Kant. Nach Popper hat Hegel die Widerlegung des Rationalismus
u
uche nicht von Bedeutung
berwunden, indem Hegel einfach feststellte, dass Widerspr
seien. Widerspr
uche ergeben sich nur in einem philosophischen System, in dem die Welt
als statisch und unbewegt konzipiert w
urde. In seinem System hingegen erscheine die
Welt als etwas Dynamisches, die Wirklichkeit unterliege einem Entwicklungsgesetz, das
sich in der Dialektik widerspiegele. Nach Popper ist das hegelsche System dogmatisch
insofern, als es jede Kritik absorbiert. Denn eine Kritik besteht letztlich darin, irgendwelche Widerspr
uche aufzuzeigen, entweder zwischen Aussagen der Theorie selbst oder
zwischen Aussagen der Theorie und Fakten. Aber nach Hegel werden Widerspr
uche ja
dialektisch aufgehoben und existieren in diesem Sinne gar nicht. Deshalb kann f
ur Hegel
seine Theorie nur die wahre Theorie sein. F
ur Popper sind Theorien dieser Art nicht
akzeptabel, denn sie sind nicht falsifizierbar, sie gelten anscheinend stets. Aber damit
werden diese Theorien auch trivial, denn eine Theorie, f
ur die p und p gelten kann
(wenn auch in einer irgendwie aufgehobenen Art) macht letzlich keine Aussagen mehr
u
ber die Welt. Popper spricht von einem doppelt verschanzten Dogmatismus.
6.4.4

Puntels Kritik

Offenbar sind zentrale Begriffe der hegelschen Dialektik nicht hinreichend scharf definiert,
um unsinnige Interpretationen wie die von Engels, dass a die Antithesis zu a sei, und
134

dass die Synthese dieser beiden Thesen durch a2 reprasentiert werde. Nun mag Engels
einem Miverstandnis aufgesessen sein, generell scheint jedoch nicht klar zu sein, wie
einerseits eine Antithese zu einer gegebenen These zu finden ist, und wie andererseits
die Synthese bestimmt werden kann. Denn die Bedeutung der Negation ist nicht klar,
die Synthese ist nicht eindeutig bestimmt und wird anscheinend willk
urlich gewahlt, und
dass eine gegebene Triade These-Antithese-Synthese als dialektisch interpretiert werden
kann, scheint ihren Grund eher in unserer Fahigkeit, Strukturen auch im Zufalligen zu
sehen bzw. in der Plastizitat der (Umgangs-)Sprache zu liegen. Eine weitere, wesentliche
Frage ist, ob die Dialektik in die Logik eingebettet ist und damit mit der formalen Logik
kompatibel ist oder nicht; einige Dialektiker sind ja der Ansicht, die Dialektik schliee
die formale Logik geradezu aus, worauf noch zur
uckzukommen sein wird.
So lange man Fragen dieser Art stellt, geht man noch von der Hypothese aus, dass die
Dialektik u
berhaupt ein sinnvolles Unterfangen ist oder doch sein konnte. Puntel (1996)
hat eine Analyse vorgelegt, derzufolge der hegelsche Begriff der Dialektik unhaltbar ist
(Puntel, p. 132). Angesichts der schier un
ubersehbaren Literatur zu Hegel und der vielen
groen Namen in der Philosophie, die positiv mit der hegelschen Dialektik assoziiert sind,
erscheint dies als eine starke These. Es soll deshalb auf die Puntelsche Argumentation
naher eingegangen werden.
Puntel versucht dabei, von einem denkbar strengste[m] Verstandnis von Dialektik
auszugehen, das Hegel zugeschrieben werden konne. Puntel definiert dementsprechend
ein Kriterium f
ur die hegelsche Dialektik:
Kriterium: Von Dialektik im eigentlichen, im denkbar strengsten Sinne, kann
bei Hegel nur dann gesprochen werden, wenn Dialektik als eine Denkgestalt
verstanden wird, die sich nicht auf eine mit den normalen formallogischen
und semantischen Instrumentarien explizierbare Denkgestalt reduzieren lat.
Puntel geht in diesem Zusammenhang auf einen Artikel von Lachtermann (1987) ein,
der einerseits die Grundgedanken von Hegels Wissenschaft der Logik sehr sorgfaltig her
ausgearbeitet habe, in dem aber andererseits die Uberlegenheit
der hegelschen Dialektik gegen
uber der formalen Logik (gegen
uber jeder von der formalen Logik getragenen
Denkgestalt) nachgewiesen werden soll. Nach Lachtermann hat die formale Logik einen
intrinsisch phanomenologischen Status, der sich aus dem Gegensatz (opposition) von
Bewutsein (consciousness) und seinen formalen, symbolischen Objekten ergabe, der in
der formalen Logik verkorpert sei. Puntel argumentiert, dass tatsachlich aber der heutigen formalen Logik ein derartiger phanomenologischer Status nicht zugeschrieben werden
konne, der angebliche Gegensatz von Bewutsein und formalen, symbolischen Objekten
des Bewutseins existiere nicht. Hegels Anspruch, eine Darstellungsgestalt im Sinne einer absoluten Einheit von Methode und Sache zu entwickeln, scheitere daran, dass
er die mit der Darstellungsdimension gegebenene Bedingungen und Aufgaben einfach
u
ur Puntel
berspringt. Aus diesem, nach Puntel fundamentalem Umstand ergibt sich f
die Frage, ob Hegels Denken u
berhaupt nachvollziehbar ist.
Im obigen Kriterium wird als Charakteristikum f
ur Hegels Dialektik angegeben, dass
sie sich nicht auf eine durch die formale Logik getragene Denkgestalt reduzieren lasse.
Diese Einschrankung mag insofern merkw
urdig erscheinen, als es Autoren gibt, die gerade
nachweisen wollen, dass die Dialektik in diese Logik einbettbar ist, etwa Wandschneider
(1993). Hatte, so Puntel, die Dialektik nicht das im Kriterium genannte nichtreduzierbare Plus, ware Dialektik nur ein Name f
ur ein konfuses Denkverfahren, und die Frage
ware berechtigt, warum man sich u
berhaupt mit ihr beschaftigen solle. So sei in der formalen Logik der Begriff der Identitat einfach als reflexive, symmetrische und transitive

135

Relation mit bestimmten Substituierbarkeitseigenschaften definiert94 . Nach Hegel kommen der Identitat aber tieferliegende Momente zu, namlich das Moment der Negation;
man erinnere sich: determination est negatio. Dieses Moment kommt in der formallogischen Definition der Identitat gar nicht vor. Hieraus ergibt sich, so Puntel, die vollige
Andersartigkeit der hegelschen Dialektik.
Puntel baut seine Hegelkritik als immanente Kritik auf, d.h. nicht als Vergleich etwa
mit der formalen Logik. Er weist zunachst auf den Stellenwert der Negation in Hegels
Theorie hin und zitiert die folgenden Stellen aus Hegels Werk, die einen schonen Einblick
in Hegels Stil geben und deswegen hier ebenfalls wiedergegeben werden sollen:
Ich wei, . . ., dass sie [die Methode der Dialektik] die einzige wahrhafte ist. Dies
erhellt f
ursich schon daraus, dass sie von ihrem Gegenstande und Inhalte nichts
Unterschiedenes ist; denn es ist der Inhalt in sich, die Dialektik, die er an ihm selbst
hat, welche ihn fortbewegt, [. . .] Das, wodurch sich der Begriff selbst weiter leitet,
ist das . . . Negative, das er in sich selbst hat; dies macht das wahrhaft Dialektische
aus. (Hegel, Wissenschaft der Logik, Band I, p. 36-37)
Das dialektische Moment ist das eigene Sichaufheben solcher endlichen Bestim
mungen und ihr Ubergehen
in ihre entgegengesetzte. [. . .] Die Dialektik . . . ist dies
immanente Hinausgehen . . . (Hegel, Enzyklop
adie, p. 81)
Das Einzige, um den wissenschaftlichen Fortgang zu gewinnen, und um dessen
ganz einfache Einsicht sich wesentlich zu bem
uhen ist, ist die Erkenntnis des logischen Satzes, dass das Negative ebenso positiv ist, oder dass sich Widersprecheende
sich nicht in Null, in das abstrakte Nichts aufl
ost, sondern wesentlich nur in die Negation seines besondern Inhalts, oder dass eine solche Negation nicht alle Negation,
sonder die Negation der bestimmten Sache, die sich aufl
ost, somit bestimmte Negation ist, dass also im Resultate wesentlich das enthalten ist, woraus es resultiert
. . . (Hegel, Wissenschaft der Logik, Band I, p. 35)

Puntel zeigt dann, dass die dialektische Negation in einen infiniten Regress f
uhrt.
Dazu wird mit X das jeweils Gegebene bezeichnet: ein Ding, ein Begriff, etc. Alles,
was mit X geschieht, ist nach Hegel ein eigener, immanenter Vorgang von x, der eine
Selbstnegation von X impliziert. Die dialektische Bestimmung von x sei demnach der
Selbstnegation von X zu verdanken (im Sinne der Festlegung dessen, was X nicht ist?).
Dies gilt dann f
ur jeden Zustand des sich selbst bestimmenden X. Zur Verdeutlichung
wird eine quasi-formale Schreibweise eingef
uhrt. Mit wird in der Aussagenlogik die
Negation dargestellt; p heit dann, dass die Aussage p nicht gilt. Puntel schlagt eine
Darstellung der dialektischen Selbstnegation vor, die diesem Zeichen nachempfunden ist,
aber hier nicht gut reproduzierbar ist, weshalb hier ein anderes Symbol gewahlt wird: sie
wird mit X bezeichnet. Das Zeichen # soll den dialektisch-logischen Fortgang von einem
Moment zum nachsten reprasentieren. Aus dem Prinzip der dialektischen Negation folgt
dann sofort
X # X # X # X # ,
(41)
d.h. ein regressus in infinitum. Puntel merkt an, dass man dabei Hegel gerecht werden
mu: die Negation hat nach Hegel in jeder Stufe eine andere Gestalt. Nur ergibt sich
sofort die Frage, wie diese Gestalten zu spezifizieren sind. Der infinite Regress wird aber
durch eine solche Spezifikation nicht aufgehoben, da ja nach Hegel jede Selbstbestimmung
eine Selbstnegation bedeutet.
Nun ist nach Hegel das Negative auch positiv: sie ist nicht alle Negation, sondern
die Negation der bestimmten Sache, die sich auflost, somit bestimmte Negation95. Hegel
94 Wenn A identisch mit B, dann ist auch B identisch mit A, und wenn A mit B identisch ist und B
mit C, dann ist auch A mit C identisch.
95 Wissenschaft der Logik, Band I, p. 35

136

behauptet, dass die bestimmte Negation einen Inhalt hat und einen reicheren, hoheren Begriff als der jeweils vorhergehende darstellt. Puntel zitiert Hegel: denn sie [die
bestimmte Negation] ist um dessen [des Inhalts] Negation oder Entgegengesetztes reicher geworden, enthalt ihn also, aber auch mehr als ihn, und ist die Einheit seiner und
seines Entgegengesetzten96, und fragt, ob diese Bestimmungen des Begriffs der Negation u
berhaupt nachvollziehbar sind. Dazu betrachtet er vier als exhaustiv verstandene
Moglichkeiten, das Zustandekommen des dialektischen Resultats zu begreifen:
1. Negation der Negation: Hegels Negation der Negation: hier wird postuliert,
dass das Resultat der Negation noch einmal negiert werden mu, um das dialektische Resultat zu erhalten:

X # X = X
(42)

Dabei steht = f
ur dialektisch-logisch-semantisch gleich mit. Hier ist X das duch
die Negation von X erzeugte reichere X. Nun ist jede Negation die Negation
eines bestimmten X und damit einer bestimmten Sache. Es ist nicht klar, wie
auf diese Weise ein neues, reicheres, h
oheres X erzeugt werden soll. Im Vergleich
dazu impliziert die formallogische Negation einfach eine Positionierung im logischsemantischen Raum: ist X etwa ein n-stelliges Pradikat, so definiert die Negation
eine Aufteilung des Raumes, der extensional durch das Pradikat definiert ist. Die
Menge der n-tupel von Objekten, auf die X zutrifft, ist der eine Teilraum, die
Menge der n-tupel von Objekten, auf die X nicht zutrifft, ist der dazu komplementare Teilraum. Die dialektische Negation kann dagegen nicht in vergleichbarer
Weise spezifiziert werden, sie verf
ugt gewissermaen nicht u
ber die Konturen der
formallogischen Negation, sie f
uhrt, wie Puntel formuliert, in das leere Offene
(f
ur eine vertiefende Diskussion dieses Begriffs vergl. Funote 9 in Puntel (1996)).
Puntel stellt fest, dass die dialektische Negation demnach nicht zu einem positiven
Resultat f
uhrt, wie Hegel behauptet, sondern ins Leere lauft.
2. Einheit von X und X: Nach Hegel f
uhrt nun die Negation zu einem Begriff,
der die Einheit des negierten Begriffs und seines Entgegengesetzten sei (Wiss. der
Logik, Band I, p. 36). Puntel betrachtet nun als zweite Interpretationsmoglichkeit
das Resultat der dialektischen Negation den Ausdruck
Einheit von X und X.

(43)

Man konne, so Puntel, hier von einer eindimensionalen dialektischen Relation sprechen, derzufolge X dem X entgegengesetzt sei. Daf
ur werde das Symbol
eingef
uhrt, so dass f
ur (43)
X
X
(44)
geschrieben werden konne. die Negation oder Auflosung dieser Relation der Entgegensetzung soll nun, nach Hegel, ein positives, reichaltigeres Resultat X haben.
X soll die Synthese von X und X sein und X und X enthalten. Allerdings sei auch
hier nicht zu sehen, wie denn ein reichaltigeres, neues X tatsachlich entstehen kann.
Denn die neue Einheit oder Synthese wird von Hegel als Leistung (Puntel) einer
Negation also der Negation einer Negation verstanden:
X

X = X .

(45)

Wie nun aus der Negation von X


X ein reichhaltigeres X entstehen soll, bleibt
vollig unklar. Die Negation l
auft ebenfalls, wie schon die von X, leer. Die Frage nach
96 Wissenschaft

der Logik, Band I, p. 36

137

der Eindeutigkeit der dialektischen Schritte, die sich schon in Zusammenhang mit
der Popperschen Kritik zeigte, wird hier wieder deutlich. Puntel formuliert dies so:
f
ur die dialektische Negation wird kein Strukturrahmen festgelegt, der die Negation
zu einem bestimmten Resultat f
uhren w
urde.
3. Bidirektionale Relation: Um Hegel auf jedenFall gerecht zu werden, lat sich
die dialektische Negation auch als bidirektionale Relation, reprasentiert durch !,
auffassen. Demnach ist X entgegengesetzt zu X und X ist entgegengesetzt zu X:
X ! X.

(46)

Die Einheit oder Synthese wird wieder durch eine umfassende Negation erzeugt
werden:

X ! X = X .
(47)
Die Vorher formulierte Kritik u
bertragt sich allerdings sofort auf (47).
4. Einheit von Identit
at und Nicht-Identit
at: F
ur die dialektische Nicht-Identitat,
also f
ur den dialektischen Widerspruch wurde bereits das Zeichen ! eingef
uhrt.

F
ur die die dialektische Identitat (also die Aquivalenz)
soll das Zeichen eingef
uhrt werden. Dann lassen sich die dialektische Identitat von X und X in der
Form
!
X X
(48)
darstellen. Die Einheit in der Synthese ergibt sich dann in der Form
z }| {
!

X X = X .

(49)

Die Frage ist aber, wie die geschwungene Klammer die ja nur Hegels Behauptung
reprasentiert zu verstehen ist. Jedenfalls nicht als Negation, oder Negation einer
Negation, oder als Negation einer Negation einer Negation, etc. Soll die Klammer
eine Relation in der Binnenstruktur des dialektischen Gebildes bezeichnen, konnte
man

[(X ! X), (X = X)] = X


(50)
schreiben, nur ist die Bedeutung von ! unklar. Wie Puntel ausf
uhrt, reprasentieren Ausdr
ucke wie Identitat, Einheit, Synthese etc Begriffe, die in bezug auf den
logischen Fortgang Metabegriffe sind, deren Status bei Hegel vollig ungeklart ist.
Angenommen, der Ausdruck dialektische Identitat hatte eine Bedeutung. Dann
ergeben sich Schwierigkeiten f
ur das dialektische Denken, denn die umfassende Identitat oder Synthese oder Einheit mu mehr sein als die Binnenidentitat.
Alternativ konnte man den Operator , der vor dem linken Ausdruck in (50) steht,
als einen irgendwie hoheren Operator auffassen; dann mu aber ein neues Zeichen
daf
ur eingef
uhrt werden, etwa , und man erhielte

[(X ! X), (X = X)] = X .

(51)

Dann bleibt aber die Frage, was denn zu bedeuten hat. Dies Zeichen kann wieder
um nur Identitat, Einheit, Aquivalenz
etc bedeuten, und nichts ist gewonnen.
Puntel schliet, dass ohne eine Klarung der Bedeutung dieser Ausdr
ucke das dialektische Verfahren leer ist, d.h. es ist gar keins.
Es zeigt sich, dass vollig unklar ist, in welcher Weise u
berhaupt logische Strukturelemente
in die Formulierung der hegelschen Dialektik eingehen, welche Rolle sie also im logischen
138

Fortgang spielen. Puntel spricht, wie es scheint zu recht, von einer nicht weg zu disputierenden Undurchdringlichkeit, Nicht-Intelligibilitat und Nicht-Nachvollziehbarkeit. Diese
Nicht-Nachvollziehbarkeit ergibt sich aus Hegels Programm, in dem begriffliche und formallogische Metaebenen nicht zugelassen sind. Begriffe wie Negation, Einheit, Synthese
etc bleiben unexpliziert und werden nur in einem intuitiven Sinne verwendet, und es
wird nicht klar, wie man durch dialektische Verfahren zu hoheren, reicheren etc Begriffen aufsteigen kann. Vielleicht ist die hegelsche Dialektik weniger eine Philosophie,

sondern ein Zustand der Autosuggestion mit der durch ihn implizierten Uberzeugung,
dass begriffliches Dunkel das Licht des Verstehens gebiert. Die Frage, ob diese Art angewandter Dialektik einen dialektisch gestimmten Hermeneutiker u
berzeugt, mu hier
unbeantwortet bleiben.

6.5

Empirie und Positivismus

Hegel befand, das Ganze sei das Wahre, und die Dynamik des Ganzen entwickele sich
dialektisch. Das Denken ist ein Teil des Ganzen und mu demnach dialektisch sein, will
es zum Wahren f
uhren. Zum dialektischen Wesen des Denkens konnte dann auch, so
mag man sich fragen, das sich antithetisch ergebende nichtdialektische Denken gehoren,
und man konnte versucht sein, herausfinden zu wollen, welche Synthesen sich dialektisch
aus den nichtdialektischen Komponenten des Denkens u
ber das Wahre und somit Ganze ergeben. Gleichwohl, den hier aufschimmernden Aporien soll an dieser Stelle nicht
nachgegangen werden; statt dessen sollen Betrachtungen zu Betrachtungen u
ber einem
Teil des Ganzen, namlich der Philosophie der Gesellschaft, referiert werden. Auch die
Gesellschaft mu, folgt man Hegel, als ein Ganzes gedacht, mu in ihrer Totalit
at erfasst
werden, und das heit dann, dass die Dynamik der Gesellschaft sich demjenigen, der sie
verstehen will, notwendig dialektisch offenbart. Folgt man diesem Ansatz, ergibt sich die
Frage nach der Empirie, d.h. nach der Rolle der sorgfaltig nach den Regeln des experimental design geplanten Untersuchungen, die entweder rein explorativ sind oder die auch
die inferenzstatistische Pr
ufung von Hypothesen gestatten, wobei die in Abschnitt 2.3
angedeutete Problematik solcher Pr
ufungen einmal auen vor gelassen werden soll. Solche Untersuchungen sind notwendig partikular, weshalb sie dem hegelianisch Inspirierten
als irrelevant und somit sinnlos erscheinen mogen.
Diese Interpretation der Bedeutung empirischer Einzeluntersuchungen wurde insbesondere von Theodor W. Adorno als zum Ganzen und damit Wahren gehorig vorgelegt.
Die Radikalitat, mit der er seine Ansichten vertreten hat, ist insofern bemerkenswert,
weil er einerseits selbst an empirischen Untersuchungen beteiligt war die bekannteste
ist vielleicht die zur autoritaren Personlichkeit. In Abschnitt 6.5.5 wird die Rede auf diese
Arbeiten kommen. Diese Arbeiten haben insbesondere wegen grundsatzlicher methodischer Fehler eine zum Teil vernichtende Kritik erfahren, die die von Adorno (und seinen
Koautoren) elaborierte Interpretation der Daten in Frage stellen. Ob diese Kritik mit
zu Adornos radikaler Empiriekritik, wie sie z.B. im sogenannten Positivismusstreit ge
ubt
wird, gef
uhrt haben, ist eine psychologische Spekulation, die hier nicht weiter betrieben
werden soll; Tatsache ist, wie weiter unten gezeigt wird, dass seine Empiriekritik schon
vor der Veroffentlichung seiner empirischen Arbeiten eingesetzt hat. Es scheint jedenfalls,
als habe er gedacht, dass u
ber die philosophische Diskussion allgemeiner Beobachtungen
und Erfahrungen der gesellschaftlichen Realitat, wie wir sie alltaglich machen, das Wesen
der Gesellschaft erkannt werden konne, wenn man eben vom Grundgedanken des Ganzen
bzw. der Totalitat und ihrer dialektischen Entfaltung ausginge.
Es soll hier zunachst die von ihr selbst als antipositivistisch deklarierte, eigentlich
aber global antiempirische Argumentation der Frankfurter Schule vorgestellt und diskutiert werden, wobei insbesondere auf Adornos im Positivismusstreit der sechziger Jahre
139

publizierten Schriften sowie auf Horkheimers Arbeit aus dem Jahe 1937, Der neueste
Angriff auf die Metaphysik, eingegangen werden soll. Viele der Argumente Adornos werden auch heute noch verwendet; ob sie tatsachliche philosophische Substanz oder nur
polemische Wucht transportieren sei vorerst dahingestellt.
6.5.1

Der Hintergrund

Die hier zur Diskussion stehenden philosophischen Aufsatze Adornos sind im Kontext
seiner Arbeit am Frankfurter Institut f
ur Sozialforschung entstanden. Horkheimer, gerade zum neuen Leiter des Instituts ernannt, hatte erklart, dass er im engsten Rahmen
gemeinsam mit meinen Mitarbeitern eine Diktatur der planvollen Arbeit u
ber das Nebeneinander von philosophischer Konstruktion und Empirie in der Gesellschaftslehre errichten wolle und hatte damit der Empirie einen wichtigen Ort in der Arbeit des Instituts
zugewiesen. Adorno wurde wenig spater Mitarbeiter des Instituts, scheint aber von Anbeginn seiner Arbeit dort eher philosophisch und antiempirisch orientiert gewesen zu sein,
auch wenn er an empirischen Untersuchungen teilnahm (Wiggershaus (2001)). F
ur sowohl Horkheimer wie auch f
ur Adorno spielte die marxsche Theorie der gesellschaftlichen
Entwicklung eine zentrale Rolle, wenn auch in verschiedener Weise.
Horkheimer begriff sich als Verfechter der marxistischen Theorie in dem Sinne,
da die von ihm vertretene Position in der Verl
angerung einer von Kant und der
franz
osischen Aufkl
arung u
uhrenden Linie lag (Wiggershaus
ber Hegel und Marx f
(2001), p. 66).

Strzelewicz (1986) beschrieb Horkheimer als einen b


urgerlichen Philosophen, der dem
Marxismus und Kommunismus nahestand und halb Neukantianer und halb Positivist gewesen sei. Adorno charakterisierte die Philosophie als ein Bem
uhen, mit exakter Phantasie an die Resultate der Einzelwissenschaften heranzugehen; die Forderung nach philosophischer Deutung
je und je den Fragen einer vorgefundenen Wirklichkeit Bescheid zu tun durch eine
Phantasie, die die Elemente der Frage umgruppiert, ohne u
ber den Umfang der
Frage hinauszugehen, und deren Exaktheit kontrollierbar wird im Verschwinden
der Frage

(Aus seiner Antrittsrede als Privatdozent f


ur Philosophie, vergl. Wiggershaus (2001), p.
111). Diese Art der Deutung war in seinen Augen materialistisch und dialektisch,
weil die philosophische Deutung nicht in geschlossenen Denkbestimmungen ablief,
sondern im Sinne einer intermittierenden Dialektik von der nicht sich einf
ugenden Realit
at, vom Einspruch transsubjektiver Wahrheit unterbrochen wurde und
immer wieder neu ansetzte. . . . Adornos Programm war theologisch-materialistisch
im Geiste Benjamins und Kracauers. . . . [Adorno] geh
orte zu den Anh
angern der
Theorie des Klassenkampfes und der klassenspezifischen Zurechenbarkeit von Werken der Philosophie und der Kunst. (Wiggershaus, p. 112-113)

Sowohl Horkheimer als auch Adorno nahmen die Psychoanalyse in ihren Ansatz zur
Deutung gesellschaftlicher Prozesse auf, der deshalb gelegentlich stark vereinfachend,
aber markant als freudomarxistisch bezeichnet wird.
Ein alternatives Programm, in dem allerdings Marx und Freud ebenfalls eine wesentliche Rolle spielen, wurde 1929 am Rande der Jahrestagung Deutscher Naturforscher

und Arzte
in Prag vorgestellt: Die wissenschaftliche Weltauffassung. Der Wiener Kreis.
140

Verfasst war es von Otto Neurath, Rudolf Carnap und Hans Hahn, die dem 1922 von Moritz Schlick gegr
undeten Wiener Kreis angehorten. F
ur die Auseinandersetzung mit den
Philosophen der Frankfurter Schule war die Metaphysikfeindlichkeit des Wiener Kreises
wesentlich. In dem genannten Manifest wird die Metaphysik gesellschaftlichen Kraften zugeordnet, die auf sozialem Gebiet das Vergangene festhalten, im Gegensatz zu der vom
Wiener Kreis vertretenen wissenschaftlichen Auffassung, deren Anhanger im Zusammenhang mit ihrer sozialistischen Einstellung einer erdnahen, empiristischen Auffassung
zuneigen. (zitiert nach Dahms (1994), p. 31). Es ist diese antimetaphysische Grundposition und deren Implikation einer Fokussierung auf Tatsachenforschung, die den Unwillen
Horkheimers und Adornos erzeugten. Da auch die meisten Mitglieder des Wiener Kreises
nach der Macht
ubernahme durch die Nationalsozialisten in die USA emigrierten ergaben
sich allerdings schon wegen der ahnlichen politischen Grundauffassungen sowohl auf Seiten der Mitglieder der Frankfurter Schule wie auch des Wiener Kreises Bem
uhungen, zu
einer Zusammenarbeit zu kommen, die aber im Laufe der Interaktionen zwischen diesen
beiden Gruppen versandeten. Eine ausf
uhrliche Darstellung findet man in Dahms (1994);
hier wird auf die Details der Geschehnisse nur insoweit eingegangen, wie es f
ur die Interpretation der Adornoschen Arbeiten bez
uglich der Beziehung zwischen Theorie und
Empirie ab 1957 notig ist.
6.5.2

Kritik am Positivismus

Die Positionen des Neopositvismus des Wiener Kreises wurden bereits innerhalb eben dieses Kreises diskutiert, und Karl Popper der diesem Kreis nicht angehorte kritisierte
in seiner 1934 erschienen Logik der Forschung die Grundannahme, dass Gesetzesaussagen induktiv verifiziert werden sollen. In seiner Autobiographie verk
undet er, dass er den
Positivismus zur Strecke gebracht habe97 . Aber Poppers Bem
uhungen tatsachlich war
er nicht der einzige, der den Neopositivismus (oder logischen Positivismus, oder logischen
Empirismus) kritisiert hatte, u.a. hatte Wittgenstein, der von seinen im Tractatus dokumentierten Auffassungen inzwischen abger
uckt war, Kritik am Programm der Wiener
geauert scheinen nicht von hinreichender metaphysischer Qualitat gewesen zu sein und
es drangte Horkheimer, in einer Polemik gegen die Positivisten vorzugehen.
Das Interesse an empirischer Arbeit war, wie schon angemerkt, bei den Frankfurtern
zun
achst durchaus gegeben. Die empirische Untersuchung von Paul Lazarsfeld, Marie Jahoda und Hans Zeisel Die Arbeitslosen von Marienthal, die in der Zeitschrift f
ur Sozialforschung erschien, war hinsichtlich ihrer methodischen, aber auch wegen ihrer inhaltlichen
Aspekte positiv besprochen worden; es ging um eine Typologie der untersuchten Familien in Bezug auf ihre Reaktionen auf die Arbeitslosigkeit, womit sich Beziehungen zu
der gerade vom Frankfurter Institut durchgef
uhrten Studie u
at und Familie
ber Autorit
ergaben. Weitere Details findet man in Dahms (1994), Abschnitt 2.1. M. Jahoda f
uhrte
ihre Studie in England weiter und prasentierte die Ergebnisse in London, wo Adorno
Gelegenheit hatte, der Prasentation beizuwohnen. In einem Brief an Horkheimer vom 10.
11. 1937 zeigte er bereits eine symptomatische Reaktion. Demzufolge sah er in Jahoda
eine anstandige Sozialdemokratin, die
die M
angel der gegenw
artigen marxistischen Wissenschaft jedoch nicht eben jener
theoretischen Insuffizienz zuschreiben, die sie gerade mit ihr teilen, sondern ihrer
unzul
anglichen Tatsachenforschung, die, sobald sie sie selber in Angriff nehmen, zu
nicht mehr f
uhren als zu Tautologien von der Art, da Arbeitslose, wenn sie sich in
97 Aber da [d.h. vor dem zweiten Weltkrieg] war der logische Positivismus schon seit Jahren tot.
Heutzutage wei das jeder. Aber anscheinend kommt niemand darauf, hier die Frage zu stellen: Wer ist
der T
ater? . . . Ich f
urchte, dass ich mich als T
ater bekennen mu. Popper (1981), p. 122.

141

einer hoffnungslosen Situation befinden, hoffnungslos werden, usw. Im Grunde lassen diese Art ethische Sozialisten sich malos von dem fetischistischen b
urgerlichen
Wissenschaftsbetrieb imponieren. (vergl. Dahms, p. 80)

Hier sind aber zwei Punkte zu machen: (i) generell gilt, dass eine empirische Arbeit,
die nur Trivialitaten zu Tage fordert, sich nicht dazu eignet, den angeblich fetischistischen und dar
uber hinaus auch noch b
urgerlichen Wissenschaftsbetrieb zu kritisieren.
Eine solche Arbeit ist einfach nur schlecht geplant und insofern u
ussig. (ii) Adorno
berfl
unterschlagt, dass das Ziel der zitierten Studie war, zwischen zwei Hypothesen zu unterscheiden, ob Arbeitslosigkeit zur Ausbildung revolutionarer Aktivitat f
uhrt oder zu
Resignation und Hoffnungslosigkeit. Dass die Ergebnisse dann Hoffnungslosigkeit indizierten war insofern kein eindeutig voraussagbares Resultat. Zu kritisieren ware allenfalls
die Gegen
uberstellung dieser beiden Hypothesen, da man bereits viele Vorinformationen hatte, denen zufolge eher Hoffnungslosigkeit als revolutionare Aktivitat zu erwarten
war; das Problem lag also eher in der Konzeption der Untersuchung als in einer allgemeinen Nutzlosigkeit eines fetischistischen Wissenschaftsbetriebes. Die Frage, wie denn
Vorinformationen in die Planung einer Untersuchung einzubeziehen sind, ist allerdings
keinesfalls trivial. Generell gilt nur, dass schlecht konzipierte, nur Trivialitaten produzierende Untersuchungen auch innerhalb dieses Betriebes als eben schlecht konzipiert und
trivial kritisiert werden. Der impact, den die Arbeit von M. Jahoda auf die soziologische
Forschung hatte, lat aber vermuten, dass diese Arbeit keinesfalls nur Trivialitaten im
Sinne der von Adorno genannten Tautologien lieferte.
6.5.3

Positivismus und Affirmation

Horkheimer empfand die Notwendigkeit einer Polemik gegen die Positivisten nach einer
Reihe von Diskussionen insbesondere mit Otto Neurath in New York, in deren Verlauf
Neurath insbesondere die Rolle der Dialektik, die im Denken Horkheimers und der u
brigen Mitglieder des (inzwischen in die USA emigrierten) eine zentrale Rolle bei der
Entwicklung der kritischen Theorie spielte, kritisierte bzw. in Frage stellte: Neurath charakterisierte die Dialektik als either synonymous with what passed ordinarily as scientific
methods or that it was a kind of hocus pocus (Dahms, p. 84). Damit hatte Neurath eine
zentrale Annahme der Frankfurter die G
ultigkeit der Dialektik in Frage gestellt, was
zumindest von Adorno nicht kampflos hingenommen werden konnte. In einem Brief an
Adorno lat Horkheimer durchblicken, dass die Diskussionen mit den Positivisten nur
gef
uhrt wurden, um von ihnen selbst ihre schwachen Stellen vorgef
uhrt zu bekommen:
Im Grund ist das ganze nur ein elendes R
uckzugsgefecht der formalistischen Erkenntnistheorie des Liberalismus, der bereits auch auf diesem Gebiet in offene Liebedienerei gegen den Faschismus u
bergeht. (vergl. Dahms (1994), p. 86)

Hier deutet sich ein wichtiges Motiv hinter der Ablehnung der Philosophie des Wiener
Kreises an: es wird ihr unterstellt, dass sie zu einer Affirmation des Bestehenden f
uhrt.
Adorno lieferte dann eine Reihe von Anregungen f
ur den von Horkheimer geplanten Artikel. Insbesondere geht es ihm dabei um eine inhaltliche Kritik am logischen Positivismus,
wobei es einerseits um die Unvereinbarkeit des Logischen mit dem Empirischen geht,
andererseits um das Konzept der formalen Logik, und dar
uber hinaus um den Begriff der
Erfahrung, der dem Neopositivismus zugrundeliegt. Die politische Funktion des Neopositivismus soll nach Adorno ebenfalls in Horkheimers Aufsatz behandelt werden, also die
unterstellte Affirmation des Bestehenden.
Horkheimer (1937) stellt generelle Betrachtungen u
ber das Verhaltnis von Wissenschaft und Metaphysik an. Auf der einen Seite gebe es die von Horkheimer so genannte
142

neuromantische Metaphysik, die, so die Implikation, von Heidegger vertreten wird. Auf
der anderen Seite finde sich der Positivismus, der die Metaphysik als sinnloses Gerede
verurteile. Nach Horkheimer schlieen sich diese zunachst polar angeordneten Positionen
gleichwohl nicht gegenseitig aus sondern figurieren auf einem gemeinsamen politischen
Hintergrund:
Wenn ihr Zusammenhang mit der Existenz totalit
arer Staaten nicht offen zutage
liegt, so ist er doch nicht schwer zu entdecken. Neuromantische Metaphysik und
radikaler Positivismus gr
unden beide in der traurigen Verfassung eines groen Teils
des B
urgertums, das die Zuversicht, durch eigene T
uchtigkeit eine Besserung der
Verh
altnisse herbeizuf
uhren, restlos aufgegeben hat und aus Angst vor einer ent
scheidenden Anderung
des Gesellschaftssystems sich willenlos der Herrschaft seiner
kapitalkr
aftigen Gruppen unterwirft.
Horkheimer (1937), p. 116. Zitiert nach Dahms (1994), p. 123

Diese Einschatzung insbesondere des Neopositivismus auch logischer Empirismus genannt des Wiener Kreises ist sicherlich nicht ganz korrekt, zumal sich dieser Positivismus zunachst nur auf Fragen der Physik bezog und erst spater bei dem Versuch, die
Philosophie einer Einheitswissenschaft zu begr
unden, auf andere Wissenschaften verallgemeinert werden sollte. Tatsachlich gibt Horkheimer auch keine weitere Begr
undung f
ur
die Gleichsetzung der metaphysischen Neuromantik (gemeint ist die Lebensphilosophie
Diltheys und Heideggers Metaphysik) und Positivismus und schreibt am 6. 4. 1937 an
Adorno, er habe hier ein Problem nur angemeldet, dem gelegentlich nachgegangen
werden m
usse. Dahms (1994) argumentiert zu Recht, dass die von Horkheimer behauptete Beziehung zwischen Neuromantik und Positivismus vollig abwegig sei. Einerseits
werde nicht deutlich gesagt, wieso neuromantische Metaphysik und Positivismus in einer
traurigen Verfassung des B
urgertums gr
unden, es wird eben nur behauptet, dass bei
de Richtungen eine Angst vor einer entscheidenden Anderung
des Gesellschaftssystems
hatten, und bereit seien zu einer willenlosen Unterwerfung unter die Herrschaft seiner
[des B
urgertums] kapitalkraftigsten Gruppen. Dahms f
uhrt zu recht aus, dass die Positivisten ihre Auffassungen gerade in Zusammenhang mit dem Wunsch nach einer Veranderung gema der marxistischen Theorie entwickelt haben, wie u.a. der Programmschrift
der Positivisten (Wissenschaftliche Weltauffassung. Der Wiener Kreis (1929)) zu entnehmen ist, und keinesfalls einer Affirmation des Bestehenden das Wort geredet haben;
Otto Neurath hat explizit an Versuchen f
ur eine derartige Veranderung teilgenommen,
namlich bei der Novemberrevolution 1918 (in M
unchen), anschlieend im Roten Wien
und bei der Ausarbeitung des ersten F
unfjahresplans in Moskau, bis zu seiner Emigration
im Jahre 1934 in die USA. Von einer Unterwerfung unter die kapitalkrafigsten Gruppen
insbesondere des faschistischen Systems konne dar
uber hinaus schon deswegen keine Rede sein, weil fast alle logischen Empiristen [also die Positivisten] vor Faschismus und
Nationalsozialismus in die Emigration geflohen sind (Dahms (1994), p. 125)98 . Dahms
f
ugt noch an, dass man eher Adornos Antrag f
ur eine Aufnahme in die Reichsschrifttumskammer als eine willenlose Unterwerfung charakterisieren konne. Jedenfalls hat
sich auch Heidegger nicht unterworfen, er hat schon vor 1933 mit dem linken, sozialistischen Fl
ugel der Nationalsozialisten sympathisiert (einige Literaturhinweise hierf
ur
findet man in Dahms, p. 125); Heidegger hat wohl sogar den Plan gehabt, F
uhrer
des F
uhrers zu werden (Poggeler, 1985). Dahms fragt zu Recht, warum Horkheimer
gerade die Auseinandersetzung mit Heidegger gemieden und statt dessen auf die ihm
98 Der rechte Fl
ugel der Wiener Positivisten bestand nur aus Wittgenstein, der aber nicht wirklich
zum Wiener Kreis geh
orte und bereits seit 1931 in England lebte, Moritz Schlick, der 1936 ermordet
wurde, und Friedrich Waismann (18961959). Die Bedeutung von rechts ist
auerst relativ, denn Schlick
war bis zu ihrem Verbot Mitglied der Gesellschaft f
ur
osterreichisch-sowjetische Freundschaft und

Wittgenstein betrieb bis Mitte der Dreiigerjahre seine Ubersiedlung


in die Sowjetunion.

143

politisch sehr nahe stehenden Positivisten fokussiert hat; schon Heideggers ber
uchtigte
Rektoratsrede99 hatte dazu durchaus Anla gegeben.
Vielleicht ist es ja gerade die politische Nahe zu den Positivisten, die zu groerer Kritik
an ihnen herausfordert, wegen ihrer philosophischen Andersartigkeit verhindern sie f
ur
die Frankfurter die Bildung einer Front gegen die Reaktion, aber derlei Gedanken sind
Spekulation; wahrscheinlicher ist wohl, dass es die radikale Ablehnung der Metaphysik
durch die Positivisten ist, die im Gegensatz zu dem doch eher metaphysisch begr
undeten,
auf den Begriffen der Totalitat und der Dialektik beruhenden Ansatz der Frankfurter
steht. Tatsachlich hat sich Horkheimer in seinem Aufsatz Neuester Angriff auf die Metaphysik mehrfach gegen die angeblich bewahrende Funktion der positivistischen Auffassung in Kombination mit liberalistischen Auffassungen gewandt: der Positivismus
identifiziere sich zu sehr mit den Fachwissenschaften, die sich von den okonomischen Gewalten instrumentalisieren lieen, was auf die Verewigung des gegenwartigen Zustands
hinausliefe.
Die liberalistischen Gruppen haben mit ihrer zunehmenden Ohnmacht in Europa
ihn [den gegenw
artigen Zustand] seit vielen Jahrzehnten als den nat
urlichen angesehen und finden angesichts seiner Akzentuierung in den totalit
aren Staaten eben
diese vom logischen Empirismus propagierte Sauberkeit als gegebenes theoretisches
Verhalten. (vergl. Dahms (1994), p. 128)

Dahms weist darauf hin, dass Horkheimer keine genauere Spezifikation des Begriffs des
Liberalismus gibt, und verweist auf die Arbeit Marcuses Der Kampf gegen den Liberalismus in der totalitaren Staatsauffassung aus dem Jahr 1934, in der sich bereits vier Arten
von Liberalismusbegriffen finden lassen: (a) ein okonomischer, (b) ein sozialer (Besitzb
urgertum), (d) ein politischer (politischer Linksliberalismus), und (d) ein wirtschaftstheoretischer, der die wissenschaftliche Rechtfertigung f
ur den okonomischen (a) liefern soll.

Trotz der Uberschneidungen


dieser Arten sei es wichtig, so Dahms, diese Differenzierung
vorzunehmen, da sich das deutsche Besitzb
urgertum gerade nicht linksliberal orientiert
hat. Marcuse habe diese Unterschiede miachtet, seine Ausf
uhrungen
der Gedanke der Diktatur und der autorit
aren Staatsf
uhrung ist dem Liberalismus
. . . durchaus nicht fremd . . . (Marcuse (1934), zitiert nach Dahms (p. 130))

seien kurzschl
ussig.
Marcuse hat ein eigenartiges Argument f
ur die angebliche Affinitat von Positivismus
und Faschismus geliefert. Er argumentiert zunachst, dass der Positivismus nichts zum
Erstarken des Autoritarismus beigetragen habe; Freiheit sei die Essenz des Positivismus:
Positivism does not affirm anything unless it is an established fact, . . ., it does not sanction change unless the experiment has been successfully completed100 . Daraus folgert
Marcuse nun, dass den Positivisten nach der Durchf
uhrung des fascist experiment
das ja zunachst insofern erfolgreich war, als die Faschisten zumindest eine Regierung
etablieren konnten keine andere Wahl bliebe, als den Faschismus als Tatsache anzuerkennen; er fragt Is positivism not compelled, by its own principles, to comply with this
[fascist] world order and to work with it, not against it? Diese Frage hat in der Tat bestenfalls rhetorische Bedeutung, denn zunachst ist festzuhalten, dass die Positivisten vor
99 Wir wollen uns selbst. Wissenschaft ist Wissen um das Volk und seinen Auftrag. Die Aufgabe der
Studenten wie der Lehrer ist Dienst am Volk in der dreifachen Form des Arbeitsdienstes, des Wehrdienstes
und des Wissensdienstes. So erhalten sie die geistige Welt, die einem Volk die Gr
oe verb
urgt. Die
geistige Welt aber bedeutet Macht der tiefsten Bewahrung seiner erd- und bluthaften Kr
afte als Macht
der innersten Erregung und weitesten Ersch
utterung seines Daseins. Vergl . Dahms (1994), p. 126
100 In einem unver
oentlichten Manuskript Strange controversy aus dem Jahr 1941, vergl. Dahms (1994),
p. 197

144

und nach der Macht


ubernahme den Nationalsozialismus bekampft haben. Weiter ergibt
sich die Antwort auf die Frage, ob ein Experiment sinnvoll ist oder nicht, aus logischen

Uberlegungen,
die die (Neo-)Positivisten des Wiener Kreises ja keineswegs ablehnten
(sie nannten sich ja auch logische Empiristen). Zur Illustration dieses Sachverhalts ver
weist Dahms auf den Unsinn der Wasserproben, die zur Uberpr
ufung der Hypothese der
Hexerei an Angeklagten vorgenommen wurde (siehe unten). Zudem ist die Frage, was
successfully bedeuten soll: denn f
ur die Positivisten ist ein Experiment auch dann erfolgreich, wenn die Ergebnisse die getestete Hypothese nicht st
utzen. Wenn aber ein
Test die Hypothese st
utzt, mu sie dem positivistischen Ansatz entsprechend noch lange
nicht als wahr akzeptiert werden, denn das Problem der Verifikation war den Positivisten
nicht nur bewut, sondern wurde ausgiebig diskutiert, wie Carnaps letztlich gescheiterte
Bem
uhungen um eine Logik der Induktion zeigen.
Horkheimer hat eine dem Marcuseschen Argument strukturahnliche Argumentation
gegen den Positivismus auf die Wissenschaft und Philosophie u
bertragen: hatte sich, so
Horkheimer, in Deutschland die Idee von einer nordischen Mathematik und Physik
durchgesetzt,
so h
atte der Positivismus sie schlielich akzeptieren m
ussen, ganz wie er anderswo
die durch administrative Bed
urfnisse und konventionelle Vorbehalte vorgeformten
Muster der empirischen Soziologie akzeptiert hat. Indem er willf
ahrig die Wissenschaft zur Theorie der Philosophie macht, verleugnet der Positivismus den Geist der
Wissenschaft selbst.101

Historisch war es allerdings so, dass die Vertreter des Positivismus die merkw
urdige Idee
einer Deutschen Physik und einer Deutschen Mathematik heftig bekampft haben.
Man sollte eben nicht vergessen, dass es sich beim (Neo-)Positivismus um einen logischen
Empirismus handelt, und dass der Unfug des Begriffs einer Deutschen Physik etc schon
aus logischen Gr
unden offenbar ist. Horkheimers Kritik verfehlt ihr Ziel.
Horkheimer konstruiert eine ideologische Nahe von Positivismus und (italienischem)
Faschismus auf eine etwas merkw
urdige Weise: sowohl Neurath dem eine Nahe zum
Faschismus nachzusagen infam ware als auch Mussolini gebrauchten beide den Ausdruck Relativismus mit positiver Bewertung. Dahms weist darauf hin, dass Mussolini
einen weltanschaulichen Relativismus meint, wahrend Neurath in den von Horkheimer
zitierten Zusammenhangen von Relativismus in Beziehung auf konkurrierende Ansatze
zur Grundlegung der Mathematik spricht. Daraus lat sich schwerlich eine Nahe zum Faschismus konstruieren. Horkheimer hat seine Ansichten spater (1968) zwar revidiert, hat
aber deswegen die Positivisten nicht milder betrachtet, er habe vielmehr (Dahms) seine
Kritik so verallgemeinert, dass er sogar die Unbeschlipstheit der Besucher von Grand
Hotels als Zeichen von Positivismus gedeutet hat; auch Karl Jaspers wurde zu den Positivisten gezahlt. Generell kann gesagt werden, dass die Positivisten zumindest die
Neopositivisten des Wiener Kreises keine Vertreter des Liberalismus waren, und Popper, der eher liberalistische Ideen verfocht, war kein Positivist. Nach Horkheimer spielen
aber die politischen Auffassungen der Positivisten keine Rolle f
ur sein Argument ihrer
politischen Nahe zum Faschismus, auch wenn diese nur u
ber den Liberalismus vermittelt
wird, denn diese Auffassungen seien nur zufallig. Sie102 bietet so wenig ein Gegenmittel
gegen politischen wie spiritualistischen Aberglauben (Horkheimer, 1937). Es komme, so
Horkheimer, nicht auf die subjektive politische Haltung, sondern auf die objektive Rolle
der Philosophie an. Nun ist die Legitimitat einer derartigen Betrachtung allerdings hochst
101 Horkheimer (1967). Dahms (194) merkt an, dass sich die Aussage uber die administrativen Bed
urf
nisse der Soziologie wahrscheinlich auf den von P. Lazarsfeld eingef
uhrten Begri des administrative
research bezieht.
102 gemeint ist die positivistische Philosophie

145

zweifelhaft: der Horkheimerschen Auffassung entsprechend kommt es dann nur auf die
theoretische Deklamation, nicht aber auf das tatsachliche politische Handeln an. Horkheimer f
uhrt zur Illustration einige Gedankenexperimente durch, die die Beschranktheit
des Positivismus bezeugen sollen, u.a. zum Hexenglauben. Denn der Positivist, so Horkheimer, habe sich ja an seine Protokollsatze zu halten, und da die Empiristen angesichts
einer groeren Zahl von Protokollsatzen nicht einmal auf der Unwahrscheinlichkeit [des
Hexenglaubens] bestehen d
urfen seien sie also gezwungen, den Hexenglauben zu akzeptieren. Mit den Protokollsatzen sind hier offenbar die Aussagen von Zeugen gemeint, die
den Vorwurf der Hexerei bestatigen. Vermutlich will Horkheimer mit diesem Argument
die Widerspr
uchlichkeit, also Inkonsistenz des Empirismus zeigen, aber was er tatsachlich
liefert ist eine die Natur des Empirismus verfehlende, substanzlose, unseriose und daher
unakzeptable Polemik. Denn der Hexenglaube ist insbesondere u
ber sich an tatsachlichen
Beobachtungen orientierenden Argumentationen zu Fall gebracht worden; die angebliche
Fahigkeit, Seuchen auszulosen, Tod zu bringen und was sonst den Hexen zugeschrieben wurde kann ja gerade nicht durch Protokollsatze belegt werden, vergl. auch Dahms
(p. 136). In Bezug auf den Antisemitismus behauptet Horkheimer, dass die Positivisten
ihrer Philosophie entsprechend nicht gegen ihn vorgehen konnten, da ja die Tatsache,
dass neun Zehntel der Menschen Gespenster sehen, wenn sie unschuldige Menschen als
Teufel und Damonen ausrufen, gewissermaen induktiv als Rechtfertigung dieser irrationalen Einstellung verbucht werden m
uten. Dieser Argumentation liegt entweder ein
kaum nachvollziehbares Miverstandnis dessen, was Protokollatze reprasentieren sollen,
zugrunde, oder sie ist als mutwillige Denunziation empirischen Vorgehens zu verstehen,
von der man allerdings nicht genau wissen kann, warum sie denn angestellt wird. Denn ein
geschulter Empiriker wird sie allenfalls mit Achselzucken quittieren, so dass sie bestenfalls dazu dienen kann, unter den nicht mit empirischer Arbeit Vertrauten Proselyten zu
machen. Dahms f
uhrt zu Recht aus, dass die Lage hier analog zu der beim Hexenglauben
zu sehen sei: die Behauptungen, die Juden hatten sich im Ersten Weltkrieg gedr
uckt, seien aber gleichzeitig Kriegsgewinnler gewesen, hatten die Inflation erst herbeigef
uhrt um
dann von ihr zu profitieren etc. seien ja gerade wegen ihrer empirischen Nachpr
ufbarkeit
falsifizierbar geworden. Dass sich Antisemiten nicht um empirische Nachweise k
ummern,
wenn sie ihnen nicht ins Konzept passen, kann einer Philosophie, die auf empirischer
Nachweisbarkeit besteht, gerade nicht zum Vorwurf gemacht werden. Aber eine Philosophie, die die Empirie diffamiert, mu sich vorwerfen lassen, assoziativer Beliebigkeit
Raum zu geben.
Den affirmativen Charakter des Positivismus betont Ardorno auch durch seinen Begriff der Verdoppelung. In einer Antwort auf eine Rezension P. R. Hofstatters zu seinem
Gruppenexperiment raumt er ein, dass der Positivismus urspr
unglich durch Insistenz
auf nachpr
ufbaren Faktenaussagen gegen Dogmen und Bevormundung zielte. Aber
Heute gibt sie sich nur allzu willig dazu her, den Gedanken, der den sturen Befund
durchdringt und u
oglich ideologisch zu
bersteigt, als unwissenschaftlich und wom
verd
achtigen. Indem Interpretation, die mehr als bloe Verdoppelung der Fakten
ist, tendenziell abgeschnitten wird, behalten die Fakten recht in dem doppelten
Sinne, da sie da sind und hingenommen werden m
ussen, ohne da nach dem Wesen
gefragt werden m
usse, das sich hinter ihnen versteckt; und da sie, im Lichte solchen
Respekts, zugleich auch als respektabel legitimiert werden. (Adorno, 1957)

Spater schreibt er:


Die gegenw
artige Soziologie . . . erhebt ihrer kategorialen Struktur nach, gar nicht
erst durch Vorurteile oder Abh
angigkeiten, die bloe Nachkonstruktion des Beste
henden zum Ideal. Wie h
aufig in der Wissenschaft besagt dar
uber eine Aquivokation
mehr Wahres, als deren semantische Kritik zugestehen m
ochte: Positivismus heit

146

nicht nur eine Gesinnung, die ans positiv Gegebene sich h


alt, sondern auch eine,
die dazu positiv steht, gewissermaen durch Reflexion das ohnehin Unvermeidliche
ausdr
ucklich sich zueignet. (Adorno, 1959)

Adorno unterstellt, dass es charakteristisch f


ur den Positivismus sei, dass die Konstatierung von Tatsachen gleichzeitig die Legitimation dieser Tatsachen bedeute. Dies ist der
doppelte Positivismus. Dahms (p. 305) vermutet, dass diese schon in den dreiiger Jahren von Horkheimer und Adorno vermutete Implikation des Positivismus von Adorno als
erwiesen galt, seit Hofstatter in einer nicht nachvollziehbaren Argumentation behauptet
hatte, die Verbrechen der Deutschen wahrend des zweiten Weltkriegs konnten nicht vor
Gericht gebracht werden, da es sich ja um Kriegshandlungen gehandelt habe. So irrsinnig Hofstatters Argumentation auch ist, so wenig allerdings ist sie eine Implikation des
Positivismus.
6.5.4

Positivismus und formale Logik

Hegels Begriff der Logik ist nicht deckungsgleich mit dem der neueren formalen Logik;
hat man seine philosophische Einbettung in der hegelschen Philosophie gefunden, so folgt
daraus noch nicht zwingend, dass man die formale Logik ablehnt. Auf Adorno scheint
die formale Logik allerdings einen provozierenden Effekt gehabt zu haben:
Argumentation wird fragw
urdig, sobld sie die diskursive Logik gegen
uber dem Inhalt
supponiert.
Adorno et al. 1993, p. 32
Das Begriffspaar Induktion und Deduktion ist der szientifische Ersatz der Dialektik.
p. 90

Gemeint ist hier die formale Logik bzw. die von den Mitgliedern des Wiener Kreises so
genannte Logistik, f
ur die auch der Ausdruck Metamathematik benutzt wurde; heute ist
eher der Ausdruck mathematische Logik gebrauchlich. Es geht dabei um die logischen
Grundlagen der Mathematik, also etwa um die Frage, worin etwa ein mathematischer
Beweis besteht. Der Begriff der formalen Logik bezieht sich auf die Theorie der logischen
Verbindung von Aussagen (Aussagenkalk
ul) bzw. auf die logische Struktur von Aussagen,
wie sie z. B. im Pradikatenkalk
ul behandelt werden. Eine sehr einfache Aussage der hier
behandelten Art ist x ist ein Mobelst
uck. F
ur x kann jetzt ein Wort eingesetzt werden,
wodurch die Aussage wahr oder falsch wird. F
ur x = Tisch wird die Aussage wahr, f
ur x
= Auto wird sie falsch. Weiter konnen zur Diskussion All- oder Existenzaussagen Quantoren f
ur alle und es existiert eingef
uhrt werden. Dass hierf
ur auch Zeichen eingef
uhrt

werden, f
ur f
ur alle und f
ur es existiert dient dabei nur der Ubersichtlichkeit
(s.
unten) und nicht, wie gelegentlich behauptet, der Verwirrung. Dar
uber hinaus konnen
Relationsaussagen wie x ist Vater von y behandelt werden. Die Entwicklung dieser Logiken wurde notwendig, um z. B. mathematische Grundlagenprobleme losen zu konnen,
was mit der klassischen Aristotelischen Syllogistik nicht moglich war.
Adornos Auffassung von Logik ist stark von der hegelschen Auffassung gepragt (vergl.
die Beschreibung der hegelschen Logik in Abschnitt 6.3), und, korrespondierend dazu,
von gewissen Miverstandnissen der formalen Logik. Tatsachlich reicht der Positivismusstreit ja in die Dreiigerjahre des zwanzigsten Jahrhunderts zur
uck; Adornos (und
Horkheimers) Kritik richtete sich gegen den Neopositivismus des Wiener Kreises und in
diesem Zusammenhang gegen die dort so genannte Logistik. Horkheimer veroffentlichte
1937 einen polemischen Artikel (Horkheimer, 1937) gegen den (Neo-)Positivismus, zu dem
Adorno einige Anregungen beigesteuert hatte. In einem Brief vom 28. 11. 1936 (zitiert
nach Dahms (1994), p. 88) schreibt Adorno
147

Die prinzipielle Unm


oglichkeit, ihre beiden Grundoperationen, Experiment und Kal
k
ul, in Ubereinstimmung
zu bringen, ist die Ausgangsantinomie der Logistik d.h.
der Beweis, da es ihr nicht gelingt, eben jene einheitliche Interpretation zu geben,
die sie beansprucht; weil n
amlich die Wirklichkeit ihr widerspricht, und weil sie
selber br
uchig ist.

Kennzeichnend f
ur die Logistik ist u.a. die Entwicklung einer Symbolsprache, der die gleiche Motivation unterliegt wie der Symbolsprache der Mathematik: logische Ableitungen
sollen transparenter werden, indem die Mehrdeutigkeiten der Umgangsspache vermieden
werden. Tatsachlich werden viele Grundlagenfragen der Mathematik in dieser neuen
Logik diskutiert, aber der Anspruch der Logistik ist allgemeiner: eine Reihe logischer
(auch nicht mathematischer) Zusammenhange [kann] erst mit den Mitteln der neuen Logik zur Darstellung gelangen und damit u
berhaupt erst exakt erfat werden kann. So
formuliert Juhos (1945) die Aufgabe der Logistik; Juhos gehorte zu den Logikern, die an
der Entwicklung der Logistik im Wiener Kreis teilhatten. Dahms (1994) weist zu Recht
darauf hin, dass die Logistiker keineswegs beanspruchten, eine einheitliche Interpretation (der Wirklichkeit?) zu geben, es kam ihnen nur darauf an, die logischen Formen zu
charakterisieren, nach denen aus bestimmten Satzen andere erschlossen werden konnen,
denn die klassische (Aristotelische) Logik kann dieser Aufgabe nicht gen
ugen. Es ist ja
gerade der Fokus der (Neo-)Positivisten auf die Empirie, der dem von Adorno behaupteten Anspruch der Logistik, eine einheitliche Interpretation der Wirklichkeit zu liefern,
entgegensteht. Ein Gedanke, der sicherlich auch bei den Positivisten in Bezug auf mogliche Theorienbildungen eine Rolle spielt, ist sicher der einer Kernlogik, wie sie z.b. von
Klowski (1973), mit der empirische oder auch theoretische Satze auf ihre Kompatibilitat
hin gepr
uft werden und ohne die auch Adorno nicht auskommt, will er nicht einer vollkommenen Beliebigkeit das Wort reden. Wie es scheint, hat sich Adorno nicht wirklich
mit der formalen Logik auseinander gesetzt. Er war der Ansicht, dass die Konzeption
der formalen Logik ihre eigenen Antinomien erzeuge, was er durch den Hinweis auf die
klassische semantische Paradoxie103 des Eubulides (aus Milet, ca 40 v. Chr.) zu zeigen
versuchte: Dieser Satz ist falsch. Dieser Satz bezieht sich auf sich selbst und ist wahr
genau dann, wenn er falsch ist, und er ist falsch genau dann, wenn er wahr ist. Auf
die problematischen Implikationen dieses Satzes wird in Wissenschaftstheorie IV noch
ausf
uhrlicher eingegangen; Adorno scheint jedoch auch die in den 30-er Jahren schon bekannte Bedeutung dieser Paradoxie nicht voll erfasst zu haben, wenn er einfach feststellt,
dass der Satz einen infiniten Regress impliziere (vergl. Dahms (1994), p.89), weshalb der
Satz eine bloe Komplexion von Worten sei und deswegen u
berhaupt keine Bedeutung
habe. Godels (1931) bahnbrechende Arbeit, die auf der Basis einer Variation des Eubulidesschen Paradoxes die Unmoglichkeit einer schematischen, gewissermaen rechnenden
Anwendung formaler Techniken gerade mit den Mitteln streng formaler Argumentation
nachweist, scheint Adorno entgangen zu sein. Russels Typentheorie, die u.a. zur Vermeidung derartiger Paradoxien in der mathematischen Grundlagenforschung formuliert
worden ist, ist demnach nach Adorno vollig u
ussig; er schreibt in seinem Brief an
berfl
Horkheimer:
Es geh
ort zu einem Sinn einer wie auch immer gearteten logischen Aussage, etwas
zu meinen, andernfalls f
uhrt sie auf Antinomien. Genau damit ist aber die gesamte
Auffassung der Logik als einer Komplexion von Spielmarken prinzipiell widerlegt.

Das ist starker Tobak. Wie Dahms ausf


uhrt, hat es Adorno nicht f
ur notig gehalten,
u
berhaupt
nur
einen
Blick
in
Russells
Principia
Mathematica
zu
werfen;
statt dessen

habe er sich wohl nur auf akademischen small talk in Oxford, wo sich Adorno zu der
Zeit gerade aufhielt, bezogen. Am 25. 1. 1937 schreibt Adorno dann auch an Horkheimer:
103 Hier

v. Weizs
ackers Hinweis, dass der Ausdruck Paradoxie hier nicht ganz treend ist!

148

Bei R.[ussell] ist u


uheren Arbeiten zu denken; das Sp
atere ist
brigens nur an die fr
alles mehr oder minder Geschw
atz.

Die fr
uheren Arbeiten Russells sind wohl die gemeint, die er geschrieben hat, als er
noch von Hegel fasziniert war. Man wird Dahms Recht geben m
ussen, wenn er sagt,
dass Aussagen der Art, wie sie Adorno hier vortragt, in bezug auf die Selbstbeurteilung
Adornos von psychologischem Interesse sind, worauf hier aber nicht weiter einzugehen
ist. Horkheimer hat sich ebenfalls mit der Logistik recht eingehend vertraut gemacht,
hat es aber dann doch vermieden, darauf [in dem genannten Artikel von 1937] einzugehen (Brief Horkheimer and Adorno vom 22. 2. 1937). Gleichwohl finden sich in seiner
Polemik von 1937 gegen den Positivismus Bemerkungen u
ber die Unmoglichkeit der formalen Logik und jene abstrakte Entgegensetzung von Logistik und Dialektik, die noch
in den sechziger Jahren Verwirrung erzeugt hat (Dahms (1994), p. 91). Auf die weitere
Entwicklung der formalen Logik hat diese Feststellung ihrer Unmoglichkeit aber wohl
keinen Einflu gehabt.
In den in Adorno et al. (1993) enthaltenen Aufsatzen hat Adorno Aussagen zur formalen Logik gemacht, die nicht alle hier diskutiert werden konnen. Eine kleine Auswahl
erlautert aber Adornos Standpunkt:
Man w
urde die Wissenschaft fetischisieren, trennte man ihre immanenten Probleme
radikal ab von den realen, die in ihren Formalismen bla widerscheinen. Keine Lehre
vom logischen Absolutismus, die Tarskische ebensowenig wie einst die Husserlsche,
verm
ochte zu dekretieren, da die Fakten logischen Prinzipien gehorchen, die ihren
Geltungsanspruch aus der Reinigung von allem Sachhaltigen herleiten. (p. 129):

Im Kern scheint hier eine Kritik der formalen Logik vorzuliegen; Logik und Sachhaltiges konnen nicht getrennt werden. Vermutlich liegt diese Auffassung in Adornos Ansicht
begr
undet, dass eine Logik, die den Sachverhalten entspricht, eine dialektische sein mu,
bei der Form und Inhalt nicht getrennt sind. Das ist sicher eine starke Annahme und
es ist u
berhaupt nicht klar, warum man sich dieser Ansicht anschlieen soll. Man findet
aber Stellen in den Aufsatzen, wo klar gesagt wird, dass das Gesetz vom Widerspruch,
wie es nicht nur in der formalen Logik104 , sondern auch in der Alltagslogik verankert ist,
nicht sinnvoll sei. Der Hinweis auf Alfred Tarski ist insofern interessant, als Adorno sich
vermutlich implizit auf dessen ber
uhmte Arbeit The problem of truth in the formalized
languages aus dem Jahr 1936 bezieht, in der ein korrespondenztheoretischer Wahrheitsbegriff in Bezug auf formale Systeme diskutiert wird, um das Problem der semantischen
Paradoxien zu losen105 ; Tarskis Ansatz war, dass der Wahrheitsbegriff in einer Metasprache relativ zur Objektsprache, in der eine faktische Aussage gemacht wird, zu definieren
sei, worin Dialektiker wie Adorno wohl keinen Sinn sehen.
Die Aussagen Adornos zur formalen Logik sind polemisch und unklar, wenn nicht
einfach falsch. So schreibt er in der Einleitung, p. 29:
So unangreifbar die Logik der Abstraktionsproze, welcher sie dem Angriff entr
uckt, ist der des verf
ugenden Willens. Er scheidet aus, disqualifiziert, wor
uber er
verf
ugt. Nach dieser Dimension ist die Logik unwahr; ihre Unangreifbarkeit selber
der vergeistigte gesellschaftliche Bann. Sein Scheinhaftes manifestiert sich an den
Widerspr
uchen, auf welche die Vernunft in ihren Gegenst
anden trifft.
104 Ausnahmen sind Versuche, mehrwertige Logiken zu konstruieren, worauf hier aber nicht eingegangen
werden kann.
105 Wie sie z.B. durch Russells ber
uhmte Paradoxie vom Dorfbarbier illustriert wird: Der Dorfbarbier
rasiert alle M
anner im Dorf, die sich nicht selbst rasieren. Wer rasiert den Barbier? Wenn er sich selbst
rasiert, rasiert er nicht alle M
anner im Dorf, die sich nicht selbst reasieren, der er ist ja einer der M
anner
im Dorf und er rasiert sich selbst. Rasiert er sich nicht selbst, dann rasiert er nicht alle M
anner im Dorf,
die sich nicht selbst rasieren.

149

Die in der Aussage enthaltenen Behauptungen sind so merkw


urdig, dass man vermuten
konnte, dass dieses Zitat aus dem Zusammenhang gerissen ist. Der Zusammenhang ist
durch Aussagen zum Paretoschen Soziologismus, zum falschen und richtigen Bewutsein,
deren objektive Geltung durch das Moment des Entsprungenseins, . . . das permanent
in sie hineinwirkt, gegeben ist. Die zitierte Aussage u
ber die Logik kommt dann unvermittelt und erscheint in ihrer Absolutheit nicht an den Kontext gebunden. Eine kurze
Diskussion des Satzes illustriert die nur assoziative und apodiktische Struktur der Adornoschen Argumentation.
Dem ersten Teil der Aussage entsprechend ist die Logik nur unangreifbar aufgrund
eines Abstraktionsprozesses, der wiederum auf einem verf
ugenden Willen beruht. Es ist
nicht klar, worin der Abstraktionsprozess besteht, also mu der Leser selbst erkunden,
worin dieser Prozess besteht bzw. wie er strukturiert ist. Insbesondere mu der Leser
herausfinden, warum dieser Prozess ein voluntaristischer Akt ist. Es geht bei dieser Anmerkung nicht darum, zu kritisieren, dass der Leser selber denken mu, sondern darum,
dass der Text semantisch unterbestimmt ist und deshalb gegen Kritik immunisiert wird,
denn eine irgendwie sinnvoll erscheinende Deutung findet man immer. Was, so konnte
man fragen, bestimmt denn die Intentionalitat, die mit diesem Akt verkn
upft sein mu,
zumal die Logik dann ja unwahr ist, wie Adorno feststellt. Allerdings liefert Adorno keine
Antwort, vielmehr man mu sich als Leser in einen assoziativen Schwebezustand begeben,
in dem sich durch Offenbarung alle Fragen auflosen. Man kann aber auch verschiedene
Moglichkeiten deklinieren: entweder hat Adorno die Behauptung der voluntaristisch erzeugten Unangreifbarkeit diese Behauptung werde im Folgenden als die Aussage V
bezeichnet aus einer ihm bereits evidenten Aussage gefolgert, oder sie ist ihm evident.
Der Begriff des Folgerns setzt den der Logik voraus, dessen nach Adorno voluntaristische
Herkunft ihn unwahr macht. Also liegt es nahe, anzunehmen, dass Adorno die Aussage V
nicht gefolgert hat, mithin mu die Aussage V f
ur Adorno evident sein. Aber diese letztere Aussage u
ber V ist ebenfalls eine Folgerung nach dem formalen Muster: wenn p q
wahr106 ist, und nun p gilt (nicht-p), so mu q wahr sein. Auch diese Folgerung setzt
die als unwahr erkannte Logik voraus, also mu man folgern, dass man nicht folgern
darf. Man sieht, dass der assoziative Mechanismus, der die Behauptungen Adornos generiert, auf selbstreferentielle Verknotungen des Denkens f
uhren kann, die die Moglichkeit
des Denkens negieren, wenn man die Texte nur ernst nimmt. Eine weitere Moglichkeit,
Adornos Aussagen zu interpretieren, liegt darin, sie nicht so platt und vordergr
undig deuten zu wollen, wie es eben geschehen ist. Denn die Tiefe der Aussagen konnte
ja darin liegen, dass sie eben dialektisch sind, denn die gefolgerte Aporie der Selbstreferenz entsteht vielleicht ja nur durch den in der dialektischen Logik nicht akzeptierten
Satz vom Widerspruch, worauf Adorno an anderer Stelle hinweist. Dass ohne den Satz
vom Widerspruch viele Beweise der Mathematik ung
ultig107 w
urden, stort Adorno wohl
wenig, beweist anscheinend eher den Unfug solcher Beweise; die Frage, ob es Adorno
ebensowenig gestort hat, dass man seine Argumentationen wegen seines mehr als saloppen Umgangs mit der Logik f
ur Unfug halt, mu hier als Frage an die Adorno-Adepten
offen bleiben.
Weiter heit es im obigen Zitat: [Die] Unangreifbarkeit selber [ist] der vergeistigte
gesellschaftlichen Bann. Was damit gemeint ist, wird leider nicht erlautert, die Interpretation dieser Aussage wird wieder der Intuition des Lesers u
berlassen. Es konnte sein, dass
er zum Ausdruck bringen will, dass die Gesellschaft die Logik kritiklos als unangreifbar
sieht, also wie gebannt auf eine nur vermeintliche G
ultigkeit der Logik starrt. Jedenfalls
106

steht f
ur das einschlieende Oder.
niederl
andische Logiker Brouwers hat die allgemeine G
ultigkeit des Satzes vom Widerspruch
f
ur die Mathematik ebenfalls in Frage gestellt und eine intuitionistische Mathematik mit konstruktiven
Beweisen, die also nicht auf dem Satz vom Widerspruch beruhen, gefordert. Sein Ansatz hat sich nicht
durchgesetzt.
107 Der

150

soll f
ur diesen Bann die Aussage Sein Scheinhaftes manifestiert sich in den Widerspr
uchen, auf welche die Vernunft in ihren Gegenstanden trifft. gelten. Der gesellschaftliche
Bann ist also nur scheinhaft, soll das heien, dass er nicht wirklich ist? Vielleicht ist
gemeint, dass der gesellschaftliche Bann etwas vorspiegelt, das nicht wirklich ist etwa
die G
ultigkeit der Logik , und das sich aus den Widerspr
uchen ergibt, die die Vernunft
erkennt. Man kann also vermuten, dass nach Adorno die Vernunft etwas anderes als
die Logik ist. Das kann durchaus sein, aber eine Vernunft ohne Logik d
urfte schwer zu
konzipieren sein. Interessant ist aber die Verwendung des Begriffs des Widerspruchs, der
ja ein logischer Begriff ist, aber hier nicht als ein logischer verstanden werden kann, denn
deren Geltung beruht ja nur auf einem voluntaristischen Akt und ist also unwahr und
ergo nicht wirklich. Vermutlich ist die implizite Annahme, dass der Widerspruch hier als
ein dialektischer gemeint ist. Was das nun bedeuten soll, bleibt leider vollkommen unklar.
Es zeigt sich, dass der Text logisch nicht klar zu erfassen ist. Die Vermutung, dass
irgendetwas Dialektisches vom Leser gefordert wird, liegt nahe. Gleichzeitig erscheinen
die vielfaltig in den Adornoschen Texten zu findenden Attacken gegen die Logik als
notwendig, um die Texte gegen den Vorwurf der Unlogik zu immunisieren. Auf den Seiten
31 bis 32 in Adorno et al. (1991) stellt Adorno fest:
Nie ist immanente Kritik rein logische allein, sondern stets auch inhaltliche, Konfrontation von Begriff und Sache. An ihr ist es, der Wahrheit zu folgen, welche die
Begriffe, Urteile, Theoreme von sich aus sagen wollen, und sie ersch
opft sich nicht
in der hermetischen Stimmigkeit der Gedankengebilde. Aus einer weithin irrationalen Gesellschaft steht gerade der wissenschaftlich stipulierte Primat der Logik zur
Diskussion.

Den ersten beiden Satzen kann man zustimmen, wenn unter Konfrontation von Begriff
und Sache verstanden wird, dass empirische Sachverhalte (Sache) kritisch mit einer in
einem theoretischen Zusammenhang gegebenen Begrifflichkeit aufeinander bezogen werden. Nicht nur Positivisten, sondern jeder Empiriker w
urde ja so vorgehen. Aber bei einem
solchen Vorgehen handelt es sich dann wohl nicht um die von Adorno geforderte immanente Kritik, unter der man so etwas wie eine logische Konsistenzpr
ufung einer Theorie
verstehen konnte, aber die ware rein logisch, und immanente Kritik soll ja gerade nicht
rein logisch sein. Das Primat der Logik steht wegen der Irrationalitat der Gesellschaft
zur Diskussion, sagt Adorno. Nun kann man die Irrationalitat der Gesellschaft aber nur
feststellen, wenn man einen Begriff von Rationalitat hat, diesem Postulat w
urde sich
vermutlich auch Hegel nicht widersetzen, da ihm zufolge ein Begriff nicht ohne seine Negation zu denken ist. Rationalitat ist aber ohne Logik nicht zu denken, und so w
urde
man vermuten, dass der Logik doch gewissermaen, sozusagen, konnte man hinzuf
ugen
ein Primat zukommt. Aber hier scheint der Leser zu irren, nach Adorno steht dieser
Primat zu Diskussion. W
urde er diese Behauptung doch nur erlautern! Vielleicht ist die
folgende Aussage Adornos hier hilfreich:
Denken, das sich dar
uber belehrt, da zu seinem eigenen Sinn geh
ort, was nicht
seinerseits Gedanke ist, sprengt die Logik der Widerspruchslosigkeit. Ihr Gef
angnis
hat Fenster. Die Enge des Positivismus ist, da er davon keine Kenntnis nimmt
und sich als in eine letzte Zuflucht in Ontologie, w
are es auch nur die g
anzliche
formalisierte, inhaltslose des Deduktionszusammenhangs von S
atzen ist, verschanzt.
(p. 33)

Der erste Satz ist sehr schwierig zu verstehen, wenn u


berhaupt. Zunachst einmal kann
sich, der Aussage nach, das Denken dar
uber belehren, was zu seinem Sinn gehort. Es ist
nicht klar, was zu seinem Sinn bedeutet. Vielleicht ist der Sinn im Sinne von Zweck
gemeint, das Denken denkt dar
uber nach, wozu es gut ist. Oder es ist die Sinnhaftigkeit
151

im Sinne der Konsistenz des Denkens gemeint. Das ist aber wenig wahrscheinlich, denn
Konsistenz bedeutet Widerspruchsfreiheit, aber die wird ja gerade gesprengt. Dann konnte mit dem Sinn die Vern
unftigkeit gemeint sein in dem Sinne, dass Relevantes gedacht
wird. Vielleicht sind andere Deutungen moglich, auf jeden Fall gehort zu diesem Sinn,
was nicht seinerseis Gedanke ist, aber was ist das, was nicht seinerseits Gedanke ist?
Vielleicht das Innesein irgendeines empirischen Sachverhalts. Eine solche Interpretation
impliziert eine bestimmte Definition von dem, was ein Gedanke sein soll, das Innesein
eines empirischen Sachverhalts ware dann jedenfalls kein Gedanke, sondern vielleicht eine
Art passiver Wahrnehmung. Was auch immer nun mit Gedanke gemeint ist, es sprengt
die Logik der Widerspruchslosigkeit. Vielleicht hilft dieses Attribut, herauszufinden, was
mit dem Sinn, der nicht Gedanke ist, gemeint ist, denn es mu ja die Widerspruchslosigkeit sprengen. Vielleicht ist die Widerspr
uchlichkeit der Welt als Totalitat gemeint, die
Adorno als Dialektiker ja stets im Sinne hat, und die hegelsche Logik ist ja nicht formal
von der Welt abgetrennt, sondern auf irgendeine Weise ontologisch der Welt immanent.
Die formale Logik scheint nun aber mit dem Begriff der Widerspruchslosigkeit gekoppelt
zu sein, sie ist die Logik der Widerspruchslosigkeit und als solche ist sie, wie Adorno
findet, ein Gefangnis, wahrscheinlich, weil sie von ihrem Fetisch, dem Postulat der Widerspruchslosigkeit, nicht loskommt und deshalb die Widerspr
uchlichkeit der Welt nicht
reprasentieren kann. Aber es gibt Hoffung, denn Adorno wei, dass das Gefangnis Fenster
hat, auch wenn er uns nicht sagt, worin sie bestehen. Doch leider kann der Positivismus
also wir Positivisten, denn letztlich sind wir alle Positivisten, auch wenn wir es uns nicht
eingestehen, denn wer ist nicht schon einmal unbeschlipst im Grand Hotel gewesen?
diese Fenster gar nicht wahrnehmen, vermutlich, weil er so sehr auf die Fakten fokussiert,
die aber wegen der Totalitat gar nicht separat zu denken sind. Der Positivismus braucht
eine Logik von Satzen, von der er meint, dass sie die Wirklichkeit beschreiben, und dieser
Logik zufolge m
ussen die Satze widerspruchsfrei sein, was aber an der Logik der Wirklichkeit vorbei geht, da sie nicht widerspruchsfrei ist, weshalb die Forderung nach einem
widerspruchsfreien Deduktionszusammenhang auch sinnlos ist.
Die Interpretation der Aussagen Adornos erweist sich nicht nur als m
uhsam, was
noch hinzunehmen ware, konnte man sich sicher sein, die richtige Interpretation gefunden zu haben. F
ur eine richtige Interpretation wird man zumindest intuitiv eine gewisse
Stimmigkeit, also Konsistenz erwarten. Aber die Forderung nach Konsistenz des Deduktionszusammenhanges ist ja, wie Adorno sagt, inhaltsleer. Deswegen gibt es auch vielleicht
in den Adornoschen Aufsatzen einen solchen deduktiven Zusammenhang gar nicht und
der Eindruck einer rein assoziativen Aneinanderreihung von Satzen mit unklarer Bedeutung tr
ugt nicht, entspricht vielleicht sogar einem notwendigen Bezug zur Totalitat, die
ja auch widerspr
uchlich ist, wenn auch nicht in einem formallogischen Sinne. Vielleicht
sind deswegen so viele der Adornoschen Satze, und nicht nur die, die sich auf die Logik
beziehen, von selbstreflektiver, sinnverwirrender Widerspr
uchlichkeit, deren Mangel an
realer Bedeutung allenfalls durch einen Gewinn an sinnfreier Sprachasthetik aufgehoben

wird. Tatsachlich war Adorno schon fr


uh der Ansicht, das Asthetik
im Sinne von Stil eine
Rolle in der Argumentation u
ber die formale Logik bzw. die Logistik zu spielen hatte.
Horkheimer hatte in einem Brief an Adorno vom 8. 12. 1936 geschrieben:

Ubrigens
sehen die Herren in ihrer Logik nicht allein von der Beziehung zwischen
Wort und Bedeutung, sondern, was damit zusammenh
angt, von der Verbindung der
Worte und S
atze zu einer stilistischen Einheit ab. Das Problem des Stils, das nur
der allgemeinere Ausdruck f
ur das Problem der Dialektik der Darstellungsform ist,
kommt in dieser Logik nicht vor, und man kann zeigen, da es sie zu Fall bringt.

Adorno scheint u
ber diesen Hinweis hoch erfreut gewesen zu sein, denn er antwortete:
Ihre Idee, das Nichtauftreten des Stils in der Logistik zum Angelpunkt der Kritik

152

zu machen, liegt mir nat


urlich besonders nahe, so nahe, da ich sie, als zu sehr pro
domo, nicht zu formulieren gewagt h
atte.
(Adorno an Horkheimer, 25. 1. 1937), zitiert nach Dahms (194), p. 107-108.

Weder Horkheimer noch Adorno haben es geschafft, die formale Logik wegen deren mangelnden Ber
ucksichtigung des Stils zu Fall zu bringen, aber dass man u
berhaupt glaubte,
das Wesen der formalen Logik anhand von Fragen des Stils kritisieren zu konnen, wirft
ein grelles Licht auf das Logikverstandnis der Autoren.
6.5.5

Empirie und Adornos Zorn

Wahrend in den klassischen Naturwissenschaften die Rolle der Empirie fest verankert ist,
ist die Rezeption empirischer Untersuchungen in Bezug auf gesellschaftliche Fragestellungen keineswegs einm
utig. Wie in Abschnitt 6.5.3 gezeigt wurde, kann man der Ansicht
sein, dass empirische Untersuchungen im Kern einen affirmativen Charakter haben und
deswegen eine Unwandelbarkeit gesellschaftlicher Bedingungen suggerieren. Andere Philosophen sind der Ansicht, dass die empirische Methodologie der komplexen Dynamik
gesellschaftlicher Prozesse nicht gerecht werden konne. Logisch zwingend sind diese Auffassungen nicht, sie ergeben sich nur aus Grund
uberzeugungen, die nur f
ur jeweils einige
Philosophen Evidenzcharakter haben, f
ur andere aber nicht (vergl. Abschnitt 7).
Dass einzelne empirische Untersuchungen wohl kaum die Gesamtheit der komplexen Wechselwirkungen in einer Gesellschaft erfassen konnen, ist nun eine eher banale
Weisheit. Dieses Komplexitatsargument gilt auch im u
ur die Na bertragenen Sinne f
turwissenschaften, man denke etwa an die Molekulargenetik: die Identifikation eines Gens
bedeutet nicht die Charakterisierung eines Merkmalkomplexes, der durch dieses und nur
durch dieses Gen bestimmt wird. Die Wirkung eines Gens entfaltet sich erst in Wechselwirkung mit der anderer Gene, und moglicherweise in Wechselwirkung mit der Umwelt.
Aber dieser Sachverhalt bringt keinen Genetiker dazu, Genetik nur philosophisch vom
Schreibtisch aus zu treiben.
Die These, dass empirische Resultate der Sozialwissenschaft zur Affirmation des Bestehenden gebraucht bzw. mibraucht werden, ist weniger banal. Sie bezieht sich auf einen
Spezialfall der Problematk des Mibrauchs von Wissenschaft, aber auch von Philosophien
generell; letztere konnen ja zu Ideologien deformiert werden, die dann den theoretischen

Uberbau
f
ur politische und okonomische Systeme bilden, die nur f
ur eine Minderheit einer
Gesellschaft von Vorteil ist. Die Frage, wie die Demarkation von Mibrauch und sinnvoller Anwendung zu defnieren ist, f
uhrt weit u
ber die Moglichkeiten dieses Skriptums
hinaus, aber die Frage, ob eine sich philosophisch gebende, aber letzlich apodiktische
Denunziation jeder Empirie nicht auch einen Mibrauch der Philosophie darstellt, mu
gestellt werden108 .
Der Versuch, die gesellschaftliche Komplexitat in ihrer Ganzheit vom Schreibtisch
aus durch begriffliche Analyse zu erfassen, setzt voraus, dass bereits ein begriffliches System existiert, das notwendig ein isomorphes Bild der Wirklichkeit impliziert, das es nur
zu explizieren gilt. Das Scheitern der rationalistischen Philosophie spricht gegen die Existenz eines solchen Systems. Dar
uber hinaus ergibt sich die Frage, wie gesellschaftliche
Sachverhalte erfat werden, um sie einer Analyse zuganglich zu machen. Die Steuerbarkeit durch Interessen ist kein Merkmal, dass nur der systematischen Empirie zukommt,
Steuerbarkeit ist ein mogliches Merkmal jeder, und damit auch geisteswissenschaftlicher
Forschung. Systematisch soll eine Empirie heien, die auf explizit formulierten und
108 Der Mibrauchsvorwurf legt die Existenz einer Absicht nahe, die aber nicht existieren mu. Die
gennante Denunziation kann auch einfach ein Resultat schlechten Philosophierens sein.

153

deshalb prinzipiell kritisierbaren Hypothesen und Planungen der Untersuchungen und


auf einer nachvollziehbaren und deswegen ebenfalls kritisierbaren Datenanalyse beruht.
Auch hier ergeben sich Diskussionen, wenn nicht gar Glaubenskampfe. Generell lat sich
aber sagen, dass ein nicht gerechtfertigter Anspruch auf Wahrheit im Allgemeinen fr
uher
oder spater als solcher decouvriert wird. Die systematische Empirie ist bem
uht, von einem ebenso endlosen wie fruchtlosen Abtausch von dem einen als evident wahr und dem
anderen als offenkundig abstrus erscheinden Meinungen loszukommen, die jeweils durch
geeignet gewahlte Beispiele gest
utzt werden sollen.
Wie diese systematische Empirie funktioniert, soll zunachst an einem Beispiel illutriert werden. Daran schliet sich eine Diskussion der empirischen Arbeit Horkheimers
und Adornos an. Adornos R
uckzug von der Empirie scheint zum Teil durch die kritische
Rezeption seiner empirischen Untersuchungen bewirkt worden zu sein, andererseits wird
seine Skepsis gegen
uber der Empirie, wie sie in seinen Schriften im Zusammenhang mit
dem Positvismusstreit zum Ausdruck kommt, schon in seinen fr
uhen Arbeiten deutlich.
Das eben angek
undigte Beispiel ist die von Herrnstein und Murray (1994) vorgelegte Studie u
ber die Rolle der Gene auf den Intelligenzquotienten (IQ), derzufolge die im
Allgemeinen schlechtere soziale Lage der schwarzen US-Amerikaner auf genetisch bedingte Intelligenzunterschiede zur
uckzuf
uhren sei: je mehr schwarze Gene ein Mensch hat,
desto geringer sei die Wahrscheinlichkeit, dass er u
ugt, der ihn okono ber einen IQ verf
misch erfolgreich sein lat. Herrnstein & Murrays These ist noch allgemeiner gefat: In
den USA habe sich eine Intelligenzelite herausgebildet, die sich einerseits reproduziert
(intelligente Eltern haben intelligente Kinder), und die andererseits die intellektuellen
Berufe, oder doch zumindest diejenigen Berufe, die ohne eine u
berdurchschnittliche Intelligenz nicht ausgef
uhrt werden konnen, dominiere. Die weniger intelligenten Mitglieder
der US-Gesellschaft m
ussen mit den weniger qualifizierten Berufen Vorlieb nehmen und
erzeugen dar
uber hinaus im Durchschnitt weniger intelligente Kinder, f
ur die dann das
Gleiche gelte, so dass ein Zweiklassensystem entstehe. Sowohl die Erhebung der Daten als
auch deren statistische Analyse erschienen so sophistiziert und also zwingend, dass Herrnsteins und Murrays These vielen Lesern als bestatigt schien. Ein fundierter Verriss dieser
These erschien allerdings bereits im Dezember 1994 in der Zeitschrift Nature (Blinkhorn,
(1994)), aber der Aufruhr unter Wissenschaftlern war durch diese Rezension noch nicht
vollstandig reprasentiert. 1997 erschien das Buch von Devlin et al., in dem die verschiedenen Aspekte der Herrnstein-Murray-These kritisch diskutiert und widerlegt wurden.
Das Kapitel 12 von Clark Glymour: Social Statistics and genuine Inquiry: Reflections
on The Bell Curve, ist hier von besonderem Interesse; Glymour liefert sieben (!) alternative statistische Analysen109 der Herrnstein-Murray-Daten, die diese ebenso gut wie
das Herrnstein-Murray-Modell erklaren, aber ohne die These der genetischen Determiniertheit geringerer Intelligenz auskommen. Die von Herrnstein und Murray vorgelegten
Daten implizieren also keinesfalls die These dieser Autoren. Die Herrnstein-Murray-These
hat nur bei denen u
berlebt, die sich durch keinerlei Argument von ihren Vorurteilen abbringen lassen.
Die Geschichte der Herrnstein-Murray-These ist in vielerlei Hinsicht typisch f
ur die
empirische Forschung: gerade bei komplexen Fragestellungen wie die nach der Beziehung
zwischen genetischen Faktoren und okonomischem Erfolg sind die Daten nicht so eindeutig, wie manche Forscher, Politiker und andere Mitglieder der Gesellschaft es gerne
hatten. Dies fordert die Kritik anders denkender Forscher heraus, die zu anderen Ergebnissen kommen; der positivistische Wissenschaftsbetrieb enthalt, sofern er nicht durch
administrative Vorgaben eines interessierten Staates eingeschrankt wird, automatisch
greifende Korrekturmechanismen. Die erneute Analyse, manchmal auch die Neuerhe109 Anpassung

von Strukturgleichungs-Modellen

154

bung von Daten, etwa wenn die Datenbasis der ersten Untersuchung nicht reprasentativ
ist oder wenn wesentliche Variablen konfundiert wurden, ist notwendig, um fakten- und
nicht nur meinungsbasierte Gegenargumente liefern zu konnen; auch und gerade die Anwendung statistischer Verfahren verweist oft auf eine grundsatzliche Mehrdeutigkeit von
Daten, die sich dem qualitativen Schauen entziehen kann. Ohne systematisch erhobene
Daten und deren Analyse ist Vorurteilen kaum beizukommen.
Die Korrekturmechanismen des Wissenschaftsbetriebes machten naturgema auch
nicht halt vor empirischen Arbeiten, an denen Adorno, trotz seines distanzierten Verhaltnisses zur Empirie, in den USA und spater, nach seiner R
uckkehr aus den USA, in
Deutschland beteiligt gewesen war. Einige der Untersuchungen in den USA konnen als
Marktforschung bezeichnet werden, so z. B. das Radio Broadcasting Project; Adornos
Verachtung f
ur Marktforschung mag hier einen Teil ihrer Ursachen haben. Jedenfalls war
es die Mithilfe der von ihm verachteten Positivisten, vielfach ehemalige Mitglieder des
Wiener Kreises, die dieses Projekte vor dem Scheitern bewahrt haben, was f
ur das in die
USA verlagerte Frankfurter Institut wohl sehr unangenehme finanzielle Folgen gehabt
hatte.
Besonders bekannt wurde nun die Studie zur Autorit
aren Pers
onlichkeit, die von Adorno, Frenkel-Brunswik, Levinson und Sanford (1950) vorgelegt wurde. Ziel dieser Studie
war es, das Auftreten antisemitischer und antidemokratischer Einstellungen zu deuten.
Die Grundannahme bestand darin, dass diese Art von Einstellung psychoanalytisch durch
R
uckgriff auf Erich Fromms Theorie des autoritaren Charakters erklart und durch die
F-Skala erfasst werden konne. Die F-Skala sowie die gesamte Studie werden haufig nur
mit Adorno assoziiert, vermutlich wegen der Zitierpraxis Adorno et al., was aber in
dieser Form nicht gerechtfertigt ist, wie Fahrenberg und Steiner (2004) noch einmal herausgearbeitet haben: die Koautoren Adornos haben einen mindestens so groen Anteil
an der Studie wie Adorno. Auf die Studie wird deshalb im Folgenden mit dem K
urzel
AFLS - wegen Adorno, Frenkel-Brunswik, Levinson und Sanford Bezug genommen.
Die F-Skala besteht aus 78 Items, also Aussagen, f
ur die man auf einer 8-Punkte
Skala das Ausma seiner Zustimmung angeben kann. Die Items erfassen das Merkmal (autoritar-faschistoid) indirekt, um leugnerisches Antwortverhalten zu vermeiden.
Je mehr Items man zustimmt, desto hoher der Score, d.h. der Punktwert. Die F-Skala
wurde von AFLS urspr
unglich als eindimensional konzipiert; je groer der Punktwert,
desto groer sollte das autoritar-faschistoide Potential der getesteten Person sein.
Hier ergibt sich eine erste Kritik: komplexe Merkmale wie mehr oder weniger autoritar sein sind erfahrungsgema nicht eindimensional, und ob eine Person, die autoritar ist,
auch faschistoid ist, ist eine weitere Frage. Als die Studie in der ersten Halfte der 40-er
Jahre in den USA durchgef
uhrt wurde, existierten bereits statistische Verfahren, die es
erlauben, die Hypothese der Eindimensionalitat zu pr
ufen110 . Dass die F-Skala mit groer
Wahrscheinlichkeit mehr als nur eine Einstellungsdimension erfat, ist schon deswegen zu
erwarten, weil Fragebogen mit einer so relativ groen Anzahl von Items kaum jemals ein
dimensional sind; eine Uberpr
ufung der (Hypo-)These der Eindimensionalitat durch eine
einfache Hauptachsentransformation ware deswegen in jedem Fall ratsam gewesen. Diese

Uberpr
ufung wurde von AFLS nicht durchgef
uhrt, und Kritik an dieser Unterlassung ist
sicher schon sehr fr
uh geauert worden. Das Krasseste, was uns bis jetzt widerfuhr111
war aber eine Kritik von Shils, der argumentierte, dass die Fokussierung auf die Kopplung von Autoritarismus und Faschismus durch AFLS der Struktur des Autoritarismus
nicht gerecht werde, denn auch die Anhanger des Kommunismus seien autoritar. Weiter:
110 Bei 78 Variablen den Items ist eine eindimensionale L
osung sehr unwahrscheinlich, und bei
dieser Anzahl von Variablen sind ca. 300 Probanden hinreichend f
ur eine einfache Hauptachsentransformation zur Absch
atzung der Dimensionalit
at des Fragebogens.
111 Adorno an Horkheimer, 20. 6. 1953, nach Dahms, p. 294

155

The left-right dichotomy is present not only in the general interpretative chapters
written by professor Adorno but even in the severely empirical chapters written by
professor Levinson and Dr. Sanford. The entire team of investigators proceeds as if
there were an unilinear scale of political and social attitudes at the extreme right of
which stand the Fascist the product and proponent of monopoly-capitalism , at
the other end what the authors call the complete democrat who as I shall presently
demonstrate actually holds the views of the non-Stalinist Leninist. (vergl. Dahms,
p. 295)

Shils versuchte dann, nachzuweisen, dass der Autoritarismus rechter und linker Provenienz im Kern identisch sind. Obwohl Shils kritische Bemerkungen zu McCarthys Kommunistenhatz machte, war sein impliziter Hinweis, dass AFLS die Kommunisten moglicherweise verharmlost hatten, f
ur diese Autoren gefahrlich. Adorno hat spater zugestanden,
dass die kommunistischen rigid low in der Autoritarismusstudie nicht hinreichend ber
ucksichtigt worden sind, was aber an einem Mangel entsprechender Versuchspersonen
gelegen habe. Eine vollstandigere Darstellung der Rezeption der Studie findet man in
Dahms (1994), p. 294 ff. Jedenfalls soll die Shils-Rezension mit dazu beigetragen haben,
dass sich Adorno nach dem Krieg dazu entschloss, nach Deutschland zur
uckzukehren. In
Deutschland hat dann der Soziologe Leopold von Wiese den Wert der Authoritarian Personality als nur f
ur die USA charakteristisch eingeschrankt. Diese Reaktion zusammen
mit den Reaktionen auf sein in Deutschland durchgef
uhrtes Gruppenexperiment habe
dann zur Reaktivierung grundsatzlicher Zweifel am Wert empirischer Sozialforschung begetragen, die schlielich erneut in eine scharfe Positivismuskritik einm
undeten (Dahms
(1994), p. 299). Die Reaktion auf von Wieses Argument gegen die F-Skala ist insofern
merkw
urdig, als das Argument dem f
ur Adorno zentralen Totalitatsgedanken Rechnung
tragt. Es ist doch denkbar, dass die gesamtgesellschaftlichen Bedingungen eben die Totalitat der Gesellschaft in den verschiedenen Gesellschaften USA und Deutschland sich
verschieden auswirken. Ein hoher Wert auf der F-Skala mu in den USA noch keine faschistoiden Neigungen bedeuten, wahrend der gleiche Wert in Deutschland zumindest in
den ersten Nachkriegsjahren tatsachlich faschistoide Tendenzen implizieren kann. Aber
die psychoanalytische Orientierung Adornos mag die Ventilierung derartiger Hypothesen
verhindert haben, d.h. er mag implizit angenommen haben, dass die psychodynamischen
Prozesse, die in der Psychoanalyse postuliert werden, in jeder Gesellschaft in gleicher
Weise verlaufen. Jedenfalls scheint die theoretische Konzeption der autoritaren Personlichkeit f
ur die Autoren einen so hohen Plausibilitatsgrad gehabt zu haben, dass ihnen
nicht in den Sinn kam, dieses Konzept anhand ihrer Daten u
berhaupt einmal zu u
berpr
ufen. In einer Arbeit von Martin (2001) wird dementsprechend ein auerordentlich
schwerwiegender Mangel der Untersuchung aufgezeigt. Die mogliche Mehrdimensionalitat des Autoritarismuskonzepts spielt dabei zunachst nur eine untergeordnete Rolle, es
geht vielmehr um die Datenerhebung und - auswertung selbst: die Antworten in den
psychoanalytisch motivierten Interviews, die die Antworten auf die 78 Items der Skala
komplettieren sollen, werden nach Magabe der Punktwerte auf der Skala vorgenommen.
Dies bedeutet zunachst, dass ein hoher Punktwert auf der F-Skala bereits als indikativ f
ur
Authoritarianism angesehen wurde. Diese Gleichsetzung macht aber nur Sinn, wenn man
bereits wei, dass die verwendeten Items genau das Merkmal erfassen, das erfat werden
soll. Das Problem besteht hier aber in der Interpretation der inversen Wahrscheinlichkeit: beobachtet man bei bereits als autoritar oder gar faschistoid kategorisierten Personen
mit hoher Wahrscheinlichkeit ein bestimmtes Merkmal, so bedeutet das Vorhandensein
eines solchen Merkmals noch nicht, dass die Person mit ebenso hoher Wahrscheinlichkeit
auch autoritar oder gar faschistoid ist112 . Ob also ein hoher Punktwert auf der F-Skala
tats
achlich eine autoritar-faschistoide Personlichkeit anzeigt, mu empirisch u
uft
berpr
112 Es

sei A das Merkmal autorit


ar, B sei das Merkmal faschistoid. p(A|B) sei die bedingte Wahrscheinlichkeit, autorit
ar zu sein, wenn man faschistoid ist, und p(B|A) sei die bedingte Wahrscheinlich-

156

werden, und dazu benotigt man ein externes G


ultigkeits- oder Validitatskriterium, d.h.
es mu moglich sein, das Ausma des Merkmals autoritar-faschistoid unabhangig von
der F-Skala zu erheben. Dieses Vorgehen ist um so wichtiger, als die Items das Merkmal autoritar-faschistoid moglichst indirekt erfassen sollen, d.h. eine Person mit diesem
Merkmal soll nicht merken, dass eben dieses Merkmal gemessen werden soll, denn dem
in der Methodologie der Fragebogenerebung hinreichend dokumentierten Prinzip der sozialen Erw
unschtheit entsprechend wird die Person, wenn sie es merkt, das Vorhandensein dieses Merkmals durch entsprechende Antworten zu verdecken suchen, denn in der
offentlichen Meinung ist das Merkmal autoritar-faschistoid ja negativ besetzt. AFLS
hatten ein derartiges externes Kriterium anscheinend nicht, f
ur sie bedeutete ein hoher
F-Skalenwert eben, dass die entsprechende Person autoritar-faschistoid ist. Damit wird
aber das Merkmal autoritar-faschistoid nicht mehr analysiert und expliziert, sondern nominal definiert (Martin, 2001). Man konnte auch sagen, dass AFLS das Merkmal einfach
nur operational definiert haben: wer bestimmte Items der F-Skala positiv beantwortet
(d.h. den Aussagen zustimmt), ist per definitionem autoritar-faschistoid. Jedenfalls wird
die Argumentation durch diese Definitionen zirkular. Wegen der genannten Asymmetrie
der inversen Wahrscheinlichkeit erscheint es als wenig sinnvoll, sich mit einer derartigen
Definition zu begn
ugen; es sei aber angemerkt, dass Adorno in seinen Schriften gegen den
Positivisten die Praxis der operationalen Definition scharf geielt, er scheint sich seines
Gebrauchs eben dieses Definitionstyps bei der Konstruktion der F-Skala nicht bewut
gewesen zu sein.
Ein weiterer Faktor, der bei der Konstruktion von Fragebogen ber
ucksichtigt werden
mu, ist die die Messungen verzerrende Aquiescence, also die Neigung, einer Aussage
zuzustimmen, unabhangig davon, ob das jeweils angesprochene Merkmal vorhanden ist
oder nicht. Auch hier haben AFLS nicht hinreichend Sorge getragen, den Effekt dieser
Neigung durch entsprechende Konstruktion der Fragen (Items) zu reduzieren, und verhalten sich pikanterweise positivistischer (indem sie Daten einfach so nehmen, wie sie
erscheinen), als ihnen bewut ist.
Mit der nominalen oder operationalen Definition des Merkmals autoritar-faschistoid
fangen die Probleme aber erst richtig an. Denn AFLS hatten, gewissermaen axiomatisch,
die G
ultigkeit der Freudsche Psychoanalyse angenommen, um den autoritaren, protofaschistischen Charakter psychodynamisch zu erklaren. Martin f
uhrt aus, dass dieses Postulat wiederum zu einer asymmetrischen Interpretation der Interviewdaten gef
uhrt hat.
AFLS betrachteten Highs und Lows, also Personen, die auf der F-Skala einen hohen
bzw. einen niedrigen Punktwert bekommen hatten; die Highs waren, wie eben ausgef
uhrt,
per definitionem autoritar, die Lows nicht. Antworten im Interview, die der Klassifikation
als High widersprachen, galten nun bei der psychoanalytischen Deutung als Verleugnung
der wahren Motive, wahrend bei einer Kategorisierung als Low widerspr
uchliche Reaktionen im Interview nicht als leugnerisch galten: As a result, the same statements received
dramatically different interpretations depending on who had made them. (Martin, p. 6).
Einen ahnlichen Fehler hat, so Martin, ebenfalls Bob Altemeyer (1981) begangen, dessen

Arbeit im Ubrigen
den heutigen methodischen Standards sehr viel besser gen
uge.
Die nominalistische Definition zusammen mit dem Fokus auf den Autoritaren Typ
erzeugt demnach einen confirmation bias, d.h. die Tendenz, nur die f
ur die Hypothese
keit, faschistoid zu sein, wenn man autorit
ar ist. p(A) und p(B) seien die unbedingten Wahrscheinlichkeiten, u
ar bzw. faschistoid zu sein. Die bedingten Wahrscheinlichkeiten p(A|B)
berhaupt autorit
und p(B|A) sind zueinander invers; aus der elementaren Wahrscheinlichkeitstheorie wei man, dass
p(B|A) = p(A|B)p(B)/p(A) gilt (vergl. Gleichung (9), Seite 43), die inversen Wahrscheinlichkeiten
sind also nur gleich, wenn p(A) = p(B) ist, was aber nicht einfach vorausgesetzt werden kann. Gilt
z.B. p(B) < p(A) (der Anteil der Faschistoiden ist kleiner als der der Autorit
aren), so ist der Anteil
der Faschistoiden, gegeben sie sind autorit
ar, kleiner als der Anteil der Autorit
aren, gegeben sie sind
faschistoid.

157

sprechenden Informationen zu ber


ucksichtigen und diejenigen Informationen, die dagegen
sprechen, zu vernachlassigen. Dies bedeutet, dass der von AFLS identifizierte autoritare
Typus ein Artefakt ist. Das wurde schon von den fr
uheren Kritikern vermutet. Ob Martin
deshalb schon recht mit seinem Satz:
Adorno, Frenkel-Brunsik, Levinson and Sanfords The Authoritarian Personality
is probabily the most deeply flawed work of prominence in political psychology

hatte, sei dahingestellt; die Anzahl der empirischen Arbeiten, die durch die Arbeit von
AFLS angeregt wurde, geht in die Tausende, von den nicht-empirischen nicht zu reden. Auch wenn die Konzeption der The Authoritarian Personality fehlerhaft ist, hat sie
doch zumindest via Kritik an ihr zu einer auerordentlichen Bereicherung der Wissenschaft gef
uhrt. Die Tatsache, dass sich Adorno gegen Ende der F
unfzigerjahre von der
empirischen Forschung abgewandt hat, ist sehr zu bedauern, hatte doch gerade mit empirischen Befunden den von ihm so kritisierten restaurativen Tendenzen in der damaligen
BRD wahrscheinlich effektiver entgegentreten konnen als durch seine extrem abstrakten,
polemischen, resignativen oder gar pessimistischen Arbeiten.
Bei dem oben schon genannten Gruppenexperiment ging es um eine Studie bez
uglich
der politischen Auffassungen der Deutschen nach dem Krieg, bei der 138 Gruppendiskussionen durchgef
uhrt wurden. Ausgangspunkt der Diskussionen war ein als Schl
usselreiz
vorgegebener Brief, der angeblich von einem Besatzungssoldaten geschrieben worden war.
In dem Brief ging es um die Haltung der Deutschen in Bezug auf die Judenpolitik der
Vergangenheit sowie um Fragen des Ost-West-Verhaltnisses. Damit sollte die Meinungsbildung im Prozess des Entstehens untersucht werden. Das Problem mit einer derartigen Versuchsanordnung ist u.a. die Mehrdeutigkeit der Ergebnisse: es gab Schweiger
sowie Meinungsexhibitionisten, und einige der zur Diskussion Eingeladenen erschienen gar nicht, so dass sich Probleme der Reprasentativitat ergaben. Einer der in der
Gruppendiskussion-Untersuchung diskutierten Punkte war die anstehende Wiederbewaffnung Deutschlands. Dabei wurde eine Zustimmung zur Wiederbewaffnung als positive, eine Ablehnung als negative Einstellung zur Demokratie gewertet. Als Begr
undung
f
ur diese Bewertung wurde angegeben, dass eine Ablehnung der Wiederbewaffnung eher
bei Gegnern der Demokratie vorkomme. Gleichzeitig wurde festgestellt, dass eine Gleichsetzung von radikaler Ablehnung mit antidemokratischer Gesinnung ein Unsinn ware.
Trotz der Einsicht in diesen Unsinn ist aber die Bewertung der Antworten bzw. Stellungnahmen in der angegebenen Weise vorgenommen worden, d.h. die Sozialdemokratie,
die Gewerkschaften und Teile der CDU erschienen plotzlich als antidemokratisch, was
nat
urlich die Ergebnisse der Studie verzerrt hat. Deswegen konnte die Studie schon wegen methodischer Mangel angegriffen werden, was insbesondere der Sozialpsychologe

Peter R. Hofstatter berechtigterweise auch tat. Hofstatter wurde im Ubrigen


einer

breiteren Offentlichkeit wegen einer sehr eigenwilligen Interpretation der Massenmorde


an den Juden wahrend der Nazi-Jahre bekannt; seiner Ansicht nach d
urften die Verbrechen der Deutschen wahrend der NS-Jahre nicht gerichtlich verfolgt werden, da die
Verbrechen als Kriegshandlungen und somit auch nicht als Verbrechen im eigentlichen
Sinne zu verstehen seien, Hitler habe nicht zuletzt ja auch den Juden den Krieg erklart.
Hofstatter war im allgemeinen kein Schwachkopf, weshalb der von ihm hier vertretene Irrsinn um so deprimierender ist. Dar
uber hinaus wirkt dieser Irrsinn relativierend
auf Hofstatters tatsachlich berechtigte Kritik an der Gruppendiskussion-Untersuchung.
Diese Relativierung ist allerdings nicht rational, denn wo Hofstatter recht hat, hat er
recht. Die Bedeutung, die Hofstatter und reaktionare Soziologen wie Helmut Schelsky im
Nachkriegsdeutschland hatten, wird zu Adornos Zorn auf die Positivisten beigetragen
haben113 . Damit gerat aber eine Dimension in die Diskussion um den Sinn empirischer
113 Der

Soziologe K
onig schrieb u
ber Schelsky: Als Credo der Jugendforschung galt damals die von

158

Arbeit, die jenseits des hier diskutierten wissenschaftstheoretischen Rahmens liegt.


Die Kritik empirischer Arbeit ist normal und stellt f
ur einen Autor noch keinen Grund
dar, der Empirie den R
ucken zu kehren oder sie gar als unsinnig zu brandmarken. Ob
Adornos scharfe Attacken gegen die Empirie, wie er sie schon 1957 und spater in Adorno et al. (1993) formuliert, auf die erfahrene Kritik zur
uckzuf
uhren sind, ist nicht klar,
zumal er ja schon in den 30-er Jahren ein kritisch-distanziertes Verhaltnis zur Empirie
dokumentiert hat. Wesentlich bei seiner Kritik am Positivismus, also wegen der Allgemeinheit seines Positivismusbegriffs an der Empirie, sind der Begriff der Totalitat und
der der Dialektik. Er liefert keine allgemeine Definition der Totalitat, sondern gibt in den
Texten verstreut stets neue Charakteristika dieses Begriffs an. Hier eine Auswahl solcher
Charakterisierungen:
Totalit
at ist, provokatorisch formuliert, die Gesellschaft als Ding an sich, mit aller
Schuld von Verdinglichung. ( Einleitung, p. 19)
Die Differenz der dialektischen Ansicht von der Totalit
at und der positivistischen114
spitzt sich darauf zu, da der dialektische Totalit
atsbegriff objektiv, n
amlich zum
Verst
andnis jeglicher sozialen Einzelfeststellung intendiert ist, w
ahrend die positivistischen Systemtheorien lediglich durch Wahl m
oglichst allgemeiner Kategorien Feststellungen widerspruchslos in einem logischen Kontinuum zusammenfassen
m
ochten, ohne die obersten Strukturbegriffe als Bedingung der Sachverhalte zu erkennen, die unter ihnen subsumiert werden. (Adorno (1993); Einleitung, p. 21)
Da ohne Beziehung auf Totalit
at, das reale, aber in keine handfeste Unmittelbarkeit zu u
bersetzende Gesamtsystem nichts Gesellschaftliches zu denken ist . . .
(Einleitung, p. 42)
Totalit
at ist in den demokratisch verwalteten L
andern der industriellen Gesellschaft
eine Kategorie der Vermittlung, keine unmittelbarer Herrschaft und Unterwerfung.
. . . Die gesellschaftliche Totalit
at f
uhrt kein Eigenleben oberhalb des von ihr Zusammengefaten, aus dem sie selbst besteht. Sie produziert und reproduziert sich
durch ihre einzelnen Momente hindurch. (Zur Logik der Sozialwissenschaften, p.
127)
Die Einsicht in die Gesellschaft als Totalit
at impliziert auch, da alle in dieser
Totalit
at wirksamen, und keineswegs ohne Rest aufeinander reduktiblen Momente
in die Erkenntnis eingehen m
ussen; sie darf sich nicht durch die wissenschaftliche
Arbeitsteilung terrorisieren lassen. (Zur Logik der Sozialwissenschaften, p. 141).

Es entspricht dem Adornoschen Stil, dass diese Aussagen zur Totalitat oft weniger klaren,
als ein vielleicht zu eiliger Leser also einer, der sofort verstehen will und sich nicht erst
in eine Textexegese mit unbestimmtem Ausgang versenken will es sich w
unscht. Was
bedeutet zum Beispiel in der ersten Aussage die Gesellschaft als Ding an sich, mit aller
Schuld von Verdinglichung? Unter Verdinglichung versteht man seit Marx, dass alles
und jedes, also auch Ideen, zur Ware gemacht werden kann. Also soll die Gesellschaft
eine Schuld der Verdinglichung haben, gleichzeitig ist sie ein Ding an sich. In der zweiten
Aussage wird eine Beziehung des Totalitatsbegriffs zu dem der Dialektik hergestellt, die
den Totalitatsbegriff objektiv macht, was wie eine etwas idiosynkratische Definition
des Begriffes der Objektivitat anmutet. Die Behauptung u
ber die positivistischen Systemtheorien bleibt schon deswegen dunkel, weil der Begriff des logischen Kontinuums
unklar ist. Es ist nicht so, dass man sich dazu keine Vorstellungen machen kann, aber
korrespondieren sie zu dem, was Adorno im Sinn hat? Was ist das das reale, aber in
Schelsky verfolgte skeptische Generation, von der Erwin K. Scheuch sehr treend sagte, es handele
sich dabei nicht um die Erforschung der deutschen Jugend, sondern um die Meinungsanalyse ehemaliger
Nationalsozialisten, die auf die gegenw
artige deutsche Jugend projiziert werde.
114 gemeint ist der positivistische Einwand, hinter dem Begri der Totalit
at [stecke] nicht mehr als
die Trivialit
at, da alles mit allem zusammenh
angt . . ., Einleitung, p. 29

159

keine handfeste Unmittelbarkeit zu u


ur die Totali bersetzende Gesamtsystem ? Wenn f
tat gilt: Sie produziert und reproduziert sich durch ihre einzelnen Momente hindurch
warum wird sie dann in positivistischen Untersuchungen nicht ebenfalls erfahrbar?
Was sind die ohne Rest aufeinander reduktiblen Momente in der Erkenntnis, die nach
Adorno in der Totalitat wirksam sind? Es ist in Ordnung, wenn ein Autor seine Leser
zum Mitdenken animiert, aber es ware hilfreich und konstruktiv, waren seine Formulierungen weniger von semantischer Ambiguitat gepragt, die jede Interpretation zu einer
Ansammlung diffuser Assoziationen verkommen lat.
Und was ist das Ziel Adornoscher Empiriekritik? Empiriekritik
will benennen, was insgeheim das Getriebe zusammenh
alt. . . . Sie m
ochte den Stein
aufheben, unter dem das Unwesen br
utet; in seiner Erkenntnis allein ist ihr der Sinn
bewahrt. (p. 81)

Die Empirie, die von Adorno so genannte Tatsachenforschung dagegen hat weitaus Profaneres im Sinn:
Gegen einen solchen Drang str
aubt sich die Tatsachenforschung. Entzauberung, wie
noch Max Weber sie bejahte, ist ihr nur ein Spezialfall von Zauberei; die Besinnung
aufs verborgen Waltende, das zu ver
andern w
are, bloer Zeitverlust auf dem Weg

zur Anderung
des Offenbaren.

Theorie (gemeint ist wohl stets die Kritische Theorie) und Tatsachenforschung
seien nicht vereinbar, denn
theoretische Gedanken u
ber die Gesellschaft insgesamt sind nicht bruchlos durch
empirische Befunde einzul
osen: sie wollen diesen entwischen wie spirits der parapsychologischen Versuchsanordnung. (p. 82)

Die Kritische Theorie dagegen


mu die Starrheit des hier und heute fixierten Gegenstandes aufl
osen in ein Spannungsfeld des M
oglichen und des Wirklichen; jedes von beiden ist, um nur sein zu
k
onnen, aufs andere verwiesen. (p. 82)

Warum nun empirische Forschung grunds


atzlich nicht daran interessiert sein soll, zu erkennen, was insgeheim das Getriebe zusammenhalt, wird leider nicht gesagt; die bereits
erw
ahnte Schelskysche Forschungsintention mag zu dieser Auffassung Adornos beigetragen haben, aber Schelsky ist nicht reprasentativ f
ur die empirische Forschung, ebensowenig wie es die ebenso reaktionaren wie wirren Thesen Ludwig Klages in Der Geist als
Widersacher der Seele reprasentativ f
ur die gesamte geisteswissenschaftliche Psychologie
sind. Wenn einer solchen Kritik entgegengehalten wird, dass man ja wissen konne, aus
welcher Perspektive Adorno seine Aussagen entwickelt, dann braucht man auch diese
Texte nicht mehr, sie sind dann redundant.
Jedenfalls behauptet Adorno weiter, das von den Neopositivisten angedachte Verfahren einer induktiven Erfassung insbesondere auch von gesellschaftlicher Wirklichkeit sei
f
ur die oben genannte Auflosung nicht geeignet:
Will man . . . von Einzelerhebungen, nach allgemeiner wissenschaftlicher Sitte, zur
Totalit
at der Gesellschaft aufsteigen, so gewinnt man bestenfalls klassifikatorische
Oberbegriffe, aber nie solche, welche das Leben der Gesellschaft selber ausdr
ucken.
...
Gesellschaftliche Theorienbildung nach dem Muster klassifikatorischer Systeme substituiert den d
unnsten begrifflichen Abhub f
ur das, was der Gesellschaft ihr Gesetz

160

vorschreibt: Empirie und Theorie lassen sich nicht in ein Kontinuum eintragen. Gegen
uber dem Postulat der Einsicht in das Wesen der modernen Gesellschaft gleichen
die empirischen Beitr
age Tropfen auf den heien Stein; empirische Beweise aber f
ur
zentrale Strukturgesetze bleiben, nach empirischen Spielregeln, allemal anfechtbar.
(p. 83)

Wenn sich Empirie und Theorie nicht in ein Kontinuum eintragen lassen, so ergibt sich
die Frage, welcher Positivist also Empiriker denn u
berhaupt ein solches Kontinuum
postuliert hat, oder ob es implizit und den Empirikern nicht bewut der Empirie immanent ist, und was u
berhaupt unter einem solchen Kontinuum verstanden werden soll.
Dass empirische Beitrage Tropfen auf den heien Stein einer zu pr
ufenden, eventuell auch
zu entwickelnden Theorie sind, ist trivialerweise klar, insbesondere wenn die Theorie die
Totalitat reflektieren soll. Die Frage ist aber wiederum, wie denn eine solche Theorie
der Totalitat aussehen soll; letzlich ist die Totalitat ja, als Begriff ihrer hegelschen Herkunft entsprechend, nie ganz zu fassen (man denke an die Russellsche Interpretation).
Der Begriff der Totalitat hat, wie es scheint, eine Dampfwalzenfunktion: mit ihm kann
jeder Versuch, sich Aspekten der gesellschaftlichen Wirklichkeit empirisch zu nahern,
als sinnlos erklart werden. Es scheint, dass Adorno gewissermaen vom Lehnstuhl am
Schreibtisch aus die Totalitat der Wirklichkeit erfassen will. Wenn aber gilt: empirische
Beweise aber f
ur zentrale Strukturgesetze bleiben, nach empirischen Spielregeln, allemal
anfechtbar, so ist diese Anmerkung Adornos in ihrer Allgemeinheit sicher nicht falsch,

aber in der gleichen Allgemeinheit ergibt sich sofort die Frage, ob die Auerungen
der
Kritischen Theorie denn notwendig nicht anfechtbar sind, und wer entscheidet u
ber die
Befunde der Kritischen Theorie? Vermutlich besteht die Antwort auf diese Frage, wenn
sie von einem Kritischen Theoretiker gegeben wird, in einem Hinweis auf die richtige
dialektische Betrachtung gesellschaftlicher Prozesse. Aber die Frage w
urde dadurch nur
verschoben, denn wer entscheidet, was eine richtige dialektische Betrachtung ist?
Methoden wie die Konstruktion von Skalen und die statistische Analyse von Daten
f
uhren nach Meinung Adornos notwendig am Ziel, die Totalitat zu erfassen, vorbei:
Die empirischen Methoden . . . bevorzugen paradoxerweise, wie es ihr Ursprung in
der Marktforschung erkl
art, Subjektives, . . . Meinungen, Einstellungen, allenfalls
Verhaltensweisen von Subjekten.

Und
Allgemein ist die Objektivit
at der empirischen Sozialforschung eine der Methoden,
nicht des Erforschten. Durch die statistische Aufbereitung werden aus Ermittlungen u
ber mehr oder minder zahlreiche einzelne Personen Aussagen abgeleitet, die,
nach den Gesetzen der Wahrscheinlichkeitsrechnung, generalisierbar und von individuellen Schwankungen unabh
angig sind. Aber die gewonnenen Durchschnittswerte,
mag auch ihre G
ultigkeit objektiv sein, bleiben meist doch objektive Aussagen u
ber
Subjekte; ja, dar
uber wie die Subjekte sich und Realit
at sehen. p. 84

Und endlich
Hat die Methode es [das Faktum] statt dessen einmal zum factum brutum zugerichtet, so ist ihm auch nachtr
aglich kein Licht einzublasen. p. 90

Wer sich mit Methoden und Statistik nicht auskennt, wird hier auf eine falsche Spur
gesetzt. Es wird auf eine diffuse Weise insinuiert, dass der ganze Ansatz falsch sei, nur
wird nicht gesagt, wo konkret der Fehler sitzt. Dass es sich bei dem Erforschten um subjektive Groen wie Einstellungen handeln kann, ist ja noch kein Nachteil an sich, denn
gerade Meinungen mochte man ja aus einem gegebenen Grund kennenlernen. Was genau
mit generalisierbar gemeint ist, wird nicht ausgef
uhrt, aber man kann vermuten, was
gemeint sein konnte: der Schlu von der Stichprobe auf die Population bezieht sich auf die
161

Parameterwerte der Population, die anhand der Werte der Stichprobe geschatzt werden,
also etwa vom Stichprobenmittelwert x
auf den Erwartungswert , von der Stichprobenvarianz s2 auf die Varianz 2 der Population, etc. Die Stichprobenschatzungen erlauben
vorausgesetzt, dass bestimmte Annahmen u
ber die Wahrscheinlichkeitsverteilung der
Messwerte gelten die Angabe von Intervallen, den sogenannten Konfidenzintervallen,
innerhalb derer die Populationsparameter mit einer bestimmten Wahrscheinlichkeit, etwa
p = .95, liegen115 . Dass darin irgendeine Art der Verfalschung liegen soll, wie es Adornos
Behauptung nahelegt, ist nicht nachzuvollziehen, denn jede Interpretation statistischer
Berechnungen, also auch der Berechnung von Konfidenzintervallen, wird ja nur relativ
zu den den Berechnungen unterliegenden Annahmen vorgenommen, ist also prinzipiell
hypothetisch. Dabei kann es auch um die Identifikation der Parameter von Teilgruppen
gehen, die sich in ihren Ansichten unterscheiden. Warum objektive Aussagen u
ber Subjekte nicht interessant sein sollen, bleibt ein Geheimnis von Adorno, vermutlich verrat
ihm eine Meinungsbefragung zu wenig u
ber die Einbindung der Befragten in die Totalitat.
Aber Adorno wird spezifischer:
Die gesellschaftliche Objektivit
at, den Inbegriff all der Verh
altnisse, Institutionen,
Kr
afte innerhalb dessen die Menschen agieren, haben die empirischen Methoden:
Fragebogen, Interview und was immer an deren Kombination und Erg
anzung m
oglich ist, ignoriert, allenfalls sie als Akzidentien ber
ucksichtigt. . . . Wohl spiegeln in
diesen Ansichten auch die Objektivit
aten sich wider, aber sicherlich nicht vollst
andig
und vielfach verzerrt. (p. 84-85)

Es fragt sich, wie Adorno zu seiner eigenen Studie u


ber die autoritare Personlichkeit
steht, wenn er die dabei verwendeten Methoden in dieser globalen und unspezifischen
Weise abqualifiziert. Aber die empirische Soziologie meint
es k
ame jetzt und hier bereits auf die Menschen an, anstatt da sie die vergesellschafteten Menschen heute vorweg als Moment der gesellschaftlichen Totalit
at
ja, u
berwiegend als deren Objekt bestimmte. Die Dinghaftigkeit der Methode,
ihr eingeborenes Bestreben, Tatbest
ande festzunageln, wird auf ihre Gegenst
ande,
eben die ermittelten subjektiven Tatbest
ande u
bertragen, als ob dies Dinge an sich
w
aren und nicht vielmehr verdinglicht. Die Methode droht sowohl ihre Sache zu
fetischisieren wie ihrerseits zum Fetisch zu entarten.

Hier w
ute man gern, was den vergesellschafteten Menschen vom Menschen unterscheidet,
d.h. man hatte gerne die Frage beantwortet, ob ein Mensch auch nicht vergesellschaftet
sein kann, unter der Bedingung, dass er nicht allein im Wald aufwachst. Denn Vergesellschaftung heit ja nichts anderes, als dass man in der einen oder anderen Weise in die
Gesellschaft integriert ist, klassenspezifisch oder wie auch immer. Der Gegenstand also
das Objekt der Soziologie ist nun einmal der Mensch in seiner sozialen Vernetzung. Die
Forderung, dass es auf den Menschen ankomme, ist daher leer. Die Aussage, dass man
mit einer Methode subjektive Tatbestande festnagelt, als waren sie nicht verdinglicht,
macht sich gut, schon weil der Phantasie, die man benotigt, um sich vorzustellen, was es
mit den verdinglichten subjektiven Tatbestanden auf sich hat, freier Lauf gelassen wird,
und irgend etwas Schlimmes ahnt man sicherlich.
Dass Methoden Fetischcharakter bekommen konnen, ist nicht ohne Weiteres von der
Hand zu weisen. So hat die Faktorenanalyse116 gelegentlich als Standardverfahren ge115 Genauer gesagt: es wird die Wahrscheinlichkeit angegeben, mit der das berechnete Kondenzintervall
den jeweilig betrachteten Parameter enth
alt.
116 Die Faktorenanalyse ist ein Verfahren, aus einer Menge von Messungen korrelierender Variablen
also von Variablen, zwischen denen ein statistischer Zusammenhang besteht i.a. nicht korrelierende
Variablen zu bestimmen, die zur Erkl
arung der statistischen Zusammenh
ange zwischen den gemessenen
Variablen herangezogen werden k
onnen.

162

golten, Strukturen aufzuzeigen, die zur Erklarung beobachteter Daten herangezogen


werden konnen. Dass die Faktorenanalyse ein spezielles Modell ist, nach dem sich beobachtete Variablen additiv aus hypothetischen latentenVariablen derart zusammensetzen
lassen, dass die Korrelationen zwischen den beobachteten Variablen erklart werden konnen, wird bzw. wurde dabei nicht weiter thematisiert. Nur: Empiriker kommen fr
uher
oder spater selber darauf, dass hier eine gedankenlose Kanonisierung eingesetzt hat. Die
Fetischisierung ist keine immanente Eigenschaft der Empirie. Was ware denn, wenn man
umgekehrt die Setzung der Grundannahme einer dialektisch zu erfassenden Totalitat als
Fetisch der Kritischen Theorie bezeichnete? Ein solcher Akt zoge zweifelsohne einen emporten Aufschrei von Kritischen Theoretikern nach sich, andere w
urden vielleicht einen
solchen Anwurf mit schweigender Verachtung u
bergehen, aber ein zwingendes Argument
f
ur die Grundannahme der Kritischen Theorie w
urde wohl, der Natur der Dialektik als
Setzung entsprechend, ausbleiben.
Es nimmt nicht wunder, dass Adorno die Anwendung statistischer Methoden in der
soziologischen oder auch sozialpsychologischen Forschung nicht schatzt. Statistische Verfahren generalisierenunzulassigerweise, der antagonistische Charakter der Gesellschaft
[wird] von der bloen Generalisierung eskamotiert(Soz. Emp. Forsch., p. 91). Hier scheint
ein fundamentales Miverstandnis vorzuliegen. Die sich dieser Behauptung anschlieenden schonen Satze
Der Aufkl
arung bedarf eher die Homogenit
at, soweit sie das menschliche Verhalten
dem Gesetz der groen Zahlen unterwirft, als ihre Absenz. Die Anwendbarkeit jenes
Gesetzes widerspricht dem principium individuationis117 ; dem trotz allem nicht ein
fach zu Uberspringendem,
da die Menschen keine bloen Gattungswesen sind. Ihre
Verhaltensweisen sind vermittelt durch ihre Vernunft. Diese enth
alt zwar in sich
ein Element des Allgemeinen, das dann sehr wohl in der statistischen Allgemeinheit
wiederzukehren vermag; es ist aber zugleich auch spezifiziert durch die Interessenlagen der je Einzelnen, die in der b
urgerlichen Gesellschaft auseinanderweisen und
tendenziell bei aller Uniformit
at einander entgegengesetzt sind; zu schweigen von
der gesellschaftlich zwangvoll reproduzierten Irrationalit
at in den Individuen.
(Soziologie und Empirische Forschung, in Adorno et al. (1993), p. 91)

erhellen die Behauptung keineswegs. In der Anwendung der Statistik in der Sozialforschung wird demnach Gebrauch vom Gesetz der Groen Zahlen gemacht, wobei irgendwie
eine Annahme u
ber die Homogenitat der Menschen, die in die Untersuchung einbezogen
werden? gemacht werden, vermutlich um das Gesetz der Groen Zahlen u
berhaupt anwenden zu konnen. Nun besagt aber das Gesetz der groen Zahlen ja nur, dass ein Stichprobenmittelwert f
ur steigenden Stichprobenumfang gegen den Populationsmittelwert
konvergiert, vorausgesetzt, dass einige sehr allgemeine Bedingungen erf
ullt sind. Konnen
die Messungen jeweils nur die Werte 0 (etwa f
ur mannlich) und 1 (f
ur weiblich)
annehmen, so entspricht jetzt der Mittelwert dem Anteil von Mitgliedern der Population
mit einem bestimmten Merkmal, und komplementar dazu dem Anteil von Mitgliedern
dieser Population, die das Merkmal nicht haben. Das Gesetz der groen Zahlen besagt
dann, dass der geschatzte Anteil (Prozentsatz) um so genauer ist, je groer die Stichprobe ist. Irgendeine Homogenitat mu f
ur die G
ultigkeit des Gesetzes nicht postuliert
werden, auer der, dass bei jedem Individuum in der Stichprobe das gleiche Merkmal gemessen wird. Allenfalls bei Meinungs- oder Wahlumfragen konnte sich hier ein Problem
ergeben, wenn etwa die Befragten in unterschiedlichem Ausma l
ugen. Warum das Gesetz der groen Zahl dem Individuationsprinzip widerspricht, bleibt unklar, es geht ja
117 Das Individuationsprinzip, demzufolge das Allgemeine der Gesellschaft sich nur partiell in den die
Gesellschaft konstituierenden Individuen ndet; dieses Allgemeine kann der Individualit
at nicht vorangehen, sondern wird erst durch die Individuen konstituiert.

163

nur um Anteile oder Mittelwerte, bei Befragungen setzt das Gesetz der groen Zahl das
Individuationsprinzip nachgerade voraus. Dass die Interessenlagen der Individuen haufig
auseinanderstreben ist sicher wahr, stellt aber die Anwendbarkeit des Gesetzes nicht in
Frage. Man gewinnt den Eindruck, dass Adorno einer ebenso diffusen wie heftigen Ablehnung statistischer Verfahren Ausdruck verleihen mochte, und um diesem Ausdruck
Sch
arfe zu geben, werden Aussagen u
ber spezifische Aspekte der Statistik, etwa u
ber die
Relevanz des Gesetzes der Groen Zahlen, gemacht, ohne dass deutlich wird, worin der
Fehler in der Anwendung dieses Gesetzes nun wirklich liegt. Weder die die Interessenlagen der je Einzelnen noch die gesellschaftlich zwangvoll reproduzierte[n] Irrationalitat
in den Individuen hat mit diesem Gesetz und seiner Anwendung irgend etwas zu tun.
Eigenartige Miverstandnisse scheinen auch vorzuliegen, wenn Adorno den seiner Ansicht nach positivistischen Wissenschaftsbetrieb geieln will. So schreibt er in der Einleitung zu Adorno et al. (1993)
Man mu sich nur fragen, ob die F-Skala der mit empirischen Methoden arbeitenden Authoritarean Personality, mit allen ihren M
angeln, u
atte einge berhaupt h
f
uhrt und verbessert werden k
onnen, w
are sie von Anbeginn an nach den positivistischen Kriterien der Gutman-Skala118 entworfen worden. (p. 61)

Die sich unmittelbar ergebende Frage ist, warum die Guttman-Skala positivistisch ist,
wahrend die anderen Methoden, die zur Konstruktion der F-Skala f
uhrten, nach Adornos Meinung wohl nicht positivistisch sein sollen. Vielleicht bezieht sich Adorno hier
auf die psychoanalytisch konzipierten Interviews, denn als Anhanger der Psychoanalyse wird er diese nicht als positivistisch ansehen. Adorno ist wie Horkheimer auch
ja sehr groz
ugig in der Verteilung des Attributs positivistisch, man denke an Martin
Heidegger und Karl Jaspers, die dem Verdikt, des Positivismus schuldig zu sein, ebensowenig entgehen konnten wie die unbeschlipsten Leute in den Grand Hotels, da hatte es
nahegelegen, die Arbeit zur F-Skala ebenfalls als positivistisch zu bezeichnen. Zur Erinnerung: die Guttman-Skala besteht aus n sogenannten Items I1 , . . . , In , also Aussagen,
denen ein Proband zustimmen kann oder auch nicht. Zwischen den Items existiert eine
Rangordnung , etwa
I1 I2 In
(52)
derart, dass ein Proband, der dem Item Ik , k > 1 zustimmt, auch allen Items Ij zustimmt, f
ur die Ij Ik gilt; steht f
ur reprasentiert das Merkmal weniger als. Stimmt
also ein Proband der Aussage Ij : Vergewaltigung soll mit dem Tode bestraft werden zu,
so sollte er auch der Aussage Ii : Vergewaltigung sollte mit mindestens 10 Jahren Haft
bestraft werden, denn diese Aussage dr
uckt ein geringeres Strafma aus; Ii Ij . Ist ein
Proband aber der Meinung, 10 Jahre Haft seien genug Strafe f
ur eine Vergewaltigung,
dann wird er allen Aussagen zustimmen, die ein geringeres Strafma fordern, aber allen
Aussagen, die ein hoheres Strafma fordern, nicht. Die Guttman-Skala ist streng eindimensional und setzt ein deterministisches Antwortverhalten oder zumindest sehr kleine
Varianzen der Reaktionsverteilungen relativ zu den Unterschieden, die durch die Items
bez
uglich des gemessenen Merkmals abgegriffen werden, voraus. Es ist klar, dass eine
Einstellung oder ein Merkmal (Schwere eines Verbrechens) hochstens dann Guttmanskalierbar ist, wenn die Items entsprechend ausgewahlt wurden. Die Einschatzung der
Schwere von Verbrechen ist keineswegs grundsatzlich eindimensional: ein geschickt geplanter und durchgef
uhrter Bankraub, bei dem die Rauber 10 Millionen Euro erbeuten,
wird i.a. nach anderen Kriterien (Dimensionen) beurteilt als der Diebstahl der Handtasche einer Rentnerin. Will man eine Skala f
ur Autoritarismus konstruieren, so kann man
von der Mehrdimensionalitat dieses Merkmals ausgehen. Guttman-Skalen konnen dann
118 Hier

ist Adorno ein Tippfehler unterlaufen: es mu Guttman-Skala heien, vergl. Torgerson (1962).

164

in mindestens zwei Weisen konstruiert werden: einmal konnen Skalen f


ur jede der latenten Dimensionen, die Autoritarismus als ein komplexes Merkmal definieren, konstruiert
werden, oder man wahlt die Items der F-Skala so aus, dass sie eine Art Intensitatsma
(I) f
ur Autoritarismus reprasentieren, das sich als Funktion der latenten Dimensionen
von Autoritarismus darstellen lat, etwa
(I) = (d1 , d2 , . . . , dr ),
wobei I ein Item ist, also eine Autoritarismus reflektierende Aussage, d1 , . . . , dr sind die
Auspragungen auf den r Autoritarismusdimensionen, und ist eine geeignet gewahlte
Funktion. Die Items lassen sich dann so wahlen und so durchnummerieren, dass
(I1 ) < (I2 ) < < (In )
damit (52) gilt. Im einfachsten Fall ist eine lineare Funktion
(Ij ) = a0 + a1 dj1 + + an djn +

(53)

f
ur das j-te Item, wobei die a1 , . . . , an bestimmte Gewichte sind und ein zufalliger
Fehler, dessen Varianz aber hinreichend klein ist, um die deterministische Struktur der
Guttman-Skala zu erhalten, insofern kann auch vernachlassigt werden. Es geht hier
aber nicht um die Details der Frage, wie die d1 , . . . , dr und die Funktion zu bestimmen
sind, sondern nur darum, dass man im Prinzip so vorgehen kann, wenn man es denn will.
Ein solches Vorgehen ware nicht positivistischer als das Vorgehen von AFLS (1945/1950).
6.5.6

Philosophie und Asthetik,


Jazz und Faschismus

Die vielen Zitate aus den Adornoschen Arbeiten sind prasentiert worden, um zu illustrieren, dass seine Argumente im Allgemeinen den Punkt nicht treffen, auf den sie zielen. Die
Absicht dabei ist nicht, Adorno der Unsinnigkeit zu u
uhren, denn es ist doch schwer
berf
zu glauben, dass er seine Satze wortlich verstanden haben wollte. Man mag die Kritik an seinen Aussagen dementsprechend als beckmesserisch empfinden, und in der Tat
liegt es nahe, zu vermuten, dass seine Schriften nicht so sehr eine begrifflich und logisch
stringent formulierte philosophische Theorie prasentieren sollen, sondern eher als eine
polemische Attacke auf einen Forschungsbetrieb zu sehen sind, deren Hintergrund durch
ein ungemeines Unwohlsein an einer Reihe von gesellschaftlichen Zustanden konstituiert
wird. Als Komponist und Musiktheoretiker scheint seine Reaktion auf diese Zustande
eher die eines K
unstlers gewesen zu sein, dessen Spezialitat es war, seinen sprachlichen
Ausdruck mehr nach asthetischen als nach den Kriterien einer analytisch argumentierenden Philosophie auszurichten; das von ihm introjizierte Prinzip der Dialektik und seine
Art ihrer Implementation scheint die Produktion von Satzen zu beg
unstigen, die kontrapunktisch sind in dem Sinne, dass Logik, Methodik und positivistische Systematik
negiert werden, indem gleichzeitig und gleichsam antithetisch von einer unterliegenden
Kernlogik119 Gebrauch gemacht wird, die diese Negation rechtfertigen soll, denn seine
Satze sollen ja tiefe gesellschaftliche und konzeptuelle (und damit auch philosophische)
Widerspr
uche reflektieren. Diese Kernlogik lat sich u
brigens im Rahmen der von Adorno stets gegeielten formalen Logik charakterisieren. Die axiomatische Akzeptanz der
Dialektik, die f
ur Adorno diesen Stil zu rechtfertigen scheint, verweist auf einen eher
mystischen Ansatz in seinem Denken, der ja auch in Hegels Denken zu finden ist. Insofern kann man sich dem Adornoschen Denken nicht mit einer der analytischen Tradition
verpflichteten Kritik nahern, sondern mu sich ihm wie einem Kunstwerk, dessen Zweck
119 Gemeint

ist hier der von Klowski (1973) gepr


agte Ausdruck.

165

es ist, zu verstoren und aus Denkgewohnheiten zu losen, zuwenden; die ebenso apodiktischen wie aphoristischen Invektiven Adornos gegen eine Empirie, die sich seiner Ansicht
nach zur gesellschaftlichen Realitat affirmativ verhalt, erhalten dann ihren Sinn nicht
durch ihren Inhalt, sondern durch die Provokation, die ihre Widerspr
uchlichkeit oder gar
anscheinende Sinnlehre darstellen soll. Skepsis gegen
uber diesem Stil impliziert aber die
Gefahr, einer Geisteshaltung bezichtigt zu werden, von der man nicht wute, dass man
sie hat: den Pantheismus. Denn die (b
urgerliche, und um eine solche handelt es sich hier
sicherlich) Skepsis ist die Fratze des Pantheismus (Horkheimer & Adorno (2005), p. 30).
Als nichtpantheistischer Leser ist man aber nicht gewillt, sich diesem Urteil zu beugen
und vermutet wiederum skeptisch , dass die in diesem Satz dolumentierte Sinnfreiheit
wohl ein Merkmal dialektischen Denkens ist, wenn namlich jede These als Antithese zugelassen ist, sofern sie sich nur von der Ausgangsthese unterscheidet. Adorno hat wie
auch auch Horkheimer gegen den Positivismus in vielen Schriften gekampft, auch in
der Dialektik der Aufkl
arung. Dort befinden diese beiden Autoren:
Denn Aufkl
arung ist totalit
ar wie nur irgendein System. Nicht, was ihre romantischen Feinde ihr seit je vorgeworfen haben, analytische Methode, R
uckgang auf
Elemente, Zersetzung durch Reflexion ist ihre Unwahrheit, sondern da f
ur sie der
Proze von vornherein entschieden ist. Wenn im mathematischen Verfahren das Unbekannte zum Unbekannten einer Gleichung wird, ist es damit zum Altbekannten
gestempelt, ehe noch ein Wort eingesetzt ist. Natur ist, vor und nach der Quantentheorie, das mathematisch zu Erfassende; selbst was nicht eingeht, Unaufl
oslichkeit
und Irrationalit
at, wird von mathematischen Theoremen umstellt. In der vorwegnehmenden Identifikation der zu Ende gedachten mathematisierten Welt mit der
Wahrheit meint Aufkl
arung vor der R
uckkehr des Mythischen sicher zu sein. Sie
setzt Denken und Mathematik in eins.
Horkheimer & Adorno (2005), p. 31. Und:
In der Reduktion des Denkens auf mathematische Apparatur ist die Sanktion der
Welt als ihres eigenen Maes beschlossen. Was als Triumph subjektiver Rationalit
at
erscheint, die Unterwerfung alles Seienden unter den logischen Formalismus, wird
mit der gehorsamen Unterordnung der Vernunft unters unmittelbar Vorfindliche
erkauft.
Horkheimer & Adorno (2005), p. 33.

All diese Satze sind schon formuliert, aber einverstanden kann man nicht mit ihnen sein,
wenn man sich mit der Philosophie der Mathematik und den Philosophien der Mathematiker ein wenig vertraut gemacht hat. In Adorno (1958) greift er Heidegger wegen seines
Jargons der Eigentlichkeit an, in dem Worte vor Ergriffenheit tremolieren, wahrend sie
verschweigen, wor
uber sie ergriffen sind. Viele, die sich an Heidegger versucht haben,
werden Adorno hier zustimmen. Aber es geht weiter:
Die ambiti
ose Transzendenz der Sprache u
undet in eine Sinn ber den Sinn hinaus m
leere, welche vom Postivismus spielend dingfest gemacht werden kann, dem man sich
u
ande arbeitet,
berlegen meint und dem man doch eben durch jene Sinnleere in die H
die er kritisiert und die man mit seinen Spielmarken120 teilt. Unterm Bann solcher
Entwicklungen n
ahert Sprache, wo sie in Wissenschaften u
berhaupt noch sich regen
wagt, dem Kunstgewerbe sich an, und der Forscher bew
ahrt, negativ, am ehesten
asthetische Treue, die gegen Sprache u
aubt und, anstatt das Wort

berhaupt sich str


zur bloen Umschreibung seiner Zahlen zu erniedrigen, die Tabelle vorzieht, welche
die Verdinglichung des Bewutseins ohne R
uckhalt einbekennt und damit f
ur sie
etwas wie Form findet ohne apologetische Anleihe bei der Kunst.
Adorno (1958), p. 17.
120 Hier

hat man wohl eine Anspielung auf die formale Logik, die nach Adorno eine Logik der Spielmarken

ist.

166

Also, die Umschreibung von Zahlen mit Worten ist eine Erniedrigung eben dieser Worte und womoglich der Sprache insgesamt. Diese Behauptung mu ersteinmal goutiert
werden. Aber immerhin, ein Forscher, der gleich eine Tabelle schreibt, ist doch ein anstandiger Mensch, denn er zeigt damit, dass er die Worte nicht erniedrigen will und auch
gar nicht erst apologetische Anleihen bei der Kunst machen will, wenn er seine Zahlen
prasentieren will, und die Tabelle selbst ist Ausdruck eines Bekenntnisses, namlich das
eines verdinglichten Bewutseins. Wenn einem als Leser unklar ist, warum Anleihen bei
der Kunst denn u
berhaupt apologetisch sein sollen, wenn Aussagen u
ber (An-)Zahlen
gemacht werden, mu es wohl daran liegen, dass das Bewutsein des Lesers bereits hoffnungslos verdinglicht ist. Es konnte allerdings auch so sein, dass Adorno durch die Sinnleere seiner Satze denen in die Hande arbeitet, die er kritisiert. Denn nun konnen sie
ihn beruhigt als einen Artisten des abstrus Obskuren abtun, der auf dem sprachlichen
Hochseil sinnfreie Verbalakrobatik betreibt.
Eine der u
belsten Beschimpfungen von Positivisten, die sich Adorno ausdenken kann,

wird dann auch u


vermittelt. Denn Adorno stellt fest:
ber die Asthetik
Der Positivismus ist Geist der Zeit analog zur Mentalit
at von Jazzfans;
ahnlich auch
die Attraktion, der er auf junge Menschen aus
ubt.
Einleitung, in Adorno et al. (1993), p. 70

An anderer Stelle der Einleitung elaboriert Adorno den Begriff des Jazzsubjekts, den er

bereits 1936 in einer Arbeit Uber


Jazz in der Zeitschrift f
ur Sozialforschung eingef
uhrt
hat. Demnach ist
Jazz ein symbolischer Vollzug, in dem dies Jazzsubjekt vor kollektiven, vom Grundrythmus repr
asentierten Anforderungen versagt, stolpert, herausf
allt, als herausfallendes jedoch in einer Art Ritual als allen anderen Ohnm
achtigen Gleiches sich
enth
ullt und, um den Preis seiner Selbstdurchstreichung, dem Kollektiv integriert
wird.
Einleitung, Adorno et al. (1993), p. 59

Die Beschimpfung der Positivisten als Jazzfans ist u


bel, weil nach Adorno Jazz eine
Musik ist, die zum faschistischen Gebrauch gut sich schicken will. Wegen des durchlaufenden Rythmus entfalte der Jazz eine hohe Wirksamkeit als Marschprinzip; Jazz
sei ein St
uck schlechtes Kunstgewerbe. Jazz sei eine Musik der Entmannung, also der
Kastration, und Adorno stimmt explizit einem Kritiker zu, der das Trompetenspiel von
Louis Armstrong mit dem Gesang von Kastraten vergleicht. Jazz sei ein Ausdruck von
Hilflosigkeit, wie sie vom Sklaven erlebt wird, von Furcht vor sozialer Macht und dem
verzweifelten Versuch, sich dieser Macht anzupassen. Das winselnde Vibrato und das
klagende Saxophon seien Ausdruck dieser Hilflosigkeit. Diese Charakteristika werden
von Adorno nun auf den Positivisten, letzlich also auf den Empiriker, u
bertragen.
Adorno hat sich durch keinerlei Argumente von seinen Ansichten u
ber Jazz abbringen
lassen. Der Hinweis, er habe sich anhand der Tanzmusik spielenden Big Bands der dreiiger und vierziger Jahre ein falsches Bild gemacht, der Jazz von Charlie Parker, Miles
Davis und John Coltrane sei doch etwas vollig anderes, hat ihn nie beeindruckt. Witkin (2000) zitiert Kollegen (Professoren der Soziologie), die Adorno schon wegen seiner
Auffassungen u
ber den Jazz nicht leiden konnten, und der Historiker Eric Hobsbawm
befand, dass das, was Adorno u
ber Jazz geschrieben hat, some of the stupidest pages
ever written about jazz sei (in Hobsbawm (1998), p. 253).
Nun geht es hier um den Positivismus, allgemeiner um die Empirie und deren Rolle
in der Erforschung sozialer Zustande und Prozesse, und so kann man Adornos Auffassun167

gen u
ber Jazz vernachlassigen. Andererseits weist Witkin darauf hin, dass sie grundlegende Strukturen des Adornoschen Denkens reflektieren. Nach Adorno mu alles Soziale
prinzipiell dialektisch gesehen werden, - und der Jazz ermangele, so Adorno, prinzipiell der dialektischen Entwicklung, es gebe keine thematische Entwicklung, sondern nur
Ausschm
uckung. All das u
bertragt Adorno dann auf den Positivismus: Verdinglichtes
Bewutsein schnappt automatisch ein bei jedem nicht vorweg durch facts and figures
gedeckten Gedanken in dem Einwand: where is the evidence? (Einleitung, p. 70). Die
Sicherheit, die nach Adorno der Positivismus vorspiegelt, sei scheinhaft: die reine Widerspruchslosigkeit, zu der sie sich zusammenzieht, nichts als Tautologie, der Begriff gewordene Wiederholungszwang ohne Inhalt. Wahre Erkenntnis kann der Positivist nicht
erlangen:
Der Proze, welcher sonst dem Subjekt unertr
aglich w
are: die Integration des Gedankens in das ihm Entgegengesetzte, von ihm zu Durchdringende, wird vom Positivismus dem Subjekt integriert, zu dessen eigener Sache gemacht. Das Gl
uck der
Erkenntnis soll nicht sein.
Einleitung, p. 68
Der Positivismus ist die begriffslose Erscheinung der negativen Gesellschaft in der
Gesellschaftswissenschaft. Einleitung, p. 76-77

Interessant ist, dass Adorno sich in seinem Urteil nicht durch die f
ur ihn wohl nur scheinbaren Eigenschaften von Jazzliebhabern, die im Allgemeinen autoritaren oder gar faschistischen Tendenzen eher fernstehen, nicht beeindrucken lat: Es folgen einige Bemerkungen u
ber die Moglichkeiten von Forschungen u
ber Jazz und die Horer von Jazz, wobei
das, was Adorno vom Jazz halt, von den Horern des Jazz nicht geteilt werden mu:
. . . subjektive Reaktionen brauchen sich keineswegs mit dem bestimmbaren Gehalt
der geistigen Ph
anomene zu decken, auf die reagiert wird.
Einleitung, Adorno et al. (1993), p. 60.

Adorno ist der Ansicht, dass er imstande ist, den geistigen Gehalt der Phanomene, hier
des Jazz, absolut und objektiv zu erfassen, unabhangig von den Auffassungen, die Kenner des Jazz dar
uber vortragen. Es geht nicht darum, dass Adorno den Jazz, oder die
Art von Musik, die er daf
ur hielt, nicht mochte. Es geht um den von ihm aufgestellten
Absolutheitsanspruch, mit dem er seine Ablehnung verk
undete. Man wird Witkin Recht
geben m
ussen, wenn er schreibt:
Ironically, it is characteristic of the authoritarian personality to minimize the diferences among the range of things to which one is opposed and to insist that they
are all fundamentally the same and equally bad.
Witkin (2000), p. 160.

Dabei ist auch Adornos Interpretation des Jazz eben nur Deutung, eine Interpretation
unter anderen, und mit einiger Sicherheit nicht die korrekteste. Der Dialektiker Adorno
sollte seine eigenen Auffassungen u
ber das, was Deutung ist, nicht vergessen:
Schwach wird die deutende Verfahrensweise in dem Augenblick, da sie, terrorisiert vom einzelwissenschaftlichen Fortschritt, beteuert, auch sie sei Wissenschaft
wo gut wie die anderen. Kein Einwand gegen Hegel ist stringenter als der bereits
von Kierkegaard ge
auerte, er nehme seine Philosophie w
ortlich. Ebensowenig jedoch ist Deutung beliebig. Vermittelt wird zwischen dem Ph
anomen und seinem der
Deutung bed
urftigen Gehalt durch Geschichte: was an Wesentlichem im Ph
amonen

168

erscheint, ist das, wodurch es wurde, was es ist, was in ihm stillgestellt ward und
was im Leiden seiner Verh
artung das entbindet, was erst wird.
Einleitung, p. 46

Das, was Adorno u


ber den Jazz gesagt hat, trifft zu einem groen Teil auf seine eigenen
Texte zu: es gibt einen rigiden Hintergrund, ein Thema, und seine Texte sind Variationen
zu diesem Thema, ein assoziatives Gewebe apodiktischer Aussagen, die das Thema in
immer neuen Varianten ausschm
ucken; in dieses Gewebe mu man eintauchen und sich
in romantischer Selbstaufgabe anheimgeben, um das Thema zu finden. Dass er seine
Texte analog zu musikalischen eher als asthetische Kompositionen sehen konnte, mu
ihm schon gesagt worden sein, denn er beklagt sich:
Der szientistische Erwachsenenspott u
aubt einzig das
ber Gedankenmusik u
bert
Knirschen der Rollschr
anke, in denen die Frageb
ogen abgelegt werden, das Ger
ausch
des Betriebs purer W
ortlichkeit.
Einleitung, p. 45

Einzelwissenschaftlich komme man den gesellschaftlichen Prozessen nicht bei, man m


usse
die Dialektik der Totalitat erfassen. Wie das geschehen kann, deutete Adorno nur an: Karl
Krauss habe es gezeigt. F
ur Krauss waren die sprachlichen Verw
ustungen (die von der
von Krauss so genannten Journaille angerichtet wurden, U.M.) Sendboten der realen
Verw
ustungen des ersten Weltkriegs (Adorno et al. (1993), p. 56), und so gibt Krauss
ein Beispiel daf
ur, wie man vorgehen kann, will man die Prozesse in der Gesellschaft

verstehen. Es die Asthetik,


u
ber die wir das Wesentliche erfahren, eine Auffassung, die
schon in Adornos Reaktion auf Horkheimers Ansatz, die formale Logik u
ber Stilfragen
zu Fall zu bringen (vergl. Seite 152), und so vermittelt uns Adorno seine Philosophie; die

Asthetik
seines eigenen Stils transportiert mehr als der konkrete Inhalt seiner Satze, die
von der hegelschen Mystik der Dialektik der Totalitat getragene Grundrythmus seiner
emphatischen Anklage dominiert die Analyse. Nat
urlich ist dies eine Deutung, f
ur die
nach Adorno gilt (s. oben):
was an Wesentlichem im Ph
anomen erscheint, ist das, wodurch es wurde, was es ist,
was in ihm stillgestellt ward und was im Leiden seiner Verh
artung das entbindet,
was erst wird.

Der Positivismus, wie er 1929 programmtisch verk


undet wurde, ist zu kritisieren und
ist kritisiert worden. Adornos fundamentale Positivismuskritik enthalt kein Argument,
das dar
uber hinaus gegen die Empirie, die Logik und die Mathematik genannt werden
konnte. Die Empirie ist einsetzbar wie fast jedes Werkzeug: konstruktiv oder destruktiv.
Die Empirie setzt, f
ur sich genommen, keinen Fokus auf die Destruktion, ebensowenig
wie dialektisches Denken notwendig zur Totalitat des Wahren f
uhrt.

6.6

Selbstreflexion und die Kausalit


at des Schicksals

In seinem Buch Erkenntnis und Interesse (1968/1973) will Habermas121 die Erkenntnistheorie neu begr
unden. Da es das Ziel dieses Abschnitts ist, den Begriff der Kausalitat
des Schicksals vorzustellen, mu hier nicht das Buch insgesamt besprochen werden. Es
werden nur die wesentlichen Grundbegriffe und Habermas Darstellung der Psychoanalyse angedeutet, da in dieser die Kausalitat des Schicksals eine Rolle spielt, zunmindest
nach Ansicht Habermas.
121 sogen.

philosophischer Imponierprosaiker, von ahnungslosen Feuilletonjournalisten zum Meisterdenker hochstilisiert. Diese Charakterisierung ist nicht von mir.

169

Erkenntnis- versus Wissenschaftstheorie: Habermas argumentiert, die Erkenntnistheorie sei zur Wissenschaftstheorie reduziert worden, seit Auguste Comte und spater
Ernst Mach den Positivismus zur philosophischen Basis der Wissenschaft erklarten. Mit
dem Positivismus einher ginge der Szientismus, also die Ansicht, nur die Methoden insbesondere der empirischen Wissenschaften w
urden zu gesichertem Wissen f
uhren. Nach
Habermas ist seit der Mitte des 19-ten Jahrhunderts Wissenschaftstheorie eine im szientistischen Selbstverstandnis der Wissenschaften betriebene Methodologie. Erkenntnistheorie sei durch eine vom philosophischen Gedanken verlassene Methodologie ersetzt
worden. Es gelte also, die vergessene Erfahrung der Reflexion zur
uckzubringen. Wie
Habermas im Vorwort konstatiert, sei gerade die Verleugnung der Reflexion das Charakteristikum des Positivismus.
Nach Habermas ist Erkenntnis an bestimmte Interessen gekn
upft, und eine radikale
Erkenntniskritik sei nur als Gesellschaftstheorie moglich. So sei die empirisch-analytische
Forschung eine systematische Fortsetzung eines kumulativen Lernprozesses, der sich vorwissenschaftlich im Funktionskreis instrumentalen Handelns vollziehe (p. 235), das Interesse sei hier das an technisch verwertbarem Wissen, bzw. an dem, was mit einem solchen Wissen erreicht werden konne. Dagegen liefere die hermeneutische Forschung einen
Prozess der Verstandigung (und der Selbstverstandigung), der sich vorwissenschaftlich im
Traditionszusammenhang symbolisch vermittelter Interaktionen eingespielt hat, in eine
methodische Form, - das Interesse richtet sich hier auf soziale Interaktionen und um,
wie Habermas anmerkt, praktisch wirksames Wissen.
Habermas rekurriert auf die Kritik an der Kantschen Erkenntnistheorie durch Hegel in dessen Ph
anomenologie des Geistes (1806/07). Hegel fordert hier, dass man sich
der Bedingungen f
ur prinzipiell mogliche Erkenntnis zu vergewissern habe, bevor man
irgendwelchen Erkenntnissen vertraue. Hegel habe durchschaut, dass Kants Erkenntniskritik mit einem sich selbst nicht transparenten Bewutsein anfangt (p.25). In seiner
Ph
anomenologie des Geistes f
uhrt Hegel den Begriff der (Selbst-) Reflexion ein; da die
Erkenntnistheorie den Betrachtungen u
ber die Struktur wissenschaftlicher, insbesonderer
naturwissenschaftlicher Theorien vorgeschaltet sei, sei, so Habermas, die philosophische
Reflexion und die Hermeneutik die methodische Basis jeder Erkenntnistheorie. Es sei die
Erfahrung der emanzipativen Kraft der Reflexion; in der
Selbstreflexion gelangt eine Erkenntnis um der Erkenntnis willen mit dem
Interesse an M
undigkeit zur Deckung; denn der Vollzug der Reflexion wei sich
als Bewegung der Emanzipation. Vernunft steht zugleich unter dem Interesse
der Vernunft.
Und: Die Selbstreflexion ist Anschauung und Emanzipation, Einsicht und
Befreiung aus dogmatischer Abhangigkeit in einem (p. 256)122 .
Psychoanalyse und Kausalit
at des Schicksals:. Entsprechend seiner mentalen Einbettung in die Kritische Theorie der Frankfurter Schule ist Habermas der Ansicht, dass
die Psychoanalyse eine wichtige Komponente einer jeden Gesellschaftstheorie zu sein habe. Die Methode der Psychoanalyse sei die Hermeneutik, insbesondere eine Spezifizierung
dieser primar geisteswissenschaftlichen Methode, namlich die von Habermas so genannte Tiefenhermeneutik. In der Psychoanalyse werde Selbstreflexion zur Wissenschaft (p.
262). F
ur Habermas ist die Psychoanalyse das einzige Beispiel einer Wissenschaft, in der
Selbstreflexion methodisch verankert sei, zumindest ergebe sich hier die Moglichkeit zu
einer methodologisch basierten Selbstreflexion, die der Positivismus andernorts versch
uttet habe. Aber leider auch hier sei das Gift des Positivismus sp
urbar geworden, denn
Freud habe ein szientistisches Selbstmiverstandnis . . . selber inauguriert. Der Grund
122 Die

Seitenangaben beziehen sich auf die Ausgabe von Erkenntnis und Interesse von 1973.

170

f
ur diese Inauguration liegt nach Habermas in der Tatsache, dass Freud von Hause aus
Physiologe war (p. 263).
Habermas argumentiert zunachst, dass die Psychoanalyse entgegen der urspr
unglichen
Idee Freuds keine Naturwissenschaft sein konne: es sei die Intention der Aufkl
arung,
derzufolge das Es zum Ich werden soll, der die Psychoanalyse allein ihre
Existenz verdankt (p. 309).
Habermas erlautert diesen Satz nicht weiter, vermutlich bezieht er sich damit auf die
Grundannahme der Psychoanalyse, derzufolge unbewute Prozesse (das Es) durch den
kathartischen Effekt der Bewutmachung (das Ich) ihre storende, wenn nicht gar zerstorende Macht einb
uen. Das Bewutwerden entspricht vermutlich der Aufklarung in Habermas Charakterisierung der Psychoanalyse, und die Intentionalitat dieser Aufklarung
signalisiert dann die mangelnde Reduzierbarkeit auf naturwissenschaftlich beschreibbare
Prozesse, wie sie von manchen Philosophen angenommen wird (vergl. Wissenschaftstheorie IV, Abschnitt 2). Ob Habermas diese Interpretation seines Satzes akzeptieren w
urde,
sei allerdings dahingestellt.
Jedenfalls versucht Habermas nun, u
ber die Tiefenhermeneutik einerseits und die
Selbstreflexion andererseits die Psychoanalyse von ihren szientistischen Aspekten zu befreien. Als Beispiel werden unbewute Motivationen betrachtet, da in ihnen ein Moment von hinterr
ucks Antreibendem, von Triebhaftem (p. 312) steckt. Hier werde eine
Triebtheorie unumganglich. In diesem Zusammenhang soll gelten
verborgene und abgelenkte Intentionen, die sich aus bewuten Motiven zu
Ursachen verkehrt haben und das kommunikative Handeln der Kausalitat naturw
uchsiger Verhaltnisse unterwerfen. Sie ist Kausalit
at des Schicksals, und
nicht der Natur, weil sie durch die symbolischen Mittel des Geistes herrscht
nur dadurch kann sie auch durch die Kraft der Reflexion bezwungen werden
(p. 312; Kursivsetzungen von Habermas).
Dieser Satz verlangt nach Deutung. Man konnte vermuten, dass mit der Kausalitat
naturw
uchsiger Verhaltnisse die gewohnliche Kausalitat gemeint ist, da die verborgenen und abgelenkten Intentionen das Verhalten also das kommunikative Handeln in
Habermasscher Parlance mit steuern. Erzeugt wird dieser Mechanismus aber durch
die symbolischen Mittel des Geistes, also vermutlich durch die regulierende und da
her zumindest gelegentlich repressive Aktivitat dessen, was bei Freud das Uberich
ist.

Das Uberich ware dann, falls die Hermeneutik dieser Interpretation korrekt ist, etwas
Geistiges, was auch immer man darunter verstehen soll, und da das Geistige nicht mit
gew
ohnlicher Kausalitat in Verbindung gebracht werden kann oder soll, hat man es mit
Schicksalskausalitat zu tun. Warum nun hier das Schicksal hereinkommt, bleibt eine of
fene Frage. Wenn man aber bedenkt, dass das Uberich
und das Es das Ich gleichermaen
bedrangen und so das Verhalten, also das kommunikative Handeln, mit bestimmen, und
das Schicksal eines Menschen bis zu einem gewissen Grade von seinem Verhalten Verzeihung, seinem kommunikativen Handeln abhangt, hatte man eventuell eine Erklarung
f
ur den Ausdruck Kausalit
at des Schicksals, aber diese Erklarung konnte auch ein wenig
zu naiv sein. Einige Seiten weiter gibt Habermas eine weitere Erklarung zur Kausalitat
des Schicksals ab, die f
ur ein tieferes Verstandnis hilfreich sein konnte. Denn die Psychoanalyse erfasse sehr wohl (im u
blichen Sinn) kausale Zusammenhange, und zwar dort, wo
durch
die Kausalitat abgespaltener Symbole und unterdr
uckter Motive Sprache und
Verhalten pathologisch verformt werden. Mit Hegel konnen wir sie, im Unterschied zur Kausalitat der Natur, eine Kausalitat des Schicksals nennen, weil
171

der kausale Zusammenhang zwischen Ursprungsszene, Abwehr und Symptom


nicht naturgesetzlich verankert ist in einer Invarianz der Natur, sondern nur
naturw
uchsig in einer, durch den Wiederholungszwang reprasentierten, aber
durch die Kraft der Reflexion auflosbaren Invarianz der Lebensgeschichte.
(p. 330)
Hier wird also die Kausalitat der Natur mit einer Invarianz der Natur in Zusammenhang
gebracht. Leider wird nicht weiter ausgef
uhrt, was genau damit gemeint ist. Vermutlich
zielt die Aussage auf die Vorstellung, dass in der Natur ein gegebener (nat
urlicher) Prozess
unter gleichen Bedingungen auch gleich ablauft. Schwieriger ist der Begriff der Invarianz
der Lebensgeschichte zu deuten. Vielleicht ist einfach gemeint, dass sich bei Menschen, die
unter Wiederholungszwang leiden, vieles im Leben immer wiederholt und ihre Lebensgeschichte auf diese Weise invariante Komponenten enthalt. Andererseits enthalt das Leben
und damit die Lebensgeschichte auch bei Menschen ohne Wiederholungszwang Wiederholungen und damit Invarianzen, wie man sich durch kurze Selbstreflexion klar macht.
Allerdings ist noch zu bedenken, dass der als Kausalitat des Schicksals auftretende kausale Zusammenhang naturw
uchsig in der Invarianz der Lebensgeschichte reprasentiert
wird. Vielleicht ist damit gemeint, dass die Kausalitat des Schicksals wie eine Kausalitat der Natur wirkt, obwohl sie keine solche ist. Die Frage nach der genauen Bedeutung
des obigen Satzes mu an dieser Stelle unbeantwortet bleiben, und an anderen Stellen
vermutlich ebenfalls.
Von zentraler Bedeutung f
ur die Psychoanalyse ist jedenfalls, dass nach Habermas
diese Kausalitat, die sich als kausaler Zusammenhang zwischen empirischen Ereignissen
und verfestigten Personlichkeitsmerkmalen erweise, durch Selbstreflexion wenn auch
unter Anleitung eines Therapeuten aufgehoben werden kann. Selbstreflexion sei also
nicht nur ein im philosophischen Kontext, sondern ein f
ur die Praxis der Psychoanalyse zentraler Begriff. Der kausale Zusammenhang in der Natur u
bertrage sich nicht auf
die therapeutische Dynamik im psychoanalytischen Prozess der Selbstreflexion. Im Verlauf einer Psychoanalyse stelle sich Einsicht in die Kausalitat des Unbewuten ein. Die
Therapie beruhe dann nicht auf der Indienstnahme erkannter Kausalzusammenhange,
sondern auf der Aufhebung der Kausalitaten. In der Metapsychologie (die gewissermaen

durch die Axiome der Psychoanalyse, also etwa die Unterteilung in Es, Ich und Uberich konstituiert wird) finden sich Annahmen u
ber bestimmte Mechanismen (Abwehr,
Abspaltung von Symbolen, Motivunterdr
uckung, etc). Diese seien Annahmen, die die
Entstehung und Aufhebung von Kausalitat des Schicksals erklaren:
Ein kausaler Zusammenhang wird hypothetisch als ein hermeneutisch verstehbarer Sinnzusammenhang formuliert. Diese Formulierung erf
ullt gleichzeitig die Bedingungen einer kausalen Hypothese und einer Interpretation (im
Hinblick auf einen durch Symptome verzerrten Text (p. 331).
Nun ist es so, dass nach Breuer und Freud (1893) die Verdrangung eine sine qua
non-Rolle bei der Entstehung von Psychoneurosen spielt. Ein Patient kann von einer
Neurose geheilt werden, so die Annahme, wenn die Verdrangung aufgehoben wird und
die traumatische Erinnerung wieder zuganglich wird; sie hat dann einen kathartischen
Effekt. Um den heilenden Effekt der Aufhebung der Verdrangung zu erklaren, wurde die
ur die
atiologische Annahme gemacht, dass die Verdrangung kausal notwendig einerseits f
Entwicklung, und andererseits f
ur die Aufrechterhaltung der neurotischen Storung sei.
Ist also die Verdrangung R kausal notwendig f
ur das Vorhandensein der neurotischen
Storung N , dann folgt, dass die Aufhebung von R das Ausloschen von N nach sich zieht.
Also: hebt man R auf und wird man dabei N los, so begr
undet man damit die kausale
Rolle von R f
ur N (Gr
unbaum, 1984).
172

F
ur Habermas ist es aber wichtig, das Erklaren der Naturwissenschaft vom hermeneutischen Verstehen zu unterscheiden. Sowohl das Erklaren wie auch das Verstehen
st
utzten sich zwar auf kausale Aussagen, die mithilfe von Zusatzbedingungen aus universellen Satzen oder Gesetzeshypothesen gewonnen w
urden (vergl. p. 332), aber im Falle
hermeneutischer Anwendung w
urden, so Habermas, theoretische Satze in die narrative
Darstellung einer individuellen Geschichte derart u
bersetzt, dass eine kausale Aussage
ohne diesen Kontext nicht zustande kommen konne. Er erklart, dass die kausale Verkn
upfung durch die therapeutische Leistung des Patienten aufgehoben123 wird. Weiter
habe der Patient einen privilegierten kognitiven Zugang zur Validierung oder Widerlegung psychoanalytischer Hypothesen, wie sie durch den Therapeuten vertreten werden,
der Patient entscheide, ob eine Interpretation durch den Therapeuten korrekt bzw.
adaquat sei oder nicht.
Gr
unbaum (1984) hat die Habermasschen Argumente zur Kausalitat penibel analysiert und f
ur hohl befunden. Die Gr
unbaumsche Analyse mu und kann hier nicht im
Detail nachvollzogen werden, es gen
ugt, eine kurze Illustration zu referrieren, die Gr
unbaum zu seiner Argumentation geliefert hat. Wie oben ausgef
uhrt, behauptet Habermas,
dass kausale Verbindungen via Selbstreflexion aufgehoben w
urden. Eine kausale Verbindung konne aber nicht gleichzeitig der Grund daf
ur sein, dass sie sich aufhebe,
Habermas sei einfach inkoharent. Der Begriff der Aufhebung der Kausalitat sei, nahme
man ihn ernst, auch auf die somatische Medizin anwendbar: eine Person, die an von
Gallensteinen herr
uhrenden Koliken leidet, hebe dann die Kausalitat zwischen Gallensteinen und Koliken auf, indem sie Medikamente nimmt, die die Gallensteine auflosen.

Die Ubertragung
der Habermasschen Argumentation liefert dann die Aussage, dass die
Person ihre Beschwerden durch die Aufhebung der Kausalit
at los wird, dies ist eine
offenbar unsinnige Interpretation bzw. Verwendung des Begriffs der Kausalitat. Es mu
angemerkt werden, dass der Kausalitatsbegriff selbst keineswegs naiv zu gebrauchen ist;
im Skriptum Wissenschaftstheorie IV wird ausf
uhrlicher darauf eingegangen.
Anmerkungen: F
ur einen sich einer Kritischen Theorie verpflichtet f
uhlenden Philosophen mag die Auffassung, radikale Erkenntniskritik sei nur als Gesellschaftstheorie
moglich, nahe liegen. Ein solcher Ansatz ist wegen seiner Allgemeinheit auch sicherlich
nicht falsch: vermutlich wird man sich bestimmten erkenntnistheoretischen Fragen grundsatzlich nicht stellen, wenn man nicht in einer bestimmten Gesellschaft lebt. Dass Wissenschaft vielfach von okonomischen Interessen dominiert wird, ist bekannt, und die Frage,

was Verstehen im Rahmen der Quantenphysik bedeutet, wird f


ur um das Uberleben
kampfende Bewohner der Sahelzone ohne jedes Interesse sein. Insofern ist die Kopplung
von Erkenntniskritik und Gesellschaftstheorie vollig banal. Andererseits erlaubt diese
Kopplung, den Fokus auf bestimmte Aspekte des Erkennens zu legen, z.B. die Psychoanalyse als wesentliche Komponente in eine Erkentnistheorie einzubinden, wenn es
um das Erkennen gesellschaftlicher Prozesse geht. Allerdings tragt die Einbindung der
Psychoanalyse nichts zu der Frage bei, was Verstehen im Rahmen der Quantenphysik
bedeutet, und diese Frage reprasentiert keine szientistisch-positivistische Voreinstellung,
die die Diskussion des Problems der Erkenntnis restringiert; es gilt eher die Umkehrung:
die psychoanalytischen Betrachtungen verengen den Fokus der Betrachtungen. Dabei ist
die Habermassche Darstellung der Psychoanalyse bemerkenswert unkritisch. Die Psychoanalyse erscheint darin als eine im Wesentlichen abgeschlossene Theorie, deren Kern
nicht weiter zu bezweifeln sei und die nur durch die Betrachtungen zur Kausalitat des
Schicksals und zur Rolle der Selbstreflexion erweitert werden m
usse. Aber der Begriff der
Kausalitat des Schicksals ist nicht nur vage, sondern nichtssagend.
Wie eingangs erwahnt, hat Hegel so Habermas durchschaut, dass Kants Erkennt123 Wohlgemerkt,

des Patienten!

173

niskritik mit einem sich selbst nicht transparenten Bewutsein anfangt. Dieser Mangel
soll durch Reflexion, insbesondere Selbstreflexion, aufgefangen werden. Was hier u
bersehen wird, ist das, was man die ph
anomenologische Blindheit einer solchen Reflexion
nennen kann. Denn man kann sicher erkennen, dass man reflektiert, hat aber keinen
Zugang zu den Prozessen, die der Reflektion unterliegen, und damit hat man keinen
phanomenologischen Zugang zu den Bedingungen der Moglichkeit der Entstehung von
Bewutsein. Es gibt zwei Moglichkeiten: man bezieht entweder eine dualistische oder
eine nicht-dualistische Position. Bei der ersteren nimmt man an, dass der Geist, also
das Bewutsein, nicht durch Aktivitaten des Gehirns erzeugt wird. Dann wird der Geist
zu einem nicht weiter zu reduzierendem Phanomen und es ist unklar, welche Einsichten
die Selbstreflexion u
ber das Wesen des Geistes liefern soll. Nimmt man eine nichtdualistische Position ein, wird man versuchen, die Beziehung zwischen Hirnaktivitat und
der Entstehung des Bewutseins zu ergr
unden. Damit hat man aber eine szientistische
Position eingenommen, die Habermas bekanntlich perhorresziert. Vermutlich hat es bei
Habermas selbstreflexive Prozesse gegeben, die es f
ur ihn evident machen, dass der nichtdualistische und ergo szientistische Ansatz falsch ist. Nur liefert er kein Argument, dass
einen Nicht-Dualisten dazu bringt, seine Auffassung aufzugeben. Die philosophische Potenz des Begriffes der (Selbst-) Reflexion als Ausgangspunkt f
ur erkenntnistheoretische
Betrachtungen ist offenbar begrenzt, wenn nicht gar fragw
urdig, weil u
ber Reflexion und
Selbstreflexion (im Hegel-Habermasschen Sinne) das Problem der Selbstreferenz, dem
man sich gegen
uber sieht, wenn man u
ber die Bedingungen der Moglichkeit des Denkens nachdenkt (oder nachzudenken versucht) nicht losen kann. In Wissenschaftstheorie
IV, Abschnitt5 wird die Frage nach den Bedingungen, unter denen das Verstehen des
Entstehens von Bewutsein moglich ist, wieder aufgenommen, wobei Resultate aus der
(formalen) Logik eine zentrale Rolle spielen werden. Die formale Logik spielt aber f
ur
Habermas eine allenfalls untergeordnete Rolle; in seiner Logik der Sozialwissenschaften
(1970) merkt Habermas an, sie sei ein Schattenreich, genauer:
[die formale Logik] in deren Schattenreich Dialektik selber nicht anders scheinen kann denn als Schimare ( p. 9).
Habermas suggeriert eine philosophisch geringe Bedeutung nicht nur der formalen Logik,
sondern des szientistischen Denkens allgemein, das oft mit positivistischem Denken
gleichgesetzt wird, f
ur das nach Habermas eine Aussage wie diese gilt:
Die positivistische Einstellung verdeckt die Problematik der Weltkonstitution. Der Sinn von Erkentnis selbst wird irrational im Namen strikter Erkenntnis (p. 90). Die Intention des (alteren) Positivismus besteht in der
pseudowissenschaftlichen Propagierung des Erkenntnismonopols von Wissenschaft (p. 91),
und der Positivismus impliziere eine
Verselbststandigung von Logik und Mathematik zu Formalwissenschaften,
deren Grundlagenprobleme fortan nicht mehr im Zusammenhang mit dem
Problem der Erkenntnis diskutiert werden.
Das Argument der pseudowissenschaftlichen Propagierung des Erkenntnismonopols von
Wissenschaft ist nicht ohne eine gewisse Delikatesse. Demnach ist es nicht wissenschaftlich eben pseudowissenschaftlich , der Wissenschaft ein Erkenntnismonopol zuzuordnen. Der Wissenschaft kein Erkenntnismonopol zuzusprechen ware dann nicht nur
korrekt, es ware wissenschaftlich. Eine Aussage, der das Pradikat wissenschaftlich zukommt, hat also den positiven Wert, in einer (vermutlich) abgesicherten und deswegen
174

irgendwie besseren Weise korrekt zu sein, als nicht-wissenschaftliche, korrekte Aussagen. Also kommt der Wissenschaft doch ein Erkenntnismonopol zu? Man wei es nicht.
Habermas scheint zu u
bersehen, dass die Grundlagenprobleme nicht losgelost vom Erkenntnisproblem sind, sondern Aspekte des Erkenntnisproblems reflektieren und nicht
zuletzt deswegen mit Hartnackigkeit verfolgt werden. Korrespondierend zu der Aussage
u
ber die angebliche Verselbststandigung von Logik und Mathematik wird auf Seite 236
festgestellt, dass in den empirisch-analytischen Wissenschaften die Sprache zu theoretischen Satzen formiert wird, die einer formalisierten oder zumindest formalisierbaren
Sprache angehoren:
Der logischen Form nach handelt es sich um Kalk
ule, die wir durch eine geregelte Manipulation von Zeichen erzeugen und jederzeit rekonstruieren konnen.
Unter Bedingungen instrumentalen Handelns konstituiert sich reine Sprache
als Inbegriff solcher symbolischen Zusammenhange, die durch Operieren nach
Regeln hergestellt werden konnen. (p. 236)
Die Halbwahrheit solcher Satze wird mit einer merkw
urdigen Perfidie kombiniert, die
darin liegt, dass insinuiert wird, dass in den empirisch-analytischen Wissenschaften angeblich Aussagen gemacht werden, die durch Operieren nach Regeln hergestellt werden,
wodurch per Anspielung der Produktion der Aussagen ein Aspekt des Mechanischen
und also des Inadaquaten unterstellt wird124 . Es liegt nahe, zu vermuten, dass Hegels
Betrachtungen zur Mathematik hier eine Vorlage geliefert haben, etwa: Im mathematischen Erkennen ist die Einsicht ein f
ur die Sache auerliches Tun; es folgt daraus, da
die wahre Sache dadurch verandert wird. Das Mittel, Konstruktion und Beweis, enthalt
daher wohl wahre Satze; aber ebensosehr mu gesagt werden, da der Inhalt falsch ist.
So Hegel in in der Vorrede zu seiner Ph
anomenologie des Geistes, p. 41. Dort findet
man auch andere Wahrheiten, wie Das Wahre ist das Ganze. Das Ganze aber ist nur das
durch seine Entwicklung sich vollendende Wesen (p. 23), und Das Geistige allein ist das
Wirkliche; es ist das Wesen oder Ansichseiende (p. 27). Und was ist mit der Vernunft?
Die Vernunft ist die Gewiheit des Bewutseins, alle Realitat zu sein, (p. 190) und
das ist nicht das Einzige, was Hegel zur Vernunft zu sagen hat.
In Habermas Erkenntnis und Interesse konnen noch mehr Zitate wie das u
u ber Kalk
le, die u
ber
eine
geregelte
Manipulation
von
Zeichen
erzeugt
werden,
angef
u
hrt
werden,

aber das w
urde hier zu weit f
uhren; wie wenig Formulierungen wie diese das unterliegende Erkenntnisproblem erfassen, wird in Abschnitt Wissenschaftstheorie IV, Abschnitt
5 deutlich werden. Es ist klar, dass Mathematiker, wenn sie wissenschaftlich arbeiten,
hauptsachlich mit Mathematik beschaftigt sind, und Empiriker eben die meiste Zeit
empirisch auf dem Gebiet arbeiten, f
ur das sie sich interessieren, aber deswegen sind
Mathematiker und Empiriker noch lange nicht mechanisch vor sich hinwerkelnde Positivisten, denen das Bewutsein des Poblems der Erkenntnis abhanden gekommen ist. Die
im Zitat genannte Sprachformierung ist bestenfalls eine Karikatur dessen, was man in
der Wissenschaft vorfindet.
Bis heute sind viele Psychoanalytiker mit Habermas zumindest mit dem Autor
von Erkenntnis und Interesse, auch Autoren konnen ihre Ansichten andern einer Mei124 Was geschieht, wenn versucht wird, Naturph
anomene in qualitativer, nicht-szientistischer Weise zu
beschreiben, kann man bei Hegel nachlesen, auf dessen stilpr
agenden philosophischen Schultern ja auch
Habermas steht: Die Elektrizit
at ist der reine Zweck der Gestalt, der sich von ihr befreit, die Gestalt, die
ihre Gleichg
ultigkeit aufzuheben anf
angt; denn die Elektrizit
at ist das unmittelbare Hervortreten oder
das noch von der Gestalt herkommende, noch durch sie bedingte Dasein, - oder noch nicht die Au
osung
der Gestalt selbst, sondern der ober
achliche Proze, worin die Dierenzen die Gestalt verlassen, aber
sie zu ihrer Bedingung haben, und noch nicht an ihnen selbst
andig sind. Hegel, G.W.F. Enzyklop
adie
der philosophischen Wissenschaften. ZweiterTeil: Die Naturphilosophie. Die Totalit
at in der besonderen
Individualit
at, 1830; Vergl. Suhrkamp Werkausgabe (1970) ( 323, Zusatz, S. 274).

175

nung, dass psychoanalytische Fragen nicht unter Ber


ucksichtigung neurowissenschaftlicher Resultate diskutiert zu werden brauchen, da die Biologie f
ur diese Fragen vollig
irrelevant sei; in der psychoanalytischen Szene sitzen die begrifflichen Schreckschuwaffen Szientismus und Positivismus nach wie vor locker. Kandel125 (1998) hat dargelegt, wie neuere Resultate der Hirnforschung f
ur die Psychoanalyse nutzbar gemacht
werden konnen, mute sich dann aber gegen Vorw
urfe der Art, die Irrelevanz der Biologie u
bersehen zu haben, zur Wehr setzen (Kandel, 1999a, 1999b). Auf der WEB-Seite
http://www.human-nature.com/freud/index.html findet man illustrierende Beispiele f
ur
die emotionale Wucht, mit der die Debatte um die Psychonanalyse immer noch gef
uhrt
wird, wobei aber auch die zum Teil atzenden Kritiken an der Freudschen Psychoanalyse
von Crews (1995) und Webster (1995) eine Rolle spielen. Ein groer Teil der in diesen Arbeiten genannten Befunde war bereits in den sechziger Jahren, als Habermas Erkenntnis
und Interesse konzipierte, bekannt.
Nach Habermas soll Erkenntnis emanzipatorisch sein. Dem stimmt man gerne zu.
Man mu auch keineswegs dem konservativen Lager nahestehen um verstimmt zu vermuten, dass komplexe Phanomene wie das Erkennen, die Wissenschaft, das Soziale
einerseits eine Hingabe an das assoziierende Denken und andererseits an das die jeweils zu
reprasentierenden gedanklichen Inhalte bis zur Unkenntlichkeit komprimierende Formulieren zu fordern scheinen, zumindest in bestimmten Schulen, wie etwa der Frankfurter,
wie man bei einem Blick in die Schriften nicht nur von Habermas, sondern auch von
Adorno bemerkt. Es werden f
ur sich stehende, apodiktische Satze produziert, deren Zusammenhang also mit anderen Satzen oder irgendwelchen Grundannahmen unklar bleibt,
und die an die Produktionen des sogenannten Salonblodsinns126 erinnern, bei denen die
Suggestion der Existenz einer Analyse eher gedankliche Unscharfe kaschiert. Gr
unbaum
(1984) konstatiert
. . . Habermas is victmized by his idiolectical127 use of his vocabulary, we need
to be more precise as to the pertinent part of Freuds repression-etiology of
the psychoneuroses.
Diese Charakterisierung gilt nicht nur f
ur die Neurosen. Im sprachlichen Schleuderschwung Habermasscher Textentfaltung bekommt der Begriff der Unscharferelation eine
neue Bedeutung: je mehr man gewisse Textkomponenten Satze zu verstehen sucht,
desto mehr schwindet die Einsicht in sie, und je mehr man auf die Bedeutung des Ganzen
fokussiert, desto weniger wei man, wozu diese Satze u
berhaupt geschrieben wurden.

7
7.1

Metaphysik und Evidenz


Betrachtungen zur Metaphysik

Die Philosophen des Wiener Kreises kritisierten, ebenso wie der fr


uhe Wittgenstein im
Tractatus, die Metaphysik als eine Ansammlung sinnloser Aussagen. Es soll kurz auf die
Diskussion der Frage, ob Wissenschaft tatsachlich ohne Metaphysik moglich ist, eingegangen werden.
Der Ausdruck Metaphysik taucht erst ca 100 vor Chr auf und geht auf einen Herausgeber der Aristotelischen Schriften zur
uck, - vermutlich Andronicos von Rhodos. Der
125 Eric R. Kandel, Mediziner, Psychoanalytiker, Neurowissenschaftler, Nobelpreis im Jahre 2000 (f
ur
Arbeiten zur neuronalen Signalverarbeitung).
126 vergl. Weitbrecht, H.J.: Psychiatrie im Grundri. Berlin, Heidelberg, G
ottingen 1963, p. 174
127 Idiolekt: der Wortschatz und die besondere Ausdrucksweise eines Menschen; idiolektal: den Idiolekt
betreend. Das Wort entfalten geh
ort zum Idiolekt von Habermas.

176

Herausgeber wollte damit das Material bezeichnen, das von Aristoteles nach seinem Wert
Physik verfasst wurde, also Das Buch nach der Physik, also Metaphysica. Bei der Metaphysik geht es also zunachst gar nicht um Dinge, die als hinter der Physik existierend
angenommen werden, also nicht in erster Linie um irgendwelche geistigen Substanzen,
die den vordergr
undigen materiellen, physischen Dingen erst ihre Struktur und ihren
Sinn geben. Der als Metaphysik gekennzeichnete Teil der aristotelischen Philosophie ist
nach Aristoteles die Erste Philosophie: sie fragt nach den Gr
unden und Urspr
ungen des
Seienden als Seienden128 und zerfallt in die Themenbereiche (i) Ontologie, wo nach dem
Sein selbst gefragt wird, (ii) philosophische Theologie, wo man nach dem gottlichen Sein
forscht, (iii) Psychologie, deren Gegenstandsbereich die Seele ist, und schlielich (iv) die
Kosmologie, wo man u
ber den Zusammenhang alles Seienden im Ganzen nachdenkt.
Einer etwas allgemeineren Definition zufolge ist Metaphysk die philosophische Untersuchung der Natur, Konstitution und Struktur der Realitat (Audi, 2001). Demnach w
urden
also die Naturwissenschaften die Metaphysik nicht ausschlieen. Es ist aber der besondere Fokus der Metaphysik, der sie aus der Sicht der Positivisten und Neopositivisten
zur Zielscheibe der Kritik macht, namlich Fragen der Art, ob es u
berhaupt physische
Objekte gibt, und ob jedes Ereignis eine Ursache hat. Tatsachlich wird ja oft gerade
die Suche nach Ursachen als Charakteristikum f
ur die Naturwissenschaften angesehen,
wahrend in der geisteswissenschaftlich orientierten Psychologie das Kausalitatsprinzip
f
ur psychische Prozesse gelegentlich in Frage gestellt wird. Demnach sind metaphysische
Annahmen grundlegend f
ur verschiedene Wissenschaften. Kant hat in seiner Kritik der
reinen Vernunft argumentiert, dass die Metaphysik aus der Wissenschaft auszuschlieen
sei, nur haben einige Nachfolger Kants dessen Philosophie in einer Weise weiterentwickelt
(Idealismus), die die Metaphysik geradezu zu einem zentralen Kern des philosophischen
Denkens machte. Kant bezog sich, wenn er von Metaphysik sprach, auf Theorien, in denen u
ber die Existenz Gottes und die Unsterblichkeit der Seele spekuliert wurde, und
Spekulationen dieser Art sind in der Tat nicht Teil der heutigen Naturwissenschaft und
werden auch in der heutigen geisteswissenschaftlich orientierten Psychologie nicht angestellt. Es zeigt sich allerdings, dass metaphysische Fragen bereits bei der Diskussion der
Grundlagen einer Wissenschaft auftreten.
Um dies zu sehen, mu der Begriff der Metaphysik genauer gefasst werden. Die folgenden Betrachtungen gehen auf Stegm
uller (1954) zur
uck. So kann man, Stegm
uller
zufolge, zum einen die Metaphysik von ihrem Gegenstand her definieren, indem man ein
Kriterium definiert, in bezug auf das metaphysische Objekte von nicht-metaphysischen
unterschieden werden konnen. Alternativ dazu lat sich Metaphysik aber auch durch die
Art der Urteile bzw. Aussagen, die gemacht werden, charakterisieren.
Der erste Ansatz erscheint nicht sinnvoll zu sein, obwohl er der klassische Ansatz ist.
Denn hier wird vom Seienden als Seiendem, vom Seienden im Allgemeinen gesprochen,
- Redeweisen, die sich bei naherer Analyse als kaum sinnvoll erweisen. Dementsprechend
wird man den zweiten Ansatz zur Charakterisierung der Metaphysik untersuchen. Man
wird logisch-mathematische und einzelwissenschaftliche Aussagen nicht als metaphysische Aussagen ansehen. Die ersteren sind, in der Kantschen Klassifikation, analytisch,
wahrend die letzteren synthetisch sind. Analytische Aussagen sind allein Kraft ihrer
Form wahr. Sie haben keinen Wirklichkeitsgehalt, da sie letztlich eine tautologische
Struktur haben. Realwissenschaftliche Satze u
ber die Wirklichkeit sind synthetische Satze. Synthetische Satze sind nicht analytisch, und ihre Negationen sind ebenfalls nicht
analytisch. Eine scharfe Definition analytischer Satze kann nur in bezug auf formalisierte
Sprachen gegeben werden: nach R. Carnap sind Aussagen analytisch, wenn ihre Wahrheit
aus den Regeln und Definitionen folgt, aus denen das formale System aufgebaut ist. Bei
den synthetischen Satzen m
ussen Untersuchungen u
ber die Gegenstande, u
ber die etwas
128 dtv-Atlas

Philosophie, M
unchen 1991, p. 13

177

ausgesagt wird, angestellt werden, um etwas u


ber die Wahrheit der Aussage folgern zu
konnen. Es handelt sich dann um empirische Aussagen, die wesentlich hypothetischen
Charakter haben. Nun sind metaphysische Aussagen sicher nicht analytisch, denn sonst
w
urde man Logik und Mathematik nicht als von der Metaphysik unterschieden ansehen. Metaphysische Satze sollen ja etwas u
ber die Wirklichkeit aussagen. Gleichzeitig
m
ussen metaphysische Aussagen von den empirischen unterschieden werden, denn empirische Aussagen sollen ja gerade nicht metaphysisch sein. Empirische Aussagen sind
aber haufig hypothetisch, wahrend metaphysische auf jeden Fall nichthypothetisch sind.
Die Charakterisierung metaphysischer Aussagen lauft dann auf die Charakterisierung als
synthetische Aussagen a priori hinaus. Nach Kant sind damit Aussagen gemeint, die notwendig und allgemeing
ultig sind. Das Problem hierbei ist, dass nicht klar ist, was unter
a priori in diesem Zusammenhang verstanden werden soll. Allgemeing
ultig kann soviel
wie alle, die das Urteil denken, halten es f
ur g
ultig, - aber das bedeutet ja noch lange
nicht, dass das Urteil auch notwendig gilt. Alternativ konnte man sagen, dass a priori
alle, die das Urteil denken, sollten es f
ur g
ultig halten bedeutet. Dann ist allerdings
die Frage, warum sie das Urteil f
ur g
ultig halten sollen: die Information u
ultig ber die G
keit mu sich ja irgendwie ergeben haben, und: hat sie sich einem einzelnen Individuum
ergeben, oder simultan einer Gruppe, und wie hat sie sich ergeben, etc. Es geht hier ja
nicht darum, dass jemand oder eine Gruppe von Personen Offenbarungserlebnisse hatte,
sondern darum, dass ein Urteil als objektiv zwingend, also notwendig nachgewiesen und
nicht nur geglaubt wird. Man lauft hier wieder in einen infiniten Regress, denn der Begriff a priori soll gerade diese Frage beantworten, impliziert aber tatsachlich die Frage
nach einem Kriterium, f
ur das dann wieder die gleiche Frage gestellt werden kann; man
sieht, dass man implizit wieder auf den Evidenzbegriff gef
uhrt wird, auf den in Abschnitt
7.2 unten dementsprechend eingegangen wird. Eine weitere Alternative ware, zu sagen,
dass a priori Aussagen Urteile sind, die gelten, und unabhangig davon, ob sie nun anerkannt werden oder nicht. Dann ist aber wieder schwer einzusehen, worin der Unterschied
zwischen allgemeing
ultig und wahr besteht: nicht alle wahren Urteile sind a priori
gemeint, denn sonst waren alle empirischen Urteile falsch. Nun kann notwendig auch
bedeuten, dass es nicht auf ein denkendes Subjekt bezogen ist, sondern ein objektives
Kriterium bestimmter Urteilsklassen ist. Dann folgt, dass eine Aussage p die Eigenschaft
notwendig hat dann und nur dann, wenn p analytisch ist, - womit der Begriff synthetisch a priori u
ussig wird. Weiter ist zu erklaren was mit der Konjunktion notwendig
berfl
und allgemeing
ultig gemeint ist, denn die Bestimmungen f
ur notwendig einerseits und
allgemeing
ultig andererseits sollten sich nicht decken (deckten sie sich, ware die Konjunktion u
ussig). Decken sie sich aber nicht, so gibt es auch Urteile, die notwendig,
berfl
aber nicht allgemeing
ultig sind, und allgemeing
ultige Urteile, die nicht notwendig sind, dann ist aber die Kantsche Einteilung in analytische Urteile, synthetische Urteile a priori
und synthetische Urteile a posteriori nicht vollstandig.
Es wird deutlich, dass hier begriffliche Schwierigkeiten vorliegen. Stegm
uller schlagt
deshalb vor, metaphysische Urteile per definitionem als synthetische Urteile a priori zu definieren. Der vorgestellte Ansatz basiert aber auf der Annahme, dass analytische Aussagen
definierbar sind. Andererseits kann man eine solche Definition nur in bezug auf formale
Sprachen vornehmen (s. oben). Der Definition formaler Sprachen geht aber der Gebrauch

nichtformalisierter Uberlegungen
voraus, die deshalb grundlegender sind als die innerhalb
des formalisierten Systems. F
ur das formalisierte System mu es eine nichtformalisierte
Metatheorie geben, in der die Untersuchung des formalisierten Systems stattfindet. F
ur
diese Metatheorie ist aber der Begriff des Analytischen nicht mehr zu definieren. Dann
bleibt nur noch der Unterschied zwischen dem Hypothetischen und dem Nichthypothetischen. Damit verschwimmt aber die Grenze zwischen logischen und metaphysischen
Aussagen. Man kann nur noch zwischen logischen bzw. metaphysischen Aussagen ei178

nerseits und empirischen Aussagen andererseits unterscheiden. Stellt zum Beispiel ein

Logiker Uberlegungen
dar
uber an, ob der Satz vom ausgeschlossenen Dritten (tertium
non datur129 ) akzeptiert werden kann oder nicht, so ist nicht klar, ob es sich dabei um

rein logische oder vielleicht auch metaphysische Uberlegungen


handelt (der niederlandische Logiker Brouwer bezweifelte die Zulassigkeit des tertium non datur f
ur Folgerungen
von Eigenschaften von Mengen mit unendlich vielen Elementen, vergl. Becker (1954), p.
329).
Es bleibt u
brig, dass logische wie metaphysische Aussagen nicht-hypothetisch sind.

Die Frage ist nun, wie man feststellt, wann inhaltliche Uberlegungen
nicht-hypothetisch
sind. Stegm
uller argumentiert, dass diese Feststellung nur auf Einsicht, dh auf Evidenz
beruht. Der Evidenzbegriff wird im folgenden Abschnitt ausf
uhrlicher diskutiert.

7.2

Zum Begriff der Evidenz

Der Begriff Evidenz ist nicht definierbar. Denn dazu mu ja das, was Evidenz definiert,
bereits evident sein, eine Definition von Evidenz setzt sich selbst voraus, ist also nicht
moglich. Deshalb kann man evidente Urteile nur anhand von Beispielen erlautern. Jedenfalls f
uhrt der Versuch, den Begriff der metaphysischen Aussage zu spezifizieren, auf
die Frage, was denn unter Evidenz zu verstehen ist. Metaphysische Evidenz sollte dabei
von logischer Evidenz separiert werden. Metaphysiker sprechen dementsprechend von bestimmten Formen der Einsicht, etwa von Wesenschau, oder von einer das Wesen der
Dinge erfassenden Intuition. Gelingt die Abgrenzung der metaphysischen Evidenz von
anderen Formen der Evidenz nicht, so ist die Unterscheidung von metaphysischen und
nicht-metaphysischen Aussagen nicht mehr klar definiert, man mu sich gleichzeitig mit
beiden Typen von Aussagen beschaftigen.
Man kann sagen, dass Evidenz dann behauptet wird, wenn Wissen ausgedr
uckt werden soll: Es ist evident, dass man eine unendliche Folge nicht vollstandig durchlaufen

kann, die Ahnlichkeit


zwischen rot und orange ist groer als die zwischen rot und gr
un.
Evidenz setzt Einsicht voraus bzw ist damit equivalent. Der Begiff Wissen hat aber zwei
Bedeutungen. Die schwachere Bedeutung bezieht sich auf hypothetisches, nicht vollstandiges Wissen, wahrend die starkere Bedeutung sich auf gesichertes, definitives, nichthypothetisches Wissen bezieht. Evidenz mu auf diesen Wissensbegriff bezogen werden.
Gegen unvollstandiges Wissen kann man argumentierend ankampfen, gegen das definitive Wissen nicht. Ist der Wissensanspruch allerdings falsch, so ist die Evidenz nur eine
Scheinevidenz und man kann versuchen, den Fehler aufzuzeigen, - das heit aber, evident
machen, dass nur eine Scheinevidenz vorliegt. Wie Stegm
uller ausf
uhrt, ist ein solcher
Versuch ein Apell an die F
ahigkeit zur Einsicht des anderen.
Die Positivisten und Neopositivisten vertreten den Standpunkt, dass es doch gar
nicht auf Evidenzerlebnisse ankomme, sondern auf den Nachweis eines objektiven Begr
undungszusammenhanges. Eine Behauptung kann nicht dadurch gerechtfertigt werden,
dass man einfach sagt, sie sei evident. Aber gerade dieses wird auch gar nicht behauptet.
Dazu betrachte man zwei Personen A und B. B habe die Herleitung einer Behauptung p
vorgelegt, die A falsch findet. Sicherlich kommt es nun darauf an, ob p tatsachlich korrekt
behauptet werden kann oder nicht. Andererseits kann A die Person B nur u
berzeugen,
dass p nicht gelten kann, wenn B auch erkennt, dass p nicht wie behauptet gefolgert
werden kann. Generell kann man nun voraussetzen, dass es gewisse Grundannahmen und
gewisse Schluregeln gibt, aus denen weitere Behauptungen hergeleitet werden konnen
129 Dieser Satz spielt eine zentrale Rolle in vielen mathematischen Beweisen. Man will beweisen, dass
die Aussage p gilt. Dazu nimmt man an, dass p, also nicht-p gilt und zeigt, dass diese Annahme zu
einem Widerspruch f
uhrt. Daraus wird dann gefolgert, dass p gelten mu.

179

und hinsichtlich derer A und B u


bereinstimmen. A ist der Ansicht, B habe zB eine
Schluregel fehlerhaft angewendet. A mu nun versuchen, in B die Einsicht zu erzeugen,
dass die Regel falsch angewendet worden ist. Man wird mit logischen Argumenten nichts
gegen B ausrichten konnen, so lange er diese Argumente eben nicht einsieht. Sieht nun
B ein, dass die Ableitung von p aus einer anderen Aussage q nicht korrekt war, so wird
ihm dieser Sachverhalt (p folgt nicht aus q) evident, und diese Evidenz ist nat
urlich nicht
der Grund f
ur die (hier angenommene) Tatsache, dass p nicht aus q folgt, aber ohne das
Erlebnis der Evidenz kann diese Tatsache nicht erkannt werden.
Es ist unmoglich, einen evidenten Beweis f
ur die mangelnde Notwendigkeit der Evi
denz zu finden. Stegm
uller (1954), p. 102, fasst das Ergebnis dieser Uberlegungen
knapp
zusammen:
Das Evidenzproblem ist absolut unl
osbar, die Frage, ob es Einsicht gibt oder
nicht, ist absolut unentscheidbar.
Die Argumente f
ur die Evidenz stellen einen circulus vitiosus130 dar. Denn der Versuch
einer Begr
undung f
ur die Evidenz setzt die Existenz der Evidenz voraus. Die Argumente
gegen die Evidenz m
unden in einen Selbstwiderspruch insofern, als sie evident machen
m
ussen, dass es keine Evidenz gibt. Damit wird Evidenz zur Glaubenssache, die nicht
weiter begr
undet werden kann. Man kann von einer vorrationalen Urenscheidung sprechen. Fordert man zum Beispiel, dass nur formallogische Einsichten gelten sollen, so mu
man irgendwie schon wissen, dass diese Art der Einsicht die einzig richtige ist. Dazu mu
man u
uft haben, dass diese Art der Einsicht die einzig richtige ist, - wozu allerdings
berpr
wiederum Einsicht notwendig ist, die aber nicht formallogisch ist. Man kann also sagen,
dass jeder Erkenntnisakt bereits eine Entscheidung u
ber die Erkenntnis voraussetzt, und
diese Entscheidung mu von Fall zu Fall getroffen werden.
Man kann zeigen, dass insbesondere metaphysische Evidenzen nicht generell von den
moglichen Evidenzaussagen ausgeschlossen werden konnen. Dazu unterteilt man die Menge der Erkenntnisarten in die Teilmengen M1 und M2 ; M1 enhalte diejenigen Erkenntnisarten, anhand derer die Argumentationen gegen die metaphysischen Erkenntnisarten
M2 gewonnen werden konnen. Nun sind metaphysische Aussagen nur durch Hinweis
auf Erkenntnisarten einsehbar, die mit den anerkannten, mit wissenschaftlicher Evidenz
versehenen Erkenntnisarten zusammenfallen. Betrachtet man jetzt die Allklasse aller
Evidenzen A = M1 M2 , so mu M2 = A M1 sein. Es werde nun behauptet, die
Evidenzen in M2 gebe es gar nicht, es handele sich nur um Scheinevidenzen. Um diese
Aussage nachzuweisen (und das heit eben auch, sie evident zu machen), konnen per
definitionem nur Aussagen aus der Klasse M1 herangezogen werden. Aber dieses Vorgehen ist unmoglich. Denn aus der Voraussetzung, dass M1 nicht leer ist, folgt noch nicht,
dass es keine anderen Evidenzarten, also Evidenzarten, die nicht zu M1 gehoren, geben
kann. Um nachzuweisen, dass M2 leer ist, m
ussen weitere Evidenzarten herangezogen
werden, die relativ zu M1 metatheoretisch sind, die also eine Evidenzklasse M3 bilden,
und M1 M3 = , d.h. kein Element aus M3 gehort zu M1 , und kein Element aus M1
geh
ort zu M3 . Nach Definition der Elemente von M1 m
ussen aber die Elemente von
M3 eine Teilmenge von M2 bilden. Damit hat man aber einen Widerspruch, aus dem
folgt, dass metaphysische Argumente mit Erkenntnisanspruch u
berhaupt als falsch erkannt werden konnen. Alles, was sich sagen lat, ist, dass bestimmte Aussagen aus M2
mit bestimmten anderen Aussagen aus M2 bekampft werden konnen: Metaphysik kann
nur mit anderer Metaphysik bekampft werden (Stegm
uller (1954), p. 105). Wenn nun
der Positivismus behauptet, Metaphysik sei sinnlos, so ist diese Aussage das Resultat
metaphysischer Betrachtungen:
130 fehlerhafter

Zirkel,- Zirkelschlu.

180

Was immer der Positivismus gegen die Metaphysik vorbringen mag, ist sinnlos. Was immer die Metaphysik zur Selbstverteidigung gegen den Positivismus
vorbringen mag, ist falsch. (Stegm
uller, 1954, p. 106)
Diese Betrachtungen gelten nur, wenn die G
ultigkeit bzw. Ung
ultigkeit bestimmter
Erkenntnisse eingesehen werden soll. Lat man die Forderung nach Einsicht fallen, so
kann man einfach bestimmte Erkenntnisse zulassen und andere verbieten. ZB konnte
man metaphysische Erkenntnisse nicht zulassen. Dann wird man aber mit der Frage
nach der Begr
undung f
ur diese Entscheidung konfrontiert. Will man nicht auf die Frage
eingehen, dh will man kein Kriterium f
ur die Entscheidung angeben, so handelt man sich
den berechtigten Vorwurf der Beliebigkeit ein. Man kann dann auch bestimmte wissenschaftliche Einsichten verbieten, denn man gibt dann ja auch kein Kriterium an, warum
man bestimmte Einsichten nicht verbieten will. Damit wird unklar, was Wissenschaft und
was Metaphysik genannt werden soll. A kann entscheiden, dass nur Aussagen der Art M1
als wissenschaftlich zugelassen werden sollen, die der Art M2 dagegen nicht. B kann das
Gleiche mit umgekehrtem Vorzeichen tun: nur Aussagen aus M2 werden zugelassen, die
wissenschaftlichen aus M1 dagegen nicht, weil sie sinnlose Metaphysik seien. Ein solches
Vorgehen macht offenbar nicht viel Sinn. Generell folgt, dass jede Wissenschaft so viel
Metaphysik enthalt, wie sie Evidenzvoraussetzungen enthalt.

7.3

Das Mu
nchhausen-Trilemma

Der Versuch, auf wissenschaftlichem Weg zu Wissen zu gelangen, ist u.a. durch das Bem
u
hen gekennzeichnet, wahres Wissen von bloen Meinungen, subjektiven Uberzeugungen
und Vermutungen abzugrenzen. Dazu m
ussen Aussagen (Urteile) begr
undet werden.
Albert (1991) spricht von der Suche nach absoluten Begr
undungen - also nicht von Begr
undungen relativ zu nicht weiter hinterfragten Annahmen - als vom archimedischen
Punkt 131 f
ur den Bereich der Erkenntnis. Albert stellt fest, dass der Satz vom zureichenden Grund zwar nicht als logisches Axiom herangezogen werden kann - der Satz ist
ja logisch nicht zu begr
unden - aber doch als methodisches Prinzip angesehen werden
kann, das dem Versuch von Begr
undungen unterlegt werden kann; Albert bezeichnet den
Satz vom zureichenden Grund als Postulat der klassischen Methodologie des rationalen

Denkens. Demnach soll man stets nach zureichenden Begr


undungen f
ur seine Uberzeugungen suchen. Daraus ergebe sich ein weiteres Prinzip des rationalen Denkens, namlich
stets die wahre bzw. richtige Theorie f
ur den betreffenden Bereich anzustreben und alle
Alternativen zu dieser Theorie abzuweisen, denn es kann nur eine Wahrheit geben; dies
ist das Postulat des theoretischen Monismus.
Man steht nun vor der Aufgabe, zu charakterisieren, was eine zureichende Begr
undung
ist. Dazu kann man zunachst fordern, dass die Logik eines Arguments korrekt sein mu.
In der formalen Logik wird diskutiert, wann logische Schlufolgerungen korrekt sind.
Man konnte auch versuchen, zureichende Begr
undungen ohne Rekurs auf die Logik zu
definieren, indem man auf irgendeine intuitive Wesenschau verweist. Dann mu man aber
die Forderung der Intersubjektivit
at aufgeben, die wiederum als von zentraler Bedeutung
f
ur die Wissenschaft angesehen wird, denn wissenschaftliche Aussagen sollen ja im Prinzip
f
ur jedermann nachvollziehbar sein, hinreichende intellektuelle Fahigkeit vorausgesetzt.
Nun ist eine logische Schlufolgerung das Resultat von Anwendungen bestimmter Regeln,
die lediglich explizit machen kann, was in den Ausgangssatzen bereits enthalten ist, ein
131 Der a. P. ist urspr
unglich ein gedachter fester Punkt auerhalb der Erde, von dem aus diese sich
bewegen l
at, nach dem Ausspruch des Archimedes: Gebt mir einen Platz, wo ich stehen kann, so will
ich (mit meinem Hebel) die Erde bewegen. Im u
bertragenen Sinne ist der a. P. also ein Ansatz, mit dem
sich ein komplexer Problembereich behandeln l
at.

181

neuer Gehalt entsteht dadurch nicht; logische Schlufolgerungen melkengewissermassen


aus einer Aussagenmenge den impliziten Gehalt (Albert, p. 13), erzeugen aber keine
nicht in der Aussagenmenge enthaltenen Informationen. Dabei sagt ein g
ultiges logisches
Argument generell nichts u
ber den Wahrheitswert der Komponenten des Arguments aus.
Es ist moglich, dass alle Komponenten falsch sind, die logische Deduktion aber korrekt
ist, bis auf eine Ausname: ist die Pramisse wahr, kann die logische Konsequenz nicht
falsch sein. Ein Beispiel ist der modus ponendo : es seien p und q Aussagen und es soll
p q, also Wenn p, dann auch q gelten. Liegt nun p vor, so kann man q folgern.
Ist p wahr, so mu auch q wahr sein. Ist p falsch, so bleibt p q wahr, denn aus der
Logik ist der Satz: ex falso quodlibet, d.h. aus dem Falschen folgt Beliebiges. Die Aussage
p q ist nur dann falsch, wenn p wahr, aber q falsch ist. Man spricht auch vom Transfer
des positiven Wahrheitswertes (dh der Wahrheit) auf die Folgerung, und damit auch vom
R
ucktransfer des negativen Wahrheitswertes (dh der Falscheit, also q) auf die Falschheit
der Pramisse p.
Die Frage nach der Begr
undung bezieht sich nun darauf, wie die Wahrheit von p, q etc
begr
undet werden kann. Ist p wahr und gilt die Aussage p q, so ist auch q wahr, denn
die Wahrheit wird dann transferiert. Es mu also nur p begr
undet werden. p folgt i.a.
aus anderen Aussagen, - und f
ur diese Aussagen gilt dann wieder dasselbe. Nach Albert
erhalt man hier das von ihm so genannte M
unchhausen-Trilemma:
1. man lauft entweder in einen infiniten Regress, oder
2. in einen logischen Zirkel in der Deduktion, denn im Beg
undungsverfahren greift man
auf Aussagen zur
uck, die schon vorher als begr
undungsbed
urftig erkannt worden
waren, oder
3. man mu den Begr
undungsversuch einfach abbrechen, dh man kann u
ber einen
bestimmten Punkt hinaus das Verfahren einfach nicht weiter fortf
uhren, ohne eine
letztliche Begr
undung erhalten hzu haben.
Will man also einen infiniten Regress oder einen logischen Zirkel vermeiden, so hat man
keine andere Wahl, als das Verfahren abzubrechen. Dann ist die Frage, wo man abbricht.
Hier wird man wieder auf das Phanomen der Evidenz gef
uhrt: man bricht die Begr
undung
ab, wenn man bei einer Aussage p0 angelangt ist, die einem als evident wahr erscheint,
- oder die man als bloe Annahme gewissermaen ausprobieren will. Die Evidenz wird
dann irgendwie gerechtfertigt, etwa durch unmittelbare Plausibilitat, Intuition, etc.
Die Aussage p0 ist eine Behauptung, die dann im Prinzip zu einem Dogma wird. Die
Suche nach dem archimedischen Punkt der Erkenntnis endet mit dem, was Albert einen
Rekurs auf ein Dogma nennt. Das Postulat der klassischen Methodologie, der Satz vom
zureichenden Grund, wird de facto an einem bestimmten Punkt suspendiert. Der oben
eingef
uhrte archimedische Punkt der klassischen Erkentnistheorie, dh die absolut wahre,
nicht weiter zu begr
undende Aussage p0 existiert nicht.
Diese Einsicht f
uhrte Albert dazu, die klassische Erkentnistheorie als Offenbarungsmodell der Erkenntnis zu bezeichnen. Popper (1963) hat darauf hingewiesen, dass die
Erkentnistheorie, die am Beginn der neuzeitlichen (also ab Kepler, Galilei, etc) Wissenschaft stand, von der Annahme bestimmt war, dass Wahrheit eben offenbar ist, man
mu sie nur sehen (schauen). Die Wahrheit kann irgendwie verdeckt, verschleiert sein,
aber sie kann entschleiert werden. Nach Popper war mit dieser Annahme eine Ideologietheorie des Irrtums verbunden, derzufolge f
ur einen Irrtum nach einer Erklarung gesucht
werden mu, die im Bereich des Vorurteils, des Willens oder des Interesses zu suchen
sei, wahrend sich die Wahrheit von selbst verstehe. Man kann sagen, dass die klassische
Erkenntnistheorie sich aus theologischen Denkweisen entwickelt hat.
182

Folgt man also der klassischen Erkenntnislehre, so hat man u. U. die letzte Wahrheit
geschaut, sie ist einem offenbart worden und kann deshalb auch nicht mehr kritisiert
werden. Die Konsequenzen werden durch bestimmte totalitare politische Systeme, aber
durch bestimmte Religionen illustriert. Einen Ausweg liefert im Prinzip der Poppersche
Ansatz der kritischen Rationalitat: jede Annahme kann im Prinzip durch rationale Betrachtung kritisiert werden.

Literatur und Index

Literatur
[1] Adorno, T.W., Frenkel-Brunswik, E., Levinson, D. J., Sanford, R.N.: The Authoritarian Personality. Harper und Brothers, New York 1950.
[2] Adorno, T. W.: Noten zur Literatur. Frankfurt 1952
[3] Adorno, T.W. (1957) Replik. K
olner Zeitschrift f
ur Soziologie und Sozialpsychologie,
9, 105-117
[4] Adorno, T. W. (1959) Starrheit und Integration. Psychologische Rundschau, 10,
292-294
[5] Adorno, T. W., Dahrendorf, R., Pilot, H.K.: Der Positivismusstreit in der deutschen
Soziologie. Luchterhand 1993
[6] Ahrend, H.:Elemente und Urspr
unge totalitater Herrschaft. Frankfurt, 1958
[7] Albert, H.:Traktat u
ubingen 1991
ber kritische Vernunft, T
[8] Altemeyer, B.: Right-wing authoritarianism. Winnipeg: University of Manitoba
Press 1981
[9] Armendt, B. (1993) Dutch Books, Additivity, and Utility Theory. Philosophicl Topics , 21(1), 1 20
[10] Audi, R. (ed): The Cambridge Dictionary of Philosophy. Cambridge University Press
1999
[11] Bamber, D. (2003) What is probability? Journal of Mathematical Psychology, 47,
377-382
[12] Becker, W. (1972) Dialektik als Ideologie. Eine kritische Betrachtung u
ber Zustandekommen, Sinn und Funktion der dialektischen Methode. Zeitschrift f
ur allgemeine
Wissenschaftstheorie, III/2, 302-328
[13] Becker, O.: Grundlagen der Mathematik. M
unchen 1954
[14] Blinkhorn, S. (1994) Willow, titwillow, titwillow!. Nature, 372, 417-419
[15] Bobzien, S. (2004) Dialectical School. Stanford Encyclopedia of Philosophy,
http://plato.stanford.edu/entries/dialectical-school/
[16] Boltzmann, L.: Ein Antrittsvortrag zur Naturphilosophie (1903). In: Boltzmann,
L.:Populare Schriften. Braunschweig, 1979

183

[17] Bridgman, P.W.: The Logic of Modern Physics. In: Feigl, H., Brodbeck, M. (eds):
Readings in the Philosophy of Science. New York 1953
[18] Burock, M. (2005) Indifference, Sample Space, and the Wine/Water Paradox. philpapers online research in philosophy , http://philpapers.org/rec/BURISS
[19] Carnap, R. (1945) Two concepts of Probability, in: Philosophy and Phenomenological
Research, 5, 513-532
[20] Carnap, R.: Logical Foundations of Probability. Chicago 1950
[21] Carnap, R., Stegm
uller W.: Induktive Logik und Wahrscheinlichkeit. Wien, 1959
[22] Cassirer, E.: Determinismus und Indeterminismus in der modernen Physik, 1936,
in: von Meyenn, K. v. (Hrsg): Triumph und Krise der Mechanik. M
unchen 1990
[23] Chaitin, G.: Exploring randomness. London 2003
[24] Chaitin, G.J. (1986) Randomness and Godels Problem. Mondes en Developpement,
No. 54-55, 125 - 128
[25] Cohen, J.: Statistical Power Analysis for the Behaioral Sciences. Academic Press,
New York 1969
[26] Cox, D.R., Smith, L.W. (1953). The superposition of several stricztly periodic sequences of events. Biometrika, 40, 1-11.
[27] Dahms, H.-J.: Positivismusstreit. Frankfurt 1994
[28] Davidson, D., Rorty, R.: Wozu Wahrheit? Eine Debatte. Frankfurt, 2005
[29] Dawes, R.M., Faust, D., Meehl, P.E. (1989) Clinical versus actuarial judgment,
Science, 243, 1668-1674.
[30] Dawes, R.M.: House of cards psychology and psychotherapy built on myths. New
York, 1996
[31] Dawid, A.P. (1984) Statistical Theory the Prequential Approach, J. R. Statist.
Soc. A, 147, Part 2, 278292
[32] de Finetti, B.: Foresight: its logical laws, its subjective Sources. In: H. Kyburg und
H. Smokler (eds) Studies in subjective probability. New York, 1937
[33] Devlin, B., Fienberg, S.E., Resnick, D. P., Roeder, K.: Intelligence, Genes, and Success. Springer-Verlag, New York 1997
[34] Diaconis, P., Freedman, D. (1986) On the Consistency of Bayes Estimates. Annals
of Statistics, 14, 1-87
[35] Dilthey, W.: Die Philosophie des Lebens. Eine Auswahl aus seinen Schriften. Gottingen 1961
[36] Earman, J.: A primer on determinism. Dordrecht 1986
[37] Earman, J.: Bayes or Bust? A critical examination of Bayesian confirmation theory.
The MIT Press, Cambridge Massachussetts, London 1992
[38] Edmonds, D.J., Eidinow, J.A.: Wie Ludwig Wittgenstein Karl Popper mit dem
Sch
urhaken drohte. DVA Stuttgart 2001
184

[39] Einstein, A.: Geometry and experience. In: Feigl, H., Brodeck, M. (eds) Readings in
the philsophy of science. New York, 1953
[40] Erwin, E. (2006) Randomized clinical trials in psychotherapy outcome research.
Philosophy of Science, 73, 135152
[41] Fahrenberg, J., Steiner, J. M. (2004) Adorno un die Autoritare Personlichkeit. K
olner
Zeitschrift f
ur Soziologie und Sozialpsychologie, , 56, 127-152
[42] Feller, W. (1940) Statistical Aspects of ESP. Journal of Parapsychology, 4, 271-298.
[43] Feyerabend, P. K: Der wissenschafttheoretische Realismus und die Autorit
at der
Wissenschaften. Ausgewahlte Schriften, Band I, Braunschweig 1978
[44] Fisher, R.A.: Statistical methods for research workers. New York 1958
[45] Fliebach, T.: Mechanik, Lehrbuch der theoretischen Physik I, Heidelberg 1996
[46] Gadamer, H .G.: Wahrheit und Methode. T
ubingen 1960
[47] Gillies, D.: Philosophical Theories of Probability, London/New York: Routledge,
2000

[48] Godel, K.: Uber


formal unentscheidbare Satze der Principia Mathematica und verwandter Systeme, Monatshefte f
ur Mathematik und Physik, 1931, 38, 173 - 198
[49] Graumann, C.F., Metraux, A.: Die ph
anomenologische Orientierung in der Psychologie. In: Schneewind, K.A. (Hrsg.): Wissenschaftstheoretische Grundlagen der
Psychologie. M
unchen 1977
[50] Gr
unbaum, A.: The Foundations of Psychoanalysis, A philosophical critique. University of California Press, Berkeley, 1984
[51] Habermas, J.: Zur Logik der Sozialwissenschaften. Frankfurt 1970
[52] Habermas, J.: Erkenntnis und Interesse.
[53] Hacking, I.: Logic of statistical inference. Cambridge, Cambridge University Press
1965/2009
[54] Hajek, A. (2005) Scotching Dutch Books? Philosophical Perspectives , 19, Epistemology, 139 151
[55] Halliday, D., Resnick, R.: Physics, New York 1962
[56] Hegel, G. W. F.: Phanomenologie des Geistes. Voltmedia, Paderborn
[57] Hegel, G. W. F.: Grundlinien der Philosophie des Rechts. 1821
[58] Hempel, C. G. (1946) A note on the paradoxes of confirmation, Mind, 55, 79-82.
Hierzu auch Mackie, J.L. (1962/1963) The Paradox of Confirmation, Brit. J. of
Philos. of Science, 13, 265-277
[59] Henscheid, E.: Wie Max Hockheimer einmal sogar Adorno hereinlegte. Anekdoten
u
unchen 1995
ber Fuball, kritische Theorie, Hegel und Schach. M
[60] Herrnstein, R.J., Murray, C.: The Bell Curve. Intelligence and Class Structure in
American Life. New York, The Free Press 1994
[61] Hobsbawm, E.: Uncommon people. New York 1998
185

[62] Horkheimer, M. (1937) Der neueste Angriff auf die Metaphysik, Zeitschrift f
ur Sozialforschung, 6, 4 - 51
[63] Horkheimer, M.: Zur Kritik der instrumentellen Vernunft, herausgegeben von Alfred
Schmidt, Frankfurt am Main 1967
[64] Horkheimer, M., Adorno, T.W.: Dialektik der Aufklarung. Frankfurt 1969
[65] Howson, C.: Theories of Probability (1995), Brit. J. Phil. Sci., 46, 132
[66] Jaynes, E. T.: Probability Theory. The Logic of Science. Cambridge University Press,
Cambridge 2003
[67] Jeffreys, H.: Theory of Probability (1921; reprint Oxford 1998
[68] Johnson, W.E.: Logic. Cambridge 1921
[69] Juhos, B.:Elemente der neuen Logik, Frankfurt/Main, Wien 1954
[70] J
uttemann, G.: (1991) Zwischen Wissenschaft und Glaubenslehre: Psychologie ohne
Identit
at. Report Psychologie, April-Ausgabe, 19-24
[71] Kant, I.,Kritik der reinen Vernunft. Felix Meiner Verlag, Hamburg 1956.
[72] Kemeny, J. G. (1955) Fair bets and inductive probabilities. The Journal of Symbolic
Logic , 20 (3), 263 273
[73] Keuth, H. (1976) Poppers Axiome f
ur die propensity-Theorie der Wahrscheinlichkeit.
Zeitschrift f
ur allgemeine Wissenschaftstheorie, VII/1, 99-112
[74] Keynes, J. M.: A Treatise on Probability, London/New York: Routledge 1921
[75] Klowski, J. (1973), Lat sich eine Kernlogik konstituieren?, Zeitschrift f
ur allgemeine
Wissenschaftstheorie, IV/s, 303 312
[76] Kuhn, T. S. The structure of scientific revolutions. Chicago, 1962
[77] Lachtermann, D.R. (1987) Hegel and the formalization of logic. Graduate Faculty
Philosophy Journal , 12, 153-236
[78] Lakatos, I.: History of Science and its rational reconstruction. In: Boston Studies in
the Philosophy of Science, Vol. VIII, 1971
[79] Landau, L.D., Lifschitz, E.M.: Lehrbuch der theoretischen Physik - Mechanik. Berlin
1979, oder Fliebach, T.: Lehrbuch zur theoretischen Physik I, Mechanik. Heidelberg
1996
[80] Laplace, P. S.: Essai Philosophique sur les Probabilites, Paris 1814
[81] Lehman, R.S. (1955) On confirmation and rational betting. The Journal of Symbolic
Logic , 20 (3), 251 262
[82] Leinfellner, W.: Einf
uhrung in die Erkenntnis- und Wissenschaftstheorie. Mannheim
1965
[83] Lewis, D. (1980) A Subjectivists Guide to Objective Chance, in: Philosophical Papers II, New York 1986, Lewis, D. (1994) Human Supervenience Debugged, Mind,
103, 473-490
[84] Mach, E.: Analyse der Empfindungen, DBG, Darmstadt 1991
186

[85] Martin, J.L. (2001) The Authoritarian Personality, 50 years later: what lessons are
there for Political Psychology? Political Psychology, 22, 1-26
[86] Mikkelson, J. M. (2004) Dissolving the Wine/Water Paradox. British Journal of
Philosophy , 55, 137 145
[87] Mises, R. von: Probability, statistics, and the truth. Dover Pbn Inc 1957/1982
[88] Murray, J.D.: Mathematical Biology, Berlin 1989
[89] Ornstein, D.S., Weiss, B. (1991) Statistic properties of chaotic systems. Bulletin of
the American Mathematical Society, 24, 11-116
[90] Poggeler, O. (1985) Den F
uhrer f
uhren. Heidegger und kein Ende. Philosophische
Rundschau, 32, 26-67
[91] Poincare, H.: Science and Hypothesis. Dover, New York 1952
[92] Popper, K. R.: Logik der Forschung. T
ubingen 2002
[93] Popper, K.R.: Ausgangspunkte. Meine intellektuelle Entwicklung. Z
urich 1981,
[94] Popper, K.R.: On the sources of knowledge and ignorance, in Popper, K.R.: Conjectures and refutations. The growth of scientific knowledge. London 1963
[95] Popper, K.R.: The propensity interpretation of the calculus of probability and the
quantum theory. I; S. Korner (ed.) Observation and Interpretation. Proceedings of
the Ninth Symposium of the Colston Research Society, University of Bristol, 65-79,
88-89
[96] Popper, K. R.: What is dialectic? Paper read to a philosophy seminar at Canterbury
University College, Christchurch, New Zealand. First published in Mind, 49, 1940.
In: Popper, K.R.: Conjectures and refutations, London 2002
[97] Puntel, L.B. (1996) Lasst sich der Begriff der Dialektik klaren? Journal for General
Philosophy of Science , 27, 131-165
[98] Putnam, H.: Scientific Realism. In: Leplin, J. (ed) Berkeley 1984
[99] Ramsey, F.P. Truth and probability, und Chance, in: Mellor, D.H.(ed) Philosophical
Papers. Cambridge 1990
[100] Ramsey, F. P.: Truth and Probability. In: Foundations of Mathematics and other
Essays, R. B. Braithwaite (ed.) 1931, reprinted: Studies in Subjective Probability,
H. E. Kyburg, Jr., Smokler, H.E. (eds) Cambridge, 1990
[101] Redding, P. (2006) Georg Wilhelm Friedrich Hegel. The Stanford Encyclopedia of
Philosophy, http://plato.stanford.edu/entries/hegel/
[102] Reichenbach, H.: Erkenntnis 1, 1930
[103] Reichenbach, H.: The philosophical significance of the theory of relativity. In: Feigl,
H., Brodeck, M. (eds) Readings in the philsophy of science. New York, 1953
[104] Rod, W.: Der Weg der Philosophie, Band II, 17. bis 20. Jahrhundert, M
unchen
2000
[105] Rosenthal, J.: Wahrscheinlichkeiten als Tendenzen. Eine Untersuchung objektiver
Wahrscheinlichkeitsbegriffe. Paderborn 2004
187

[106] Rosenthal, J. (2006) Die Propensity-Theorie der Wahrscheinlichkeit. Zeitschrift f


ur
philosophische Forschung, 60, 241-268
[107] Russell, B.: Problems of Philosophy. London 1959
[108] Russell, B.: History of western philosophy. London 1971
[109] Savage, L.J.: The Foundations of Statistics. 1954, reprint Dover, New York 1972
[110] Scheibe, E.: Die Philosophie der Physiker. M
unchen 2007
[111] Schwanitz, D.: Bildung - alles, was man wissen mu. Goldmann, 2002
[112] Seifert, F.: Charakterologie. Handbuch der Philosophie, M
unchen-Berlin 1929
[113] Shimony, A. (1955) Coherence and the axioms of confirmation. The Journal of
Symbolic Logic , 20 (1), 1 28
[114] Sneed, Joseph D.: The Logical Structure of Mathematical Physics. Dordrecht 1979
[115] Spengler, O.: Der Untergang des Abendlandes. Z
urich, 1923/1980
[116] Sober, E.: Evolutionary Theory and the Reality of Macro Probabilities. PSA 2004
Presidential Address. Also in E. Eells and J. Fetzer (eds), Probability in Science.
Open Court, 2004
[117] Stangl, W.: Das neue Paradigma der Psychologie. Die Psychologie im Diskurs des
Radikalen Konstruktivismus. Wiesbaden 1989.
[118] Stegm
uller, W.: Metaphysik, Wissenschaft, Skepsis. Frankfurt, 1954
[119] Stegm
uller W.: Erklarung, Beg
undung, Kausalitat. Springer-Verlag, Berlin, Heidelberg, New York 1983
[120] Stegm
uller, W.: Hauptstromungen der Gegenwartsphilosophie, Band II, Stuttgart
1987
[121] Stegm
uller, W.: Das Problem der Induktion: Humes Herausforderung und moderne Antworten. Der sogenannte Zirkel des Verstehens. Wissenschaftliche Buchgesellschaft Darmstadt, Darmstadt 1974
[122] Strzelewicz, W.: Diskurse am Institut f
ur Sozialforschung um 1930. Personliche
Erinnerungen. In: Papke, Sven: Ordnung und Theorie. Beitrage zur Geschichte der
Soziologie in Deutschland, 147-167, Darmstadt 1986
[123] Suppes, P. (1993) The Transcendental Character of Determinism. In: French, E.A.,
Uehling, T.E., Wettstein, H.K. (eds) Midwest Studies in Philosophy, Vol. XVIII,
Notre Dames Press, 242-257
[124] Szabo, L. (2007) Objective probability-like things with and without objective indeterminism. Studies in History and Philosophy of Modern Physics, 38, 1-11
[125] Szekely, G. J.:Paradoxa. Thun, Frankfurt/Main 1990
[126] Tarski, A.:The problem of truth in the formalized languages. In: Tarski, A.: Logic,
Semantics, Meta-Mathematics, Papers from 1923 to 1938. Oxford 1956
[127] Torgerson, W.S.: Theory and Methods of Scaling. New York 1962

188

[128] Tuomela, R.: Human action and explanation. In: Flstad, G. (ed): Contemporary
Philosophy: A new survey. Vol III, Den Haag 1977
[129] van Frassen, B.: Laws and Symmetry, Oxford: Clarendon Press, 1989
[130] van Kampen, N.G. (1991) Determinism and Predictability. Synthese, 89, 273-281
[131] von Weizsacker, C. F.: Zum Weltbild der Physik. Stuttgart, 1976
[132] Wandschneider, D. (1993) Das Antinomieproblem und seine pragmatische Dimension. In: Stachowiak, H. (Hrsg.): PRAGMATIK, Handbuch des pragmatischen Denkens.. Band 4. Meiner Verlag, Hamburg, 320-352
[133] Weitbrecht, H.J.: Psychiatrie im Grundri. Berlin, Heidelberg, Gottingen 1963, p.
174
[134] Westphal, W.H.: Physik. Berlin, 1959
[135] Wiggershaus, R.: Die Frankfurter Schule. M
unchen 1988. Alle Zitate beziehen sich
auf die 6-te Auflage aus dem Jahre 2001.
[136] Wissenschaftliche Weltauffassung. Der Wiener Kreis. Ver
offentlichungen des Vereins Ernst Mach, hrsg. vom Verein Ernst Mach, Artur Wolf Verlag, Wien 1929
[137] Witkin, E.W. (2000) Why did Adorno hate jazz? Sociological Theory, 18, 145-170
[138] Worrall, J.: Imre Lakatos (1922-1974): Philosopher of mathematics and philosopher
of science, Z. Allgemeine Wissenschaftstheorie 5 (2) (1974), 211-217.
[139] Wright, G.H. v.: Explanation and understanding. London , 1971
[140] Yourgrau, P.: A world without time: the forgotten legacy of Godel and Einstein,
Cambridge, Mass. 2005.

189

Index

Okonomieprinzip,
Machsches, 9
Disjunktion, 42
Abgrenzungsproblem, 32
Alethiologie, 89
Anomalien, 73
Apperzeption, transzendentale, 116, 117
Aquiescence, 157
archimedischer Punkt, 181
Balkenwaage, 81
Basisproblem, 33
Basiswerturteile, 85
Bayes-Faktor, 70
Beobachtungssprache, 85
Berechenbarkeit, 109
Berkeley, 4
Bewahrung, 41
Bildtheorie, 20
Boltzmann, 12
Br
uckenprinzip, 64
Brentano, 87
Carnap, 22
Charakter, ganzheitlicher, 97
Charaktertypen, 98
confirmation bias, 157
Damon, Laplacescher, 61
deduktiv-nomologisch, 108
Definition, reale und nominelle, 26
degree of belief, 50
Degree-of-Belief-Funktion, 64
Degree-of-Belief-Funktionen, 50
Demarkation, 79
Demarkationsproblem, 31, 32
Determinismus, ontologischer, 62
deterministisch, 108
Deutschen Idealismus, 114
DN-Schema, 108
Dogma, 182
Dogmatismus, doppelt verschanzter, 134
doppelter Positivismus, 147
Dutch Book, 50, 53, 56
Dutch-Book-Argument, 52
dynamisches System, 114
economic man, 53
Einsatz, 52

Elektrizitat, 15
Elementarereignis, 44
Empiriokritizismus, 9
Empirismus, logischer, 9
Entscheidungsexperiment (experimentum crucis), 80
Erklarung, wissenschaftliche, 107

Es, Ich, Uber-Ich,


36
evident, 34, 89
Evidenz, 6, 87
Evidenz der Unvereinbarkeit, 90
Evidenz, assertorische, 89
Evidenz, induktive, 55
Evidenzerlebnis, 179
Explikandum, 26
Explikat, 26
Falsifikation, 31
Falsifikationismus, naiver, 78
Fichte, 4
Flugzeugmotoren, 17
Fluktuationen, 62
Frege, Gottlob, 17
freudomarxistisch, 140
Ganzheitlichkeit, 113
Geist, absoluter, 111
Geist, objektiver, 96
Geldpumpe, 57
Gesetz der groen Zahlen, 59
Handeln, kommunikatives , 171
Harvard-Experiment, 5
Hegels Elektrizitat, 15
hermeneutischer Zirkel, 95
HO-Schema, 109
Homer, 36
homo nomologicus, 106
Ideal, 4
Idealismus, 4
Idealismus, absoluter, 4
Idealismus, kosmischer, 4
Idealismus, personaler, 4
Identitatsphilosophie, 120, 134
idiographisch, 87, 92
Iealismus, 134
Indifferenzprinzip, 47
Individuationsprinzip, 163
Induktion, 31
190

Pradikate, monadische, 54
pragmatische Wahrheitstheorie, 22
Principal Principle, 64
Prinzip vom unzureichenden Grund, 45
probabilistisch, 108
Problem des einzelnen Falles, 58
Produktregel, 43
Prognose, 33
Propensitaten, 60
pseudowissenschaftlich, 35

Induktionsprinzip, 31
induktiv-statistisch, 108
induktive Logik, 22
inferentielle Abhangigkeit, 21
intentional, 88
intentionaler Akt, 88
Intentionalitat, 87, 88, 113
interpretatives System, 85
Irreduzibilitatsthese, 89
jede mogliche Welt, 50
Kant, 5
Kausalitat, 7
Kausalitat des Schicksals, 170, 171
Kausalitat, naturw
uchsiger Verhaltnisse, 171
Koharenztheorie der Wahrheit, 21
Kollektiv, 58
Konjunktion, 42
Konsenstheorie der Wahrheit, 22
Kontinuitatsaxiom, 51
konventionalistisches Stratagem (Funote),
36
Korrespondenztheorie der Wahrheit, 21
Kraft, 81
Laplace, 110
Leib-Seele-Problem, 10
Lichtgeschwindigkeit, 74
Lichtstoff, 11
magnetischer Stoff, 11
Mob-Psychologie, 85
modus ponendo, 182
modus tollens, 33
Monismus, 10
Mussolini, 145
Mythos, 36
Neopositivismus, 9
nomologisch, 108
nomothetisch, 87, 92
normal science, 72
Objektivitat, reine, 5
odds, 52
Operationalismus, 29
Paradigma, 73
Parmenides, 36
Peirce, 5
Polaritaten, 5
Positivismusstreit, 8

Rabenparadox, 24
rationale Rekonstruktion, 85
Rauschen, 110
Realisten, 11
Reduktionismus, 29
Redundanztheorie, 22
Referenzklasse, 58
Russel, Bertrand, 17
Scheinevidenz, 179
Schelling, 4
Sneed, J.D., 80
sophistizierter Falsifikationismus, 78
Sozialphysik, 7
stakes, 52
Strukturkern, 81
Substanzbegriff, 11
substanzielle Wahrheitstheorien, 22
Supervenienz
Humesche, 64
Syllogismus, praktischer, 103
synthetisch a posteriori, 178
synthetisch a priori, 178
tertium non datur, 179
theoretisch progessiv, 79
Theorien, deflationistische, 22
Tiefenhermeneutik, 170
Totalitat, 139
transzendental, 123
Unabhangigkeit, stochastische, 43
Unbeschlipstheit, 145
Variable, konfundierende, 39
Verdinglichung, 159
Verdoppelung, 146
Verifikation, 20
Vorhersage, 7
Warmstoff, 11
Wahrheit, 21

191

Wahrscheinlichkeit
epistemische, 41
frequentistische, 58
objektive, 42
statistische, 58
Limestheorie, 58
Wahrscheinlichkeitsfunktion, 50
Weltanschauung, 98
Wettchance, 52
Wettquotient, fairer, 52
Wiener Kreis, 17
Wunder-Argument, 11
Zirkel, hermeneutischer, 95
Zufall, 36
Zweikorperproblem, 110
Zweisprachenmodell, 85

192